Kaj umetna inteligenca dejansko zmore danes
Kaj umetna inteligenca dejansko zmore danes
Anonim

Opozorilo za spojler: Pred vstajo strojev je še veliko časa.

Kaj umetna inteligenca dejansko zmore danes
Kaj umetna inteligenca dejansko zmore danes

Ko Elon Musk predstavi humanoidnega robota Tesla Bot, se zdi, da je nova znanstvena revolucija tik za vogalom. Še malo - in umetna inteligenca (AI) bo presegla človeško, pri delu pa nas bodo zamenjali stroji. Vendar pa profesorja Garyja Marcusa in Ernesta Davisa, oba priznana strokovnjaka za umetno inteligenco, prosimo, naj ne prehitevata s takšnimi sklepi.

V Ponovnem zagonu umetne inteligence raziskovalci razlagajo, zakaj sodobna tehnologija še zdaleč ni idealna. Z dovoljenjem založbe "Alpina PRO" Lifehacker objavlja odlomek iz prvega poglavja.

Na tej točki je velika vrzel – pravi prepad – med našo ambicijo in realnostjo umetne inteligence. Ta prepad je nastal zaradi nerešenosti treh specifičnih problemov, od katerih je treba vsakega pošteno obravnavati.

Prvi od njih je tisto, čemur pravimo lahkovernost, ki temelji na dejstvu, da se ljudje nismo zares naučili razlikovati med ljudmi in stroji, zato nas je enostavno preslepiti. Inteligenco pripisujemo računalnikom, ker smo se tudi sami razvili in živeli med ljudmi, ki svoja dejanja v veliki meri temeljijo na abstrakcijah, kot so ideje, prepričanja in želje. Obnašanje strojev je pogosto na videz podobno obnašanju ljudi, zato strojem hitro dodelimo enak tip osnovnih mehanizmov, tudi če jih stroji nimajo.

Ne moremo si pomagati, da ne bi razmišljali o strojih v kognitivnem smislu (»Moj računalnik misli, da sem izbrisal svojo datoteko«), ne glede na to, kako preprosta so pravila, ki jih stroji dejansko upoštevajo. Toda sklepi, ki se opravičujejo pri ljudeh, so lahko popolnoma napačni, če jih uporabimo za programe umetne inteligence. V spoštovanju do osnovnega načela socialne psihologije temu pravimo temeljna napaka veljavnosti.

Eden najzgodnejših primerov te napake se je zgodil sredi šestdesetih let prejšnjega stoletja, ko je klepetalnica po imenu Eliza prepričala nekatere ljudi, da res razume stvari, ki so mu jih govorili. Pravzaprav je Eliza le pobrala ključne besede, ponovila zadnje, kar ji je oseba rekla, in se v slepi situaciji zatekla k standardnim pogovornim trikom, kot je "Povej mi o svojem otroštvu." Če bi omenil svojo mamo, bi te vprašala o tvoji družini, čeprav ni imela pojma, kaj pravzaprav je družina in zakaj je ljudem pomembna. Šlo je le za niz trikov, ne za prikaz prave inteligence.

Kljub temu, da Eliza ljudi sploh ni razumela, so bili številni uporabniki preslepljeni z dialogi z njo. Nekateri so ure in ure tipkali fraze po tipkovnici, se na ta način pogovarjali z Elizo, a so napačno razlagali trike klepetalnice, papigov govor so zamenjali za koristen, iskren nasvet ali sočutje.

Joseph Weisenbaum ustvarjalec Elize.

Ljudje, ki so dobro vedeli, da se pogovarjajo s strojem, so to dejstvo kmalu pozabili, tako kot ljubitelji gledališča za nekaj časa odvržejo svojo nejevernost in pozabijo, da dejanja, ki so mu priča, nima pravice imenovati resničnega.

Elizini sogovorniki so pogosto zahtevali dovoljenje za zasebni pogovor s sistemom in po pogovoru kljub vsem mojim pojasnilom vztrajali, da jih stroj res razume.

V drugih primerih je lahko napaka pri ocenjevanju pristnosti usodna v dobesednem pomenu besede. Leta 2016 se je en lastnik avtomatiziranega Teslinega avtomobila toliko zanašal na navidezno varnost načina avtopilota, da se je (po zgodbah) popolnoma poglobil v gledanje filmov o Harryju Potterju, pri čemer je avto pustil, da vse naredi sam.

Vse je šlo dobro – dokler ni postalo slabo. Ko je brez nesreče prevozil na stotine ali celo tisoče kilometrov, je avto trčil (v vsakem pomenu besede) v nepričakovano oviro: bel tovornjak je prečkal avtocesto, Tesla pa je hitel tik pod prikolico in na kraju ubil lastnika avtomobila.. (Izkazalo se je, da je avto večkrat opozoril voznika, naj prevzame nadzor, vendar se je zdelo, da je bil voznik preveč sproščen, da bi se hitro odzval.)

Morala te zgodbe je jasna: dejstvo, da se naprava za trenutek ali dva (in celo šest mesecev) morda zdi "pametna", sploh ne pomeni, da je res tako ali da je kos vsem okoliščinam, v katerih človek bi reagiral ustrezno.

Drugi problem imenujemo iluzija hitrega napredka: zmotiti napredek v umetni inteligenci, ki je povezan z reševanjem lahkih problemov, za napredek, povezan z reševanjem res težkih problemov. To se je na primer zgodilo s sistemom IBM Watson: njegov napredek v igri Jeopardy! se je zdelo zelo obetavno, v resnici pa se je izkazalo, da je sistem veliko dlje od razumevanja človeškega jezika, kot so pričakovali razvijalci.

Možno je, da bo DeepMindov program AlphaGo sledil isti poti. Igra go, tako kot šah, je idealizirana informacijska igra, kjer lahko oba igralca kadar koli vidita celotno tablo in izračunata posledice potez s surovo silo.

V večini primerov v resničnem življenju nihče ničesar ne ve s popolno gotovostjo; naši podatki so pogosto nepopolni ali popačeni.

Tudi v najpreprostejših primerih je veliko negotovosti. Ko se odločamo, ali bomo šli k zdravniku peš ali šli s podzemno železnico (ker je dan oblačen), ne vemo natančno, koliko časa bo trajalo čakanje na vlak podzemne železnice, ali se vlak zatakne na cesti, ali stlačili se bomo v kočijo kot sled v sodu ali pa se bomo zunaj zmočili v dežju, ne da bi si upali na podzemno, in kako se bo zdravnik odzval na našo zamudo.

Vedno delamo z informacijami, ki jih imamo. Sistem DeepMind AlphaGo, ki se milijonkrat igra sam s seboj, se nikoli ni ukvarjal z negotovostjo, preprosto ne ve, kaj je pomanjkanje informacij ali njihova nepopolnost in nedoslednost, da ne omenjam kompleksnosti človeške interakcije.

Obstaja še en parameter, zaradi katerega se miselne igre, kot so takšne, zelo razlikujejo od resničnega sveta, in to je spet povezano s podatki. Tudi zapletene igre (če so pravila dovolj stroga) je mogoče modelirati skoraj popolno, tako da lahko sistemi umetne inteligence, ki jih igrajo, zlahka zberejo ogromne količine podatkov, ki jih potrebujejo za usposabljanje. Tako lahko v primeru Go stroj simulira igro z ljudmi tako, da preprosto igra proti sebi; tudi če sistem potrebuje terabajte podatkov, jih bo ustvaril sam.

Programerji lahko tako pridobijo popolnoma čiste simulacijske podatke z malo ali brez stroškov. Nasprotno, v resničnem svetu popolnoma čisti podatki ne obstajajo, nemogoče jih je simulirati (ker se pravila igre nenehno spreminjajo), toliko težje pa je s poskusom zbrati veliko gigabajtov ustreznih podatkov. in napako.

V resnici imamo le nekaj poskusov testiranja različnih strategij.

Ne moremo na primer ponoviti obiska pri zdravniku 10 milijonov krat, pred vsakim obiskom postopoma prilagajati parametre odločitev, da bi drastično izboljšali svoje obnašanje pri izbiri prevoza.

Če želijo programerji usposobiti robota za pomoč starejšim (recimo, da bo pomagal spraviti bolne ljudi v posteljo), bo vsak košček podatkov vreden pravega denarja in pravega človeškega časa; z uporabo simulacijskih iger ni mogoče zbrati vseh zahtevanih podatkov. Tudi lutke za preizkuse trčenja ne morejo nadomestiti resničnih ljudi.

Treba je zbrati podatke o resničnih starejših ljudeh z različnimi značilnostmi senilnega gibanja, o različnih vrstah postelj, različnih vrstah pižam, različnih tipih hiš in tukaj se ne morete zmotiti, saj človek spusti celo na razdaljo več. centimetrov od postelje bi bila katastrofa. V tem primeru je na kocki določen napredek (doslej najbolj elementaren), ki je bil na tem področju dosežen z uporabo metod ozke umetne inteligence. Razviti so bili računalniški sistemi, ki igrajo skoraj na ravni najboljših človeških igralcev v video igricah Dota 2 in Starcraft 2, kjer je udeležencem v vsakem trenutku prikazan le del sveta igre in se tako vsak igralec sooči z problem pomanjkanja informacij - da se s Clausewitzovo lahko roko imenuje "megla neznanega". Razviti sistemi pa še vedno ostajajo zelo ozko usmerjeni in nestabilni v delovanju. Na primer, program AlphaStar, ki igra v Starcraft 2, se je naučil samo eno določeno raso iz najrazličnejših likov in skoraj noben od teh dogodkov ni mogoče igrati kot katero koli drugo dirko. In seveda ni razloga za domnevo, da so metode, uporabljene v teh programih, primerne za uspešne posplošitve v veliko bolj zapletenih resničnih situacijah. resnična življenja. Kot je IBM odkril ne enkrat, ampak že dvakrat (najprej v šahu, nato pa v Jeopardy!), uspeh pri težavah iz zaprtega sveta sploh ne zagotavlja uspeha v odprtem svetu.

Tretji krog opisanega prepada je precenjevanje zanesljivosti. Vedno znova vidimo, da takoj, ko ljudje s pomočjo umetne inteligence najdejo rešitev za kakšen problem, ki lahko nekaj časa deluje brez okvar, samodejno domnevajo, da z revizijo (in z malo večjo količino podatkov) vse bo deloval zanesljivo.čas. Vendar to ni nujno tako.

Ponovno vzamemo avtomobile brez voznikov. Relativno enostavno je ustvariti demo avtonomnega vozila, ki bo pravilno vozil po jasno označenem pasu na mirni cesti; vendar so ljudje to zmogli že več kot stoletje. Vendar pa je veliko težje doseči, da ti sistemi delujejo v težkih ali nepričakovanih okoliščinah.

Kot nam je v e-poštnem sporočilu povedala Missy Cummings, direktorica Laboratorija za ljudi in avtonomijo na univerzi Duke (in nekdanja pilotka lovca ameriške mornarice), vprašanje ni, koliko kilometrov lahko avto brez voznika prevozi brez nesreče, ampak v obsegu kateremu so se ti avtomobili sposobni prilagajati spreminjajočim se situacijam. Glede na njeno sporočilo Missy Cummings avtorjem 22. septembra 2018., sodobna polavtonomna vozila "običajno delujejo le v zelo ozkem razponu pogojev, ki nič ne govorijo o tem, kako lahko delujejo v manj kot idealnih pogojih."

Videti popolnoma zanesljivo na milijonih testnih milj v Phoenixu še ne pomeni, da boste dobro delovali med monsunom v Bombaju.

Ta temeljna razlika med tem, kako se avtonomna vozila obnašajo v idealnih razmerah (kot so sončni dnevi na primestnih večpasovnih cestah) in kaj lahko počnejo v ekstremnih razmerah, lahko zlahka postane stvar uspeha in neuspeha za celotno industrijo.

Ker je tako malo poudarka na avtonomni vožnji v ekstremnih razmerah in da se trenutna metodologija ni razvila v smeri zagotavljanja, da bo avtopilot deloval pravilno v razmerah, ki se šele začenjajo resno razmišljati, bo kmalu lahko postalo jasno, da milijarde dolarjev so bili porabljeni za metode izdelave samovozečih avtomobilov, ki preprosto ne zagotavljajo zanesljivosti vožnje, podobne človeku. Možno je, da so za dosego potrebne ravni tehničnega zaupanja potrebni pristopi, ki so bistveno drugačni od sedanjih.

In avtomobili so le en primer mnogih podobnih. V sodobnih raziskavah umetne inteligence je bila njena zanesljivost globalno podcenjena. To je deloma zato, ker večina trenutnega razvoja na tem področju vključuje težave, ki so zelo tolerantne na napake, na primer priporočanje oglaševanja ali promocijo novih izdelkov.

Dejansko, če vam priporočamo pet vrst izdelkov in so vam všeč samo trije, ne bo škode. Toda v številnih kritičnih aplikacijah AI za prihodnost, vključno z avtomobili brez voznika, oskrbo starejših in načrtovanjem zdravstvenega varstva, bo človeku podobna zanesljivost ključnega pomena.

Nihče ne bo kupil domačega robota, ki lahko le štirikrat od petih varno nese vašega starejšega dedka v posteljo.

Tudi pri tistih nalogah, pri katerih bi se sodobna umetna inteligenca teoretično morala prikazati v najboljši možni luči, se redno pojavljajo resni okvari, ki so včasih videti zelo smešni. Tipičen primer: računalniki so se načeloma že kar dobro naučili prepoznati, kaj je (ali se dogaja) na tej ali oni podobi.

Včasih ti algoritmi delujejo odlično, pogosto pa ustvarijo popolnoma neverjetne napake. Če pokažete sliko avtomatiziranemu sistemu, ki ustvarja napise za fotografije vsakdanjih prizorov, pogosto dobite odgovor, ki je izjemno podoben tistemu, kar bi napisal človek; na primer, za spodnji prizor, kjer skupina ljudi igra frizbi, ji Googlov zelo popularen sistem za ustvarjanje podnapisov daje točno pravo ime.

Slika 1.1. Skupina mladih, ki igrajo frizbi (verjeten napis fotografije, samodejno ustvarjen z AI)
Slika 1.1. Skupina mladih, ki igrajo frizbi (verjeten napis fotografije, samodejno ustvarjen z AI)

Toda pet minut kasneje lahko preprosto dobite popolnoma nesmiseln odgovor iz istega sistema, kot se je na primer zgodilo s tem prometnim znakom, na katerega je nekdo nalepil nalepke: računalnik, imenovan Ustvarjalci sistema, niso pojasnili, zakaj je prišlo do te napake, vendar takšni primeri niso redki. Domnevamo lahko, da je sistem v tem konkretnem primeru označil (morda glede na barvo in teksturo) fotografijo kot podobno drugim slikam (iz katerih se je naučil), označenih kot "hladilnik, napolnjen z veliko hrane in pijače". Računalnik seveda ni razumel (kar bi človek zlahka razumel), da bi bil tak napis primeren le v primeru velike pravokotne kovinske škatle z različnimi (in celo ne vsemi) predmeti v notranjosti. ta prizor je "hladilnik z veliko hrane in pijače."

riž. 1.2. Hladilnik, poln veliko hrane in pijače (popolnoma neverjeten naslov, ki ga je ustvaril isti sistem kot zgoraj)
riž. 1.2. Hladilnik, poln veliko hrane in pijače (popolnoma neverjeten naslov, ki ga je ustvaril isti sistem kot zgoraj)

Prav tako avtomobili brez voznika pogosto pravilno prepoznajo, kaj "vidijo", včasih pa se zdi, da spregledajo očitno, kot v primeru Tesle, ki je na avtopilotu redno trčila v parkirana gasilska vozila ali reševalna vozila. Takšne slepe kote so lahko še bolj nevarne, če se nahajajo v sistemih, ki nadzorujejo električna omrežja ali so odgovorni za spremljanje javnega zdravja.

Za premostitev vrzeli med ambicioznostjo in realnostjo umetne inteligence potrebujemo tri stvari: jasno zavedanje vrednot, ki so na kocki v tej igri, jasno razumevanje, zakaj sodobni sistemi umetne inteligence ne opravljajo svojih funkcij dovolj zanesljivo, in, končno nova strategija razvoja strojnega razmišljanja.

Ker so vložki za umetno inteligenco res visoki v smislu delovnih mest, varnosti in strukture družbe, moramo vsi – strokovnjaki za umetno inteligenco, sorodni poklici, navadni državljani in politiki – razumeti resnično stanje. na tem področju, da bi se naučili kritično oceniti raven in naravo razvoja današnje umetne inteligence.

Tako kot je za državljane, ki jih zanimajo novice in statistike, pomembno, da razumejo, kako enostavno je zavajati ljudi z besedami in številkami, tako je tukaj vse pomembnejši vidik razumevanja, da lahko ugotovimo, kje je umetna inteligenca. samo oglaševanje, ampak kje je res; kaj zmore zdaj in česa ne zna in se morda ne bo naučil.

Najpomembneje je, da se zavedamo, da umetna inteligenca ni čarovnija, ampak le nabor tehnik in algoritmov, od katerih ima vsaka svoje prednosti in slabosti, ki je za nekatere naloge primerna in za druge ni. Eden od glavnih razlogov, zakaj smo se odločili napisati to knjigo, je ta, da se nam večina tega, kar beremo o umetni inteligenci, zdi absolutna fantazija, ki raste iz neutemeljenega zaupanja v skoraj magično moč umetne inteligence.

Medtem pa ta fikcija nima nič opraviti s sodobnimi tehnološkimi zmogljivostmi. Na žalost so na razpravo o umetni inteligenci v širši javnosti močno vplivale špekulacije in pretiravanja: večina ljudi nima pojma, kako težko je ustvariti univerzalno umetno inteligenco.

Pojasnimo nadaljnjo razpravo. Čeprav bo razjasnitev realnosti, povezane z umetno inteligenco, od nas zahtevala resno kritiko, sami nikakor nismo nasprotniki umetne inteligence, ta plat tehnološkega napredka nam je zelo všeč. Pomemben del svojega življenja smo preživeli kot profesionalci na tem področju in želimo, da se čim hitreje razvija.

Ameriški filozof Hubert Dreyfus je nekoč napisal knjigo o tem, kakšne višine po njegovem mnenju nikoli ne more doseči umetna inteligenca. Ta knjiga ne govori o tem. Delno se osredotoča na to, česa umetna inteligenca trenutno ne more narediti in zakaj je pomembno, da jo razumemo, pomemben del pa govori o tem, kaj bi lahko naredili, da bi izboljšali računalniško razmišljanje in ga razširili na področja, kjer ima zdaj težave najprej.

Ne želimo, da bi umetna inteligenca izginila; želimo, da se izboljša, še več, korenito, da se lahko nanjo zares zanesemo in z njeno pomočjo rešimo številne probleme človeštva. Imamo veliko kritik o trenutnem stanju umetne inteligence, vendar je naša kritika manifestacija ljubezni do znanosti, ki jo delamo, ne pa poziv, da se odrečemo in opustimo vse.

Skratka, verjamemo, da lahko umetna inteligenca resno spremeni naš svet; verjamemo pa tudi, da se morajo številne osnovne predpostavke o AI spremeniti, preden lahko govorimo o resničnem napredku. Naš predlagani "ponastavitev" umetne inteligence sploh ni razlog, da bi končali raziskovanje (čeprav nekateri morda razumejo našo knjigo prav v tem duhu), ampak bolj diagnoza: kje smo zdaj obtičali in kako se izvleči današnja situacija.

Verjamemo, da je najboljši način za napredovanje pogled navznoter, soočenje s strukturo lastnega uma.

Ni nujno, da so resnično inteligentni stroji natančna kopija ljudi, vendar bo vsak, ki se pošteno osredotoča na umetno inteligenco, videl, da se je treba od ljudi še veliko naučiti, zlasti od majhnih otrok, ki so v mnogih pogledih veliko boljši od strojev v njihova sposobnost vpijanja in razumevanja novih konceptov.

Znanstveniki v medicini pogosto označujejo računalnike kot "nadčloveške" (tako ali drugače) sisteme, vendar so človeški možgani še vedno bistveno boljši od svojih silikonskih sorodnikov v vsaj petih vidikih: lahko razumemo jezik, lahko razumemo svet, lahko fleksibilno prilagajamo novim okoliščinam, se lahko hitro naučimo novih stvari (tudi brez velikih količin podatkov) in lahko sklepamo ob nepopolnih in celo nasprotujočih si informacijah. Na vseh teh frontah so sodobni sistemi umetne inteligence brezupno za ljudmi.

Ponovni zagon umetne inteligence
Ponovni zagon umetne inteligence

Umetna inteligenca: ponovni zagon bo zanimal ljudi, ki želijo razumeti sodobne tehnologije in razumeti, kako in kdaj lahko nova generacija AI izboljša naše življenje.

Priporočena: