Tekoälyn nopeasta kehityksestä huolimatta teknologian puutteet aiheuttavat noloja kömmähdyksiä.
Tutkija Gary Marcus selvitti syväoppimiseen pohjautuvan, runsaasti mediahehkutusta saaneen GPT-2-mallin toimintaa yksinkertaisella kysymyksellä. Mallia oli kokeiltu muun muassa Guardian -lehdessä täydentämään Brexit-aiheista artikkelia melko vakuuttavalla tavalla.
Marcus kysyi GPT-2:lta, mitä tapahtuu, jos sytykkeillä ja puilla täytettyyn takkaan heittää muutaman tulitikun. ”Mönjää”, tekoälyjärjestelmä vastasi. Toisena vaihtoehtona järjestelmä ehdotti ”irc-kanavaa täynnä ihmisiä”.
The Atlantic -lehden mukaan vastaavia syy-seuraussuhteita ymmärtävän maalaisjärjen kehittäminen on tekoälytutkijoiden suurimpia haasteita.
Tekoäly voi matkia ja arvailla kielellisiä rakenteita, mutta ihmisellä piilevän tiedon opettaminen koneelle on massiivinen urakka.
Allen Institute for AI -laitoksen tutkija Yejin Choi kokeili tulitikkukysymystä GPT-2:n pohjalta kehitettyyn COMET-järjestelmään. Kymmenestä vastauksesta vain kahdessa tekoäly yhdisti asetelman tulentekoon.
Vuonna 1984 aloitetussa Cyc-projektissa keinotekoista maalaisjärkeä yritettiin kasata aluksi vain noin 400 tietosanakirja-artikkelin verran. Yli kolme vuosikymmentä myöhemmin loogisia yhteyksiä on kerätty yhteensä kymmeniä miljoonia ilman suurta hyötyä tekoälytutkimukselle.
Brownin yliopiston tutkija Ellie Pavlick huomauttaa, että kaikki arkiset tilanteet sisältävät valtavan määrän tulkinnanvaraisuutta ja erilaisia poikkeustapauksia. Ihmisaivot oppivat merkittävän osan tästä tiedosta 2–4-vuotiaana ilman oppikirjoja, eikä kokonaisuutta voi tiivistää tiettyihin kielellisiin ilmaisuihin.
– Lauseesta ”ulkona sataa” voisi päätellä, että kastun, jos menen ulos. Näin ei kuitenkaan käy, jos seison jonkun [suojan] alapuolella, Pavlick sanoo.
Samanlainen ongelma syntyy vaikkapa lauseista ”Mies meni ravintolaan. Hän tilasi pihvin. Lähtiessään hän antoi isot juomarahat”. Lähes kaikki ihmiset ajattelevat ja tulkitsevan tässä sanotun, että mies söi ravintolassa pihvin. Kone kuitenkin huomaa, ettei siinä todellisuudessa niin sanottu.
Yejin Choin on työstänyt pulmaa yhdistämällä symboliset järjestelmät uusiin syväoppimisen algoritmeihin. COMET-tekoäly syntyi Atomic-mallin ”koneellisesta maalaisjärjestä” ja GPT-2:n kielellisestä osaamisesta.
– On lähes outoa, ettei kukaan kokeillut tätä aiemmin. Kukaan ei vaivautunut, koska sen ei ajateltu koskaan toimivan, Choi toteaa.
Ihmisten tekemien arvioiden perusteella 77,5 prosenttia COMET:in antamista vastauksista nähtiin jotenkuten järkevinä. Ihmisten antamien vastausten kohdalla luku oli 86 prosenttia.
Järjestelmän mukaan ”henkilö X antaa henkilölle Y pillereitä”-asetelma johtui X:n pyrkimyksestä auttaa Y:tä. ”Henkilö X murhasi henkilön Y vaimon”, tekoälylle sanottiin. Se arveli henkilön X pyrkivän piilottamaan ruumiin.
Hypetykseen kriittisesti suhtautuva Gary Marcus huomauttaa, että tilastollinen arvailu ja imitaatio eivät tarkoita ilmiöiden todellista ymmärtämistä. The Atlanticin haastattelemat tutkijat ovat samaa mieltä, mutta huomauttavan työn etenevän nopeaa vauhtia.
COMET-järjestelmää pyritään tällä hetkellä kehittämään elokuvista ja tv-sarjoista poimittujen visuaalisten kohtausten avulla.
– Mallin antamat vastaukset ovat jo hyviä ja ennusteet vaikuttavat jännittäviltä, Choi sanoo.
ps i realize there is a typo in my query. fixing the typo doesn’t much help though: pic.twitter.com/bgQxUJWJo8
— Gary Marcus 🇺🇦 (@GaryMarcus) October 27, 2019