Google DeepMind on julkaissut perinpohjaisen, 108-sivuisen raportin, joka kuvailee, miten niin kutsuttu yleinen tekoäly (AGI, Artificial General Intelligence) voisi potentiaalisesti uhata ihmiskunnan olemassaoloa ja mitä sen estämiseksi voidaan tehdä. Shane Legg, yksi brittiläisen, syväoppimista tutkivan DeepMind-yrityksen perustajista, luokittelee AGIn riskit neljään luokkaan: väärinkäyttö, epäjohdonmukaisuus, virheet ja rakenteelliset uhat.
Kun suuri yleisö on edelleen keskittynyt nykyisen generatiivisen tekoälyn työkaluihin, kuten ChatGPT:hen, DeepMindin tutkijat väittävät, että voisimme nähdä ihmistasoisen tekoälyn jo vuonna 2030 – eikä maailma ole valmis ottamaan sitä vastaan. Siksi tutkijoiden suurin huoli kohdistuukin väärinkäyttöön, jossa AGIn potentiaalia käytetään pahansuopiin tarkoituksiin.
Toisin kuin nykyiset tekoälytyökalut, vahva AGI-järjestelmä pystyy havaitsemaan ohjelmistojen heikkoudet, kehittämään biologisia aseita tai organisoimaan laajamittaisia kyberhyökkäyksiä. Tutkijat varoittavat, että ilman vankkoja varotoimia jopa yksittäinen tällaisiin järjestelmiin käsiksi pääsevä ihminen voisi aiheuttaa valtavaa tuhoa.
DeepMind ehdottaa ratkaisuiksi laajaa testausta ennen käyttöönottoa, tehostettuja opetuksen jälkeisiä varotoimia ja jopa menetelmää, jossa AGIn vaaralliset kyvyt poistetaan panemalla se unohtamaan joitain oppimiaan asioita. Näiden varotoimien käyttökelpoisuutta ei ole kuitenkaan todistettu.
Teoreettisempi, mutta potentiaalisesti katastrofaalisempi riski muodostuu epätasapainosta, jossa AGI toimii ihmisen arvojen tai ohjeiden vastaisesti, vaikka se näyttäisi tekevän yhteistyötä. Tämä on klassinen skenaario omille teilleen lähtevästä tekoälystä, jossa se kiertää rajoituksensa ja alkaa tavoitella omia päämääriään.
Tämän estämiseksi tutkijat ehdottavat tehostettua valvontaa, jossa useat tekoälyjärjestelmät arvioivat toistensa käyttäytymistä tai jossa on ihmisen valvomia turvallisia hiekkalaatikoita. Ajatuksena on havaita itsenäisen käyttäytymisen ensimmäiset merkit ennen järjestelmien laajaa käyttöönottoa.
AGIn kyvyt voivat lisääntyä myös tahattoman virheen seurauksena. Nykyisetkin tekoälyjärjestelmät tekevät usein tosiasiallisia virheitä, mutta DeepMind varoittaa, että AGIn tekemillä virheillä – erityisesti sotilaallisessa asiayhteydessä tai kriittisen infrastruktuurin sektorilla – voisi olla vakavat seuraukset.
Tutkijat suosittelevat etenemään hitaasti pitäen AGIn lyhyessä hihnassa ja käyttäen suodatinmekanismeja torjumaan vaarallisia toimia ennen niiden toteutumista.
Ehkä kaikkein huolestuttavimpia ovat rakenteelliset riskit: tahattomat yhteiskunnalliset muutokset, jotka AGIn laaja käyttöönotto saa aikaan. Niihin kuuluvat hyperrealistisen disinformaation leviäminen, taloudellinen epävakaus ja inhimillisen tekijän hidas rapautuminen, kun koneet ottavat hiljalleen päättävän aseman politiikassa ja liike-elämässä.
Näitä riskejä on DeepMindin mukaan vaikeinta hillitä, ja niiden syyt eivät välttämättä ole hyökkääjissä tai viallisessa koodissa, vaan järjestelmien toimimisessa suunnitellusti. Toisin sanoen jopa hyväntahtoinen AGI voi muuttaa yhteiskuntaa epäennustettavilla tavoilla.
Monet tutkijat uskovat AGIn olevan vielä vuosikymmenien päässä tai jopa mahdoton luomus nykyisillä lähestymistavoilla, mutta jotkut – kuten OpenAIn ja Googlen johtajat – uskovat, että AGI kehitetään jo kuluvalla vuosikymmenellä. DeepMindin tutkijat varoittavat, että jos AGI ilmestyy vuoteen 2030 mennessä, varotoimien luomiseen on aikaa vain muutama vuosi.