Tekoälyn nopea kehitystahti on herättänyt huolia siitä, että vastaava teknologia voisi kääntyä jossain vaiheessa ihmiskuntaa vastaan.
Tieteiskirjallisuudessa ja -elokuvissa on käsitelty toistuvasti uhkakuvia, joissa tekoäly pääsisi kehittämään itsestään nopeasti yhä kehittyneempiä versioita ja ottamaan haltuunsa esimerkiksi tietoverkkoja. Teknologisella singulariteetilla tarkoitetaan tämänkaltaista eksponentiaalista ja hallitsematonta kehitystä.
George Masonin yliopiston ekonomisti Robin Hanson kertoo New Yorker -lehdelle uskovansa, että uhkakuvia on liioiteltu viime vuosina. Tietokonejärjestelmän olisi pystyttävä parantamaan itseään ja sitä seuraavien ihmisten olisi syystä tai toisesta aliarvioitava sen todelliset kyvyt. Järjestelmän arvojen tai toimintaperiaatteiden pitäisi samalla samalla muuttua merkittävästi. Hansonin mukaan tässäkään tilanteessa tekoäly ei voisi vain painaa nappulaa tuhotakseen kaiken.
– Monia suhteellisen epätodennäköisiä skenaarioita pitää yhdistää yhdeksi jättiskenaarioksi, jotta tämä tilanne muuttuisi mahdolliseksi, Robin Hanson toteaa.
Monet tutkijat suhtautuvat uhkakuvaan vakavammin ja ovat vaatineet tekoälyn kehittämiselle merkittäviä rajoituksia. Koneoppimisen algoritmien ja tekoälyn seurauksena videomanipulaatiot ovat muuttuneet yhä uskottavimmiksi. OpenAI-yhtiön ChatGPT-tekoäly on herättänyt runsaasti julkisuutta sen suorituskyvyn seurauksena.
Osa tutkijoista arvelee vahvan eli yleisen tekoälyn (artificial general intelligence, AGI) olevan edessä jo lähitulevaisuudessa. Käsitteellä tarkoitetaan tahoa, joka pystyisi suorittamaan minkä tahansa ihmisen tehtävän vastaavalla tavalla tai paremmin. AGI:n luominen on OpenAI:n ja useiden muiden yhtiöiden tavoitteena.
Kalifornian yliopiston tutkija Stuart Russell uskoo tekoälyteknologian uhkaavan pahimmillaan yhteiskuntien vakautta.
– Tilanne on aivan kuin se, jos ulkoavaruuden olioita kutsuisi tarkoituksella omalle planeetalleen ilman aavistustakaan siitä, mitä he aikovat tehdä saavuttuaan. Paitsi että he ottaisivat maailman haltuunsa, Russell sanoo New Yorkerille.
Haasteena on, ettei tekoälyn kehittymistä vaaralliselle tasolle ole helppo havaita. Tutkijat osoittivat jo vuonna 2020, että tietynlaiset algoritmit voivat ”valehdella” omasta toiminnastaan ja välttää ulkopuolista havainnointia.
Brittiläisen Kolumbian yliopiston apulaisprofessori Jeff Clune uskoo ihmiskunnan heräävän ”yli-inhimillisen” tekoälyn syntymiseen liian myöhään. Sitä edeltävät kehitysvaiheet voivat luoda vaikutelman siitä, ettei mitään erityistä tapahtunutkaan. Tämä johtaisi kohtalokkaiden riskien väheksymiseen.
– Ja sitten kulman takana odottaa jotain, joka onkin paljon luultua suurempi kehitysaskel, Clune varoittaa.
I've been worried about AI Existential Risk for over ten years.Some of my current views are in this nice New Yorker article by @SilverJacket It's great to see the topic go from being ridiculed to seriously discussed by society, but the hard work remains 1/https://t.co/ho5V9Xu2OT
— Jeff Clune (@jeffclune) May 19, 2023