OpenAI-yhtiön ChatGPT-tekoälysovellus. / LEHTIKUVA / EMMI KORHONEN

Voiko tekoälyn karkaamista edes estää?

Osa tutkijoista uskoo uuden teknologian uhkaavan pian yhteiskuntien vakautta.
MAINOS (artikkeli jatkuu alla)

Tekoälyn nopea kehitystahti on herättänyt huolia siitä, että vastaava teknologia voisi kääntyä jossain vaiheessa ihmiskuntaa vastaan.

Tieteiskirjallisuudessa ja -elokuvissa on käsitelty toistuvasti uhkakuvia, joissa tekoäly pääsisi kehittämään itsestään nopeasti yhä kehittyneempiä versioita ja ottamaan haltuunsa esimerkiksi tietoverkkoja. Teknologisella singulariteetilla tarkoitetaan tämänkaltaista eksponentiaalista ja hallitsematonta kehitystä.

George Masonin yliopiston ekonomisti Robin Hanson kertoo New Yorker -lehdelle uskovansa, että uhkakuvia on liioiteltu viime vuosina. Tietokonejärjestelmän olisi pystyttävä parantamaan itseään ja sitä seuraavien ihmisten olisi syystä tai toisesta aliarvioitava sen todelliset kyvyt. Järjestelmän arvojen tai toimintaperiaatteiden pitäisi samalla samalla muuttua merkittävästi. Hansonin mukaan tässäkään tilanteessa tekoäly ei voisi vain painaa nappulaa tuhotakseen kaiken.

– Monia suhteellisen epätodennäköisiä skenaarioita pitää yhdistää yhdeksi jättiskenaarioksi, jotta tämä tilanne muuttuisi mahdolliseksi, Robin Hanson toteaa.

Monet tutkijat suhtautuvat uhkakuvaan vakavammin ja ovat vaatineet tekoälyn kehittämiselle merkittäviä rajoituksia. Koneoppimisen algoritmien ja tekoälyn seurauksena videomanipulaatiot ovat muuttuneet yhä uskottavimmiksi. OpenAI-yhtiön ChatGPT-tekoäly on herättänyt runsaasti julkisuutta sen suorituskyvyn seurauksena.

Osa tutkijoista arvelee vahvan eli yleisen tekoälyn (artificial general intelligence, AGI) olevan edessä jo lähitulevaisuudessa. Käsitteellä tarkoitetaan tahoa, joka pystyisi suorittamaan minkä tahansa ihmisen tehtävän vastaavalla tavalla tai paremmin. AGI:n luominen on OpenAI:n ja useiden muiden yhtiöiden tavoitteena.

Kalifornian yliopiston tutkija Stuart Russell uskoo tekoälyteknologian uhkaavan pahimmillaan yhteiskuntien vakautta.

– Tilanne on aivan kuin se, jos ulkoavaruuden olioita kutsuisi tarkoituksella omalle planeetalleen ilman aavistustakaan siitä, mitä he aikovat tehdä saavuttuaan. Paitsi että he ottaisivat maailman haltuunsa, Russell sanoo New Yorkerille.

Haasteena on, ettei tekoälyn kehittymistä vaaralliselle tasolle ole helppo havaita. Tutkijat osoittivat jo vuonna 2020, että tietynlaiset algoritmit voivat ”valehdella” omasta toiminnastaan ja välttää ulkopuolista havainnointia.

Brittiläisen Kolumbian yliopiston apulaisprofessori Jeff Clune uskoo ihmiskunnan heräävän ”yli-inhimillisen” tekoälyn syntymiseen liian myöhään. Sitä edeltävät kehitysvaiheet voivat luoda vaikutelman siitä, ettei mitään erityistä tapahtunutkaan. Tämä johtaisi kohtalokkaiden riskien väheksymiseen.

– Ja sitten kulman takana odottaa jotain, joka onkin paljon luultua suurempi kehitysaskel, Clune varoittaa.

MAINOS (sisältö jatkuu alla)
Uusimmat
MAINOS (sisältö jatkuu alla)
MAINOS

Opi sukeltamaan, ajattele kuin valkohai!

Suositut sukelluskurssit kokeneiden ammattilaisten johdolla. Verkkokaupassamme voit räätälöidä itsellesi sopivan paketin.
Tarjous

MUISTA LOGO!

Oy Sarin sukellus Ab
Roihupellon maauimala, Niinistö

Hyvä Verkkouutisten lukija,

Kehitämme palveluamme ja testaamme uusia sisältöformaatteja erityisesti mobiililaitteille. Haluaisitko osallistua testiin tässä ja nyt? Se vie vain muutaman minuutin.

(Uusi sisältö aukeaa painiketta klikkaamalla)