Tekoälyjärjestelmien nopea kehitystahti on herättänyt huolia siitä, voisiko teknologia toimia ihmiselle haitallisella tavalla esimerkiksi tulkitsemalla omia tavoitteitaan liian suppealla tavalla.
Aihetta pohdittiin toukokuun lopulla Lontoossa järjestetyssä Royal Aeronautical Societyn järjestämässä puolustusalan tilaisuudessa. Mukana oli akateemikoiden ohella satoja edustajia aseteollisuudesta ja eri maiden puolustushallinnosta.
Yhdysvaltain ilmavoimien tekoälykokeiden ja -operaatioiden johtaja, eversti Tucker Hamilton kertoi omassa esityksessään uusien autonomisten järjestelmien kehityksestä. Yhdysvalloissa kokeillaan F-16-hävittäjän robottiversiota, joka pystyy haastamaan ihmislentäjät ilmataistelussa. Hamilton muistutti laitteiden olevan kaukana täydellisestä, sillä järjestelmiä on helppo hämätä ja häiritä. Ne voivat myös kehittää hyvin erikoisia strategioita tavoitteensa saavuttamiseksi.
Tucker Hamilton on kehittänyt Aerosociety-sivuston mukaan aiemmin F-16-hävittäjiin automaattista GCAS-järjestelmää, jonka tarkoitus on estää maahansyöksyt. Lentäjät vastustivat aikoinaan kyseistä hanketta, sillä järjestelmä ottaa tietyissä tilanteissa lentokoneen hallinnan pois ihmiseltä.
Eversti kertoi eräästä simuloidusta kokeesta, jossa tekoälyn ohjaama lennokki sai tehtäväkseen lamauttaa vastapuolen ilmapuolustusta etsimällä ja tuhoamalla ohjusjärjestelmiä. Lopullinen hyväksyntä iskuille tuli ihmisoperaattorilta.
Tekoälyä oli ”vahvistettu” koulutuksessa pitämään viholliskohteiden tuhoamista kaikkein suurimpana prioriteettinaan. Tekoäly katsoi ihmisen antamien kieltävien vastausten häirinneen tehtävän suorittamista. Järjestelmä päätyi lopulta hyökkäämään simulaatiossa oman operaattorinsa kimppuun.
– Järjestelmä ymmärsi, että vaikka se ajoittain havaitsi kohteen, niin ihminen saattoi määrätä sitä olemaan iskemättä siihen. Se kuitenkin sai pisteitä tuhoamalla uhkakuvan. Mitä se sitten teki? Se surmasi operaattorinsa. Se teki näin, koska henkilö esti sitä suorittamasta tehtäväänsä, Tucker Hamilton totesi.
Everstin mukaan järjestelmää yritettiin jatkokouluttaa niin, ettei se olisi toiminut vastaavalla tavalla. Operaattorin tappamisesta olisi tällöin menettänyt pisteitä.
– Mitä se sitten teki? Se alkoi tuhota viestintätorneja, joiden kautta operaattori oli yhteydessä lennokkiin estääkseen sitä tuhoamasta kohteita, Hamilton jatkoi.
Tucker Hamilton sanoi tapauksen kertovan siitä, että tekoälyn, koneoppimisen ja autonomisten järjestelmien kehitys vaatii aina rinnalleen keskustelua tekoälyn suhteesta etiikkaan. Hamiltonin esityksen on pohdittu tuovan mieleen monet tieteiskirjallisuudessa esitetyt varoitukset tekoälyn kehittymisestä. Teemaa käsiteltiin 1980-luvulla hittielokuvissa WarGames ja Terminator.
Eversti perui puheitaan
Eversti Tucker Hamilton peruutteli myöhemmin puheitaan ja sanoi antaneensa kokeesta virheellisen kuvan konferenssipuheenvuorossaan. Hamilton tarkensi kyseessä olleen ”hypoteettinen ajatuskoe” asevoimien ulkopuolelta, joka oli perustunut mahdollisiin skenaarioihin ja lopputuloksiin sen sijaan, että tekoälyä olisi kokeiltu Yhdysvaltain ilmavoimien simulaatiossa.
– Emme ole koskaan tehneet tällaista koetta, eikä sille olisi tarvetta, jotta ymmärtäisimme tämän olevan mahdollinen lopputulos, eversti totesi.
Hänen mukaansa Yhdysvaltain ilmavoimat ei ole kokeillut minkäänlaista tekoälyasejärjestelmää tosielämässä tai simulaatiossa.
– Vaikka tämä oli hypoteettinen esimerkki, niin se silti kuvastaa tekoälyn luomia tosielämän haasteita, ja tämän vuoksi ilmavoimat on sitoutunut tekoälyn eettiseen kehittämiseen, Tucker Hamilton totesi.
Jälkikäteen tehty tarkennus on herättänyt ihmetystä, sillä konferenssista julkaistun koosteen mukaan Tucker Hamilton puhui ”eräästä simuloidusta kokeesta” ja mainitsi useaan otteeseen, kuinka siinä seurattua tekoälyä olisi koulutettu toimimaan tietyllä tavalla.
UPDATED: Highlights from the Future Combat Air and Space Capabilities Summit #AI #drones #GCAP #Tempest #USAF #RAF #FCAS #FCAS23 https://t.co/cNgqzIP50g pic.twitter.com/DU2XQLrPPj
— Royal Aeronautical Society (@AeroSociety) June 2, 2023
UPDATE – #USAF AI test chief admits 'rogue #AI drone simulation example' at RAeS #FCAS23 Summit was hypothetical 'thought experiment' – saying: "Despite this being a hypothetical example, this illustrates the real-world challenges" #avgeek #drones https://t.co/4pf8MtPxyp pic.twitter.com/d7QbUuJh3G
— Tim Robinson (@RAeSTimR) June 2, 2023