Uudet sotarobotit huolestuttavat – entäs kun tulee bugi

Täysin itsenäisiin asejärjestelmiin liittyy merkittäviä ongelmia, amerikkalaisraportti varoittaa.
MAINOS (artikkeli jatkuu alla)

Itsenäisiä asejärjestelmiä, kuten esimerkiksi ohjuksia, lennokkeja tai erilaisia taistelukäyttöön tarkoitettuja robotteja voi olla vaikea kontrolloida todellisessa toimintaympäristössä, varoittaa tuore amerikkalaisraportti.

Raportin on laatinut entinen ammattisotilas ja autonomisten asejärjestelmien asiantuntija Paul Scharre. Siitä uutisoi tässä New York Times.

Scharre johtaa Center for a New American Security -ajatushautomon tulevaisuuden sodankäynnin ohjelmaa. Hän on työskennellyt aiemmin Yhdysvaltojen puolustusministeriössä ja ollut suuressa roolissa Yhdysvaltojen nykyisen itsenäisten asejärjestelmien doktriinin kehittämisessä.

New York Times huomauttaa, että täysin itsenäisesti ilman ihmisen väliintuloa “tappopäätöksiä” tekevien järjestelmien valmistamisesta on tullut viime vuosina entistä helpompaa.

Esimerkiksi Etelä-Korealla on jo kenttäkäytössä täysin automatisoituja konekiväärejä Pohjois-Korean vastaisella rajallaan. Yhdysvallat kehittää puolestaan laukaisun jälkeen käytännössä itsenäisesti toimivaa pitkän matkan merimaaliohjusta (video alla).

Autonomisten aseiden yleistyminen on kasvattanut myös niiden vastustusta. Muun muassa YK:ssa on keskusteltu, tulisiko niiden kehittämistä ja käyttöä säännellä.

Eettisten seikkojen lisäksi myös mahdolliset ohjelmistohäiriöt eli bugit huolestuttavat asiantuntijoita.

Paul Scharren mukaan itsenäiset asejärjestelmät ovat alttiita suunnitteluvirheille, hakkeroinnille ja vihollisen manipulaatiolle.

Hän nostaa raportissaan esiin modernin sotilasteknologian kanssa sattuneita yllättäviä virheitä. Yhtenä esimerkkinä Scharre mainitsee kenties maailman kehittyneimmästä hävittäjäkoneesta, Yhdysvaltojen F-22 Raptorista, paljastuneen nolon häiriön.

”Kahdeksaa F-22-hävittäjää kohtasi totaalinen Y2K-tyylinen tietokonehäiriö koneen ensimmäisellä Tyynenmeren komennuksella, kun ne ylittivät päivämäärärajan”, raportissa kerrotaan.

Kaikki koneiden tietokoneet sammuivat ja ne olivat vähällä syöksyä maahan. Koneen ohjelmistojen suunnittelijat eivät olleet osanneet arvioida, kuinka rajan ylittäminen vaikuttaisi sen tietokonejärjestelmiin.

Scharre korostaa, että kaikkiin tietokonejärjestelmiin liittyy tiettyä heikkoutta. Hänen mukaansa itsenäiset asejärjestelmät eivät viime kädessä kykene sopeutumaan monimutkaisiin ja uusiin tilanteisiin taistelukentällä ja tulevat tekemään sellaisia virheitä, jotka ihminen kykenisi välttämään.

Raportissa Scharre ehdottaa vaihtoehtoa täysin autonomisille aseille. Scharren mukaan parasta olisi luoda järjestelmiä, joissa yhdistetään tiiviisti ihmisiä ja koneita. Esimerkiksi shakissa ihmisten ja koneiden yhteistiimit peittoavat tavallisesti pelkän tekoälyn.

Scharre ei näe ihmistä kuitenkaan pelkässä liipaisimen vetäjän roolissa.

”Se, että ihminen on vain mukana, ei vielä riitä. Ihminen ei voi vain olla yksi ratas koneistossa. Ihmisen on oltava aktiivisesti mukana”, Scharre sanoo.

MAINOS (sisältö jatkuu alla)
Uusimmat
MAINOS (sisältö jatkuu alla)
MAINOS

Hyvä Verkkouutisten lukija,

Kehitämme palveluamme ja testaamme uusia sisältöformaatteja erityisesti mobiililaitteille. Haluaisitko osallistua testiin tässä ja nyt? Se vie vain muutaman minuutin.

(Uusi sisältö aukeaa painiketta klikkaamalla)