Israelilainen uutissivusto +972 väitti hiljattain maan asevoimien (IDF) käyttävän Lavender-nimistä tekoälysovellusta kohteiden määrittämiseksi Gazassa.
Kuusi tiedustelulähdettä sanoi, että tekoäly auttaisi esimerkiksi ilmaiskujen suunnittelussa. IDF:n väitetään hyväksyvän 15–20 siviiliuhria jokaista Hamasin taistelijaa kohden. Israelilaismedian mukaan korkea-arvoisempien Hamas-komentajien kohdalla jopa sataa siviiliä pidettiin hyväksyttävänä uhrimääränä.
Valkoisen talon turvallisuusneuvonantaja John Kirby sanoi Yhdysvaltain tutkivan väitteitä. Hän painotti, ettei tietoa ole vahvistettu.
Israelin asevoimat kiistää Telegraph-lehden mukaan jyrkästi väitteet tekoälyn käytöstä iskujen suunnittelussa. IDF:n mukaan Lavender ei ole järjestelmä, vaan tietokanta, jota käytetään terroristijärjestöjen toimijoita koskevien tiedustelutietojen keräämiseen.
– Tämä ei ole lista vahvistetuista sotilastoimijoista, jotka olisi määritelty iskukohteiksi. IDF vaatii yksilöllisen arvioinnin jokaisesta kohteesta, ja siinä punnitaan odotettua sotilaallista vaikutusta sivullisiin vahinkoihin, Israelin asevoimien tiedotteessa todetaan.
Israelia on arvosteltu yhä voimakkaammin Gazan operaation aiheuttamien siviiliuhrien vuoksi. Britannian pääministeri Rishi Sunak sanoi pääministeri Benjamin Netanjahulle, että humanitaarinen tilanne on muuttumassa yhä sietämättömämmäksi. Sunakin mukaan liian monet avustustyöntekijät ja siviilit ovat saaneet surmansa.
Yhdysvaltain presidentti Joe Biden kävi loppuviikosta kireäksi kuvaillun puhelinkeskustelun Netanjahun kanssa. Sen seurauksena Israel lupasi avata uusia avustusväyliä Gazaan.
Kolme Britannian korkeimman oikeuden entistä tuomaria allekirjoitti yli 600 juristin ja akateemikon vetoomuksen maan pääministerille. Siinä vedottiin kansainväliseen oikeuteen ja kehotettiin lopettamaan asetoimitukset Israeliin, jotta Britanniaa ei voisi pitää osasyyllisenä Gazan tilanteeseen. Allekirjoittajat huomauttivat Haagin Kansainvälisen tuomioistuimen arvioineen, että Gazan sotaan liittyy uskottava riski kansanmurhasta.
Earlier, the @guardian published a misleading article with numerous false claims.
❌ The @IDF does NOT use AI for designating persons as targets.
❌ NO Hamas individual was targeted with an expected 100 civilian casualties.
❌ NO Hamas individual was automatically approved for…— Lt. Col. (R) Peter Lerner (@LTCPeterLerner) April 3, 2024