(Adnkronos) – "Tutti, compreso me, abbiamo perso qualcuno il 7 ottobre. La macchina lo ha fatto freddamente e ha reso le cose più facili". Così un funzionario dell'intelligence israeliana parlando del presunto
contributo dell'intelligenza artificiale nella guerra contro Hamas a Gaza e di come i militari abbiano preferito affidarsi a "un meccanismo statistico" piuttosto che a un soldato in lutto. In questi sei mesi i militari israeliani avrebbero infatti usato un database alimentato dall'intelligenza artificiale – nome in codice 'Lavender' – per identificare 37mila potenziali obiettivi sulla base di apparenti legami con Hamas, rivela infatti la fonte citata in un report. Che poi ammette come gli alti ufficiali israeliani abbiano anche permesso l'uccisione di tantissimi civili palestinesi, in particolare durante le settimane iniziali del conflitto. Ma l'esercito israeliano ha smentito, almeno parzialmente, il resoconto. Il resoconto, insolitamente schietto, fornisce una testimonianza di primo piano delle esperienze dei funzionari dell'intelligence israeliana sull'utilizzo dell'Ia per identificare gli obiettivi durante i sei mesi di guerra. Un terreno inesplorato dal punto di vista legale e morale, che trasforma il rapporto tra i militari e le macchine. "È una cosa senza precedenti, a mia memoria", sostiene un ufficiale dell'intelligence che ha usato Lavender, mentre un altro sottolinea come il ruolo degli esseri umani nel processo di selezione sia tutt'altro che significativo. "In questa fase investivo 20 secondi per ogni obiettivo, e ne facevo decine ogni giorno. Non avevo alcun valore aggiunto come umano, se non quello di essere un timbro di approvazione. Ho risparmiato un sacco di tempo". La testimonianza di sei ufficiali dell'intelligence, tutti coinvolti nell'utilizzo dell'Ia per identificare gli obiettivi di Hamas e della Jihad islamica, è stata data al giornalista Yuval Abraham per un articolo pubblicato sulla rivista israelo-palestinese +972 Magazine e per il sito in lingua ebraica Local Call e condivisa in anticipo con il Guardian. Lavender è stata sviluppata dalla divisione d'elite dell'intelligence delle Forze di difesa israeliane, l'Unità 8.200, che è paragonabile all'agenzia della sicurezza nazionale americana o al Gchq del Regno Unito. Diverse fonti hanno descritto come, per alcune categorie di obiettivi, l'Idf applicasse delle soglie pre-autorizzate per il numero stimato di civili che potevano essere uccisi prima che un attacco fosse autorizzato. Due fonti hanno raccontato che nelle prime settimane di guerra era consentito uccidere 15 o 20 civili durante gli attacchi aerei contro militanti di basso rango. Gli attacchi a tali obiettivi venivano effettuati con munizioni non guidate note come 'bombe stupide', hanno detto le fonti, distruggendo intere case e uccidendo tutti i loro occupanti. "Non si vogliono sprecare bombe costose per persone non importanti, è molto costoso per il Paese e c'è una carenza (di queste bombe)", ha giustificato un ufficiale dell'intelligence, mentre un altro ha rivelato che la domanda principale che ci si poneva era se il "danno collaterale" ai civili permettesse un attacco. E "se anche viene evitato, non ci si preoccupa: si passa immediatamente all'obiettivo successivo. A causa del sistema, gli obiettivi non finiscono mai. Ce ne sono altri 36.000 in attesa". Le Forze di difesa israeliane (Idf) hanno però smentito almeno in parte il rapporto: "È richiesta una valutazione indipendente da parte di un analista (dell'intelligence, ndr), che verifichi che quelli identificati siano obiettivi legittimi per l'attacco, in conformità con le condizioni stabilite dalle direttive delle Idf e dal diritto internazionale", ha dichiarato l'esercito israeliano. —internazionale/esteriwebinfo@adnkronos.com (Web Info)
Israele, intelligenza artificiale per stanare gli obiettivi di Hamas?
Gio, 04/04/2024 - 07:06
Condividi su: