Come Israele sta testando l’intelligenza artificiale nella guerra contro i palestinesi

Un drone killer alla fiera di Tel Aviv a fine aprile . Foto AFP
image_pdfimage_print

Richard Silverstein

1 luglio 2023 MiddleEastEye

Israele rafforza la sua rete di controllo e i palestinesi sono diventati i primi bersagli di tecnologie terrificanti e letali

Lo scorso anno l’esercito israeliano ha lanciato una nuova strategia per inserire armi e tecnologie dell’intelligenza artificiale in tutti i reparti militari – la trasformazione strategica più radicale degli ultimi decenni. Il mese scorso il Ministero della Difesa israeliano si è vantato che l’esercito sta per diventare una “superpotenza” dell’IA nel campo della guerra autonoma .

“C’è chi vede l’IA come la prossima rivoluzione che cambierà il volto della guerra sul campo”, ha detto il generale dell’esercito in pensione Eyal Zamir alla Conferenza di Herzliya, un forum annuale sulla sicurezza. Gli impieghi militari dell’IA potrebbero includere “la capacità delle piattaforme informatiche di colpire in sciami, o dei sistemi di combattimento di operare in modo indipendente … o l’aiuto in un processo decisionale rapido su scala maggiore di quanto si sia mai visto”.

L’industria militare israeliana sta producendo una vasta gamma di navi e veicoli militari autonomi, tra cui un “veicolo robot armato” descritto come dotato di un insieme di programmi “robusto” e “letale” con “riconoscimento automatico del bersaglio”. Un sottomarino autonomo per la “raccolta segreta di informazioni”, soprannominato BalenaBlu, è in fase di collaudo.

È ovvio che tutto questo vi spaventi da morire. Israele non sta creando solo un mostro di Frankenstein, ma interi plotoni capaci di portare distruzione non solo sui loro obiettivi palestinesi ma su chiunque in qualsiasi parte del mondo.

I palestinesi sono il banco di prova per tali tecnologie, e servono da “prova di fattibilità” per gli acquirenti globali. I clienti più probabili di Israele sono paesi coinvolti in guerre; anche se queste armi possono dare un vantaggio sul campo di battaglia, alla fine aumenteranno sicuramente il livello generale di sofferenza e spargimento di sangue tra tutti i partecipanti. Saranno in grado di uccidere in numero maggiore con esiti maggiormente letali. Perciò sono terrificanti.

Un’altra nuova tecnologia di intelligenza artificiale israeliana, Pozzo di Sapere, non solo controlla da dove i militanti palestinesi lancino razzi ma può anche essere utilizzata per prevedere i luoghi dei futuri attacchi.

Se tali sistemi possono offrire agli israeliani protezione dalle armi palestinesi, consentono anche a un Israele indisturbato di diventare una potenziale macchina per uccidere, scatenando terrificanti attacchi contro obiettivi militari e civili senza quasi dover affrontare una resistenza da parte dei nemici.

Cerca e distruggi

Queste tecnologie sono un avvertimento al mondo su quanto sia diventata pervasiva e invadente l’IA. E non è rassicurante che l’esperto capo di intelligenza artificiale dell’esercito israeliano affermi di essere competitivo rispetto agli stipendi degli specialisti di IA sul mercato privato, fornendo “significanza”. Come se questo potesse in qualche modo rassicurare, aggiunge che per le armi IA di Israele ” [ci sarà] sempre una persona umana coinvolta nel prossimo futuro…”.

Lascio a voi le riflessioni su quanto possa essere “significante” uccidere i palestinesi. Ed è improbabile che ci sia sempre un essere umano a controllare queste armi sul campo di battaglia. Il futuro prevede robot in grado di pensare, giudicare e combattere autonomamente, con poco o nessun intervento umano oltre la programmazione iniziale. Sono stati definiti la “terza rivoluzione nella guerra dopo la polvere da sparo e le armi nucleari”.

Possono essere programmati per cercare e distruggere il nemico, ma chi determina chi è il nemico e chi decide della vita o della morte sul campo di battaglia? Sappiamo già che in guerra gli umani commettono errori, a volte terribili. I programmatori militari, nonostante la loro esperienza nel determinare ciò che i robot armati penseranno e faranno, non sono meno inclini all’errore. Le loro creazioni potrebbero presentare enormi incognite di comportamento che potrebbero costare innumerevoli vite.

La Palestina è uno dei luoghi più sorvegliati al mondo. Le telecamere a circuito chiuso sono sempre presenti nel paesaggio palestinese, dominato dalle torri di guardia israeliane, alcune armate di pistole robotizzate telecomandate. In alto volano i droni, in grado di lanciare gas lacrimogeni, sparare direttamente sui palestinesi sottostanti o sparare diretti da personale a terra. A Gaza, la sorveglianza costante spaventa e traumatizza i residenti.

Oltre a ciò ora Israele ha anche app di riconoscimento facciale come Blue Wolf che mirano a catturare immagini di ogni palestinese. Queste immagini vengono inserite in un enorme database a cui si può attingere per qualsiasi scopo. Il software di aziende come Anyvision, in grado di identificare un numero enorme di individui, è integrato con sistemi contenenti informazioni personali – compresi i post sui social media.

È una rete di controllo che infonde paura, ossessione e un senso di disperazione. Come disse una volta l’ex capo di Stato maggiore dell’esercito israeliano Rafael Eitan, l’obiettivo è quello di far “correre i palestinesi come scarafaggi drogati in una bottiglia”.

Il mostro di Frankenstein

Molti ricercatori sui dati e difensori della privacy hanno messo in guardia dai pericoli dell’IA sia nella sfera pubblica che nelle azioni di guerra. I robot militari mossi dall’intelligenza artificiale sono solo uno dei tanti esempi e Israele è in prima linea in questi sviluppi. È il dottor Frankenstein e questa tecnologia è il suo mostro.

Human Rights Watch ha chiesto il divieto di queste tecnologie militari avvertendo: “Le macchine non possono comprendere il valore della vita umana”.

Può darsi che la tecnologia israeliana di IA sia, almeno agli occhi dei suoi creatori, destinata alla protezione e alla difesa degli israeliani. Ma il danno che infligge alimenta un circolo vizioso senza fine di violenza. L’esercito israeliano e i media che promuovono tale stregoneria creano solo più vittime – inizialmente palestinesi, ma in futuro ogni dittatura o stato genocida che acquisti queste armi produrrà il proprio mucchio di vittime.

Un altro “risultato” dell’intelligenza artificiale è stato l’assassinio nel 2020 da parte del Mossad del padre del programma nucleare iraniano, Mohsen Fakhrizadeh. Il New York Times ne ha dato questo sbalorditivo resoconto: “Gli agenti iraniani che lavoravano per il Mossad avevano parcheggiato un camioncino Nissan Zamyad blu sul lato della strada… Sul pianale del camioncino era posta una mitragliatrice da cecchino da 7,62 mm… L’assassino, un abile cecchino, prese posizione, tarò i mirini, armò l’arma e premette leggermente il grilletto.

“Tuttavia non era affatto vicino ad Absard [in Iran]. Stava scrutando lo schermo di un computer in una località sconosciuta a più di 1.600 km. di distanza… [Questa operazione è stata] il debutto di un mitragliatore di alta precisione computerizzato ad alta tecnologia, equipaggiato con intelligenza artificiale e visione a più telecamere gestite via satellite e in grado di sparare 600 colpi al minuto.

“Nell’arsenale di armi ad alta tecnologia per l’uccisione mirata a distanza la mitragliatrice potenziata e telecomandata si unisce poi al drone da combattimento. Ma a differenza di un drone, la mitragliatrice robot non attira gli sguardi al cielo dove il drone potrebbe essere abbattuto, e può essere collocata ovunque, qualità queste capaci di rimodellare il mondo della sicurezza e dello spionaggio.”

Conosciamo i pericoli insiti nelle armi autonome. Una famiglia afghana è stata brutalmente uccisa in un attacco di droni statunitensi nel 2021 perché uno dei suoi membri era stato erroneamente identificato come un terrorista ricercato. Sappiamo che l’esercito israeliano ha ripetutamente ucciso civili palestinesi in quelli che ha definito “errori” sul campo di battaglia. Se gli esseri umani che combattono su un campo di battaglia possono sbagliare in modo così eclatante, come possiamo aspettarci che le armi e i robot gestiti dall’intelligenza artificiale facciano un lavoro migliore?

Ciò dovrebbe sollevare un allarme sull’impatto devastante che l’IA avrà sicuramente nel mondo militare e sul ruolo guida di Israele nello sviluppo di tali armi letali fuori regolamento.

Le opinioni espresse in questo articolo appartengono all’autore e non riflettono necessariamente la politica editoriale di Middle East Eye.

Richard Silverstein scrive sul blog Tikun Olam dedicato a denunciare gli eccessi dello Stato di sicurezza nazionale israeliano. Suoi articoli sono apparsi su Haaretz, Forward, Seattle Times e Los Angeles Times. Ha contribuito alla raccolta di saggi sulla guerra del Libano del 2006 A Time to Speak Out (È ora di parlare, Verso ed.) e ha un altro saggio nella raccolta Israel and Palestine: Alternate Perspectives on Statehood (Israele e Palestina: prospettive alternative sulla condizione di Stato, Rowman & Littlefield)

(traduzione dall’inglese di Luciana Galliano)