Yuval Abraham
6 marzo 2025 – +972 Magazine
Un’inchiesta rivela che l’esercito israeliano sta creando un modello linguistico di IA che utilizza milioni di conversazioni intercettate tra i palestinesi e che potrebbe accelerare il processo di incriminazione e arresto.
Un’inchiesta di 972 Magazine, Local Call e Guardian rivela che l’esercito israeliano sta sviluppando un nuovo strumento di intelligenza artificiale simile a ChatGPT e lo sta addestrando su milioni di conversazioni in arabo ottenute dal controllo sui palestinesi nei territori occupati.
Lo strumento di IA, che è in corso di creazione sotto gli auspici dell’Unità 8200, una squadra d’élite di guerra informatica all’interno della Direzione di Intelligence dell’Esercito Israeliano, è noto come un Large Language Model [Grande Modello Linguistico] (LLM): un programma di apprendimento automatico in grado di analizzare informazioni e di generare, tradurre, prevedere e riassumere un testo. Mentre gli LLM a disposizione del pubblico, come il motore di ricerca che sta dietro ChatGPT, sono creati sulla base di informazioni raccolte da internet, il nuovo modello in via di sviluppo da parte dell’esercito israeliano viene alimentato con una grande quantità di informazioni di intelligence raccolti dalla vita quotidiana di palestinesi che vivono sotto occupazione.
L’esistenza dell’LLM dell’Unità 8200 è stata confermata a +972, Local Call e Guardian da tre fonti della sicurezza israeliana che sono al corrente del suo sviluppo. Nella seconda metà dell’anno scorso il modello era ancora in via di addestramento e non è chiaro se sia stato già utilizzato o come l’esercito lo userà esattamente. Tuttavia alcune fonti hanno spiegato che un vantaggio fondamentale per l’esercito sarà la capacità dello strumento di processare rapidamente una grande quantità di materiale di sorveglianza in modo da “rispondere a domande” su specifici individui. A giudicare da come l’esercito utilizza già modelli linguistici meno potenti sembra probabile che l’LLM potrebbe aumentare ulteriormente l’incriminazione e l’arresto di palestinesi da parte di Israele.
“L’IA amplifica il potere,” ha spiegato una fonte dell’intelligence che ha seguito da vicino lo sviluppo di modelli linguistici da parte dell’esercito israeliano negli ultimi anni. “Consente operazioni (che utilizzano) i dati di molte più persone, permettendo il controllo della popolazione. Non serve solo ad impedire attacchi armati. Può monitorare attivisti per i diritti umani. Posso controllare l’attività edilizia dei palestinesi nell’Area C (della Cisgiordania). Ho più strumenti per sapere quello che sta facendo ogni persona in Cisgiordania. Quando hai così tanti dati li puoi indirizzare verso qualunque finalità tu voglia.”
Mentre lo sviluppo dello strumento precede l’attuale guerra, la nostra inchiesta rivela che dopo il 7 ottobre l’Unità 8200 ha chiesto l’aiuto di cittadini israeliani esperti nello sviluppo di modelli linguistici che stavano lavorando con giganti tecnologici come Google, Meta e Microsoft. Con la mobilitazione in massa di riservisti all’inizio dell’attacco israeliano contro Gaza gli esperti industriali del settore privato hanno iniziato ad arruolarsi nell’unità portando competenze che in precedenza erano “accessibili solo a un gruppo molto esclusivo di imprese in tutto il mondo,” come ha affermato una fonte della sicurezza. (In risposta alle nostre domande Google ha affermato di avere “dipendenti che prestano servizio come riservisti in molti Paesi” ed ha sottolineato che il lavoro che fanno in quel contesto “non è legato a Google”. Meta e Microsoft si sono rifiutati di rispondere.)
Secondo una fonte il chatbot [programma che simula ed elabora conversazioni umane, ndt.] dell’Unità 2800 è stato addestrato su 100 miliardi di parole in arabo ottenute in parte attraverso la sorveglianza israeliana su vasta scala di palestinesi sotto il controllo del suo esercito, il che secondo gli ammonimenti degli esperti costituisce una grave violazione dei diritti dei palestinesi. “Stiamo parlando di informazioni molto riservate, prese a persone che non sono sospettate di alcun reato, per addestrare uno strumento che in seguito potrebbe contribuire a creare dei sospetti,” ha detto a +972, Local Call e Guardian Zach Campbell, un esperto ricercatore tecnologico di Human Rights Watch .
Nadim Nashif, direttore e fondatore dell’associazione palestinese per i diritti digitali e il sostegno 7amleh, ha ripreso queste preoccupazioni: “I palestinesi sono diventati oggetti nel laboratorio israeliano per lo sviluppo di queste tecnologie e per l’uso dell’IA come arma, tutto con lo scopo di conservare il regime di apartheid e occupazione in cui queste tecnologie vengono usate per dominare un popolo, per controllarne la vita. Questa è una grave e continua violazione dei diritti digitali dei palestinesi, che sono diritti umani.”
“Sostituiremo tutti i funzionari dell’intelligence con operatori dell’IA”
I tentativi dell’esercito israeliano di sviluppare il suo LLM sono stati riconosciuti pubblicamente per la prima volta lo scorso anno da Chaked Roger Joseph Sayedoff, un funzionario dell’intelligence che si è presentato come il capo del progetto, in una conferenza che ha suscitato scarso interesse: “Abbiamo cercato di creare un insieme di dati il più ampio possibile, raccogliendo tanti dati in arabo quanti lo Stato di Israele non ha mai avuti,” ha spiegato durante la sua esposizione alla conferenza DefenseML di Tel Aviv. Ha aggiunto che il programma è stato addestrato su “quantità allucinanti” di informazioni di intelligence.
Secondo Sayedoff, quando nel novembre 2022 l’LLM di ChatGPT è stato messo per la prima volta a disposizione del pubblico, l’esercito israeliano ha riunito un gruppo di intelligence specificamente dedicato a indagare su come l’IA generativa potesse essere adattata a scopi militari: “Abbiamo detto ‘Accidenti, ora sostituiremo tutti i funzionari dell’intelligence con operatori (dell’IA). Ogni cinque minuti leggeranno tutte le informazioni dell’intelligence israeliana e prevederanno chi sarà il prossimo terrorista’,” ha affermato Sayedoff.
Ma il gruppo inizialmente non riusciva a fare molti progressi. OpenAI, l’azienda che sta dietro ChatGPT, ha rifiutato la richiesta dell’Unità 8200 di avere accesso diretto al suo LLM e di consentire che venisse integrato nel sistema fuori rete interno all’unità. (Da allora l’esercito israeliano ha utilizzato il modello linguistico di OpenAI, ottenuto tramite Microsoft Azure, come hanno rivelato +972 e Local Call in un’altra inchiesta recente. OpenAI ha rifiutato di commentare questa vicenda).
E, spiega Sayedoff, c’era un altro problema: i modelli linguistici esistenti possono processare solo l’arabo standard, utilizzato nelle comunicazioni formali, in letteratura e nei media, non i dialetti che vengono parlati. La Direzione dell’Intelligence Militare di Israele ha capito che avrebbe dovuto sviluppare un suo programma basato, come ha detto Sayedoff nella sua lezione, “sui dialetti che ci odiano.”
Il punto di svolta è giunto con lo scoppio della guerra di Gaza nell’ottobre 2023, quando l’Unità 8200 ha iniziato a reclutare come riservisti gli esperti in modelli linguistici dalle imprese private di tecnologia. Ori Goshen, co-amministratore delegato e co-fondatore dell’impresa israeliana AI21 Labs, specializzata in modelli linguistici, ha confermato che i suoi dipendenti hanno partecipato al progetto durante il loro servizio come riservisti. “Un’agenzia della sicurezza non può lavorare con un servizio come ChatGPT, quindi ha bisogno di trovare il modo per far funzionare l’IA all’interno di un sistema che non sia connesso con altre reti,” ha spiegato.
Secondo Goshen i benefici che gli LLM forniscono alle agenzie di intelligence potrebbero includere la capacità di processare rapidamente informazioni e generare liste di “sospetti” da arrestare. Ma per lui la cosa fondamentale è la loro capacità di reperire dati sparsi in molteplici fonti. Piuttosto che usare “strumenti di ricerca primitivi”, gli operatori potrebbero semplicemente “fare domande e ricevere risposte” da un chatbot, che, per esempio, sarebbe in grado di dirti se due persone si sono mai incontrate o stabilire immediatamente se una persona ha mai commesso una determinata azione.
Tuttavia Goshen ammette che affidarsi ciecamente a questi strumenti potrebbe portare ad errori: “Questi sono modelli probabilistici, gli fornisci un suggerimento o una domanda e loro generano qualcosa che sembra una magia,” ha spiegato. “Ma spesso la risposta non ha senso. La chiamiamo ‘allucinazione.’”
Campbell, di Human Rights Watch, solleva una preoccupazione simile. Gli LLM, afferma, funzionano come “macchine indovine”, e i loro errori sono intrinseci al sistema. Oltretutto spesso le persone che utilizzano questi strumenti non sono quelle che li hanno sviluppati e la ricerca dimostra che tendono ad averne più fiducia. “In definitiva quelle supposizioni potrebbero essere utilizzate per incriminare persone,” ha affermato.
Precedenti inchieste di +972 e Local Call sull’uso da parte dell’esercito israeliano di sistemi basati sull’IA per definire i bersagli e facilitare i bombardamenti a Gaza hanno evidenziato le lacune operative insite in tali strumenti. Per esempio l’esercito ha utilizzato un programma noto come Lavender [Lavanda] per generare una “lista nera” di decine di migliaia di palestinesi che l’IA ha accusato perché presentavano caratteristiche che le era stato insegnato di associare all’appartenenza a gruppi armati.
Poi l’esercito ha bombardato molte di queste persone, in genere mentre si trovavano a casa con i loro familiari, benché il programma fosse noto per avere una percentuale di errore del 10%. Secondo le fonti, la supervisione da parte di un essere umano della procedura di eliminazione è servita semplicemente come “timbro di approvazione” e i soldati hanno trattato i risultati di Lavender “come se si trattasse di una decisione presa da un essere umano.”
“A volte si tratta solo di un comandante di divisione che vuole 100 arresti al mese”
Lo sviluppo di uno strumento simile a ChatGPT addestrato sull’arabo parlato rappresenta un’ulteriore estensione dell’apparato di sorveglianza israeliano nei territori occupati, che è da molto tempo estremamente intrusivo. Più di un decennio fa i soldati che avevano prestato servizio nell’Unità 8200 hanno testimoniato di aver monitorato civili senza alcun rapporto con gruppi armati per ottenere informazioni che avrebbero potuto essere usate per ricattarli, per esempio riguardo a difficoltà economiche, orientamento sessuale o gravi malattie che avevano colpito loro o un loro famigliare. Gli ex-soldati hanno anche ammesso di aver controllato anche attivisti politici.
Insieme allo sviluppo del proprio LLM l’Unità 8200 ha già utilizzato modelli linguistici meno potenti che consentono di classificare le informazioni, la trascrizione e la traduzione di conversazioni dall’arabo parlato all’ebraico e di fare efficienti ricerche di parole chiave. Questi strumenti rendono il materiale di intelligence più immediatamente accessibile, in particolare per la Divisione Giudea e Samaria (Cisgiordania) dell’esercito.
Secondo due fonti i modelli meno potenti consentono all’esercito di passare al setaccio materiale di sorveglianza e identificare palestinesi che manifestino rabbia contro l’occupazione o il desiderio di attaccare soldati o coloni israeliani.
Una fonte ha descritto un modello linguistico correntemente in uso che analizza dati e identifica palestinesi che utilizzano parole che indicano “chi crea problemi”. La fonte ha aggiunto che l’esercito ha utilizzato modelli linguistici per prevedere chi avrebbe potuto lanciare pietre contro i soldati durante operazioni per “dimostrare la presenza”, cioè quando i soldati fanno incursioni in città o villaggi in Cisgiordania e vanno di casa in casa, irrompendo in ogni abitazione di una particolare via per arrestare e intimidire gli abitanti.
Fonti di intelligence hanno affermato che l’uso di modelli linguistici, insieme alla sorveglianza su vasta scala nei territori occupati, ha accentuato il controllo israeliano sulla popolazione palestinese e accresciuto significativamente la frequenza degli arresti. I comandanti possono accedere a informazioni di intelligence grezze tradotte in ebraico senza la necessità di basarsi sui centri linguistici dell’Unità 8200 perché forniscano loro il materiale o senza conoscere l’arabo, e selezionare da una lista che si allunga continuamente i “sospetti” da arrestare in ogni località palestinese. “A volte è solo un comandante di divisione che vuole 100 arresti al mese nella sua area,” ha affermato una fonte.
Tuttavia, a differenza dei modelli meno potenti attualmente in uso, quello più performante in via di sviluppo è addestrato con i dati dell’Unità 8200 su milioni di conversazioni tra palestinesi. “L’arabo parlato è (difficilmente) disponibile in internet,” ha spiegato la fonte. “Non ci sono trascrizioni di conversazioni o chat WhatsApp in rete. Non ne esistono nella quantità necessaria per addestrare un modello di questo genere.”
Per addestrare l’LLM le conversazioni quotidiane tra palestinesi che non hanno un immediato valore per l’intelligence sono comunque utili per uno scopo fondamentale: “Se qualcuno chiama un’altra persona (al telefono) e gli dice di uscire perché la sta aspettando fuori da scuola, solo una conversazione casuale, non è interessante,” ha spiegato una fonte della sicurezza. “Ma per un modello come questo vale oro, perché fornisce sempre più dati per l’addestramento.”
L’Unità 8200 non è l’unica agenzia di intelligence statale che cerca di sviluppare strumenti di IA generativa: la CIA ha sviluppato un modello simile a ChatGPT per analizzare informazioni open-source e anche le agenzie di intelligence della Gran Bretagna stanno sviluppando i propri LLM. Tuttavia ex- ufficiali della sicurezza britannica e americana hanno detto a +972, Local Call e Guardian che la comunità dell’intelligence israeliana si sta prendendo maggiori rischi delle sue controparti americane o britanniche nell’integrare sistemi di IA nelle analisi di intelligence.
Brianna Rosen, ex-funzionaria della sicurezza alla Casa Bianca e attualmente ricercatrice in studi militari e sulla sicurezza all’Università di Oxford, ha spiegato che un analista di intelligence che usa uno strumento come ChatGPT sarebbe potenzialmente in grado di “individuare minacce che un essere umano potrebbe non riscontrare persino prima che si manifestino.” Tuttavia esso “rischia anche di tracciare false connessioni e conclusioni errate. Si stanno per commettere errori e alcuni di essi potranno avere conseguenze molto serie.”
Le fonti israeliane di intelligence hanno sottolineato che in Cisgiordania la questione più urgente non è necessariamente l’accuratezza di questi modelli ma piuttosto le vaste dimensioni degli arresti. Le liste di “sospetti” sono in costante aumento, in quanto vengono continuamente raccolte grandi quantità di informazioni rapidamente processate utilizzando IA.
Varie fonti hanno affermato che un “sospetto” vago o generico spesso è sufficiente a giustificare la detenzione amministrativa di palestinesi, una condanna al carcere di sei mesi prorogabili senza accuse né processo sulla base di “prove” imprecisate. Affermano che, in un contesto in cui la sorveglianza dei palestinesi è così estesa e i limiti agli arresti sono minimi, l’aggiunta di nuovi strumenti basati sull’IA amplierà la possibilità per Israele di trovare informazioni compromettenti su molte più persone.
Il portavoce dell’IDF [l’esercito israeliano, ndt.] non ha risposto a specifiche domande di +972, Local Call e Guardian “a causa della natura sensibile delle informazioni,” affermando solo che “ogni ricorso a strumenti tecnologici viene fatto attraverso un rigoroso processo guidato da professionisti per garantire la massima accuratezza delle informazioni di intelligence.”
Harry Davies del Guardian e Sebastian Ben Daniel (John Brown) hanno contribuito a questa inchiesta.
(traduzione dall’inglese di Amedeo Rossi)