Il ruolo delle Big Tech nel genocidio di Gaza

di Federico Oliveri
Gli interessi economico-finanziari nell’occupazione e nel genocidio in Palestina
L’ultimo rapporto di Francesca Albanese, Relatrice Speciale delle Nazioni Unite per i Territori Palestinesi Occupati, ha impresso una svolta al dibattito sul genocidio in corso nella Striscia di Gaza e, più in generale, sulle violazioni del diritto internazionale umanitario (DIU) contestate a Israele, sia prima che dopo il 7 ottobre 2023.
Finora la discussione sulle responsabilità e sulle complicità per queste violazioni si è concentrata, quasi esclusivamente, su attori istituzionali, politici o militari: il governo e l’esercito israeliani, gli Stati Uniti, i governi occidentali alleati di Israele. From economy of occupation to economy of genocide – questo il titolo del rapporto presentato dalla Relatrice il 3 luglio scorso a Ginevra – allarga la prospettiva, richiamando l’attenzione sul ruolo e sugli obblighi giuridici delle “entità aziendali”.
L’indagine copre più di 60 società. Si tratta di “imprese commerciali, multinazionali, enti for profit e no profit, privati, pubblici o di proprietà statale” che, dopo il 7 ottobre, invece di interrompere i rapporti con Israele li hanno spesso intensificati, passando da un’economia dell’occupazione a una vera e propria economia del genocidio.
Questo allargamento di prospettiva consente di rispondere a due domande difficili ma cruciali: perché i crimini ai danni del popolo palestinese non vengono fermati, nonostante siano sotto gli occhi del mondo? E perché le ingiunzioni e i pareri della Corte Internazionale di Giustizia, i mandati di cattura della Corte Penale Internazionale, le risoluzioni dell’Assemblea Generale delle Nazioni Unite vengono sistematicamente ignorate o contestate, non solo da Israele ma anche dagli Stati Uniti?
A queste due domande il rapporto della Relatrice Speciale offre una risposta inedita, almeno per un documento nato nel contesto delle Nazioni Unite: i gravi crimini internazionali commessi nel Territorio Palestinese Occupato (TPO), compreso il genocidio di Gaza, non vengono fermati né sanzionati anche perché sono fonte di profitti per una rete di potenti soggetti imprenditoriali, in grandissima parte del Nord globale.
Tale rete include fabbriche produttrici di armi e di grandi macchinari, imprese di costruzione, industrie estrattive, servizi turistici, banche, fondi pensione, assicurazioni, università, ma anche alcune delle società tecnologiche statunitensi più influenti al mondo: IBM, Microsoft, Google, Amazon, Palantir.
Il rapporto della Relatrice Speciale analizza il contributo fornito da ciascuna di queste aziende alla “doppia logica” che guida Israele: da una parte lo sradicamento violento dei palestinesi, dall’altra parte la loro sostituzione con i coloni israeliani.
Big Tech e settore militare
Che alcune tra le principali società tecnologiche del mondo siano sospettate di violazioni dei diritti umani e del diritto internazionale umanitario può sorprendere. Eppure la “rivoluzione digitale”, prodotta dalla penetrazione delle macchine di calcolo, di internet, delle piattaforme e dell’intelligenza artificiale (AI) in ogni aspetto delle nostre vite, è stata guidata da queste grandi aziende private e ha riguardato, fin da principio, anche il settore militare.
La natura duale delle tecnologie digitali, suscettibili di usi sia civili che militari, è alla base dei rapporti sempre più stretti che la Silicon Valley intrattiene con il Dipartimento della Difesa statunitense e con le agenzie federali di intelligence e sicurezza: tali rapporti si materializzano in finanziamenti pubblici per ricerca e sviluppo, trasferimento di conoscenze, appalti, collaborazioni, condivisione di dati e scambio di personale qualificato.
Le tecniche di sorveglianza, che studiose come Shoshana Zuboff pongono a fondamento del capitalismo digitale, costituiscono un esempio perfetto della vocazione civile-militare delle nuove tecnologie: la registrazione, l’archiviazione e l’interpretazione dei comportamenti umani online, che in tempo di pace vengono utilizzate sugli “utenti” a fini di marketing commerciale e politico, in tempo di “emergenza” o di guerra vengono applicate sui “nemici” a fini militari.
Mentre è facile intuire come l’industria delle armi tragga profitto dalla colonizzazione di un territorio, culminante in una guerra di sterminio come quella cui assistiamo in Palestina, il nesso tra aziende high-tech e crimini internazionali può risultare più difficile da mettere a fuoco. Ciò dipende sia dalla natura dei servizi offerti, poco visibili e ad alto contenuto tecnologico, sia dall’abilità della Silicon Valley nel presentarsi come un settore dedicato a rendere la nostra vita più piacevole.
Da qui l’urgenza di chiarire il ruolo svolto dalle società tecnologiche nei crimini commessi da Israele ai danni dei palestinesi. Il rapporto della Relatrice Speciale ha il merito di dedicare un’intera sezione, concisa ma significativa, a questo tema ricostruendo i rapporti commerciali di alcune Big Tech col governo e con l’esercito israeliani, sia prima che dopo il 7 ottobre.
Vista la presenza pervasiva di queste aziende nella nostra vita quotidiana – dai sistemi operativi dei computer e dei cellulari alle ricerche sul web, dal lavoro agli acquisti online, dalla socialità all’intrattenimento – si tratta di una questione che interroga direttamente la nostra responsabilità e quella dei nostri datori di lavoro: possiamo continuare a utilizzare servizi digitali venduti da società che contribuiscono all’apartheid nel TPO e al genocidio nella Striscia di Gaza?
Apartheid digitale: il lato oscuro della Startup Nation
Nella maggior parte delle società contemporanee le tecnologie digitali funzionano come un dispositivo biopolitico: catturano l’attenzione e raccolgono i dati personali degli utenti per influenzarne il comportamento economico, sociale, politico ed elettorale. Nel Territorio Palestinese Occupato queste stesse tecnologie alimentano un dispositivo necropolitico: instaurano, cioè, un violento regime di segregazione razziale che espone la popolazione palestinese al rischio di arresti arbitrari e di morte violenta.
Israele, in qualità di potenza occupante, ha raccolto negli ultimi decenni grandi quantità di dati personali dei/delle palestinesi, per lo più senza il loro consenso. Fin dagli anni ’90 queste informazioni sono state trattate in modo automatizzato col contributo di società informatiche statunitensi. Questi rapporti di collaborazione perdurano fino a oggi: a partire dal 2017, ad esempio, IBM è subentrata a Hewlett-Packard nella gestione dei database e dei programmi dell’Autorità israeliana per la popolazione, l’immigrazione e le frontiere.
Questi dati amministrativi costituiscono il primo livello di una stratificata apartheid digitale. Un rapporto di Amnesty International del maggio 2023, basato sulle testimonianze di ex soldati israeliani, ne ha ricostruito in dettaglio i meccanismi. In nome della “sicurezza” e della “guerra al terrorismo”, Israele ha istituito nel Territorio Palestinese Occupato un sistema di sorveglianza sempre più pervasivo, costituito da reti di telecamere a circuito chiuso, checkpoint abilitati alla raccolta di dati biometrici, droni adibiti al rilevamento dei movimenti e al riconoscimento facciale della sola popolazione palestinese.
In questo scenario distopico, un ruolo chiave è svolto da Wolf Pack: una raccolta di strumenti software che consente all’esercito israeliano di gestire e consultare un enorme database contenente foto, video, nominativi, componenti del nucleo familiare, indirizzi, percorsi abituali e qualsiasi altra informazione ritenuta utile a fini militari. È quello che il rapporto della Relatrice Speciale definisce “il lato oscuro della Startup Nation”, alludendo a ciò che si nasconde dietro l’immagine internazionale di Israele come società tecnologicamente dinamica e all’avanguardia.
Secondo il rapporto 2023 dell’Autorità israeliana per l’innovazione, prima dell’inizio dell’operazione militare contro Gaza, le industrie tecnologiche contribuivano al 20% del PIL, rispetto al 14% del 2012. Nel 2012 la loro produzione era superiore del 50% rispetto a quella del commercio, secondo settore del paese: nel 2022, il divario tra i due settori ha superato il 90%. Nell’ultimo decennio le esportazioni israeliane di alta tecnologia sono aumentate del 107%. Per effetto di questa dinamica espansiva, tra il 2018 e il 2023 il numero di lavoratori high-tech è aumentato del 60%, fino a superare nel 2022 i 400.000 addetti, garantendo stipendi quasi tre volte superiori alla media.
Se, nell’ultimo decennio, la centralità delle industrie high-tech nell’economia israeliana è costantemente aumentata, ciò dipende anche dalla crescente domanda di strumenti di controllo sempre più sofisticati da “testare” sulla popolazione palestinese. Non a caso diverse aziende del settore sono state concepite all’interno dell’esercito o dei servizi segreti, come NSO Group fondata da ex membri dell’Unità 8200: la sezione dell’intelligence militare israeliana specializzata in operazioni di spionaggio elettronico e guerra cibernetica.
Come nota la Relatrice Speciale nel suo rapporto, con l’inizio dell’operazione militare su Gaza lo scenario è cambiato. Da una parte, nel corso del 2024 è stata registrata una crescita del 143% delle start-up nel settore della tecnologia militare e l’high-tech ha raggiunto il 64% delle esportazioni israeliane. Ma, dall’altra parte, la domanda di servizi digitali da impiegare sul nuovo campo di battaglia è cresciuta a un ritmo e a un livello tali da indurre il governo e l’esercito a rivolgersi alle grandi società tecnologiche statunitensi, potenziando i rapporti già esistenti.
Il ruolo dei sistemi di targeting automatizzato nel genocidio
Come si spiega l’aumento del fabbisogno di “servizi digitali” dopo il 7 ottobre? Una delle possibili spiegazioni riguarda l’uso di sistemi automatizzati di supporto decisionale (AI-based Decision Support Systems o IA-DSS), in particolare quelli specializzati nell’individuazione di bersagli infrastrutturali e umani da colpire.
Grazie a varie inchieste giornalistiche, basate su documenti ufficiali trapelati all’esterno, dichiarazioni anonime rilasciate da militari israeliani e rivelazioni fatte da lavoratori e lavoratrici delle società tecnologiche coinvolte, è possibile descrivere l’utilizzo e l’impatto di questi sistemi, avanzando ipotesi sul loro funzionamento e sulle aziende che ne hanno fornito le componenti essenziali.
Uno di questi sistemi di targeting automatizzato, chiamato Ha-Besorah (il Vangelo), è ritenuto capace di incrociare grandi quantità di dati provenienti da fonti diverse allo scopo di classificare, selezionare e localizzare obiettivi infrastrutturali da colpire, in superficie o nel sottosuolo.
Ha-Besorah è stato addestrato su dati satellitari ad alta risoluzione, mappe digitali, immagini di strade ed edifici contenute negli archivi dell’esercito o del governo, realizzate da droni, recuperate dal web o dai social. Questi dati sono stati successivamente incrociati con intercettazioni e altre informazioni ambientali per ricavare le coordinate georeferenziate degli obiettivi ritenuti strategici. Dopo il bombardamento, i dati di partenza sono stati spesso confrontati con le immagini delle aree colpite per consentire al sistema di “apprendere dai suoi errori”. Tra questi errori, non sembra essere inclusa la natura civile degli edifici colpiti, o la presenza di civili al loro interno o nelle loro vicinanze.
Non sono noti i parametri secondo cui gli algoritmi del sistema hanno identificato i vari bersagli. Sappiamo però che, grazie a Ha-Besorah, l’esercito israeliano ha colpito un numero di edifici molto più elevato rispetto al passato: se nelle precedenti operazioni militari a Gaza era stato raggiunto un livello massimo di 100 target al giorno, l’utilizzo di questo modello di AI-powered targeting ha consentito all’aviazione di bombardare quasi 12.000 obiettivi in 30 giorni, con una media giornaliera di 400 obiettivi.
Al netto delle “esplosioni controllate” condotte dall’esercito una volta iniziata l’operazione di terra, il livello elevatissimo di distruzione registrato nella Striscia, con almeno il 90% degli edifici abbattuti o gravemente danneggiati, può essere messo in relazione con questo sistema di targeting automatizzato utilizzato soprattutto nei primi mesi delle operazioni.
Dalla distruzione indiscriminata di edifici residenziali, scuole, ospedali, luoghi di culto e reti idriche, si possono trarre due conclusioni: o Ha-Besorah è incapace di distinguere tra obiettivi militari e civili, ovvero è stato modellato per non operare affatto queste distinzioni.
Dalle testimonianze anonime di alcuni soldati israeliani, emerge che l’obiettivo di molti bombardamenti sia stato quello di infliggere più danni possibili alle strutture vitali della Striscia, allo scopo di provocare la ribellione della popolazione contro Hamas. Il risultato è stato quello di rendere la vita a Gaza sempre più impossibile. In ogni caso, è evidente l’incompatibilità di questo sistema di IA militare (e dell’uso che ne è stato fatto) con i principi di distinzione, proporzionalità e precauzione su cui si fonda il diritto internazionale umanitario.
Un secondo sistema di targeting automatizzato utilizzato dall’esercito israeliano a Gaza è noto come Lavender: è stato progettato per identificare “sospetti militanti” di Hamas e della Jihad islamica palestinese per farne l’obiettivo di “attacchi mirati”.
Il sistema si basa sull’analisi di una grandi quantità di informazioni relative alla popolazione della Striscia: dati di comunicazione elettronica (registri di chiamate, messaggi di testo, attività sui social media), di localizzazione (tracciamento GPS, movimenti da dispositivi mobili, geolocalizzazione da reti cellulari), dati biometrici e demografici (età, sesso, residenza, profili personali), di sorveglianza visiva (immagini e video da droni, telecamere fisse, sistemi di sorveglianza urbana), di intelligence (liste di sospetti, affiliazioni politiche o religiose, precedenti penali) o relativi alle interazioni sociali (connessioni tra individui, frequentazioni, modelli comportamentali).
Lavender assegna a ogni abitante della Striscia un punteggio da 1 a 100, in base alla probabilità di essere un “militante” della resistenza palestinese, confrontando le caratteristiche di un primo set di dati “etichettati” (presumibilmente membri accertati di Hamas e della Jihad islamica palestinese) con un insieme più ampio di dati non etichettati relativi a tutta la popolazione schedata di Gaza. Sulla base di questo modello probabilistico, nei primi mesi dopo il 7 ottobre almeno 37.000 abitanti della Striscia sono stati designati come “sospetti militanti”, compresi molti minori.
Una fonte interna all’esercito ha affermato che gli ufficiali addetti all’uso di Lavender avrebbero dedicato solo 20 secondi alla “verifica” di ciascun obiettivo prima di autorizzare il bombardamento, nonostante fosse noto l’alto tasso di errori del sistema (~10%). Nel caso di obiettivi non ritenuti di alto profilo, gli operatori si sono limitati a verificare che la persona fosse di sesso maschile.
Un sistema di questo genere presenta le tipiche criticità dei cosiddetti “sistemi di polizia preventiva” (predictive policing systems), con l’aggravante che a Gaza le sentenze sono sempre di morte, sono decise senza processo, non prevedono appello e vengono eseguite in tempi estremamente rapidi.
I dataset storici utilizzati nell’addestramento di Lavender molto probabilmente non sono stati verificati né “ripuliti” da errori e informazioni spurie ma, soprattutto, riflettono i pregiudizi consolidati in decenni di disumanizzazione dei/delle palestinesi da parte dell’esercito e dell’amministrazione di Israele: il sistema apprende e amplifica tali pregiudizi, associando erroneamente comportamenti sospetti a circostanze comuni (ad esempio, il fatto di cambiare ripetutamente telefono o indirizzo, o di trovarsi nella stessa chat di una persona schedata).
Ciò non deve sorprendere: da quali elementi esteriori, o da quali correlazioni comportamentali, si può mai prevedere con certezza l’appartenenza di una persona a un’organizzazione “terroristica”? Senza contare che la definizione stessa di “terrorista” è molto spesso puramente politica e intrisa di forti pregiudizi.
Gli effetti letali di Lavender sono stati ulteriormente amplificati dall’uso che ne è stato fatto in fase di geolocalizzazione dei bersagli umani. L’esercito ha, infatti, attaccato le vittime designate nelle loro abitazioni, molto spesso di notte e in presenza dell’intera famiglia, anche all’interno di palazzine a più piani abitate da altri nuclei familiari. Allo scopo è stato impiegato un ulteriore strumento di supporto decisionale basato sull’IA chiamato Where’s Daddy?, che agisce come un sistema di “localizzazione predittiva” finalizzato a ridurre l’incertezza sulla posizione di un obiettivo, massimizzando la probabilità che il colpo non “vada a vuoto”.
Where’s Daddy? è stato presumibilmente addestrato su una vasta gamma di dati di geolocalizzazione ricavati in vario modo: col tracciamento dei segnali telefonici e delle celle a cui i dispositivi dei potenziali bersagli si connettono; con intercettazioni di comunicazioni telefoniche e telematiche; con telecamere, droni e informazioni di intelligence. Il sistema acquisirebbe in questo modo la capacità di identificare schemi ricorrenti di movimento allo scopo di “prevedere” la localizzazione dei bersagli: quando si ritiene che questi siano nella loro abitazione, si avvisano le unità operative e parte l’attacco.
Oltre ai suoi limiti intrinseci, in termini di errori e bias algoritmici, ciò che rende Lavender altamente letale e del tutto incompatibile coi principi del diritto internazionale umanitario, sono le regole d’ingaggio che ne accompagnano l’uso: per gli obiettivi di “minore importanza strategica” sono state tollerate fino a 15-20 vittime civili, arrivando fino a 100 nel caso di “comandanti di alto livello”. Indicativo anche il fatto che, per colpire i bersagli di minore rilevanza, siano state utilizzate bombe ad alto potenziale “non intelligenti” e che non siano state previste valutazioni post-operative per mitigare l’impatto di queste azioni sui non combattenti e su strutture non militari.
Avendo contribuito in modo rilevante ad aumentare il livello di distruzione urbana e il numero delle vittime civili, stimate dalle stesse fonti israeliane intorno all’80% del totale, questi sistemi di targeting automatizzato costituiscono un ulteriore argomento a sostegno della tesi che nella Striscia di Gaza sia in corso un genocidio. L’assenza di qualsiasi strategia di prevenzione e mitigazione delle criticità intrinseche a tali sistemi, così come la mancanza di un controllo umano significativo sulle liste automatizzate dei bersagli infrastrutturali e umani, costituiscono ulteriori elementi a sostegno dell’intenzionalità delle azioni distruttive: un elemento indispensabile per configurare il crimine di genocidio.
Il possibile ruolo delle Big Tech nel genocidio
Per poter essere sviluppati e utilizzati, i sistemi di IA a base probabilistica come Habesorah, Lavender e Where is Daddy? hanno bisogno di tre componenti essenziali.
Sono necessarie, innanzitutto, potenti infrastrutture hardware e software per archiviare e gestire enormi volumi di dati e per svolgere processi computazionali complessi in tempi rapidi. Servono poi modelli matematici e statistici sofisticati per identificare schemi all’interno dei dati di addestramento, da applicare successivamente a ulteriori dati per ottenere previsioni, raccomandazioni, ecc. Sono, infine, richiesti ambienti digitali sicuri e flessibili da gestire tramite interfacce user-friendly, per svolgere l’addestramento dei modelli, eseguire i programmi, interagire con altri sistemi.
Si tratta di capacità che l’esercito israeliano non sembra avere ancora sviluppato in proprio. Sulla base di fonti interne anonime, ottenute da giornalisti d’inchiesta e pubblicate su +972 Mag, The Guardian e Washington Post, ci sono buone ragioni per ritenere che Microsoft, Google e Amazon abbiano fornito risorse computazionali e ambienti digitali per lo sviluppo dei sistemi di targeting automatizzato utilizzati dall’esercito israeliano, e che Palantir abbia contribuito a svilupparne gli algoritmi.
Nel rapporto dedicato al passaggio dall’economia dell’occupazione a quella del genocidio, la Relatrice speciale ricorda come Microsoft abbia rapporti con Israele fin dalla fine degli anni ’80. La società di Cupertino ha aperto la sua prima sede israeliana nel 1989, mentre nel 1991 ha aperto ad Haifa un importante centro di Ricerca e Sviluppo: il primo della società all’estero e, ancora oggi, il suo più grande centro di ricerca al di fuori degli Stati Uniti.
Nel corso degli ultimi due decenni Microsoft ha acquisito più di 15 startup tecnologiche israeliane, tra cui Adallom (specializzata in sicurezza cloud), Secure Islands (protezione dei dati) e Hexadite (automazione della risposta agli incidenti di sicurezza). Queste acquisizioni hanno rafforzato le capacità dell’azienda, soprattutto nel campo della cybersecurity, consentendole di integrare tecnologie avanzate di provenienza israeliana in molti dei prodotti venduti a livello globale.
Secondo le fonti analizzate dal rapporto della Relatrice Speciale, le tecnologie Microsoft sono attualmente integrate nel sistema penitenziario e nella polizia, nelle università e nelle scuole (anche quelle situate nelle colonie illegalmente costruite nel TPO), oltre che nell’esercito. Azure, la piattaforma cloud pubblica della società, sembra essere impiegata anche in unità altamente riservate del governo, compreso l’Ufficio del Primo Ministro, dove dipendenti della società con autorizzazioni di sicurezza supervisionano la fornitura dei servizi.
Le operazioni militari successive al 7 ottobre hanno fatto aumentare in modo rapido e significativo la domanda di servizi digitali avanzati da parte del governo e dell’esercito. L’infrastruttura cloud di base, fornita da Alphabet (Google) e da Amazon nel quadro del Progetto Nimbus (2,1 milioni di dollari) avviato nel 2021, non è stata più sufficiente ed è stata potenziata, fornendo un accesso ancora più ampio alle risorse di calcolo delle due società.
I server coinvolti sono ubicati in Israele, per ridurre al minimo i tempi di latenza ma soprattutto per garantire una piena “sovranità sui dati”, accompagnata da restrizioni e supervisione minime e da clausole di esenzione dalla responsabilità per utilizzi non autorizzati.
Nel corso di un evento pubblico organizzato a febbraio 2024 da People and Computers, una media company specializzata in nuove tecnologie, il responsabile della Direzione nazionale israeliana per la sicurezza informatica ha dichiarato che “grazie al cloud pubblico Nimbus, in combattimento [a Gaza] accadono cose fenomenali, che costituiscono una parte significativa della vittoria”.
Da varie fonti risulta che anche Microsoft sia stata coinvolta per rispondere alla crescente domanda di servizi cloud dell’esercito dopo il 7 ottobre. I registri mostrano che il team di supporto globale di Azure ha risposto a circa 130 richieste dirette da parte dell’IDF durante i primi 10 mesi delle operazioni. Secondo altre fonti, l’utilizzo medio mensile delle risorse di archiviazione cloud di Azure da parte dell’esercito nei primi sei mesi delle operazioni è aumentato del 60% rispetto ai quattro mesi precedenti. Inoltre, decine di unità dell’esercito hanno acquistato servizi cloud direttamente da Azure dopo il 7 ottobre.
Tra queste unità, un ruolo centrale spetta alla già menzionata Unità 8200, addetta all’intelligence militare. Secondo una recente inchiesta, apparsa su The Guardian e su +972Mag, tale unità ha trasferito file audio di milioni di chiamate di palestinesi dei territori occupati sul cloud Microsoft Azure, rendendo operativa quella che è probabilmente una delle più grandi e invasive raccolte di dati di sorveglianza su un singolo gruppo di popolazione al mondo.
Sotto la pressione dei propri lavoratori e di alcuni investitori, nei mesi scorsi Microsoft ha dichiarato pubblicamente di non aver trovato “alcuna prova che la sua tecnologia sia stata utilizzata per infliggere danni ai palestinesi di Gaza”. Un portavoce della società ha dichiarato recentemente di non essere a conoscenza dell’utilizzo di Azure da parte di Israele per archiviare materiali di sorveglianza provenienti dalla Cisgiordania.
Eppure, come riportato nel rapporto della Relatrice Speciale, le applicazioni militari dei servizi cloud offerti da Google, Amazon e Microsoft nel corso delle operazioni su Gaza sono un motivo di vanto per l’esercito israeliano. A luglio 2024, nel corso di una conferenza intitolata “Tecnologie dell’informazione per l’IDF”, un colonnello ha presentato questi servizi come “un’arma a tutti gli effetti”: come si vede dal video, in una delle slides finali dell’intervento figurano i loghi dei servizi cloud di tutte e tre le società.
Se, dunque, è quanto meno probabile che le ingenti risorse computazionali richieste dai sistemi di IA militare, a partire dai programmi di targeting automatizzato, siano state fornite a Israele da Google, Amazon e Microsoft, restano da individuare le aziende coinvolte nello sviluppo della componente algoritmica di tali programmi. Tra i candidati più plausibili, secondo il Business & Human Rights Resource Centre, figura Palantir Technology.
Fondata nel 2003 col supporto della CIA attraverso il fondo In-Q-Tel, Palantir è oggi una delle aziende più influenti nel panorama globale della sicurezza, della sorveglianza e dell’intelligenza artificiale militare. Il suo software è progettato per analizzare enormi quantità di dati, integrando fonti eterogenee per fornire supporto decisionale in tempo reale a governi, eserciti e agenzie di intelligence.
Nel 2025 la società, da sempre molto vicina a Donald Trump, ha ottenuto un contratto decennale da 10 miliardi di dollari con l’esercito degli Stati Uniti. Questo accordo, uno dei più grandi mai firmati nel settore della difesa, consolida decine di contratti preesistenti in un’unica piattaforma software per la gestione operativa e logistica delle forze armate statunitensi. Oltre che col Pentagono, Palantir collabora con agenzie federali come l’ICE, addetta al controllo delle frontiere, e il DHS, addetto alla sicurezza interna.
La Relatrice Speciale ricostruisce i rapporti tra Palantir e Israele, notando come questi siano precedenti al 3 ottobre 2023, ma che abbiano visto un significativo aumento dopo quella data. “Vi sono motivi ragionevoli – si legge nel rapporto – per ritenere che Palantir abbia fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa fondamentali per la costruzione e l’implementazione rapida e su larga scala di software militare, nonché la propria piattaforma di intelligenza artificiale, che consente l’integrazione in tempo reale dei dati dal campo di battaglia per un processo decisionale automatizzato”.
Dopo il 7 ottobre, Palantir ha ufficialmente dichiarato il proprio sostegno a Israele. A gennaio 2024 ha annunciato una nuova partnership strategica col paese e ha tenuto una riunione del proprio Consiglio di amministrazione a Tel Aviv “in segno di solidarietà”. Ad aprile 2025 l’amministratore delegato di Palantir ha risposto alle accuse di collaborare all’uccisione di palestinesi nella Striscia di Gaza affermando “per lo più terroristi, è vero!”. Queste circostanze, riferite nel rapporto della Relatrice Speciale, sembrano indicare chiaramente la piena consapevolezza e l’intenzionalità con cui i vertici della società forniscono servizi digitali letali all’IDF.
In risposta alle richieste di chiarimenti avanzate dal Business & Human Rights Resource Centre, la società ha smentito categoricamente queste ricostruzioni: “Non siamo in nessun modo coinvolti nel sistema Lavender utilizzato dall’esercito israeliano per l’identificazione degli obiettivi” – ha dichiarato Courtney Bowman, responsabile Privacy e libertà civili per Palantir. “Non abbiamo alcun rapporto con questi programmi e il loro utilizzo, ma siamo orgogliosi di sostenere la difesa israeliana e le missioni di sicurezza nazionale in altri programmi e contesti”.
Conclusioni provvisorie
Benché la dottrina internazionalistica tradizionale attribuisca responsabilità primarie agli Stati, riconoscendoli come i principali se non gli unici soggetti del diritto internazionale, gli attori non statali, incluse le imprese, non possono sottrarsi all’obbligo di rispettare le norme inderogabili dell’ordinamento globale. Tra queste norme di jus cogens rientra il divieto di commettere (e di contribuire alla commissione di) crimini di guerra, crimini contro l’umanità, atti di genocidio e di aggressione.
Alla luce di questi obblighi, risulta quanto meno problematico che Google abbia siglato un contratto di 45 milioni di dollari con il governo israeliano per ospitare su YouTube video realizzati con l’IA e sponsorizzati dal Ministero degli Esteri in cui si negava la carestia causata a Gaza dal blocco degli aiuti umanitari. Questa attività di propaganda è stata analizzata e denunciata dall’emittente pubblica tedesca Deutsche Welle.
Occorre, dunque, implementare meccanismi efficaci di responsabilizzazione e sanzione dei gruppi dirigenti delle aziende che traggono profitto dalle violazioni dei diritti umani e del diritto internazionale umanitario, venendo meno sia a obblighi di comportamento e di controllo interno (due diligence), sia a obblighi inderogabili di diritto positivo.
Occorre, inoltre, ribadire con forza che le applicazioni militari dell’IA sottostanno ai principi e alle norme del DIU, respingendo i tentativi di evocare l’esistenza di un “vuoto giuridico” per giustificare utilizzi abnormi dell’intelligenza artificiale, come nel caso dei sistemi di target automatizzato impiegati dall’esercito israeliano su Gaza. Il “vuoto giuridico” non riguarda i principi e le norme del diritto internazionale, ma le garanzie poste a tutela della loro piena effettività. L’attesa di una messa a punto di tali garanzie dovrebbe condurre a una moratoria sull’utilizzo di sistemi di IA militare, non certo a un via libera alla loro sperimentazione “sul campo”.
Senza efficaci meccanismi di responsabilizzazione, anche di tipo penale, sia per le forze armate che per i dirigenti delle aziende tecnologiche coinvolte in crimini internazionali, l’IA militare non farà altro che amplificare la violenza e la distruttività dei conflitti, oscurando le responsabilità dei decisori umani e scaricandole sulle macchine “intelligenti”.
Anche su questo terreno Gaza costituisce un test e uno spartiacque epocale. Ne va del futuro stesso del diritto internazionale come veicolo di pace e sicurezza, della sua applicazione rigorosa e senza doppi standard, della sua capacità di prevenire il crimine dei crimini – il genocidio – e di punirne responsabili e complici a tutti i livelli.
Federico Oliveri insegna Informatica giuridica all’Università di Camerino ed è segretario di redazione di Scienza e Pace, la rivista online open access del Centro Interdisciplinare Scienze per la Pace dell’Università di Pisa.


