L’impatto dell’intelligenza artificiale sui rischi di escalation nucleare
di Matteo Fantoni e Federico Oliveri
La cosiddetta “intelligenza artificiale” (IA) è considerata sempre di più una risorsa strategica in ambito militare: non solo per la rapidità, la precisione o l’autonomia che può conferire ai sistemi d’arma, ma anche per la sua capacità di processare in tempo reale grandi quantità di dati eterogenei relativi ai contesti operativi, in modo da accelerare i sistemi di allerta precoce, supportare le decisioni e facilitare il coordinamento tra le diverse forze in campo.
L’hype che accompagna l’IA investe anche le sue applicazioni militari. Il risultato è la rimozione delle criticità che affliggono gli attuali sistemi “intelligenti”, caratterizzati strutturalmente da errori, distorsioni (bias), opacità, assenza di vera coscienza ed empatia, episodi di disallineamento dalla volontà umana.
Anche per questa ragione la compatibilità tra le applicazioni militari di tali sistemi e il diritto internazionale umanitario, a partire dai principi fondamentali di distinzione, necessità e precauzione, è troppo spesso data per scontata mentre dovrebbe essere tema di dibattito ai massimi livelli, allo scopo di pervenire a una regolazione stringente.
IA militare e rischi di escalation nucleare nella crisi dell’ordine globale
Uno degli aspetti meno discussi nell’attuale crisi dell’ordine globale riguarda l’aumento dei rischi di escalation nucleare connessi all’uso militare dell’IA. La problematica è al centro di un paper pubblicato lo scorso giugno nella serie dei SIPRI Insights on Peace and Security.
I due autori, Vladislav Chernavskikh e Jules Palayer, mostrano in maniera convincente che i sistemi di supporto alle decisioni basati sull’IA (AI-based Decision-Support System o AI-DSS) rischiano di comprimere i tempi di riflessione e di accentuare la tendenza degli operatori umani ad assecondare in modo acritico gli output delle macchine (automation bias), aumentando la possibilità di errori catastrofici nel corso di una crisi.
Inoltre, l’applicazione di sistemi autonomi al potenziale di controforza (counterforce), ossia alla capacità di distruggere le capacità militari del nemico piuttosto che le sue città o la sua popolazione (countervalue), può minare l’equilibrio strategico fondato sulla deterrenza reciproca (mutual deterrence) perché neutralizzerebbe le capacità di contrattacco (second-strike capabilities) dell’avversario.
Questi e altri rischi connessi all’IA militare si inseriscono in uno scenario globale inedito e particolarmente critico. Il modello di fatto multipolare in cui ci troviamo oggi è più complesso di quello della Guerra Fredda, a partire dalle accresciute difficoltà nella gestione delle comunicazioni. Molte delle interazioni riservate che in passato contribuivano a disinnescare le tensioni nucleari, come le discussioni informali tra scienziati statunitensi e sovietici durante la Guerra Fredda, non hanno più luogo nella stessa misura, mentre i canali diplomatici formali si stanno logorando, bloccando o interrompendo del tutto.
L’esistenza di più potenze atomiche, inoltre, aumenta la possibilità di guerre nucleari di minore entità che sarebbero comunque devastanti, ma non porterebbero necessariamente alla distruzione reciproca assicurata (Mutual Assured Distruction o MAD), indebolendo il deterrente per un attacco preventivo.
In questo quadro, è stata accolta con favore la Dichiarazione congiunta siglata lo scorso 16 novembre a Lima dall’ex Presidente statunitense Joe Biden e dal Presidente cinese Xi Jinping, per ribadire la necessità di mantenere il controllo umano sulla decisione di utilizzare armi nucleari. Entrambi i leader hanno sottolineato, in quella sede, la necessità di valutare attentamente i potenziali rischi connessi agli usi militari dell’IA, garantendone uno sviluppo “prudente e responsabile”.
Al tempo stesso, gli approcci strategici all’IA delle due superpotenze sono sensibilmente divergenti. Nel contesto della Conferenza mondiale sull’intelligenza artificiale 2025, che si è appena tenuta a Shanghai, la Cina ha lanciato la proposta di istituire un’Organizzazione mondiale per la cooperazione sull’IA, promuovendo un modello di governance multilaterale basato sulla “sovranità informatica” e sull’uso dell’IA come bene pubblico globale.
Gli Stati Uniti, invece, come dichiarato nel recente piano Winning the AI Race, mirano innanzitutto a rafforzare la propria supremazia tecnologica attraverso grandi investimenti pubblico-privati e severe restrizioni sulle esportazioni high-tech verso la Cina.
Questa divergenza strategica non si limita al campo dell’innovazione in materia di IA, civile o militare che sia, ma allude a due visioni alternative dell’ordine globale.
I rischi di escalation nucleare
L’escalation nucleare può essere definita come l’intensificazione o l’allargamento di un conflitto convenzionale fino al punto di superare quella che una o più parti del conflitto percepiscono come una soglia critica, culminando nell’uso di armi nucleari.
La letteratura distingue tre tipi di escalation nucleare: l’escalation è deliberata, se i decisori la perseguono consapevolmente; involontaria, se i decisori non avevano previsto gli effetti finali delle proprie azioni; accidentale, nel caso di errori o di azioni non autorizzate.
La dinamica di un’escalation dipende dalle diverse dottrine nucleari adottate dai diversi Stati. La Repubblica Popolare Cinese, ad esempio, dichiara una politica di No First Use, impegnandosi a non ricorrere per prima ad armi nucleari: il loro uso è previsto esclusivamente a scopo di ritorsione, riducendo così la probabilità di una guerra nucleare accidentale.
Stati Uniti e Federazione Russa, invece, si riservano il diritto di usare per primi le armi nucleari in base a una politica di First Use, anche se l’avversario ha utilizzato solo armi convenzionali: il ricorso all’atomica è previsto in risposta a un attacco di vasta portata o nel caso in cui l’avversario tenti di neutralizzare il paese prima che questo possa usare le sue armi nucleari.
Le alleanze militari che, come la NATO, coinvolgono Stati dotati di armi nucleari rendono lo scenario ancora più complesso, in quanto permettono agli Stati non armati di contare sul potenziale uso di armi nucleari da parte degli Stati armati, loro alleati.
Il caso dell’India e del Pakistan, storicamente in conflitto ed entrambe potenze nucleari, è particolarmente istruttivo. Da un lato, la vicinanza geografica può indurre i due paesi a non usare armi nucleari l’uno contro l’altro per evitare l’esposizione alle radiazioni, nonché l’incontrollabile impatto umanitario e ambientale che potrebbe derivarne. Dall’altro lato, il tempo più breve necessario per colpirsi riduce la finestra decisionale, aumentando la pressione su entrambi i paesi a rispondere con un contrattacco a un attacco nucleare, anche solo percepito.
Le applicazioni non nucleari dell’IA militare
Gli ambiti di applicazione dei sistemi di IA nella gestione delle armi nucleari sono essenzialmente tre: i primi due prevedono una diretta integrazione dell’intelligenza artificiale nei sistemi d’arma; il terzo invece consiste in un nesso indiretto.
Il primo ambito riguarda il comando, il controllo e le comunicazioni, soprattutto per quanto riguarda il rilevamento precoce delle minacce nucleari e il processo decisionale sull’uso delle armi atomiche. Il secondo ambito riguarda il sistema di trasporto delle armi: il Poseidon russo, ad esempio, è un veicolo sottomarino dotato di armi nucleari, funziona senza equipaggio e, una volta dispiegato, opererà in modo autonomo.
Il terzo ambito riguarda invece le applicazioni non nucleari dell’IA militare, ossia l’uso dell’intelligenza artificiale in tutti gli ambiti non direttamente legati alla catena di comando, al controllo o all’utilizzo delle armi specificamente nucleari.
Tra le applicazioni non nucleari dell’IA militare rientrano a pieno titolo i Decision Support Systems (DSS): capaci di elaborare in tempo reale notevoli quantità di dati eterogenei provenienti da una molteplicità di sensori, database storici e materiali di intelligence open source, tali sistemi sono progettati per assistere i decisori a livello operativo, tattico e strategico.
La loro influenza sul processo decisionale militare e, in particolare, sull’escalation nucleare è ancora poco studiata ma merita grande attenzione perché sta modificando il modo con cui vengono prese le decisioni, comprese quelle più critiche. A questo tipo di sistemi vengono, infatti, assegnate importanti funzioni descrittive, predittive e prescrittive.
I sistemi descrittivi analizzano e interpretano il contesto attraverso i dati disponibili, allo scopo di migliorare la consapevolezza situazionale di una certa unità militare e favorire decisioni informate. I sistemi predittivi interpretano i dati estratti dal contesto alla luce di modelli appresi in fase di addestramento, allo scopo di anticipare eventi o scenari futuri. I sistemi prescrittivi generano raccomandazioni su possibili linee d’azione, coerenti con gli output descrittivi e predittivi.
Limiti dell’IA e rischi di escalation nucleare
Questi sistemi mostrano buoni risultati nella raccolta e nell’organizzazione dei dati, ma sono decisamente meno abili nel prevedere scenari dipendenti da decisioni umane e, soprattutto, si rivelano inaffidabili quando raccomandano linee di condotta e decisioni.
Il problema dei processi decisionali basati sull’IA non è limitato allo scarto persistente tra le capacità attribuite e quelle realmente possedute da tali sistemi, evidente nelle “allucinazioni” dei Grandi Modelli di Linguaggio (Large Language Models o LLM) come i GPT. Le loro criticità fondamentali derivano dal fatto che l’IA manca di una comprensione umana dei contesti e delle implicazioni di determinate scelte, è priva di senso comune, di sentimenti e di empatia e non è, di conseguenza, capace di comprendere e rispettare norme morali, sociali o giuridiche.
Queste limitazioni strutturali, unite a probabili errori e distorsioni presenti nei dati di addestramento, spiegano la tendenza registrata in alcuni LLM a scegliere opzioni di escalation più spesso rispetto a decisori esperti umani, forniti delle stesse informazioni e posti nelle medesime situazioni.
La mancanza di trasparenza (black box effect), tipica dei sistemi di IA basati su reti neurali profonde, non consente neanche di comprendere le “motivazioni” dietro queste scelte, né di ricostruire i “ragionamenti” seguiti dall’IA, rendendo complesso se non impossibile il suo riallineamento.
Inoltre, l’eccessiva fiducia nelle risposte generate dall’IA e il ritmo sostenuto imposto da tali sistemi iper-veloci possono indebolire la capacità umana di giudizio, aumentando la probabilità di percezioni errate e di reazioni eccessive.
In breve, l’uso dei sistemi decisionali basati sull’intelligenza artificiale nel processo decisionale militare influisce sul rischio di escalation nucleare non tanto eliminando completamente gli esseri umani dal processo, quanto minando le condizioni necessarie per esercitare un effettivo controllo umano lungo tutta la catena di raccolta, analisi, interpretazione e comunicazione delle informazioni.
Si tratta di ostacoli al momento insormontabili a un impiego sicuro e responsabile dell’IA in ambito militare. Cui va aggiunto il fatto che tali sistemi siano altamente suscettibile agli attacchi informatici: attori statali o non statali potrebbero manipolare i dati o alterare gli algoritmi per generare falsi allarmi o nascondere minacce reali.
Tali ostacoli sono particolarmente rilevanti per i rischi di escalation nucleare, data l’importanza della credibilità delle intenzioni e delle minacce in un contesto di deterrenza reciproca. I dati storici relativi a escalation accidentali suggeriscono che la capacità tipicamente umana di esercitare il dubbio e disobbedire alle regole ha svolto un ruolo cruciale nel prevenire conseguenze catastrofiche. Il famoso caso di Stanislav Petrov, l’ufficiale sovietico che il 26 settembre 1983 ha scelto di non segnalare quello che si è poi rivelato un falso allarme nucleare, dovrebbe sempre essere richiamato come esempio e monito.
Autonomia delle capacità di controforza e alterazione della deterrenza
Fin dagli anni ’90 i sistemi di IA sono stati promossi in ambito militare soprattutto per automatizzare e autonomizzare alcune attività critiche, dalla sorveglianza all’individuazione degli obiettivi, dal dispiegamento delle forze alla guida dei missili. Negli ultimi anni gli sforzi sono rivolti, in particolare, a rendere autonomo il potenziale di controforza, ossia la capacità di neutralizzare le forze militari dell’avversario a partire dalla sua capacità di ritorsione.
Rendendo le forze nucleari più vulnerabili agli attacchi e, dunque, meno affidabili per la rappresaglia, questo utilizzo dell’IA può minare seriamente la stabilità strategica mondiale, alterando la ‘logica’ della deterrenza su cui si è fondata finora la prevenzione dei conflitti nucleari.
In caso di crisi, la percezione di una simile vulnerabilità potrebbe spingere uno Stato dotato di armi nucleari a intraprendere un’azione preventiva per preservare l’integrità delle proprie capacità di contrattacco. Al tempo stesso, gli Stati che integrano l’IA nei propri sistemi militari per potenziare l’acquisizione dei bersagli e la precisione degli attacchi, potrebbero essere tentati di neutralizzare le capacità nucleari dell’avversario per azzardare un attacco al riparo da possibili ritorsioni.
Questo scenario sta alimentando sia una corsa all’IA militare, che una corsa al riarmo in generale. Per impedire un attacco preventivo del tipo descritto sopra occorrono, infatti, significative capacità convenzionali e nucleari, tali da consentire in ogni caso un attacco di ritorsione. La Repubblica Popolare Cinese, ad esempio, ha aumentato negli ultimi anni il proprio arsenale e modificato le proprie strategie militari anche in risposta alla crescente autonomia dei sistemi militari statunitensi.
Strategie di gestione del rischio e moratoria sugli usi militari dell’IA
I rischi di escalation e di squilibrio strategico connessi all’uso militare dell’IA, sia in ambito nucleare che convenzionale, sono ancora in gran parte sconosciuti all’opinione pubblica.
Per gestire efficacemente questo nuovo tipo di rischi nucleari è necessaria un’opera di divulgazione e sensibilizzazione indirizzata alla cittadinanza, affinché questa faccia a sua volta pressione sui decisori politici per fermare la corsa agli armamenti, perseguire un disarmo concordato su scala mondiale e promuovere l’adesione dei rispettivi paesi al Trattato per la proibizione delle armi nucleari.
Questa formazione civica deve potersi basare su studi accessibili ai non esperti, ma anche su ricerche più approfondite su come le applicazioni militari dell’IA possano accrescere i rischi di escalation, nucleare e convenzionale, in contesti particolari e in scenari specifici di crisi.
Forum multilaterali come il Summit REAIM, dedicato all’uso responsabile dell’IA in ambito militare, possono offrire piattaforme per avviare discussioni su come gestire i rischi legati all’IA militare. Ma occorre che i decisori vi partecipino con piena consapevolezza della materia.
È tempo che l’entusiasmo eccessivo per l’intelligenza artificiale lasci spazio a una lucida disamina delle criticità di cui soffrono tali sistemi, premessa per una moratoria a tempo indefinito dei loro impieghi militari. In attesa di una tale moratoria, invisa all’emergente complesso militare-industriale digitale, occorre una formazione obbligatoria rivolta a tutto il personale militare e politico, che illustri in modo rigoroso i limiti strutturali dell’IA e i conseguenti rischi connessi al suo uso bellico.
Matteo Fantoni studia Scienze della Comunicazione all’Università di Pisa e svolge attualmente un tirocinio nella redazione di Scienza e Pace Magazine.
Federico Oliveri insegna Informatica giuridica all’Università di Camerino ed è segretario di redazione della rivista online open access del CISP, Scienza e Pace.