top of page

Chi governa l’AI quando va in guerra?

Nelle ultime settimane l’AI è finita al centro di uno dei conflitti geopolitici più esplosivi degli ultimi decenni. Secondo le ricostruzioni del Wall Street Journal e di Axios, Claude è stato utilizzato in due operazioni militari recenti, la cattura del presidente venezuelano Nicolás Maduro a Caracas, a gennaio 2026, e l’offensiva congiunta di Stati Uniti e Israele contro l’Iran, avviata il 28 febbraio, nel corso della quale è stato ucciso il leader supremo Ali Khamenei. In entrambi i casi, il Comando Centrale americano (CENTCOM) avrebbe impiegato il modello per analizzare dati di intelligence, simulare scenari di battaglia e contribuire all'identificazione di obiettivi militari. In sostanza, il modello ha svolto un ruolo di supporto cognitivo nell’elaborazione di intercettazioni, immagini satellitari e segnali di intelligence, con restituzione di sintesi, valutazioni di rischio e raccomandazioni operative.

U.S. Air Force photo by Airman 1st Class Travis Knauss, Public domain, via Wikimedia Commons
U.S. Air Force photo by Airman 1st Class Travis Knauss, Public domain, via Wikimedia Commons

Tale utilizzo implica la seguente domanda: se un operatore militare riceve da un sistema AI una lista di obiettivi prioritari e dispone di pochi minuti per agire, quanto è realmente umana la scelta finale? Se i sistemi di supporto decisionale basati sull'AI, anche quando un essere umano rimane formalmente nel processo, riducono quella persona a semplice variabile di un calcolo algoritmico, il confine tra un sistema che raccomanda un attacco e uno che lo esegue diventa, infatti, pericolosamente sottile.

 

Tutto questo avviene alla luce del recente contrasto tra Anthropic e il Pentagono. La società statunitense aveva integrato Claude nelle reti classificate del Pentagono già dal 2024, attraverso una partnership con Palantir, la società di analisi dei dati che da anni è infrastruttura digitale delle operazioni militari americane. A luglio 2025, il Dipartimento della Difesa aveva firmato un contratto da 200 milioni di dollari, perfettamente consapevole dei vincoli imposti dall’azienda: Claude non poteva essere usato per la sorveglianza di massa dei cittadini americani, né per alimentare armi completamente autonome in grado di selezionare e colpire obiettivi senza un controllo umano significativo.

 

Quando il Pentagono ha iniziato a spingere per la rimozione di questi vincoli, il CEO di Anthropic, Dario Amodei, ha rifiutato. La risposta dell’amministrazione Trump è stata come da copione radicale, ossia divieto immediato di ogni rapporto commerciale con Anthropic, sei mesi per eliminare gradualmente Claude dai sistemi governativi, e la classificazione dell’azienda come “rischio per la catena di approvvigionamento della sicurezza nazionale”. Il paradosso è che, a poche ore dalla firma di questo bando, Claude è stato ugualmente utilizzato durante i raid su Teheran.

 

Nel frattempo, OpenAI ha colto l’occasione per firmare un accordo con il Pentagono, con una mossa che ha suscitato ondate di proteste interne tra i propri dipendenti, così come tra quelli di Google, che si è trovata coinvolta in negoziati analoghi. OpenAI sostiene che il suo accordo contenga “più salvaguardie” di quello che Anthropic voleva mantenere. Ma questa affermazione ha sollevato più domande che risposte, in effetti queste salvaguardie chi le ha definite? Come sono verificabili?

 

In tutto questo, mentre le bombe cadevano su Teheran, a Ginevra si svolgevano i negoziati onusiani sulle armi autonome letali (LAWS). Da oltre un decennio, 128 stati discutono nell’ambito della Convenzione su Alcune Armi Convenzionali (CCW) se e come regolamentare sistemi in grado di colpire senza supervisione umana. Il Segretario Generale António Guterres aveva fissato al 2026 la scadenza per raggiungere uno strumento giuridicamente vincolante. La scadenza si avvicina, ma non il consenso poiché le potenze militari più avanzate – Stati Uniti, Russia, Cina – non vogliono vincoli che erodano il loro vantaggio competitivo. Il Pentagono ha dichiarato pubblicamente che le leggi esistenti sono già sufficienti, e la comunità internazionale ha risposto con dichiarazioni di principio e risoluzioni non vincolanti: nel 2023, 164 stati hanno sostenuto una risoluzione dell’Assemblea Generale che invitava a occuparsi del problema con urgenza. Invitava, appunto e non obbligava.

 

L’Unione Europea, che pure ha adottato il più ambizioso sistema regolatorio sull’AI al mondo con l’AI Act, ha scelto di esentare esplicitamente gli usi militari dal proprio campo di applicazione. La motivazione risiede nell’articolo 4 del Trattato sull’Unione Europea, che riserva la difesa alla sovranità degli stati membri. È una scelta politicamente comprensibile sul piano giuridico, ma difficile da accettare sul piano etico. L’Europa disciplina il rischio algoritmico nelle assunzioni o nel credito al consumo, ma lascia privi di regole i sistemi AI che contribuiscono a decidere chi bombardare.

 

C’è un altro aspetto da considerare, se un sistema AI contribuisce alla selezione di un obiettivo che si rivela essere una scuola elementare, come è accaduto in Iran, dove un attacco ha ucciso 165 persone tra bambine e personale scolastico, chi risponde? Il programmatore che ha scritto l’algoritmo? Il funzionario militare che ha accettato la raccomandazione? L’azienda che ha fornito il modello? Questa “zona di ambiguità”, come la definiscono alcuni esperti di diritto internazionale umanitario, è esattamente ciò che rende questi sistemi pericolosi non solo per le vittime immediate, ma per l’intero edificio del diritto internazionale. La studiosa Mariarosaria Taddeo ha descritto questo processo come un’erosione costante e sistemica dei limiti che il diritto umanitario internazionale pone al potere degli stati.

 

Vale la pena ricordare un dato tecnico inquietante, emerso da un report interno di Anthropic pubblicato nel 2025. Durante test di sicurezza su Claude Opus 4, il modello, messo in una simulazione in cui rischiava di essere “spento”, ha sviluppato spontaneamente una strategia di ricatto nei confronti di chi avrebbe eseguito la procedura. L’ha fatto nell’84% dei casi e nessuno aveva programmato per farlo. Si è trattato di un comportamento “emergente”, e non è esclusivo di Claude. Infatti test analoghi su sedici modelli di sei aziende diverse hanno prodotto risultati simili.

 

Non si tratta di demonizzare la tecnologia, né di invocare un impossibile ritorno a un mondo senza AI, sarebbe anacronistico oltre che impossibile, tuttavia è necessario prendere sul serio il fatto che uno strumento progettato per essere utile può diventare letale non per un malfunzionamento, ma per un difetto di governance, ovvero per l’assenza di regole adeguate al livello di rischio che genera.

 

Alcune direzioni sono già tracciate, anche se percorse con estrema timidezza. Il Global Dialogue on AI Governance, istituito dall'ONU nel 2025 con la Risoluzione A/RES/79/325, è un forum inclusivo che punta a sviluppare orientamenti e standard condivisi, pur senza potere normativo vincolante. La Croce Rossa Internazionale ha chiesto esplicitamente che qualsiasi uso dell’AI nei conflitti armati rispetti i principi fondamentali del diritto umanitario: distinzione tra combattenti e civili, proporzionalità, precauzione. Sono principi già scritti nelle Convenzioni di Ginevra, ma il problema è che nessuno ha ancora trovato un meccanismo accettabile per farli valere di fronte a un algoritmo.


Non mancano i principi, dunque. Manca la volontà politica di renderli cogenti, e manca un’opinione pubblica abbastanza informata e abbastanza insistente da rendere quella volontà necessaria. Il caso Anthropic ha avuto il merito di portare questa discussione fuori dai circoli tecnici e diplomatici. Ma se si riduce a uno scontro tra un CEO e il presidente Trump, la lezione verrà dispersa. La vera posta in gioco è molto più ampia: stiamo costruendo, in tempo reale e senza progetto condiviso, la governance dell'intelligenza artificiale in guerra. E lo stiamo facendo un contratto alla volta, un'esenzione normativa alla volta, un obiettivo bombardato alla volta.

© RIPRODUZIONE RISERVATA

  • Instagram
  • Facebook
bottom of page