top of page

Anthropic contro il Pentagono: la battaglia su chi comanda l'intelligenza artificiale

Negli ultimi giorni è cresciuta l’escalation delle tensioni tra Anthropic, nota azienda di intelligenza artificiale, e il Dipartimento della Difesa statunitense, in seguito alla decisione dell’amministratore delegato Dario Amodei di respingere l’ultimatum del Pentagono sull’uso senza restrizioni del modello Claude per scopi militari.

https://commons.wikimedia.org/wiki/File:Dario_Amodei_at_TechCrunch_Disrupt_2023_08.jpg
Dario Amodei - TechCrunch, CC BY 2.0, via Wikimedia Commons

Da luglio 2025, la società statunitense Anthropic detiene un contratto con il Pentagono fino a 200 milioni di dollari per "prototipare capacità AI frontiera a supporto della sicurezza nazionale". Fino a questa settimana, era l'unica azienda con accesso ai sistemi classificati. La disputa nasce su un punto preciso, Anthropic vuole clausole esplicite che vietino l’uso di Claude per la sorveglianza di massa dei cittadini americani e per sistemi d’arma pienamente autonomi, cioè capaci di prendere decisioni letali senza intervento umano. Il Pentagono chiede invece accesso “per tutti gli usi legali”, senza vincoli contrattuali aggiuntivi.

 

Nel corso della settimana, il segretario alla Difesa Pete Hegseth ha minacciato di invocare il Defense Production Act, una legge del 1950 che conferisce al presidente poteri straordinari sull’industria privata in nome della sicurezza nazionale, per costringere Anthropic a consegnare un modello privo di restrizioni. Il 26 febbraio, Anthropic ha respinto quella che il Pentagono aveva definito la sua “offerta migliore e finale”. Il CEO Amodei ha infatti dichiarato: “non possiamo in buona coscienza accettare la loro richiesta”, motivando la posizione con due argomenti, che i modelli AI attuali non sono abbastanza affidabili per gestire decisioni d’arma autonome senza rischiare vittime indesiderate, e che consentire la raccolta indiscriminata di dati su cittadini americani rappresenta un rischio reale per le libertà civili.

 

Il 27 febbraio è arrivata la risposta dell'amministrazione. Trump ha scritto su Truth: “I matti di sinistra di Anthropic hanno fatto un errore disastroso cercando di imporre i loro Termini di Servizio invece della nostra Costituzione”, ordinando in aggiunta, a tutte le agenzie federali, di cessare immediatamente l’uso dei prodotti Anthropic. Al Pentagono è stata concessa una finestra di sei mesi per il phase-out operativo, data la dipendenza già consolidata dai sistemi basati su Claude. Hegseth ha aggiunto una misura più severa: la designazione di Anthropic come “rischio per la supply chain della sicurezza nazionale”, una classificazione normalmente riservata ad aziende legate ad avversari stranieri come Huawei. In termini pratici, questo significa che qualsiasi azienda che voglia lavorare con il Pentagono dovrà certificare di non avere rapporti commerciali con Anthropic, mettendo a rischio l'intero portafoglio clienti enterprise della società.

 

Nelle stesse ore, OpenAI ha annunciato un accordo con il Dipartimento della Difesa su termini simili a quelli che Anthropic aveva rifiutato, pur mantenendo, stando alle dichiarazioni del CEO Sam Altman, le stesse “linee rosse” su armi autonome e sorveglianza. xAI di Elon Musk si è immediatamente resa disponibile per gli usi classificati senza condizioni pubblicamente dichiarate.

 

La vicenda, che apparentemente sembra giocarsi su una disputa contrattuale, apre una questione di fondo importante: chi ha l’autorità legittima di definire i confini d’uso di un sistema di intelligenza artificiale ad alto rischio? L'azienda che lo produce, il governo che lo acquista, il diritto, o una combinazione dei tre? Il Pentagono sostiene che le sue procedure interne siano già sufficienti a prevenire abusi e che sia inaccettabile attribuire a una società privata un potere di veto sulle decisioni operative militari. Anthropic risponde che proprio l’assenza di garanzie contrattuali esplicite rende quel potere di controllo necessario, in assenza di norme vincolanti esterne.

 

È qui che il confronto con l’Europa diventa rilevante. L’AI Act europeo, entrato progressivamente in vigore dal 2024, classifica i sistemi di AI destinati a usi militari e di sicurezza tra le applicazioni ad alto rischio, imponendo obblighi di trasparenza, documentazione e supervisione umana. Sebbene il regolamento europeo non si applichi direttamente alle forze armate degli Stati membri, e ancor meno a quelle statunitensi, definisce uno standard di riferimento, e cioè l’idea che certi usi dell’AI debbano essere soggetti a vincoli normativi e non lasciati alla sola discrezione dei contraenti. Il contrasto con l’approccio americano emerso in questa vicenda è palese, lì si chiede a un’azienda privata di rinunciare alle proprie clausole etiche in nome della sovranità statale; qui si tenta di tradurre quelle stesse preoccupazioni in diritto positivo.

 

Tutto questo avviene in assenza di un framework multilaterale condiviso, analogo a quello che esiste per le armi chimiche o biologiche, e che lascia il campo a scontri bilaterali tra attori privati e statali, in cui la logica della sovranità si scontra con quella della responsabilità tecnica. Il fatto che OpenAI stia negoziando “linee rosse” simili a quelle di Anthropic suggerisce che il problema strutturale rimane aperto: cambia l’interlocutore ma non la domanda.

© RIPRODUZIONE RISERVATA

  • Instagram
  • Facebook
bottom of page