Alla fine di febbraio 2026, la tensione tra Anthropic — la società che sviluppa il modello AI Claude — e il Dipartimento della Difesa degli Stati Uniti ha raggiunto livelli mai visti prima nel mondo tech americano. Per la prima volta, una compagnia privata di intelligenza artificiale ha avuto il coraggio di dire no al governo americano su questioni di vita o di morte: armi autonome e sorveglianza di massa. Il risultato? Un paradosso che mette a nudo tutte le contraddizioni dell’era dell’AI militare.
Le origini: un maxi contratto da 200 milioni
Tutto parte nel luglio 2025: Anthropic firma un contratto da circa 200 milioni di dollari con il Pentagono — che sotto Trump viene pure ribattezzato “Dipartimento della Guerra”. Claude diventa così il primo modello AI autorizzato nei sistemi classificati dell’esercito USA, grazie anche alla collaborazione stretta con Palantir, la società di analisi dati fondata da Peter Thiel, da sempre vicina agli ambienti della difesa.
Da lì, Claude si insinua nei gangli più delicati della macchina militare americana: intelligence, strategie, analisi di dati riservati. Anthropic si ritrova ad essere il fornitore privilegiato di AI per le forze armate.
Ma il contratto non era a scatola chiusa: Anthropic aveva messo subito due paletti chiari, due “linee rosse” invalicabili.
- Primo: niente uso di Claude per la sorveglianza di massa sui cittadini americani.
- Secondo: vietato usarlo per sistemi d’arma totalmente autonomi, che decidono e colpiscono senza intervento umano.
L’ultimatum di Hegseth: “o tutto o niente”
Nei mesi successivi alla firma, la tensione sale. L’esercito vuole sfruttare Claude per spiare infrastrutture cinesi, scovare falle nei sistemi elettronici nemici, pianificare attacchi informatici. Ma le regole etiche di Anthropic si mettono in mezzo.
Così, il 24 febbraio 2026, il Segretario alla Difesa Pete Hegseth convoca Dario Amodei, CEO di Anthropic, al Pentagono. Il faccia a faccia è teso: Hegseth dà un ultimatum secco, con scadenza fissata alle 17:01 di venerdì 27 febbraio. O Anthropic accetta che Claude venga usato per “qualsiasi scopo lecito”, togliendo i limiti su sorveglianza e armi autonome, oppure è fuori.
Secondo fonti come Associated Press e Reuters, il rifiuto avrebbe comportato tre conseguenze: rescissione del contratto, bollino nero come “supply chain risk” (fino ad allora appioppato solo a ditte straniere invise come Huawei), e infine il ricorso al Defense Production Act — una legge della Guerra di Corea che avrebbe potuto obbligare Anthropic a collaborare anche controvoglia.
La risposta di Amodei: “Non possiamo, punto e basta”
Il 26 febbraio, a poche ore dalla scadenza, Anthropic pubblica una dichiarazione firmata da Amodei: “Le minacce non cambiano la nostra posizione: non possiamo in buona coscienza cedere su questi punti.” Parole dure, quasi mai sentite in ambito aziendale.
Amodei, figlio di immigrati italiani e fisico di formazione, motiva la sua scelta.
Sulle armi autonome: la tecnologia non è pronta, l’AI sbaglia ancora troppo, affidarle decisioni letali sarebbe pericoloso. Sulla sorveglianza di massa: sì all’intelligence estera, ma no a creare dossier automatici sugli americani incrociando dati come geolocalizzazione o cronologia web.

“In certi casi, l’AI può minare invece che difendere i valori democratici”, scrive, aggiungendo che certi usi sono “semplicemente fuori portata per la tecnologia attuale”.
Amodei sottolinea anche che Anthropic non è affatto contraria all’uso militare dell’AI in sé: rivendica di essere stata la prima azienda a distribuire modelli su reti classificate, rinunciando a centinaia di milioni di dollari tagliando clienti cinesi per motivi di sicurezza nazionale:
“Credo profondamente nell’importanza esistenziale dell’uso dell’intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici.
Anthropic ha quindi lavorato in modo proattivo per distribuire i propri modelli al Dipartimento della Guerra e alla comunità dell’intelligence. Siamo stati la prima azienda di intelligenza artificiale di frontiera a distribuire i nostri modelli nelle reti classificate del governo degli Stati Uniti, la prima a distribuirli presso i Laboratori Nazionali e la prima a fornire modelli personalizzati per i clienti della sicurezza nazionale.”
Trump interviene: “Quei casi umani di sinistra”
Pochi minuti prima dello scadere dell’ultimatum, Trump interviene su Truth Social con il suo stile inconfondibile: ordina alle agenzie federali di smettere di usare i prodotti Anthropic, definendo i dirigenti “quei casi umani di sinistra” e accusandoli di un “errore disastroso”. Il giorno dopo, arriva la formalizzazione: Anthropic è ufficialmente un “rischio per la sicurezza nazionale”.
Eppure il mercato e l’opinione pubblica reagiscono al contrario: subito dopo l’annuncio, Claude diventa una delle app più scaricate e il valore di Anthropic — già alle stelle — viene dato in ulteriore ascesa. Insomma, Amodei si rivela un perfetto uomo da copertina.
Il Center for American Progress fa notare la contraddizione: se Anthropic è un rischio, va esclusa dai sistemi militari; ma se Claude è così indispensabile da doverla obbligare con il Defense Production Act, allora non può essere un rischio. Due pesi e due misure che puzzano di politica più che di sicurezza.
Il paradosso iraniano: bandito di giorno, usato di notte
L’ironia della storia tocca il culmine poco dopo il bando: mentre Trump tuonava contro Anthropic, il CENTCOM — il comando delle operazioni USA in Medio Oriente — stava usando proprio Claude per coordinare i raid in Iran che hanno portato all’uccisione di Khamenei e altri capi del regime.
Secondo Wall Street Journal e La Repubblica, Claude ha fornito intelligence in tempo reale, identificando obiettivi sensibili e ottimizzando le rotte dei bombardieri e dei droni, integrato nei sistemi Palantir.
Come scrive Il Foglio, Anthropic è ormai così dentro l’apparato militare che per “scollegarla” ci vorranno almeno sei mesi. Nel frattempo, l’AI bandita continua a guidare decisioni cruciali. Un paradosso che la dice lunga.
C’è anche un problema di fondo: una volta che l’AI viene integrata in sistemi di terze parti come quelli Palantir, Anthropic perde completamente il controllo su come viene effettivamente usata. Fornisce il motore, ma è “cieca” rispetto alle reali applicazioni — anche quelle più rischiose.
Chi ha detto sì: OpenAI, Google e xAI
Poche ore dopo, Sam Altman di OpenAI annuncia un nuovo accordo con i militari USA: ChatGPT e i futuri GPT saranno disponibili sulle reti classificate. OpenAI dice di aver inserito le stesse limitazioni richieste da Anthropic, ma con una differenza: nessuna clausola vincolante, solo garanzie tecniche e riferimenti alle leggi in vigore, quindi tutto più “soft”. Come nota un ricercatore, nulla vieta che queste policy possano cambiare in futuro.
Google si prepara a seguire la stessa strada, dopo aver tolto i divieti di applicazione militare dal modello Gemini. E xAI di Elon Musk si è già detta disponibile a fornire Grok senza particolari limiti etici — anche grazie alla vicinanza politica di Musk alla Casa Bianca.
Il settore appare spaccato: da un lato Anthropic che, pur non essendo contro all’applicazione militare del suo moedello, si batte per le sue regole “etiche” e ne paga il prezzo, dall’altro i giganti del settore che preferiscono semplicemente collaborare con meno vincoli, chinandosi ai desiderata dell’establishment. Un’IA senza vincoli etici, verso cui siamo diretti, avrà impatti di lungo termine per chi vuole davvero una AI sicura.
Le radici del conflitto: il Venezuela e i dipendenti Anthropic
Tutto questo non nasce dal nulla: già nei mesi prima, Claude era stato usato nell’operazione “Absolute Resolve” in Venezuela, culminata con la cattura di Maduro. Notizia che aveva sconvolto i dipendenti Anthropic, attratti proprio dall’immagine di azienda “responsabile”.
Le proteste interne costrinsero Amodei a chiarire pubblicamente le “linee rosse” — quelle stesse che porteranno allo scontro con il Pentagono. Segno che, nell’era dell’AI militare, le questioni etiche non sono più solo filosofia, ma realtà che plasmano le strategie aziendali. Il fatto stesso, però, di aver già assistito ad operazioni militari “al limite” e gestite dall’IA, ci fa dubitare sull’effettiva possibilità delle aziende private di gestire liberamente questa scelta, considerando che proprio dal comparto militare arrivano finanziamenti imponenti.
Le implicazioni globali: chi detta le regole?
La vicenda tra Anthropic e il Pentagono mostra come la guerra moderna non sia più solo questione di armi ed eserciti, ma anche di algoritmi e modelli linguistici. Claude non decide ancora chi uccidere, ma accelera le decisioni umane e aumenta la potenza dell’intelligence militare.
Intanto, la Cina corre: robot umanoidi e AI sono al centro della sua strategia di “guerra ibrida”. L’Europa accelera sui regolamenti, ma il campo di battaglia avanza più in fretta delle leggi.
Il caso Anthropic pone la domanda chiave: chi deve fissare i limiti etici dell’AI militare? Le aziende? I governi? I militari? O una combinazione di tutti? Per ora, una risposta vera non c’è. Il tutto è lasciato alla deregulation!

