Translate
Il Pentagono intende utilizzare il modello di intelligenza artificiale di Antropic, Claude, con cui ha un contratto di utilizzo in essere, per monitorare infrastrutture cinesi, individuare vulnerabilità nei dispositivi avversari e organizzare operazioni di cyberattacco e, al bisogno, di spionaggio di massa della popolazione. Tuttavia, le linee guida etiche di Anthropic, inserite nei contratti, rappresentano un ostacolo a questo utilizzo. Il 24 febbraio 2026, il Segretario alla Difesa Pete Hegseth convoca il CEO di Anthropic, al Pentagono. Il governo pone un ultimatum chiaro, con termine alle 17:01 di venerdì 27 febbraio. Se Anthropic non acconsente a permettere l’impiego di Claude “per qualsiasi finalità lecita”, eliminando i limiti riguardo a sorveglianza e sistemi d’arma autonomi, sarà escluso da ogni collaborazione governativa. Il 26 febbraio, a poche ore dalla scadenza, Anthropic pubblica una dichiarazione firmata da Amodei che traduciamo integralmente in questo articolo. Riteniamo che questi documenti possono essere utili per comprendere cosa accade intorno al mondo dell’intelligenza artificiale e le sue ripercussioni sulla nostra vita quotidiana.
26 febbraio 2026
Credo profondamente nell’importanza esistenziale dell’uso dell’intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici.
Anthropic ha quindi lavorato in modo proattivo per distribuire i propri modelli al Dipartimento della Guerra e alla comunità dell’intelligence. Siamo stati la prima azienda di intelligenza artificiale di frontiera a distribuire i nostri modelli nelle reti classificate del governo degli Stati Uniti, la prima a distribuirli presso i Laboratori Nazionali e la prima a fornire modelli personalizzati per i clienti della sicurezza nazionale. Claude è ampiamente utilizzato presso il Dipartimento della Guerra e altre agenzie per la sicurezza nazionale per applicazioni mission-critical, come analisi di intelligence, modellazione e simulazione, pianificazione operativa, operazioni informatiche e altro ancora.
Anthropic si è anche attivata per difendere la leadership americana nell’intelligenza artificiale, anche quando ciò andava contro gli interessi a breve termine dell’azienda. Abbiamo scelto di rinunciare a diverse centinaia di milioni di dollari di fatturato per interrompere l’uso di Claude da parte di aziende legate al Partito Comunista Cinese (alcune delle quali sono state designate dal Dipartimento della Guerra come “Compagnie Militari Cinesi”), abbiamo bloccato gli attacchi informatici sponsorizzati dal PCC che tentavano di abusare di Claude e abbiamo sostenuto rigorosi controlli sulle esportazioni di chip per garantire un vantaggio democratico.
Anthropic è consapevole che è il Dipartimento della Guerra, non le aziende private, a prendere decisioni militari. Non abbiamo mai sollevato obiezioni a specifiche operazioni militari, né abbiamo tentato di limitare l’uso della nostra tecnologia in modo mirato .
Tuttavia, in un ristretto numero di casi, riteniamo che l’IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile. Due di questi casi d’uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra e riteniamo che non dovrebbero esserlo ora:
- Sorveglianza interna di massa. Sosteniamo l’uso dell’IA per missioni di intelligence e controspionaggio estere legittime. Tuttavia, l’uso di questi sistemi per la sorveglianza interna di massa è incompatibile con i valori democratici. La sorveglianza di massa basata sull’IA presenta gravi e nuovi rischi per le nostre libertà fondamentali. Nella misura in cui tale sorveglianza è attualmente legale, ciò è dovuto solo al fatto che la legge non ha ancora raggiunto le capacità in rapida crescita dell’IA. Ad esempio, secondo la legge attuale, il governo può acquistare da fonti pubbliche registrazioni dettagliate dei movimenti, della navigazione web e delle associazioni degli americani senza ottenere un mandato, una pratica che la comunità dell’intelligence ha riconosciuto sollevare preoccupazioni in materia di privacy e che ha generato un’opposizione bipartisan al Congresso. Una potente IA consente di assemblare questi dati sparsi e singolarmente innocui in un quadro completo della vita di qualsiasi persona, automaticamente e su larga scala.
- Armi completamente autonome. Le armi parzialmente autonome, come quelle utilizzate oggi in Ucraina, sono vitali per la difesa della democrazia. Anche le armi completamente autonome (quelle che escludono completamente gli esseri umani dal ciclo e automatizzano la selezione e l’ingaggio dei bersagli) possono rivelarsi fondamentali per la nostra difesa nazionale. Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani. Ci siamo offerti di collaborare direttamente con il Dipartimento della Guerra in attività di ricerca e sviluppo per migliorare l’affidabilità di questi sistemi, ma non hanno accettato l’offerta. Inoltre, senza un’adeguata supervisione, non si può fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe professionali e altamente addestrate dimostrano ogni giorno. Devono essere schierate con le opportune protezioni, che oggi non esistono.
Per quanto ne sappiamo, queste due eccezioni non hanno finora rappresentato un ostacolo all’accelerazione dell’adozione e dell’utilizzo dei nostri modelli all’interno delle nostre forze armate.
Il Dipartimento della Guerra ha dichiarato che stipulerà contratti solo con aziende di intelligenza artificiale che acconsentono a “qualsiasi uso lecito” e rimuovono le misure di sicurezza nei casi sopra menzionati. Hanno minacciato di rimuoverci dai loro sistemi se avessimo mantenuto queste misure di sicurezza; hanno anche minacciato di designarci come “rischio per la catena di approvvigionamento” – un’etichetta riservata agli avversari statunitensi, mai applicata prima a un’azienda americana – e di invocare il Defense Production Act per imporre la rimozione delle misure di sicurezza. Queste ultime due minacce sono intrinsecamente contraddittorie: una ci etichetta come un rischio per la sicurezza; l’altra etichetta Claude come essenziale per la sicurezza nazionale.
In ogni caso, queste minacce non cambiano la nostra posizione: non possiamo in coscienza acconsentire alla loro richiesta.
È prerogativa del Dipartimento selezionare i fornitori più in linea con la propria visione. Tuttavia, dato il valore sostanziale che la tecnologia di Anthropic offre alle nostre forze armate, ci auguriamo che ci ripensino. La nostra ferma preferenza è continuare a servire il Dipartimento e i nostri combattenti, con le due garanzie richieste in atto. Qualora il Dipartimento decidesse di abbandonare Anthropic, ci impegneremo per consentire una transizione graduale verso un altro fornitore, evitando qualsiasi interruzione della pianificazione militare in corso, delle operazioni o di altre missioni critiche. I nostri modelli saranno disponibili alle condizioni espansive che abbiamo proposto per tutto il tempo necessario.
Restiamo pronti a proseguire il nostro lavoro a sostegno della sicurezza nazionale degli Stati Uniti.
Altri articoli:

