Mentre il mondo si interroga sui pericoli dell’intelligenza artificiale, c’è un’azienda che ha fatto della sicurezza, della trasparenza e dell’etica uno dei pilastri del proprio progetto scientifico e commerciale: si tratta di Anthropic, la corporation statunitense salita alla ribalta delle cronache per essersi ribellata al Pentagono, motivo per cui la società è stata successivamente classificata come un «fornitore non affidabile» da Donald Trump che ha indicato l’azienda come un «rischio per la catena di approvvigionamento», ovvero come un’azienda che, con le sue attività, potrebbe mettere a rischio la sicurezza nazionale. Ma come si è arrivati fin qui? Partiamo dal principio, ovvero dalla sua fondazione.
Com’è nata
Anthropic nasce nel 2021 da alcuni ex membri della rivale OpenAI, tra cui figurano i fratelli Dario e Daniela Amodei, rispettivamente amministratore delegato e presidente dell’azienda che, a febbraio 2026, aveva un valore stimato di circa 380 miliardi di dollari. La rottura tra i fratelli Amodei e OpenAI si consuma proprio per i motivi che porteranno successivamente Anthropic a distinguersi dai suoi competitor: la sicurezza come impostazione di base per lo sviluppo dell’intelligenza artificiale e l’impostazione di limiti di responsabilità nella progettazione e nell’uso dei modelli. In un’epoca in cui la corsa agli investimenti e alla scalabilità sembra spesso dominare il dibattito sull’IA, la startup ha scelto di proporre un modello di sviluppo più cauto e orientato alla mitigazione dei rischi potenziali.
L’azienda ha costruito la sua reputazione soprattutto grazie a Claude, chatbot che si distingue dalla concorrenza per l’accuratezza, la struttura e la sicurezza delle risposte. Il modello sviluppato da Anthropic, infatti, evita ambiti d’uso vietati, modera toni e spesso propone alternative quando i dati non sono certi. Nelle chat, Claude permette di utilizzare diversi stili di risposta: normale, conciso, esplicativo o formale. La crescita esponenziale della società si inserisce in un contesto storico che vede il Pentagono investire sempre più nell’intelligenza artificiale per applicazioni strategiche: analisi dei dati, cybersecurity, logistica militare e sistemi autonomi. In questo scenario, aziende come Anthropic sono diventate partner potenziali per fornire modelli avanzati.
Accordi e disaccordi
Nel luglio 2025, la società di Dario e Daniela Amodei conclude un accordo da 200 milioni di dollari con il governo statunitense per l’utilizzo di Claude. Nel contratto, però, Anthropic pretende di inserire clausole ben precise che prevedono, in particolar modo, il divieto di utilizzo del suo modello per attività di sorveglianza di massa indiscriminata, l’esclusione da sistemi di armi autonome letali senza supervisione umana e restrizioni su applicazioni che possano causare danni diretti a civili. Da qui nasce lo scontro con il Pentagono, secondo cui, invece, una tecnologia acquistata dal governo deve essere utilizzabile per qualsiasi scopo legittimo, senza vincoli imposti dal fornitore.
I rapporti tra la società e il dipartimento della Difesa statunitense si deteriorano definitivamente nel 2026 dopo il blitz americano in Venezuela e soprattutto l’offensiva militare contro l’Iran: in entrambe le operazioni, infatti, i militari statunitensi avrebbero utilizzato l’intelligenza artificiale elaborata da Anthropic per analisi di intelligence, pianificazione operativa e simulazioni di attacchi. Il tutto è avvenuto dopo il netto rifiuto da parte della corporation a un ultimatum del Pentagono che aveva chiesto esplicitamente di rimuovere o ridurre alcune limitazioni e garantire maggiore flessibilità d’uso nei contesti militari.
Una lettera a Washington
Una richiesta che, come detto, ha visto il netto rifiuto da parte di Anthropic, così come spiegato dall’a.d. della società Dario Amodei in una lettera. «Anthropic è consapevole che le decisioni militari vengono prese dal Dipartimento della Guerra e non da aziende private. Non abbiamo mai sollevato obiezioni su particolari operazioni militari né abbiamo mai tentato di limitare l’uso della nostra tecnologia in modo ad hoc», scrive Amodei nel testo. «Tuttavia, in una ristretta serie di casi, riteniamo che l’IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori dei limiti di ciò che la tecnologia odierna è in grado di fare in modo sicuro e affidabile». Nella missiva, poi, Amodei spiega che l’utilizzo dell’IA per la sorveglianza interna di massa è «incompatibile con i valori democratici» e «presenta rischi gravi e inediti per le nostre libertà fondamentali». Amodei, quindi, chiarisce che mentre le «armi parzialmente autonome, come quelle utilizzate oggi in Ucraina, sono fondamentali per la difesa della democrazia», oggi i «sistemi di intelligenza artificiale all’avanguardia non sono ancora abbastanza affidabili per alimentare armi completamente autonome». Per questi motivi fondamentali, l’azienda, attraverso le parole del suo a.d., fa sapere al dipartimento della Difesa di non poter «in buona coscienza accogliere la loro richiesta».
Botta e risposta
La reazione del Pentagono e dell’amministrazione statunitense è durissima: Anthropic viene valutata come “supply chain risk” (rischio per la catena di approvvigionamento), etichetta che impedisce alle aziende legate al governo cinese di fare affari con gli Stati Uniti d’America,
in particolar modo in settori strategici come quello della difesa o delle telecomunicazioni. La decisione dell’amministrazione Trump, oltre a escludere la società da eventuali contratti federali, crea una danno di reputazione significativo all’azienda ma soprattutto si traduce in un messaggio politico ben chiaro: chi impone limiti all’uso militare dell’IA può essere considerata inaffidabile.
La reazione della corporation, però, non si è fatta attendere. Anthropic ha deciso portare il caso in tribunale sottolineando come la decisione del dipartimento statunitense violi i principi costituzionali, in particolar modo quelli sulla libertà di espressione, e accusando l’amministrazione Usa di attuare una ritorsione politica. Una vera e propria faida che continua a trascinarsi ma che, a marzo, ha visto l’azienda ottenere un primo sviluppo decisivo. Un tribunale federale della California, infatti, ha accolto il ricorso presentato dalla società sospendendo temporaneamente le sanzioni imposte dall’amministrazione Usa contro la corporation. Secondo la giudice Rita F. Lin, infatti, gli organi governativi non possono utilizzare il potere dello Stato per «punire o reprimere pareri sgraditi». La questione è ancora lontana dall’essere risolta ma ha aperto un dibattito ben più ampio ed etico sull’utilizzo dell’intelligenza artificiale da parte dei governi ma anche sui rapporti tra le Big Tech e le amministrazioni politiche. Ecco perché la disputa legale tra Anthropic e il dipartimento della Difesa degli Stati Uniti può segnare uno spartiacque. Non solo perché si tratta del primo vero scontro tra etica dell’IA e potere militare ma soprattutto perché apre un quesito destinato a restare centrale nel dibattito pubblico: un’intelligenza artificiale può essere davvero “neutrale”, o deve avere dei limiti imposti da chi la crea?