Anthropic sfida Trump: la battaglia legale per il futuro dell’IA

Anthropic sfida Trump: la battaglia legale per il futuro dell'IA

Anthropic sfida Trump: la battaglia legale per il futuro dell'IA

Matteo Rigamonti

Febbraio 28, 2026

Washington, 28 febbraio 2026 – La startup Anthropic ha annunciato che porterà la questione in tribunale dopo che il Pentagono ha vietato l’uso della sua intelligenza artificiale, Claude, nelle agenzie federali. La notizia è arrivata ieri sera, al termine di settimane di tensioni tra l’azienda californiana e il Dipartimento della Difesa degli Stati Uniti. Il Pentagono voleva avere accesso libero alla piattaforma, ma Anthropic ha messo dei paletti precisi, scatenando la reazione della Casa Bianca e un intervento diretto del presidente Donald Trump.

Anthropic accusa: “È un’intimidazione” e si prepara alla battaglia legale

Fonti interne raccontano che i vertici di Anthropic hanno definito “un’intimidazione” la richiesta del Pentagono di usare Claude senza alcun limite. “Non possiamo lasciare che una tecnologia così delicata venga usata senza garanzie etiche e tecniche”, ha detto in una nota Dario Amodei, amministratore delegato della società. Fondata nel 2021 a San Francisco, Anthropic è tra le realtà più avanzate nel campo dell’intelligenza artificiale generativa.

Il punto centrale è la volontà del Dipartimento della Difesa di inserire Claude nei propri sistemi senza restrizioni o filtri sui dati. Anthropic, però, ha imposto regole precise per evitare usi che non rispettano le sue linee guida. “Dobbiamo proteggere gli utenti e la società da possibili abusi”, ha ribadito Amodei.

Casa Bianca furiosa: arriva il divieto federale

La fermezza di Anthropic ha fatto infuriare la Casa Bianca. Secondo fonti vicine all’amministrazione, il presidente Donald Trump avrebbe espresso “profonda insoddisfazione” per la mancata collaborazione della startup. Martedì pomeriggio, Trump ha firmato un ordine esecutivo che vieta a tutte le agenzie federali di usare i servizi di Anthropic.

“Non possiamo permettere che un’azienda privata blocchi le esigenze di sicurezza nazionale”, avrebbe detto Trump in una riunione con i vertici del Pentagono. Il divieto è entrato in vigore alle 18:00 ora di Washington e riguarda sia i contratti attivi che quelli futuri.

Anthropic: “Serve trasparenza sull’uso dell’IA”

Nel comunicato diffuso nella notte, Anthropic ha ribadito la sua posizione: “Siamo pronti a difendere in tribunale il diritto di mettere limiti etici all’uso delle nostre tecnologie”. L’azienda teme che un uso senza controllo dell’intelligenza artificiale possa mettere a rischio la privacy e la sicurezza dei cittadini.

Fonti interne spiegano che la richiesta del Pentagono prevedeva l’accesso a dati sensibili e la possibilità di aggirare i filtri anti-abuso di Claude. “Non possiamo accettare condizioni che minano i nostri principi fondamentali”, ha sottolineato Amodei.

Un caso che divide il mondo tech

La vicenda sta creando dibattito nel settore tecnologico. Alcuni osservatori avvertono che il caso Anthropic-Pentagono potrebbe segnare un precedente delicato nei rapporti tra aziende private e istituzioni pubbliche nell’intelligenza artificiale. “È una questione di equilibrio tra innovazione e controllo democratico”, ha commentato Lisa Feldman, analista di Stanford University.

Secondo le prime stime, il divieto potrebbe pesare molto sulle finanze di Anthropic, che negli ultimi mesi aveva avviato trattative con diverse agenzie federali per portare Claude in ambito difesa e intelligence.

Cosa succederà ora: occhi puntati sui tribunali

La battaglia legale di Anthropic dovrebbe partire a breve. Gli avvocati stanno preparando un ricorso d’urgenza alla Corte Distrettuale di Washington. Nel frattempo, il Dipartimento della Difesa non ha rilasciato commenti ufficiali.

Resta da vedere se altre aziende seguiranno Anthropic o se prevarrà un atteggiamento più morbido verso le richieste del governo. Una cosa è certa: questa storia apre un nuovo capitolo nel rapporto tra tecnologia, sicurezza nazionale e diritti delle imprese.