lunedì 9 marzo 2026

Anthropic vs. Pentagono

Donald Trump

Se vivessimo in un film distopico, il momento che stiamo vivendo sarebbe sicuramente il climax: chi decide cosa può fare una macchina intelligente e indipendente in tempo di guerra, e chi ha il diritto di stabilire la linea dei suoi confini etici e morali?

Usciamo ora dall'ottica cinematografica e guardiamo in faccia la realtà: Anthropic, unica azienda tech che chiede più regolamentazioni nel settore AI, ha subito una vera e propria estorsione da parte del Dipartimento di Stato americano, che l'ha tagliata fuori dal giro dei contratti federali e l'ha indicata come risk for the supply chain.

Perché?

Dove comincia tutto:

Ovviamente, da un contratto.

Il Pentagono aveva accordi con Palantir per integrare Claude (modello AI di Anthropic) nei propri sistemi operativi e nelle infrastrutture informatiche militari statunitensi.

Palantir, da sempre mediatrice e affarista tra il mondo della sicurezza internazionale e quello dei mercati commerciali, aveva selezionato Claude per le sue capacità analitiche avanzate, quindi fin qui nulla di anomalo.

Qualcuno si stupirebbe, ma il Pentagono e Palantir avevano intenzione di violare le linee guida di Anthropic sull'utilizzo di Claude: secondo quanto riportato da Axios, tra i casi contestati figurava il supporto a operazioni di sorveglianza di massa e l'analisi di dati per identificare obiettivi militari. Uno dei casi accertati più rilevanti è l'operazione di gennaio 2026 a Caracas, condotta tramite Claude attraverso la partnership con Palantir, che ha portato alla cattura del presidente venezuelano Nicolás Maduro, successivamente trasferito a New York per rispondere ad accuse di narcotraffico.

Anthropic, per fortuna, ha assunto pubblicamente una posizione contro queste violazioni, il CEO Dario Amodei ha dichiarato: “Non possiamo, in buona coscienza, acconsentire alle loro richieste."

Questa risposta ha sbalordito quasi tutti, in un settore come quello delle big tech americane, dove le richieste governative spesso suonano più come ordini, la risposta del CEO è un fulmine a ciel sereno. La reazione del Pentagono è stata immediata: obbedire o essere etichettati come un rischio per la catena di approvvigionamento, designazione che escluderebbe l'azienda da qualsiasi contratto federale.

Queste le dichiarazioni ufficiali di Anthropic su Instagram: "il Dipartimento della Guerra, così ribattezzato dall'amministrazione Trump, pretendeva che l'azienda accettasse ‘qualsiasi uso lecito’ di Claude senza riserve, condizione che Anthropic ha pubblicamente rifiutato con le parole: ‘We can't agree to this.’ L'azienda ha invece rivendicato il diritto a mantenere due sole eccezioni all'utilizzo del proprio modello: il divieto per le armi completamente autonome, ritenuto necessario poiché i modelli AI attuali non sono sufficientemente affidabili per gestire sistemi d'arma senza supervisione umana, mettendo a rischio soldati e civili americani, e il divieto per la sorveglianza di massa domestica, definita incompatibile con i valori democratici e con le libertà fondamentali dei cittadini.

Nonostante queste affermazioni di Anthropic, e la conseguente ritorsione di Donald Trump, secondo quanto confermato dal Wall Street Journal e da Axios, i sistemi di Claude sono stati effettivamente utilizzati negli attacchi congiunti USA-Israele sull'Iran del 28 febbraio 2026, a poche ore dall’ordine presidenziale di interrompere tutti gli utilizzi del software. Il US Central Command (CENTCOM) ha impiegato Claude per valutazioni d'intelligence, identificazione degli obiettivi e simulazione degli scenari di guerra. Ci troviamo dunque di fronte a una violazione confermata delle linee guida di Anthropic, avvenuta nonostante il divieto formale imposto dalla stessa amministrazione che aveva bandito l'azienda. Tutto questo è avvenuto nonostante il delirante post su Truth di Donald Trump, dove accusa Anthropic di essere un'azienda "woke di sinistra", sostenendo che quest'ultima non potesse dettare le linee guida su come utilizzare i propri sistemi quando ci sono in ballo vite americane. Sembra però che il cooldown (periodo di tempo in cui cercare e implementare sistemi alternativi) si sei mesi  concesso da Trump alle agenzie federali per interrompere l'utilizzo dei sistemi Claude, sia stato sfruttato a pieno anche dal Pentagono e dal Dipartimento della Guerra nel nuovo teatro mediorientale.

Palantir: Esoscheletro della Sorveglianza

Come tutte le storie complicate, bisogna fare un passo indietro, e guardare all'azienda che si trova al centro della discussione come intermediaria: Palantir Technologies. Fondata nel 2003 si è specializzata nello sviluppo di software per l'analisi e la gestione di dati su vasta scala: ricevono dati dalle fonti più svariate, governative, aziendali, finanziarie, e li processano per individuare pattern, correlazioni e minacce.

Palantir rappresenta uno dei tasselli cruciali nella sorveglianza di massa a livello globale: non è controllata direttamente dai governi, ma opera raccogliendo dati per fornirli sia alle agenzie di intelligence sia alle aziende che personalizzano ciò che ci propongono in base ai nostri dati. Non è un caso che questo meccanismo sia emerso proprio dopo l'11 settembre 2001, quando le agenzie americane compresero il potenziale straordinario di una rete "invisibile" per il controllo sociale.

I co-fondatori di Palantir, Peter Thiel e Alex Karp, non si sono mai distinti per una particolare prudenza nelle dichiarazioni pubbliche, con alcune di esse che restano tutt'oggi sconvolgenti. Thiel, nel 2009, affermò senza mezzi termini che "libertà e democrazia non sono compatibili". Nel 2014, alla domanda di un giornalista del New York Times se preferisse o meno che la razza umana continuasse a prosperare, rispose: "se fosse un'opzione credo che sarebbe molto noiosa, un futuro più interessante sarebbe un futuro con un'AI superiore che controlla il mondo".

Alex Karp non è da meno. Tra le sue citazioni più "memorabili": "Il metodo più efficace per il cambiamento sociale è umiliare il tuo nemico e impoverirlo" e "Non penso in termini di vittoria o sconfitta, penso in termini di dominio."

Queste sono le persone che avrebbero gestito l'utilizzo dei sistemi di Anthropic per conto del Governo degli Stati Uniti, senza alcun vincolo etico.

Una prospettiva che Anthropic, per fortuna, ha preferito non assecondare.

Ciò che il Pentagono chiedeva ad Anthropic era, in sostanza, di integrare nelle reti militari classificate un'intelligenza artificiale avanzata capace di ragionare, sintetizzare e agire, ma privata di qualsiasi freno etico. Una AI militarizzata senza salvaguardie interne è, per dirla con le parole del documento di Anthropic: "uno strumento che l'azienda non si sente in coscienza di produrre."

Com’è finita, o meglio, come finirà?

Il 27 febbraio 2026, Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l'utilizzo di Claude.Il 5 marzo 2026, il Pentagono ha notificato formalmente ad Anthropic la sua designazione come "supply chain risk to national security", etichetta storicamente riservata ad avversari stranieri degli Stati Uniti, mai applicata prima a un'azienda americana. Il Segretario della Guerra Pete Hegseth ha dichiarato che “nessun contractor, fornitore o partner che collabora con le forze armate USA potrà intrattenere relazioni commerciali con Anthropic", misura che l'azienda ha immediatamente annunciato di voler contestare in sede giudiziaria, definendola "legally unsound" e un "dangerous precedent for any American company that negotiates with the government", con queste parole: "We will challenge this designation in court."

Paradossalmente, Anthropic era stata la prima azienda di AI a integrare i propri modelli nelle reti classificate del governo statunitense, avendo ottenuto nel luglio 2025 un contratto da 200 milioni di dollari  e supportando le forze armate americane dal giugno 2024.

Eppure, in un panorama in cui la maggior parte delle aziende tech cede senza battere ciglio alle richieste governative, vedi ad esempio OpenAI, che ha già stretto accordi con il Pentagon (nonostante il brusco calo di traffico e di download di Chat GPT), il gesto dell'azienda di San Francisco è sbalorditivo, e lascia sperare in una possibile futura regolamentazione estesa contro l'utilizzo dell'AI per sistemi d'arma autonomi e di sorveglianza di massa.

La questione però, è ovviamente anche strutturale: in un sistema dove intelligence, finanza speculativa e giganti tecnologici lavorano in sinergia per costruire una macchina di controllo globale, chi ha il diritto di dire no? E soprattutto, chi ha ancora il coraggio di farlo?

La risposta, per ora, è: Anthropic.



non perderti nulla

Inserisci la tua mail per rimanere aggiornato sulle prossime uscite

Join the newsletter to receive the latest updates in your inbox.