Negli ultimi giorni lo scontro tra grandi aziende tech e il Pentagono è diventato un caso pubblico molto seguito. Al centro della tormenta c’è Anthropic, che ha rifiutato di rimuovere alcune restrizioni sul suo modello Claude opponendosi alla richiesta del Dipartimento della Difesa di accesso “illimitato”. La scelta dell’azienda ha provocato una reazione a catena: oltre 300 dipendenti Google e più di 60 di OpenAI hanno firmato una lettera aperta in sostegno di Anthropic. La vicenda mette in luce nodi delicati sui rapporti tra industria, sicurezza nazionale e governance dell’Intelligenza artificiale.
Due livelli dello stesso conflitto
Il confronto ha una doppia natura. Da una parte ci sono effetti pratici e immediati: contratti, gare d’appalto e strumenti come il Defense Production Act (DPA) che possono essere usati per esercitare pressione sui fornitori.
Dall’altra c’è un dibattito etico e politico più ampio sull’allineamento dei sistemi di AI e sul controllo civile dell’uso militare di tecnologie potenti. Ciò che nasce come questione contrattuale è presto diventato anche un simbolo della partita più generale sul ruolo e i limiti dell’industria tech.
Cosa chiede il Pentagono e perché Anthropic ha detto no
Il nodo riguarda una clausola che permetterebbe al Pentagono di impiegare i modelli “per qualsiasi uso lecito”, interpretata dalle autorità come estensiva anche ad applicazioni operative e integrazioni in sistemi sensibili. Anthropic ha invece imposto due paletti netti: niente sorveglianza di massa sui cittadini e niente sviluppo o impiego di armi autonome privi di supervisione umana. L’azienda motiva questi limiti richiamando la sua missione e la responsabilità verso la collettività, con l’obiettivo di evitare impieghi che possano minare diritti fondamentali o togliere il controllo umano in contesti critici.
La minaccia del DPA e le possibili conseguenze
Di fronte al rifiuto, il Segretario alla Difesa Pete Hegseth ha evocato l’uso del Defense Production Act e la cancellazione di un contratto da centinaia di milioni di dollari. Si è parlato anche della possibilità di inserire Anthropic in una lista che complicherebbe la sua presenza nella supply chain governativa. Esperti avvertono che sarebbe una mossa senza precedenti: strumenti pensati per emergenze potrebbero venire usati per imporre conformità tecnologica. Se attuate, queste misure cambierebbero gli spazi di manovra delle imprese e aprirebbero un precedente per future gare e forniture. Nei giorni a venire si attendono pareri legali e valutazioni tecniche che chiariranno le intenzioni del Dipartimento.
La lettera aperta: solidarietà tra lavoratori del settore
La lettera firmata da centinaia di dipendenti chiede ai vertici aziendali di non lasciare sola Anthropic e di resistere a tattiche che, secondo i firmatari, mirano a indebolire singole società per ridurne la forza negoziale.
La missiva invita a collaborare tra concorrenti per definire limiti condivisi all’uso militare dell’AI, sostenendo che standard comuni potrebbero prevenire impieghi controversi. Questa mobilitazione mostra che, oltre alle strategie dei dirigenti, esiste una base di lavoratori pronta a spingere per regole più restrittive.
Le reazioni dei top manager
I vertici delle grandi imprese si sono espressi soprattutto attraverso dichiarazioni pubbliche. Sam Altman di OpenAI ha criticato l’uso del DPA come strumento di pressione e si è detto vicino ad alcuni timori di Anthropic. Jeff Dean di Google DeepMind ha sollevato dubbi sui rischi di sorveglianza estesa e su questioni di costituzionalità. Finora queste prese di posizione non si sono trasformate in iniziative coordinate: prevale una fase di valutazione in cui pesano questioni legali, tecniche e reputazionali.
Impatto politico e commerciale
Lo scontro ha già prodotto effetti concreti. Un intervento pubblico dell’ex presidente Trump ha disposto lo stop all’uso della tecnologia Anthropic nelle agenzie governative, mentre l’amministrazione sta valutando misure che potrebbero escludere l’azienda da contratti federali in corso. Allo stesso tempo OpenAI ha siglato accordi per fornire modelli a reti classificate, creando spazi competitivi per chi accetta di collaborare strettamente con il governo. Le decisioni del Dipartimento influenzeranno chi, nel breve periodo, potrà accedere a commesse pubbliche strategiche.
Un bivio per l’industria dell’AI
La domanda che resta sul tavolo è questa: chi decide i limiti d’uso dell’intelligenza artificiale, lo Stato o le aziende che la sviluppano? I contratti pubblici e le norme intendono tutelare la sicurezza nazionale, ma il rifiuto di Anthropic dimostra che anche le imprese possono imporre vincoli etici alla diffusione delle loro tecnologie. Questa tensione influenzerà trattative su commesse, future linee guida operative e, più in generale, il rapporto tra responsabilità civica e interessi commerciali. Con tecnologie che si evolvono più in fretta delle leggi, la disputa disegna un fronte destinato a incidere sulla governance futura dell’AI.

