Negli scenari bellici recenti, l’uso di modelli di intelligenza artificiale commerciali è passato dall’essere sperimentale a componente operativa. Fonti giornalistiche e analisti confermano che il Pentagono ha sfruttato il modello Claude di Anthropic, integrandolo nel Maven Smart System sviluppato da Palantir, per elaborare grandi volumi di dati e supportare decisioni in fase di pianificazione e esecuzione delle operazioni.
Come è avvenuta l’integrazione tra Claude e i sistemi militari
Il Maven Smart System è progettato per unire fonti eterogenee di intelligence — immagini satellitari, sorveglianza elettronica e flussi SIGINT — in un’unica pipeline analitica. Integrando Claude, il sistema ha potuto produrre suggerimenti su possibili obiettivi, assegnare priorità e fornire coordinate con rapidità superiore rispetto ai processi manuali tradizionali. Questo approccio ha trasformato attività che richiedevano giorni o settimane in decisioni rese disponibili quasi in tempo reale, pur mantenendo un livello di human in the loop nel controllo finale.
Funzioni principali svolte dall’IA
Nel concreto, il modello è stato utilizzato per: valutare intelligence in tempo reale, identificare e prioritizzare target, e simulare scenari tattici what-if prima dell’esecuzione. Tali capacità hanno aumentato la velocità delle analisi e ridotto l’incertezza, ma hanno anche introdotto dipendenze operative su componenti software commerciali non facilmente sostituibili.
Le tensioni istituzionali: divieti, ordini e pratiche sul campo
Il caso è particolarmente controverso perché arriva dopo un ordine esecutivo che mirava a separare il Dipartimento della Guerra da alcuni rapporti con Anthropic. Nonostante ciò, fonti riferiscono che le forze armate hanno continuato ad avvalersi di Claude, motivando la scelta con la mancanza di alternative validate prontamente disponibili per i sistemi classificati. Parallelamente, sarebbero ripresi contatti con altri fornitori di modelli come OpenAI e xAI per contratti futuri, ma la sostituzione completa richiede tempo.
Questione di governance più che di tecnologie
Esperti evidenziano che il problema principale non è solo tecnologico: è istituzionale. Quando un sistema di IA entra nel ciclo decisionale, la possibilità di disattivarlo rapidamente diventa complessa. La metafora spesso citata è quella di un’infrastruttura critica: non si può semplicemente staccare la corrente durante un’operazione in corso senza conseguenze operative. Perciò la supervisione, i limiti d’uso e i meccanismi di controllo sono al centro del dibattito.
Rischi tecnici, etici e strategici dell’impiego di modelli commerciali
L’utilizzo di modelli AI come supporto al targeting solleva una serie di criticità tecniche e morali. Dal punto di vista tecnico, questi modelli sono suscettibili a errori, a problemi di trasparenza dovuti alla loro natura di scatola nera, e a vettori di attacco come il data poisoning o la prompt injection.
Sul piano etico, la linea che separa assistenza analitica e delega decisionale può sfumare rapidamente se gli operatori si affidano eccessivamente agli output automatizzati.
Conseguenze operative e geopolitiche
L’adozione di tecnologie commerciali in contesti letali crea un precedente: aziende private forniscono strumenti che, se integrati, diventano elementi strategici. Le Nazioni Unite e osservatori internazionali hanno segnalato il rischio che la disponibilità di tali strumenti riduca la trasparenza e complichi la responsabilità in caso di errori. Inoltre, la dipendenza da fornitori esterni può complicare le relazioni tra governi, imprese e opinione pubblica.
Quali lezioni trarre e quale futuro per l’IA militare
Il caso dimostra che l’IA è già parte integrante di alcuni processi critici e che la gestione di questa presenza richiede regole, audit e strumenti di verifica robusti.
È essenziale rafforzare i guardrail tecnici — come meccanismi di explainability, test di robustezza e protezione contro manipolazioni — e definire chiaramente chi detiene l’ultima parola nelle decisioni operative. Senza queste misure, la tecnologia può aumentare la velocità delle operazioni senza garantire la corrispondente responsabilità.
La sfida aperta è governare l’integrazione in modo trasparente, sicuro e responsabile, senza rinunciare alla prontezza operativa quando è richiesta.

