La notizia, pubblicata il 18 Mar 2026, segnala un’accelerazione significativa negli investimenti militari britannici sull’Intelligenza artificiale. A metà gennaio il Ministero della Difesa ha indicato un gruppo di aziende selezionate per lavorare, nei prossimi quattro anni, allo sviluppo di capacità di decision-support digitale nel quadro del programma Asgard. Questo annuncio si inscrive nella più ampia strategia delineata dalla 2026 Strategic defence review, che pone l’accento su autonomia, connettività e dati per aumentare la capacità operativa.
La portata dell’intervento è significativa sul piano industriale e politico: il MoD ha parlato di finanziamenti superiori a £1bn a sostegno del progetto, e ha denominato il percorso di fornitura con l’open framework Digital Decision Accelerators for Defence. Contestualmente, gruppi di controllo e accademici richiamano l’attenzione sui rischi umanitari connessi all’adozione di sistemi in grado di velocizzare il ciclo sensoriale e decisionale.
Chi sono i fornitori e quali competenze porteranno
Secondo il documento pubblicato mid-January 2026, la rosa di partner comprende sia aziende specializzate in tecnologie militari sia grandi nomi dell’IT e della consulenza. Tra i fornitori figurano Anduril, Helsing, QinetiQ, Leonardo e Tekever, insieme a soggetti come Oracle, BT, Faculty AI, Plextek e Deloitte. Il quadro indica che le imprese potrebbero operare in aree diverse: integrazione dati, acceleratori, applicazioni, edge compute e servizi.
Un framework per decidere
L’Open Framework pubblicato in June 2026 delinea cinque “lot” su cui i partner possono concentrarsi, con un focus esplicito sull’elemento Decide del ciclo di acquisizione degli obiettivi (Sense-Decide-Effect). In pratica, le soluzioni attese dovrebbero migliorare la velocità con cui le forze armate identificano e selezionano bersagli, sfruttando modelli di machine learning e reti di comunicazione avanzate per fornire supporto decisionale in tempo reale.
Obiettivi ufficiali e garanzie dichiarate
Il MoD sostiene di non voler sviluppare armi completamente autonome, sottolineando la necessità di «coinvolgimento umano contestuale» nei sistemi che identificano e attaccano bersagli. Tuttavia, le indicazioni operative restano generiche e il confine tra automazione e controllo umano è, per molti osservatori, poco definito. Il progetto Asgard viene presentato come una leva per estendere il raggio d’azione e la rapidità di risposta delle forze britanniche, integrando surveillance, potenza di fuoco e connettività digitale.
Critiche etiche e timori per le vittime civili
Organizzazioni come Drone Wars UK e studiosi di etica militare hanno espresso preoccupazione per l’erosione della supervisione umana: secondo questi critici, l’accelerazione delle decisioni tramite algoritmi rischia di diluire responsabilità e accountability, con possibili conseguenze tragiche per la popolazione civile.
Chris Cole di Drone Wars ha evidenziato come la giustificazione della «necessità di velocità» non risolva i problemi di accuratezza e verifica umana; allo stesso tempo, la professoressa Elke Schwarz parla di un dilemma intrinseco tra autonomia tecnologica e controllo politico e legale.
Casi internazionali a confronto
Le preoccupazioni non sono puramente teoriche: indagini precedenti hanno collegato l’uso di strumenti basati su AI a ingenti perdite civili. In Gaza sono stati documentati sistemi che generano liste di obiettivi e segnano persone per attacchi, con inchieste di stampa risalenti ad April 2026 e November 2026 che hanno nominato piattaforme come Lavender e Gospel. Allo stesso modo, nel caso Iran, l’impiego di tool avanzati (tra cui riferimenti a Claude e Project Maven) è stato associato a un’ondata di attacchi che, in alcuni resoconti, hanno colpito strutture scolastiche e causato vittime civili.
Il comandante del US Central Command, Brad Cooper, ha confermato l’uso di strumenti AI il 11 March 2026 nel contesto delle operazioni in Iran.
La questione per il Regno Unito è quindi duplice: modernizzare le capacità militari per restare competitivi, e nello stesso tempo mettere in atto meccanismi stringenti di controllo, verifica e responsabilità. Mentre il MoD parla di garanzie e di contesti operativi che richiedono supervisione umana, le ONG e gli esperti chiedono trasparenza, limiti chiari e verifiche indipendenti per prevenire errori sistemici e danni collaterali.

