Negli ultimi tempi i team di sicurezza hanno cominciato a integrare strumenti guidati da modelli probabilistici per scovare percorsi di attacco complessi che sfuggono alle analisi tradizionali. Questi strumenti, pensati per emulare il ragionamento umano e pivotare tra ipotesi diverse, hanno dimostrato una straordinaria capacità di scoperta, ma hanno anche messo in luce un limite critico: la non ripetibilità delle azioni compiute. Quando un agente agentico non ripete esattamente la stessa sequenza, diventa impossibile confrontare esiti e stabilire con certezza se una correzione sia davvero efficace.
La questione è diventata ancora più concreta in aprile 2026, quando un sistema avanzato ha dimostrato la possibilità che un’IA agisca da attaccante, mettendo insieme vulnerabilità zero-day e generando exploit funzionanti in poche ore.
Quel caso ha riacceso il dibattito: non basta scoprire le esposizioni, bisogna anche verificarne la scomparsa. Senza la capacità di riprodurre gli stessi passaggi in modo controllato, le squadre di difesa operano con un margine di dubbio inaccettabile per ambienti di produzione.
Il paradosso della scoperta agentica
Gli strumenti agentici eccellono nel trovare percorsi laterali creati da relazioni di fiducia, account di servizio o permessi obsoleti: il loro valore risiede nella capacità di combinare elementi disparati e ipotizzare sequenze complesse. Tuttavia, proprio questa inclinazione all’esplorazione introduce un problema operativo: la loro natura probabilistica produce risultati che possono variare ad ogni esecuzione. In pratica, un attacco simulato mostrato una volta potrebbe non riapparire nella stessa forma, rendendo difficile stabilire se una vulnerabilità sia stata realmente eliminata o semplicemente non riemergente in quel particolare run.
Perché l’aleatorietà indebolisce la fiducia
L’aleatorietà non è solo una questione teorica: significa che i team non possono confrontare esiti identici e misurare variazioni minime dopo una patch o una modifica di configurazione. La validazione in sicurezza richiede confronti uno-a-uno: stessa tecnica, stessi parametri, stessa sequenza. Solo così si può affermare con fiducia che un vettore non è più sfruttabile. Senza questa certezza, la percezione della sicurezza resta fragile e le decisioni operative rischiano di basarsi su speranze, non su evidenze.
Un’architettura a due motori per riconciliare scoperta e verifica
La risposta pratica consiste nell’adottare una architettura a due motori, dove le capacità agentiche sono affiancate da un livello di esecuzione deterministica. Il primo motore esplora, individua catene di attacco e rivela scenari emergenti; il secondo riproduce in modo rigoroso le sequenze identificate per permettere la valutazione comparativa prima e dopo la mitigazione.
Questa divisione dei compiti trasforma una scoperta potenzialmente inquietante in un caso verificabile su cui prendere decisioni operative.
Esecuzione deterministica per la conferma
L’esecuzione deterministica significa controllare tutte le variabili: ordine delle azioni, timing, payload e condizioni ambientali, in modo che il test sia ripetibile e confrontabile. Questo approccio consente ai team di sicurezza di misurare con precisione l’efficacia di una patch o di una modifica dei permessi, e di generare prove tecniche che possono essere tracciate e auditate. Senza questa fase, la scoperta rimane utile solo per la sensibilizzazione, ma non per la chiusura definitiva delle falle.
Implicazioni operative e responsabilità dei vendor
L’evoluzione verso sistemi sempre più autonomi solleva anche questioni di responsabilità: le organizzazioni si aspettano che i fornitori rispondano per gli esiti in produzione, e non possono trasferire la colpa a un modello quando qualcosa va storto.
Per questo motivo, chi sviluppa o integra strumenti di sicurezza deve progettare meccanismi che combinino controllo deterministico e flessibilità esplorativa. Allo stesso tempo, le squadre interne devono adottare processi di validazione continua per mantenere la fiducia operativa man mano che gli avversari utilizzano l’AI per ragionare su nuove traiettorie d’attacco.
In sintesi, la via pragmatica è chiara: sfruttare le capacità di scoperta dell’AI agentica senza rinunciare a motori che garantiscano ripetibilità e prova delle correzioni. Solo così la sicurezza può trasformare la velocità e la creatività dell’attaccante potenziato dall’IA in un problema risolvibile, verificabile e tracciabile. La fiducia nelle difese nasce dalla verifica, non dall’assenza temporanea di evidenze.

