in

Usa agenti AI per la sicurezza: come Google e Wiz spingono la difesa automatizzata

Scopri come un approccio basato su agenti AI può trasformare la sicurezza informatica e quali strumenti servono per evitare che gli stessi agenti diventino un rischio

Usa agenti AI per la sicurezza: come Google e Wiz spingono la difesa automatizzata

Nel panorama della sicurezza informatica moderna, la velocità delle minacce ha reso obsoleta la sola reazione umana. Aziende come Google e Wiz propongono una transizione verso una difesa AI-led, dove un’orchestra di agenti AI esegue azioni a ritmo macchina sorvegliata da operatori umani. Questo articolo esplora le ragioni tecniche e operative di tale svolta, le novità annunciate in ambito di prodotti e piattaforme e le contromisure necessarie per non amplificare i rischi. Capiremo inoltre come concetti come AI-BOM e agentic fleet si inseriscono in scenari reali e cosa cambia nelle procedure di rilevamento e risposta.

Perché passare a una difesa guidata dall’AI

Le minacce attuali si muovono a velocità tale che i processi manuali non bastano più: report e analisi indicano che i passaggi tra gruppi criminali si sono ridotti drasticamente, rendendo cruciale l’intervento a livello macchina.

Un modello di difesa human-in-the-loop evolve quindi verso una strategia dove automazione e intelligenza artificiale eseguono compiti ripetitivi, come il monitoraggio continuo e la correlazione di eventi, lasciando agli umani il controllo e le decisioni complesse. Questo approccio permette di scalare le attività di cybersecurity, ridurre i tempi di indagine e intervenire prima che un attacco si propaghi, ma impone standard elevati di governance per identità, policy e verifiche continue.

L’approccio agentico di Google e di Wiz

La visione presentata dai leader del settore prevede una flotta agentica composta da diversi tipi di agenti specializzati: quelli che cacciano comportamenti anomali, quelli che verificano la copertura di sicurezza e quelli che arricchiscono i workflow con contesto esterno.

Dopo l’integrazione tra Google e Wiz, sono stati messi in evidenza strumenti come il Threat Hunting agent e il Detection Engineering agent, capaci di operare continuativamente su larga scala e di creare regole di rilevamento in modo dinamico. Questi agenti sfruttano telemetria, intel di terze parti come Mandiant e modelli di linguaggio per identificare pattern stealth che potrebbero sfuggire a controlli tradizionali.

Strumenti lanciati e come cambiano le operazioni

Tra le novità annunciate emergono piattaforme e servizi pensati per dare identità e governance agli agenti: il Gemini Enterprise Agent Platform e l’Agent Gateway sono progettati per gestire autenticazioni, policy e comunicazioni tra agenti e strumenti; Model Armor aggiunge una protezione runtime per le interazioni tra modelli e agenti.

Inoltre, la disponibilità di protocolli come MCP e di server di contesto permette alle organizzazioni di costruire agenti custom che sfruttano funzionalità centralizzate di Security Operations. Questi strumenti promettono di ridurre i tempi medi di analisi da decine di minuti a pochi secondi, accelerando significativamente i cicli di risposta.

Come si integra l’infrastruttura con gli sviluppatori

Il concetto di AI-BOM (bill of materials per applicazioni AI) diventa essenziale per tracciare modelli, SDK, librerie e server coinvolti nella creazione di applicazioni generative. Integrare scanner di sicurezza direttamente nelle piattaforme di sviluppo e negli IDE consente di intercettare vulnerabilità, segreti e configurazioni errate mentre il codice viene scritto, anziché scoprirle dopo il rilascio. Questa integrazione riduce il rischio di shadow AI e migliora la collaborazione tra team di sicurezza e sviluppatori, trasformando la verifica in un’attività preventiva e continua.

Rischi, governance e misure di mitigazione

Nonostante i benefici, l’introduzione massiccia di agenti AI porta nuovi punti di fragilità: agenti compromessi o mal configurati possono amplificare danni a velocità macchina. Per questo motivo è fondamentale implementare controlli di identità univoci per ogni agente, policy di comunicazione e monitoraggio delle catene di fiducia. Sistemi come Agent Gateway e Model Armor servono proprio a limitare l’impatto di eventuali abusi e a garantire che le interazioni tra agenti e strumenti restino sotto controllo umano. Inoltre, procedure di auditing continue e un AI-BOM aggiornato aiutano a ricostruire la catena di responsabilità in caso di incidente.

Prepararsi al futuro: suggerimenti pratici

Le organizzazioni che vogliono adottare una strategia agentica dovrebbero partire dalla visibilità: mappare asset, flussi e dipendenze, quindi introdurre agenti in ambienti controllati per testare efficacia e limiti. È consigliabile creare policy chiare di autorizzazione per agenti, integrare scanning continuo nel ciclo di sviluppo e preparare playbook che combinino automazione e supervisione umana. Infine, promuovere una cultura della sicurezza che includa formazione specifica su AI e gestione degli agenti aiuta a ridurre errori operativi e a sfruttare pienamente i vantaggi dell’automazione.

In sintesi, l’adozione di agenti AI rappresenta una svolta nella difesa informatica: quando ben governata, accelera il rilevamento e la risposta e può riportare il vantaggio dalle mani dei criminali alle difese aziendali. Tuttavia, senza adeguate misure di controllo e trasparenza come AI-BOM, identità degli agenti e policy di comunicazione, l’automazione rischia di introdurre nuovi vettori di rischio. La vera sfida è costruire un equilibrio efficace tra velocità macchina e supervisione umana, per assicurare che gli agenti lavorino come estensione fidata delle squadre di sicurezza.

What do you think?

Scritto da Federica Bianchi

Biologa nutrizionista e giornalista scientifica. 10 anni di pratica clinica.

Green claims efficaci: guida pratica per comunicazioni ambientali conformi

Green claims efficaci: guida pratica per comunicazioni ambientali conformi