All’evento Google Cloud Next 2026 è emersa una visione ambiziosa: portare gli agenti AI dal laboratorio alla produzione su scala enterprise. In questo contesto Yinon Costica, cofondatore di Wiz, ha lanciato un appello netto: usare l’AI per «hackerare» i propri sistemi prima che lo facciano gli attaccanti. La proposta non è retorica, ma una strategia operativa che integra strumenti di sviluppo, infrastruttura e sicurezza per ridurre il vantaggio dei threat actor e accelerare l’adozione di soluzioni autonome.
La strategia presentata da Google parte dal concetto di Agentic Enterprise, definito come un’organizzazione in cui agenti intelligenti eseguono processi complessi in autonomia, cooperando con sistemi esistenti. I numeri illustrati al convegno sono impressionanti: circa il 75% dei clienti usa già strumenti AI del gruppo, mentre 330 clienti hanno elaborato oltre mille miliardi di token ciascuno negli ultimi dodici mesi e 35 hanno superato la soglia dei diecimila miliardi.
I modelli del gruppo gestiscono più di 16 miliardi di token al minuto tramite API, a testimonianza della scala raggiunta.
Piattaforma e strumenti per l’agentic enterprise
Al cuore dell’offerta c’è Gemini Enterprise e, più specificamente, la Gemini Enterprise Agent Platform, pensata come ambiente end-to-end per costruire, distribuire e governare gli agenti. La piattaforma propone strumenti visivi come Agent Studio, kit per sviluppatori come l’Agent Development Kit (ADK) e funzionalità di orchestrazione, monitoraggio e identità per ogni agente. Sono previste integrazioni con modelli di terze parti attraverso Model Garden, che mette a disposizione oltre 200 modelli, inclusi Gemini 3.1 Pro, Gemini 3.1 Flash Image, Lyria 3 e open model come Gemma 4, oltre a compatibilità con la famiglia Claude di Anthropic.
Dal prototipo alla produzione
Per portare un agente in produzione Google ha introdotto componenti come Agent Runtime per esecuzioni prolungate, Memory Bank per contesti persistenti e strumenti di simulazione e valutazione. L’ADK supporta architetture a grafo per organizzare sotto-agenti e deleghe complesse, mentre Agent Sandbox isola il codice generato dai modelli. Agent Studio e Agent Garden offrono template pronti per casi d’uso (analisi finanziaria, gestione fatture, ricerca), permettendo a sviluppatori e business user di collaborare nello sviluppo di agenti efficaci e controllabili.
Infrastruttura, dati e operatività
La parte hardware e dati è stata ribattezzata per supportare la nuova generazione di agenti: Google ha annunciato l’ottava generazione di TPU con due varianti, TPU 8t per training e TPU 8i per inferenza, oltre a innovazioni come Managed Lustre con throughput fino a 10 TB/s e la Virgo Network per sistemi AI distribuiti.
Queste tecnologie confluiscono nell’AI Hypercomputer, mentre l’approccio ai dati evolve verso un’architettura agent-native con Agentic Data Cloud, lakehouse multi-cloud su Apache Iceberg, e strumenti come Knowledge Catalog e Data Agent Kit per interrogare e sfruttare informazioni in tempo reale.
Sicurezza integrata e difesa proattiva
L’aumento degli agenti autonomi comporta nuovi rischi: per questo Google ha presentato Agentic Defense, una soluzione che integra threat intelligence e tecnologie di Wiz. La piattaforma offre Agent Identity, Agent Registry e Agent Gateway per tracciare azioni e applicare policy, oltre a contromisure contro prompt injection e data leakage. Un agente per l’analisi delle minacce ha già elaborato oltre 5 milioni di alert, riducendo i tempi di analisi da circa 30 minuti a circa 60 secondi, dimostrando l’efficacia della difesa automatizzata.
Impatto sul lavoro e casi di adozione
I casi concreti mostrati includono aziende come Bosch, KPMG (90% di adozione interna), Vodafone, Unilever, PepsiCo e persino la NASA per la sicurezza delle missioni Artemis. In parallelo, Google estende le capacità anche a Workspace Intelligence, collegando email, documenti e dati per automatizzare attività ripetitive. Il risultato è una Spinta verso maggiore produttività, ma anche la necessità di ripensare ruoli, governance e responsabilità: l’AI non è più solo uno strumento, ma diventa componente attiva dell’organizzazione.
In chiusura, il messaggio centrale è duplice: adottare agenti autonomi per sbloccare nuovi livelli di efficienza e, contemporaneamente, implementare pratiche difensive che includano l’uso dell’AI per testare e mettere in sicurezza i propri sistemi. Seguendo l’invito di Yinon Costica, molte organizzazioni potrebbero trarre vantaggio dall’idea di «hackerarsi» internamente per anticipare e neutralizzare le minacce prima che diventino critiche.

