Negli ultimi anni, si è assistito a un’impetuosa diffusione dell’intelligenza artificiale (AI) e degli agenti AI. Queste tecnologie non sono più solo un argomento di discussione tra esperti, ma sono diventate una presenza costante in eventi, pubblicità e nella vita quotidiana. Gli agenti AI, noti anche come modelli agentici di AI, si basano su tecnologie come l’AI generativa e i modelli di linguaggio di grandi dimensioni (LLM) per automatizzare varie attività e flussi di lavoro.
Applicazioni pratiche degli agenti AI
Ad esempio, per organizzare una riunione, è sufficiente chiedere all’agente AI di prenotare una sala per un certo numero di partecipanti a un orario specifico. L’agente provvederà a tutto, trovando una sala disponibile e inviando automaticamente gli inviti ai colleghi.
Pianificazione di viaggi senza stress
Per pianificare una vacanza, è possibile comunicare all’agente AI le proprie preferenze di viaggio e necessità particolari. In pochi secondi, l’agente elaborerà varie opzioni, risparmiando tempo e sforzi.
Etay Maor, stratega della sicurezza presso Cato Networks, afferma che nel prossimo futuro ci si aspetta una grande dipendenza dagli agenti AI: “Tutti avranno un agente per vari compiti,” spiega. Tuttavia, avverte anche che i criminali stanno già cercando di sfruttare queste tecnologie.
I rischi associati agli agenti AI
Con l’avanzamento delle tecnologie, si è verificato un aumento delle cyber minacce. Ogni innovazione, anche se creata con buone intenzioni, può essere sfruttata da malintenzionati. La storia della tecnologia dimostra come i criminali approfittino di ogni nuovo sviluppo per perpetrare frodi e attacchi informatici.
Le vulnerabilità degli agenti AI
Yuval Zacharia, ex direttore R&D presso Hunters, sottolinea che gli hacker stanno già cercando di generare exploit utilizzando agenti AI. “La complessità di analizzare e sfruttare i codici è esattamente ciò in cui gli agenti AI eccellono,” afferma, evidenziando come essi possano dividere problemi complessi in componenti gestibili.
Ricerche condotte dalla società di consulenza sulla sicurezza Reversec hanno mostrato che i criminali possono sfruttare vulnerabilità come il prompt injection per ottenere accesso non autorizzato a dati sensibili, manipolando gli agenti AI per generare contenuti malevoli come email di phishing.
Strategie di difesa e automazione
Di fronte a queste minacce, è fondamentale che i responsabili della sicurezza informatica (CISO) e i team di sicurezza considerino l’adozione di agenti AI anche per la difesa.
Zacharia ha sviluppato uno strumento di minaccia basato su AI per migliorare la rilevazione di attacchi.
Rilevazione delle minacce in tempo reale
“Ho cercato di automatizzare la rilevazione delle minacce con gli agenti AI,” racconta. “Questi agenti possono identificare minacce emergenti e fornire informazioni utili per agire in modo proattivo.”
Le informazioni raccolte provengono da diverse fonti, come avvisi di malware e tendenze sui social media. L’AI classifica questi dati in base alla gravità, permettendo ai team di sicurezza di gestire meglio le emergenze.
Ad esempio, per organizzare una riunione, è sufficiente chiedere all’agente AI di prenotare una sala per un certo numero di partecipanti a un orario specifico. L’agente provvederà a tutto, trovando una sala disponibile e inviando automaticamente gli inviti ai colleghi.0