La comparsa di Claude Mythos ha aperto un dibattito urgente sulla traiettoria della sicurezza informatica. Presentato al showcase annuale del CETaS presso l’Alan Turing Institute, il modello è stato descritto come un avanzamento significativo nei compiti di matematica, software engineering e soprattutto nella rilevazione automatizzata di vulnerabilità. Le dimostrazioni pubbliche e gli studi indipendenti suggeriscono che questi sistemi non si limitano più a suggerire correzioni: possono orchestrare sequenze complesse di attività tecniche che una volta richiedevano esperienza umana consolidata. Questo articolo esplora le implicazioni pratiche di tale salto di capacità e le possibili vie di risposta per organizzazioni pubbliche e private.
Cosa può davvero fare Claude Mythos
Secondo valutazioni indipendenti, Claude Mythos rappresenta un cambiamento nell’economia delle operazioni informatiche offensive: la scoperta delle vulnerabilità e lo sviluppo degli exploit diventano più rapidi e meno dipendenti da competenze rare.
Un test citato mostra che il modello è stato in grado di eseguire autonomamente un attacco multi‑fase nella simulazione “The Last Ones”, una prova composta da 32 step, e ha ottenuto un tasso di successo del 73% in sfide di tipo capture-the-flag di livello esperto. Questi esiti indicano che i modelli frontier stanno passando dall’essere semplici assistenti a diventare capacità operative rilevanti.
Velocità di scoperta e concentrazione del rischio
Un elemento cruciale è che l’AI accelera la ricerca di falle: nell’ambito di una collaborazione tra Anthropic e Mozilla, strumenti simili hanno individuato 22 vulnerabilità in Firefox in due settimane, di cui 14 classificate come ad alta gravità. Inoltre, Mythos ha recentemente individuato difetti storici come una falla in FFmpeg presente da 16 anni nonostante milioni di test automatici.
L’effetto combinato è l’aumento del volume di problemi noti da risolvere: il vincolo per la sicurezza si sposta quindi dalla mera rilevazione alla capacità di risanamento e patching.
Chi trae vantaggio e chi perde in questo nuovo equilibrio
La dinamica rimane asimmetrica: gli attaccanti devono trovare un solo punto di ingresso, mentre i difensori devono proteggere intere superfici e aggiornare vaste reti di dipendenze software. Questa realtà tende a favorire gli attori con risorse limitate ma capacità aumentate dall’AI, e al contempo premia i difensori ben finanziati che integrano scanner automatizzati e programmazioni di patch accelerate. Report come quello del Project Glasswing sottolineano come settori critici — banche, sanità, logistica, reti energetiche e sistemi governativi — condividano dipendenze software e pertanto siano particolarmente esposti al rischio di exploit su larga scala.
Limiti pratici degli attaccanti
Nonostante lo scalpore, la letteratura e le indagini nelle community criminali indicano limiti concreti all’uso offensivo diffuso. Studi condotti su forum dopo il rilascio di ChatGPT (2026) fino alla fine del 2026 mostrano che molti prodotti etichettati come “dark AI” non hanno avuto un impatto massiccio: spesso gli utenti non possiedono le competenze ingegneristiche necessarie per trasformare i suggerimenti in operazioni complete. Molti attacchi reali richiedono attività amministrative e di ingegneria di base — simili a quelle di una piccola startup — che non si risolvono solo con il jailbreak di un modello. Questo non elimina il rischio, ma evidenzia un gap operativo tra capacità teoriche e attuazione pratica su vasta scala.
Strategie di difesa e scelte operative
Per le organizzazioni la priorità diventa incrementare la velocità e la qualità del remediation. L’impiego di AI per scansionare sistemi e suggerire patch può offrire un vantaggio temporaneo ai difensori meglio attrezzati: automatizzare l’identificazione delle vulnerabilità riduce il tempo per la scoperta, ma non sostituisce il lavoro umano di validazione e distribuzione delle correzioni. Le amministrazioni IT devono rivedere processi, allocare risorse per il monitoraggio continuo e investire in pratiche di gestione delle dipendenze open source e legacy che spesso accumulano falle critiche.
Azioni concrete per aziende e policy maker
Le misure operative includono: integrare tool di scansione AI‑assisted nei cicli di sviluppo, pianificare patch management proattivo su componenti comuni e predisporre esercitazioni che simulino attacchi multi‑fase per testare la risposta. A livello strategico, è utile condividere scoperte tra attori affidabili per concentrare capacità avanzate tra difensori e guadagnare tempo sul fronte operativo, riconoscendo però che questa concentrazione non risolve la diffusione del rischio. In definitiva, la strada migliore combina tecnologia, governance e formazione per trasformare l’impennata di rilevazioni in un reale miglioramento della postura di sicurezza.

