in

Come Claude Mythos Preview ridefinisce la difesa digitale con Project Glasswing

Anthropic ha creato un modello capace di trovare e dimostrare exploit autonomamente e lo ha distribuito a un consorzio per correggere le falle prima che diventino armamenti digitali

Come Claude Mythos Preview ridefinisce la difesa digitale con Project Glasswing

In un annuncio che ha attirato l’attenzione del settore, Anthropic ha rivelato l’esistenza di Claude Mythos Preview, un modello di intelligenza artificiale in grado di identificare e sfruttare vulnerabilità nel software. La società ha scelto di non rilasciare il modello al pubblico, avviando invece Project Glasswing, un’iniziativa condivisa con aziende quali Amazon Web Services, Apple, Google, Microsoft, NVIDIA, Linux Foundation e altre realtà critiche per l’infrastruttura digitale.

Per sostenere l’uso difensivo dello strumento, Anthropic ha messo a disposizione fino a 100 milioni di dollari in crediti e ha donato 4 milioni a progetti di sicurezza open source. L’annuncio è arrivato insieme a notizie sui risultati economici e su accordi per capacità di calcolo con partner come Broadcom e Google, segnalando che il tema tocca sia la sicurezza tecnica sia le dinamiche industriali e finanziarie.

Che cosa può fare Mythos Preview

Claude Mythos Preview non è stato addestrato esclusivamente per la cybersecurity: si tratta di un modello general-purpose le cui abilità in sicurezza emergono come emergent capability, ovvero capacità inattese scaturite dal miglioramento delle competenze di programmazione e ragionamento. I risultati dei test documentati dal Frontier Red Team mostrano la scoperta di migliaia di zero-day in sistemi operativi e browser principali, con falle risalenti anche a decenni fa.

Esempi pratici e casi notevoli

Tra i casi più eclatanti, il modello ha individuato un bug nell’implementazione di TCP SACK su OpenBSD, presente dal 1998 e capace di mandare in crash server esposti in rete. In altri test Mythos Preview ha generato una catena di attacco per un browser concatenando quattro vulnerabilità distinte e ha creato un exploit di esecuzione remota su FreeBSD che permetteva l’accesso root sfruttando un difetto vecchio 17 anni.

Il ricercatore Nicholas Carlini ha affermato di aver trovato con Mythos più bug in due settimane che in gran parte della sua carriera, segnalando la scala impressionante del fenomeno.

Numeri e confronto con i modelli pubblici

I benchmark confrontano Mythos Preview con Claude Opus 4.6, il modello pubblico più avanzato di Anthropic fino a poco tempo fa. Su un test che trasformava vulnerabilità in exploit funzionanti, Opus 4.6 aveva un tasso di successo quasi nullo, mentre Mythos Preview ha prodotto decine di exploit riusciti (181 su uno stesso insieme di prove). Nei repository open source, dove prima si otteneva al massimo un crash lieve, il nuovo modello ha causato ripetuti crash con controllo completo del flusso. Su una lista di 100 CVE del kernel Linux note ma non ancora corrette (N-day), Mythos ha sfruttato con successo più della metà delle falle, sviluppando exploit in poche ore e con costi contenuti.

Autonomia operativa

Un aspetto che preoccupa i ricercatori è l’autonomia: ingegneri senza specifica formazione in sicurezza hanno chiesto a Mythos Preview di cercare vulnerabilità e, dopo una notte di lavoro autonomo, al risveglio si sono trovati exploit completi, report tecnici e istruzioni riproducibili. Il modello legge codice sorgente, formula ipotesi, esegue debug e adatta strategie senza supervisione continua, un comportamento che avvicina questi sistemi al concetto di agentic AI.

Implicazioni pratiche e strategiche

La comparsa di un modello con queste capacità impone cambiamenti immediati nelle pratiche di sicurezza: i cicli di patch devono ridursi drasticamente perché la finestra tra pubblicazione di una falla e possibilità di sfruttamento si è compressa. Anthropic suggerisce inoltre di adottare subito gli strumenti AI già disponibili per la ricerca di vulnerabilità, poiché la curva di miglioramento è rapida e chi non integra questi strumenti nei processi di sicurezza rimarrà indietro.

Vantaggi e rischi del codice generato da AI

Un’altra questione centrale è il vibe coding, ovvero la produzione massiva di codice tramite modelli linguistici. Se un modello può trovare bug in software consolidato, può anche individuare punti deboli nel codice generato automaticamente a ritmo elevato. Allo stesso tempo, lo stesso modello potrebbe potenzialmente generare codice più sicuro, evitando classi di errori note, ma oggi mancano strumenti sistematici per verificarlo e certificare la qualità della produzione automatica.

Per mitigare i rischi, Anthropic ha condiviso con i partner una ricevuta crittografica per ogni exploit, un meccanismo che dimostra l’esistenza delle tecniche senza rivelarne i dettagli, e ha sottolineato la necessità di piani di emergenza per il software legacy che non riceve più aggiornamenti. Commentatori come Simon Willison hanno definito Project Glasswing una mossa necessaria e hanno invitato ad ampliare la partecipazione, ad esempio includendo altri grandi attori come OpenAI.

Infine, il contesto politico e legale non è neutro: Anthropic ha affrontato contestazioni sulla supply chain da parte del Dipartimento della Difesa e la scelta di condividere il modello con partner industriali assume un significato strategico oltre la pura sicurezza tecnica.

In sintesi, Claude Mythos Preview rappresenta sia una potente arma difensiva sia un campanello d’allarme: il terreno della cybersecurity sta cambiando rapidamente e le organizzazioni devono adattare processi, tempi di patch e strumenti per restare al passo con una capacità di attacco e difesa automatizzata e sempre più autonoma.

What do you think?

Scritto da Nicola Trevisan

Gaming journalist, 9 anni. Recensioni videogiochi, esport e tech.

CISO in crisi: quando il burnout diventa un rischio aziendale

CISO in crisi: quando il burnout diventa un rischio aziendale