Il 31 marzo 2026 un ricercatore di sicurezza ha scoperto che il codice sorgente completo di Claude Code, l’interfaccia a riga di comando per la programmazione assistita di Anthropic, era accessibile pubblicamente a causa di un errore di impacchettamento. Un singolo file di debug inserito nel pacchetto distribuito tramite pacchetto npm ha fornito il collegamento diretto a un archivio su uno spazio cloud dell’azienda, permettendo a chiunque di scaricare i sorgenti.
La fuga non ha coinvolto i parametri del modello né i dati personali degli utenti, ma ha rivelato la logica operativa, le integrazioni e funzioni ancora non annunciate. La scoperta ha riacceso il dibattito sulla gestione dei rilasci software e sulla protezione della proprietà intellettuale nel settore dell’AI.
Come si è verificato l’errore
Al centro dell’incidente c’era un file di source map chiamato cli.js.map, un tipo di file usato in fase di sviluppo per mettere in relazione il codice compilato con il codice sorgente originale. Un source map serve a semplificare il debug in ambienti JavaScript, ma non dovrebbe mai essere incluso in un pacchetto di produzione. Nel caso in oggetto, la presenza del file ha permesso di ricostruire 1.906 file proprietari e oltre 512.000 righe di codice, oltre a numerosi file provenienti da librerie di terze parti.
La dinamica tecnica
L’errore è riconducibile a una fase di packaging in cui il file di debug è stato lasciato nel bundle pubblicato su npm.
Dal riferimento contenuto nel cli.js.map era possibile risalire a un archivio su uno spazio cloud interno di Anthropic e scaricare l’intero albero dei sorgenti. A segnalare il problema è stato il ricercatore Chaofan Shou, che ha documentato la scoperta su X.
Contenuti del codice trapelato
Analizzando i file estratti, la comunità ha identificato componenti chiave dello strumento: un motore di gestione delle richieste di circa 46.000 righe che coordina le chiamate al modello, la pipeline per la gestione di contesto e memoria, moduli per l’integrazione con ambienti di sviluppo e la telemetria verso Datadog. Sono emersi inoltre dettagli su un sistema di coordinamento tra agenti AI, e su funzionalità interne etichettate come Kairos, Buddy e Undercover Mode.
Funzionalità non ancora annunciate
Tra gli elementi più discussi ci sono funzioni descritte come sistemi di assistenza personalizzata e modalità progettate per evitare la fuga di nomi sensibili durante le operazioni di sviluppo. Alcune di queste, come Kairos, erano indicate nei sorgenti come funzionalità pianificate; fonti pubbliche hanno citato un possibile lancio in aprile 2026, ma l’azienda non ha confermato ufficialmente tempistiche o dettagli.
Implicazioni, reazioni e precedenti
La fuga ha suscitato reazioni immediate dalla comunità degli sviluppatori: i sorgenti sono stati rapidamente copiati in repository su GitHub e analizzati pubblicamente. Pur non configurandosi come un rischio diretto per gli utenti — dato che non sono stati pubblicati pesi del modello né conversazioni private — l’accesso all’architettura interna rappresenta un vantaggio per concorrenti e ricercatori che vogliano studiarne il funzionamento.
Il caso è particolarmente sensibile per la recidiva: un problema analogo era già avvenuto nel febbraio 2026, quando una precedente versione di Claude Code aveva esposto file di debug. La ripetizione dell’errore mette in luce fragilità nei processi di controllo qualità e solleva dubbi sulla robustezza delle verifiche di rilascio.
Cosa potrebbe succedere ora
Dal punto di vista pratico, le conseguenze più probabili sono due: aumentata attività di auditing da parte di sviluppatori e ricercatori, e potenziali revisioni interne dei processi di packaging e verifica da parte di Anthropic. Al momento dell’emersione della notizia, l’azienda non aveva ancora rilasciato una dichiarazione ufficiale, mentre la comunità continua a discutere le implicazioni per la sicurezza del software di AI.
In definitiva, l’incidente ricorda che anche strumenti complessi possono essere vulnerabili a errori elementari di distribuzione: proteggere la proprietà intellettuale e i dettagli operativi richiede procedure di controllo stringenti, soprattutto in ambiti ad alta sensibilità come l’intelligenza artificiale.

