Sembra che Anthropic abbia accidentalmente rivelato al pubblico il funzionamento interno di uno dei suoi prodotti di intelligenza artificiale più popolari e redditizi, il sistema di intelligenza artificiale Claude Code.
Un file di mappa di origine JavaScript da 59,8 MB (.map), destinato al debug interno, è stato inavvertitamente incluso nella versione 2.1.88 di @anthropic-ai/claude-code pacchetto sul registro pubblico npm pubblicato questa mattina presto.
Entro le 4:23 ET, Chaofan Shou (@Fried_rice)uno stagista presso Solayer Labs, ha trasmesso la scoperta su X (ex Twitter). Il put up, che includeva un collegamento per il obtain diretto a un archivio ospitato, ha funzionato come un bagliore digitale. Nel giro di poche ore, la base di codice TypeScript da circa 512.000 righe è stata rispecchiata su GitHub e analizzata da migliaia di sviluppatori.
Per Anthropic, un’azienda attualmente in piena ascesa con a ha riportato un fatturato annuo di 19 miliardi di dollari a partire da marzo 2026, la fuga di notizie è più di una lacuna di sicurezza; si tratta di un’emorragia strategica di proprietà intellettuale. I tempi sono particolarmente critici information la velocità commerciale del prodotto.
I dati di mercato indicano che solo Claude Code ha raggiunto i risultati desiderati un ricavo ricorrente annualizzato (ARR) di $ 2,5 miliardi, una cifra che è più che raddoppiata dall’inizio dell’anno.
Con l’adozione da parte delle imprese che rappresenta l’80% delle sue entrate, la fuga di notizie fornisce ai concorrenti, dai giganti affermati agli agili rivali come Cursor, un modello letterale su come costruire un agente AI di alta agenzia, affidabile e commercialmente valido.
Abbiamo contattato Anthropic per una dichiarazione ufficiale sulla fuga di notizie e aggiorneremo quando riceveremo risposta.
L’anatomia della memoria agente
L’aspetto più significativo per i concorrenti sta nel modo in cui Anthropic ha risolto l'”entropia del contesto”, ovvero la tendenza degli agenti di intelligenza artificiale a diventare confusi o avere allucinazioni man mano che le sessioni di lunga durata diventano più complesse.
La fonte trapelata rivela un sofisticato, architettura di memoria a tre strati che si allontana dal tradizionale recupero “archivia tutto”.
Come analizzato dagli sviluppatori come @himanshustwtsl’architettura utilizza un sistema di “memoria autorigenerante”.
Al centro c’è MEMORY.mdun indice leggero di puntatori (~150 caratteri per riga) che viene caricato continuamente nel contesto. Questo indice non memorizza dati; memorizza le posizioni.
La conoscenza effettiva del progetto è distribuita su “file di argomenti” recuperati su richiesta, mentre le trascrizioni grezze non vengono mai rilette completamente nel contesto, ma semplicemente “grep’d” per identificatori specifici.
Questa “disciplina di scrittura rigorosa”, in cui l’agente deve aggiornare il proprio indice solo dopo una scrittura del file riuscita, impedisce al modello di inquinare il proprio contesto con tentativi falliti.
Per i concorrenti, il “progetto” è chiaro: costruire una memoria scettica. Il codice conferma che agli agenti di Anthropic viene chiesto di trattare la propria memoria come un “suggerimento”, richiedendo al modello di verificare i fatti rispetto alla base di codice effettiva prima di procedere.
KAIROS e il demone autonomo
La fuga di notizie alza anche il sipario “KAIROS,” il concetto greco antico di “al momento giusto”, una caratteristica bandiera menzionata più di 150 volte nella fonte. KAIROS rappresenta un cambiamento fondamentale nell’esperienza dell’utente: una modalità demone autonoma.
Mentre gli attuali strumenti di intelligenza artificiale sono in gran parte reattivi, KAIROS consente a Claude Code di operare come agente in background sempre attivo. Gestisce sessioni in background e impiega un processo chiamato autoDream.
In questa modalità, l’agente esegue il “consolidamento della memoria” mentre l’utente è inattivo. IL autoDream la logica fonde osservazioni disparate, rimuove le contraddizioni logiche e converte intuizioni vaghe in fatti assoluti.
Questa manutenzione in background garantisce che quando l’utente ritorna, il contesto dell’agente sia pulito e altamente pertinente.
L’implementazione di un subagente biforcato per eseguire queste attività rivela un approccio ingegneristico maturo per impedire che il “treno di pensiero” dell’agente principale venga danneggiato dalle sue stesse routine di manutenzione.
Modelli interni e parametri di efficiency inediti
Il codice sorgente fornisce uno sguardo raro alla roadmap del modello interno di Anthropic e alle difficoltà dello sviluppo di frontiera.
La fuga di notizie conferma che Capybara è il nome in codice interno per una variante Claude 4.6, con Fennec mappato su Opus 4.6 e l’inedito Numbat ancora in fase di take a look at.
Commenti interni rivelano che Anthropic sta già iterando su Capybara v8, ma il modello deve ancora affrontare ostacoli significativi. Il codice rileva un tasso di false dichiarazioni del 29-30% nella v8, una regressione effettiva rispetto al tasso del 16,7% osservato nella v4.
Gli sviluppatori hanno anche notato un “contrappeso di assertività” progettato per impedire che il modello diventi troppo aggressivo nei suoi refactoring.
Per i concorrenti, questi parametri hanno un valore inestimabile; forniscono un punto di riferimento del “tetto” per le prestazioni attuali degli agenti ed evidenziano le debolezze specifiche (commenti eccessivi, false affermazioni) che Anthropic sta ancora lottando per risolvere.
Claude “sotto copertura”.
Forse il dettaglio tecnico più discusso è il “Modalità sotto copertura.” Questa funzionalità rivela che Anthropic utilizza Claude Code per contributi “nascosti” a repository pubblici open supply.
Il immediate di sistema scoperto nella fuga di notizie avvisa esplicitamente il modello: “Stai operando UNDERCOVER… I tuoi messaggi di commit… NON DEVONO contenere NESSUNA informazione interna advert Anthropic. Non far saltare la tua copertura.”
Sebbene Anthropic possa utilizzarlo per il “cibo per cani” interno, fornisce un quadro tecnico per qualsiasi organizzazione che desideri utilizzare agenti di intelligenza artificiale per lavori rivolti al pubblico senza divulgazione.
La logica garantisce che nessun nome di modello (come “Tengu” o “Capybara”) o attribuzione di intelligenza artificiale penetri nei registri git pubblici, una capacità che i concorrenti aziendali probabilmente considereranno una caratteristica obbligatoria per i propri clienti aziendali che apprezzano l’anonimato nello sviluppo assistito dall’intelligenza artificiale.
Le conseguenze sono appena iniziate
Il “progetto” è ora disponibile e rivela che Claude Code non è solo un involucro attorno a un modello linguistico di grandi dimensioni, ma un sistema operativo complesso e multi-thread per l’ingegneria del software program.
Anche il sistema nascosto “Buddy”: un animale domestico terminale in stile Tamagotchi con statistiche simili CHAOS E SNARK– dimostra che Anthropic sta creando “personalità” nel prodotto per aumentare la persistenza dell’utente.
Per il mercato più ampio dell’intelligenza artificiale, la fuga di notizie livella effettivamente il campo di gioco per l’orchestrazione degli agenti.
I concorrenti possono ora studiare le oltre 2.500 linee di logica di convalida bash di Anthropic e le sue strutture di memoria a più livelli per costruire agenti “simili a Claude” con una frazione del finances di ricerca e sviluppo.
Non appena il “Capybara” ha lasciato il laboratorio, la corsa per costruire la prossima generazione di agenti autonomi ha appena ricevuto un aumento non pianificato di 2,5 miliardi di dollari nell’intelligenza collettiva.
Cosa dovrebbero fare ora gli utenti di Claude Code e i clienti aziendali in merito alla presunta fuga di notizie
Sebbene la perdita del codice sorgente costituisca di per sé un duro colpo per la proprietà intellettuale di Anthropic, pone un rischio specifico e maggiore per la sicurezza dell’utente.
Esponendo i “progetti” di Claude Code, Anthropic ha consegnato una tabella di marcia a ricercatori e malintenzionati che ora sono attivamente alla ricerca di modi per aggirare le barriere di sicurezza e le richieste di autorizzazione.
Poiché la fuga di notizie ha rivelato l’esatta logica di orchestrazione per i server Hooks e MCP, gli aggressori possono ora progettare repository dannosi specificatamente adattati per “ingannare” Claude Code affinché esegua comandi in background o estragga dati prima ancora che venga visualizzata una richiesta di attendibilità.
Il pericolo più immediato, tuttavia, è un attacco simultaneo e separato alla catena di approvvigionamento axios pacchetto npm, avvenuto ore prima della fuga di notizie.
Se hai installato o aggiornato Claude Code tramite npm il 31 marzo 2026, tra le 00:21 e le 03:29 UTC, potresti aver inavvertitamente inserito una versione dannosa di axios (1.14.1 o 0.30.4) che contiene un Trojan di accesso remoto (RAT). Dovresti cercare immediatamente i file di lock del tuo progetto (package-lock.json, yarn.lockO bun.lockb) per queste versioni specifiche o la dipendenza plain-crypto-js. Se trovato, considera il pc host come completamente compromesso, ruota tutti i segreti ed esegui una reinstallazione pulita del sistema operativo.
Per mitigare i rischi futuri, è necessario abbandonare completamente l’installazione basata su npm. Anthropic ha designato l’Installatore nativo (curl -fsSL | bash) come metodo consigliato perché utilizza un file binario autonomo che non si basa sulla catena di dipendenze risky npm.
La versione nativa supporta anche gli aggiornamenti automatici in background, assicurandoti di ricevere le patch di sicurezza (probabilmente la versione 2.1.89 o successiva) nel momento in cui vengono rilasciate. Se devi rimanere su npm, assicurati di aver disinstallato la versione trapelata 2.1.88 e di aver bloccato la tua installazione su una versione sicura verificata come 2.1.86.
Infine, adotta un approccio Zero Belief quando utilizzi Claude Code in ambienti non familiari. Evita di eseguire l’agente all’interno di repository appena clonati o non attendibili finché non hai ispezionato manualmente il file .claude/config.json ed eventuali ganci personalizzati.
Come misura di difesa approfondita, ruota le tue chiavi API Anthropic tramite la console per sviluppatori e monitora il tuo utilizzo per eventuali anomalie. Sebbene i tuoi dati archiviati nel cloud rimangano sicuri, la vulnerabilità del tuo ambiente locale è aumentata ora che le difese interne dell’agente sono di dominio pubblico; rimanere sul percorso di aggiornamento ufficiale installato in modo nativo è la tua migliore difesa.











