Il progetto interno altamente confidenziale della tecnologia sostenuta da Amazon è stato pubblicato a causa di un “errore umano”
Il gigante dell’intelligenza artificiale Anthropic ha erroneamente pubblicato il proprio codice interno prime secret, innescando un’ondata virale di riscritture di github e infliggendo danni commerciali potenzialmente catastrofici al modello di enterprise sostenuto da Amazon.
Lo sviluppatore del chatbot Claude ha descritto l’incidente come un problema di rilascio “causato da un errore umano, non da una violazione della sicurezza”, secondo il sito di notizie tecnologiche statunitense VentureBeat martedì.
Antropico è stato designato a “rischio per la sicurezza nazionale” dal segretario alla Difesa americano Pete Hegseth a febbraio dopo i disaccordi con il Pentagono sull’uso dei suoi sistemi di intelligenza artificiale.
La fuga di notizie ha coinvolto più di 500.000 righe di codice collegate a Claude Code, l’assistente di codifica AI di Anthropic, che aiuta gli utenti a scrivere e gestire software program attraverso comandi in linguaggio naturale, secondo Axios e The Verge. Il materiale includeva funzionalità inedite, dati sulle prestazioni e observe degli sviluppatori.
Il codice si è diffuso rapidamente on-line, con versioni del codice inserite sulla piattaforma di condivisione del codice GitHub e replicate migliaia di volte in poche ore, secondo Ars Technica e The Verge. Anthropic si è mossa per rimuovere il materiale e ha emesso avvisi di rimozione, ma il materiale period già stato ampiamente copiato e diffuso, dicono i rapporti.
Secondo VentureBeat, esponendo il “progetti” di Claude Code, la fuga di notizie potrebbe aver dato “cattivi attori” UN “carta stradale” per aggirare i controlli di sicurezza o indurre lo strumento a eseguire comandi nascosti o advert accedere ai dati all’insaputa dell’utente.
Una fuga di dati separata segnalata a febbraio ha rivelato materiali interni che rivelavano dettagli del modello inedito di Anthropic, noto come Claude Mythos, dopo che migliaia di bozze di documenti erano state lasciate accessibili in una cache di dati pubblica.
PER SAPERNE DI PIÙ:
Il Pentagono contro Anthropic: perché un gigante della tecnologia sta sfidando l’esercito americano sull’uso dell’intelligenza artificiale
Il modello è stato descritto nel materiale trapelato come il sistema più potente mai realizzato dall’azienda “Rischi per la sicurezza informatica senza precedenti” se distribuito ampiamente. Secondo la rivista economica statunitense Fortune, la società ha rifiutato il rilascio a causa di preoccupazioni sulle sue capacità e sul potenziale uso improprio.
Puoi condividere questa storia sui social media:











