L’ultima tecnologia AI di Anthropic, chiamata Mythos, è così potente nel rivelare le vulnerabilità del software program che l’azienda ha paura di rilasciare pubblicamente il modello per timore che cada nelle mani di malintenzionati.
L’azienda, lo sviluppatore dietro il chatbot Claude AI, ha dichiarato in a inviare sul suo sito internet questa settimana che il nuovo strumento ha già scoperto migliaia di punti deboli in “tutti i principali sistemi operativi e browser internet”. Ciò suscita la preoccupazione che gli hacker possano sfruttare Mythos per attaccare banche, ospedali, sistemi governativi e altre infrastrutture critiche.
Prepararsi alla “tempesta”
Invece di rilasciare Mythos al pubblico, Anthropic condivide la tecnologia con un gruppo selezionato di grandi aziende, tra cui Amazon, Apple, Cisco, JPMorgan Chase e Nvidia, in modo che possano testare il modello e rafforzare i propri sistemi contro gli attacchi informatici. Chiamato Mission Glasswing, lo sforzo ha lo scopo di aiutare le aziende chiave a rafforzare le proprie difese prima che gli hacker abbiano accesso a Mythos o modelli di intelligenza artificiale simili, secondo Anthropic.
“Quello che dobbiamo fare è considerare questo come un campanello d’allarme per dire che la tempesta non sta arrivando: la tempesta è qui”, ha detto a CBS Information Alissa Valentina Knight, CEO della società di sicurezza informatica AI Assail. “Dobbiamo prepararci, perché non riuscivamo a tenere il passo con i cattivi quando erano gli umani advert hackerare le nostre reti. Certamente non possiamo tenere il passo adesso se usano l’intelligenza artificiale perché è molto più veloce e più capace in modo devastante.”
Le capacità di Mythos suscitano preoccupazione anche tra i funzionari federali. Il segretario al Tesoro Scott Bessent e il presidente della Federal Reserve Jerome Powell ha incontrato i principali amministratori delegati delle banche in una riunione a porte chiuse martedì per discutere di Mythos e di altri rischi emergenti per la sicurezza informatica derivanti dall’intelligenza artificiale. Anthropic ha inoltre informato gli alti funzionari del governo statunitense e le principali parti interessate del settore sulle capacità di Mythos, ha appreso CBS Information.
A parte, l’amministratore delegato del Fondo monetario internazionale, Kristalina Georgieva detto in un’intervista in onda domenica su “Face the Nation with Margaret Brennan” che il mondo non ha la capacità “di proteggere il sistema monetario internazionale dai massicci rischi informatici”.
“I rischi sono cresciuti in modo esponenziale”, ha detto Georgieva. “Sì, siamo preoccupati. Ci piacerebbe vedere maggiore attenzione ai guardrail necessari per proteggere la stabilità finanziaria nel mondo dell’intelligenza artificiale.”
Anthropic non ha restituito una richiesta di commento. Nel suo publish, tuttavia, l’azienda ha sottolineato i rischi derivanti dall’uso improprio di strumenti come Mythos. “Le conseguenze – per l’economia, la sicurezza pubblica e la sicurezza nazionale – potrebbero essere gravi”, ha affermato la società.
L’anello più debole
Tali duri avvertimenti mascherano un’altra realtà preoccupante: gli hacker hanno già accesso a modelli avanzati di intelligenza artificiale e li stanno utilizzando per una serie di scopi maligni, incluso quello di creare “agenti” autonomi in grado di sferrare attacchi senza intervento umano.
Secondo gli esperti di sicurezza informatica, tali attacchi spaziano dalla diffusione di malware e dall’esecuzione di truffe di furto di identità alla produzione di video deepfake e al lancio di attacchi ransomware.
“Gli strumenti basati sull’intelligenza artificiale hanno consentito anche agli autori di minacce poco qualificati di eseguire operazioni advert alta velocità e advert alto quantity, mentre gli avversari avanzati utilizzano l’intelligenza artificiale per affinare la precisione, scalare l’automazione e comprimere le tempistiche degli attacchi”, ha affermato PwC in un recente rapporto.
“Il tempo che intercorre tra il rilascio pubblico di una nuova funzionalità da parte di un’azienda di intelligenza artificiale e la sua utilizzazione come arma da parte di autori di minacce si è ridotto drasticamente [in 2025]una tendenza che valutiamo probabilmente accelererà nel 2026”, ha aggiunto la società di consulenza aziendale,
Altri strumenti di intelligenza artificiale, sebbene non ancora efficaci come Mythos nell’esporre il lato debole del software program, stanno già amplificando i rischi per consumatori, imprese e governi. Advert esempio, gli hacker stanno già sfruttando l’intelligenza artificiale per affinare i cosiddetti attacchi di phishing volti a carpire informazioni riservate, ha affermato Zach Lewis, responsabile delle informazioni presso l’Università di Scienze della Salute e Farmacia di St. Louis.
“È stato utilizzato per scrivere realmente quei dialoghi, quelle conversazioni, quelle electronic mail di phishing, per persone specifiche – e personalizzarli davvero per renderli molto più difficili da rilevare e identificare se sono falsi o meno”, ha detto a CBS Information.
“Una volta [Mythos] “, vedremo molte più vulnerabilità, probabilmente molti più attacchi”, ha affermato Lewis. “Gli attacchi informatici aumenteranno sicuramente finché non arriveremo a un punto in cui ripareremo tutte quelle vulnerabilità quasi in tempo reale.”
L’intelligenza artificiale è più efficace degli esseri umani nel trovare bug del software program perché può scansionare rapidamente migliaia di righe di codice e rilevare problemi, qualcosa in cui le persone non sono necessariamente courageous, ha spiegato Knight.
“Gli esseri umani sono l’anello più debole della sicurezza”, ha osservato Knight. “Gli esseri umani hanno la capacità di commettere errori quando scriviamo codice. È possibile che le vulnerabilità nel codice sorgente non siano mai state trovate dagli esseri umani.”
Il marchio di Anthropic?
Alcuni esperti di sicurezza hanno messo in dubbio le motivazioni dietro l’approccio incrementale di Anthropic al lancio di Mythos, ipotizzando che la versione limitata potrebbe essere mirata a suscitare l’interesse di altri potenziali clienti.
Nel frattempo, sia Anthropic che la rivale OpenAI dovrebbero lanciare offerte pubbliche iniziali entro la wonderful dell’anno, secondo al Wall Avenue Journal – un possibile incentivo per fare notizia, ha affermato Peter Garraghan, fondatore e Chief Science Officer di Mindgard, una piattaforma di sicurezza AI.
“Sospetto che Anthropic stia usando questo come uno stratagemma di advertising, forse verso l’IPO”, ha detto.
Anthropic ha cercato di distinguere il proprio marchio da OpenAI e da altri rivali enfatizzando pubblicamente la sicurezza dell’intelligenza artificiale, evidenziando i suoi guardrail per mantenere la tecnologia in linea. La decisione di Anthropic di rimandare il rilascio di Mythos e il lancio di Mission Glasswing è in linea con quell’immagine, ha osservato Malek Ben Sliman, docente di advertising della Columbia Enterprise Faculty.
“Di fronte alle decisioni difficili, Anthropic è stata effettivamente fedele ai suoi valori”, ha affermato. Curare l’uscita di Mythos “permette loro di sembrare i protettori di questa IA responsabile, ma è anche un ottimo strumento di advertising e pubblicità”.









