Home Tecnologia Anthropic sta limitando il rilascio di Mythos per proteggere Web – o...

Anthropic sta limitando il rilascio di Mythos per proteggere Web – o Anthropic?

10
0

Anthropic ha dichiarato questa settimana di aver limitato il rilascio del suo modello più recente, soprannominato Mythos, perché è troppo capace di individuare exploit di sicurezza nel software program su cui fanno affidamento gli utenti di tutto il mondo.

Invece di scatenare Mythos sul pubblico, lo farà il laboratorio di frontiera condividilo con un gruppo di grandi aziende e organizzazioni che gestiscono infrastrutture on-line critiche, da Amazon Internet Companies a JPMorgan Chase. OpenAI lo è secondo quanto riferito considerando un piano simile per il suo prossimo strumento di sicurezza informatica. L’concept apparente è quella di lasciare che queste grandi imprese superino i malintenzionati che potrebbero sfruttare i LLM avanzati per penetrare nel software program sicuro.

Ma la parola “e” nella frase sopra suggerisce che in questa strategia di rilascio potrebbe esserci qualcosa di più della sicurezza informatica o dell’esaltazione delle capacità del modello.

Dan Lahav, CEO del laboratorio di sicurezza informatica AI Irregolareha dichiarato a TechCrunch a marzo, prima del rilascio di Mythos, che mentre la scoperta di vulnerabilità da parte degli strumenti di intelligenza artificiale è importante, il valore specifico di qualsiasi punto debole per un utente malintenzionato dipende da molti fattori, incluso il modo in cui possono essere utilizzati in combinazione.

“La domanda che ho sempre in mente”, ha detto Lahav, “è che hanno trovato qualcosa che possa essere sfruttato in modo molto significativo, sia individualmente che come parte di una catena?”

Anthropic afferma che Mythos è in grado di sfruttare le vulnerabilità molto più del suo modello precedente, Opus. Ma non è chiaro se Mythos sia in realtà il punto finale dei modelli di sicurezza informatica. Aisle, una startup di sicurezza informatica basata sull’intelligenza artificiale, disse è stato in grado di replicare gran parte di ciò che Anthropic afferma che Mythos ha realizzato utilizzando modelli più piccoli e di peso aperto. Il workforce di Aisle sostiene che questi risultati mostrano che non esiste un unico modello di deep studying per la sicurezza informatica, ma dipende invece dal compito da svolgere.

Dato che Opus period già visto come un punto di svolta per la sicurezza informatica, c’è un’altra ragione per cui i laboratori di frontiera potrebbero voler limitare i loro rilasci alle grandi organizzazioni: crea un volano per i contratti delle grandi imprese, rendendo al contempo più difficile per i concorrenti copiare i loro modelli utilizzando la distillazione, una tecnica che sfrutta i modelli di frontiera per formare nuovi LLM a basso costo.

“Questa è una copertura di advertising per il fatto che i modelli di fascia alta sono ora vincolati da accordi aziendali e non sono più disponibili per la distillazione in piccoli laboratori”, David Crawshaw, ingegnere informatico e CEO della startup exe.dev, suggerito in un submit sui social media. “Quando tu ed io potremo utilizzare Mythos, ci sarà un nuovo livello di fascia alta riservato esclusivamente alle imprese. Questo tapis roulant aiuta a mantenere il flusso di dollari aziendali (che rappresenta la maggior parte dei dollari) relegando le società di distillazione al secondo rango”, ha affermato Crawshaw.

Questa analisi concorda con ciò che stiamo vedendo nell’ecosistema dell’intelligenza artificiale: una corsa tra laboratori di frontiera che sviluppano i modelli più grandi e capaci e aziende come Aisle che si basano su più modelli e vedono gli LLM open supply, spesso provenienti dalla Cina e spesso presumibilmente sviluppati attraverso la distillazione, come un percorso verso un vantaggio economico.

Quest’anno i laboratori di frontiera hanno adottato una linea più dura sulla distillazione, con Anthropic che ha rivelato pubblicamente ciò che afferma essere tentativi da parte di aziende cinesi di copiare i suoi modelli, e tre laboratori chief – Anthropic, Google e OpenAI – che si sono uniti per identificare i distillatori e bloccarli, secondo un rapporto di Bloomberg.

La distillazione rappresenta una minaccia per il modello di enterprise dei laboratori di frontiera perché elimina i vantaggi derivanti dall’utilizzo di enormi quantità di capitale su larga scala. Bloccare la distillazione, quindi, è già un’impresa utile, ma l’approccio di rilascio selettivo offre ai laboratori anche un modo per differenziare le loro offerte aziendali poiché la categoria diventa la chiave per un’implementazione redditizia.

Resta da vedere se Mythos o qualsiasi nuovo modello minacci davvero la sicurezza di Web, e un’implementazione attenta della tecnologia è una by way of da seguire responsabile.

Anthropic non ha risposto alle nostre domande sul fatto che la decisione si riferisca anche a problemi di distillazione al momento della stesura di questo articolo, ma l’azienda potrebbe aver trovato un approccio intelligente per proteggere Web e i suoi profitti.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here