Home Tecnologia Il tuo agente AI rappresenta un rischio per la sicurezza? NanoClaw vuole...

Il tuo agente AI rappresenta un rischio per la sicurezza? NanoClaw vuole metterlo in una gabbia virtuale

13
0

akinbostanci/ iStock / Getty Photographs Plus tramite Getty Photographs

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • NanoClaw e Docker annunciano una partnership formale.
  • L’agente AI sarà integrato nei Docker Sandbox.
  • La mossa evidenzia l’importanza dell’isolamento dell’IA.

NanoClaw e Docker hanno annunciato una partnership per consentire l’integrazione della piattaforma di agenti AI open supply con i contenitori Docker.

Inoltre: vuoi provare OpenClaw? NanoClaw è un agente AI più semplice e potenzialmente più sicuro

La nuova partnership tra NanoClaw e Docker

L’integrazione lo consentirà Nanoartiglio construct da implementare all’interno dell’infrastruttura sandbox basata su MicroVM di Docker, secondo l’annuncio congiunto fatto venerdì dal gruppo di sviluppo di NanoClaw, NanoCo, e dalla piattaforma di sviluppo Docker

Questa sarà la prima volta che un agente IA basato su artigli potrà essere schierato in questo modo e, secondo le due organizzazioni, basterà un solo comando per essere lanciato. Se un utente richiama NanoClaw, ogni attività dell’agente viene isolata in un contenitore Docker in esecuzione con Docker Sandbox.

NanoClaw è un nuovo agente AI sviluppato da Gavriel Cohen come alternativa a OpenClaw che, sebbene potente, è anche un incubo per la sicurezza per i professionisti della sicurezza informatica.

Inoltre: agenti IA del caos? Una nuova ricerca mostra come i robotic che parlano con i robotic possano andare lateralmente velocemente

Rispetto al codice base di OpenClaw di oltre 400.000 righe, NanoClaw è minuscolo, supportato da meno di 4.000 righe di codice. Costruito sulla base del codice Claude di Anthropic, NanoClaw può essere adattato per soddisfare le esigenze dell’utente attraverso l’integrazione delle competenze. È anche open supply e consente a chiunque di esaminare il suo codice per individuare errori e problemi di sicurezza.

La partnership ha senso poiché NanoClaw è stato originariamente programmato per funzionare in contenitori anziché direttamente su un sistema operativo. Implementando questo controllo fin dall’inizio, ha accesso solo a ciò che è stato deliberatamente montato, anziché a software program, app e funzioni dell’intero sistema.

Al momento in cui scrivo, NanoClaw ha oltre 21.000 stelle su GitHub e circa 3.800 fork.

Cosa significa questo per la sicurezza degli agenti IA

È una mossa intelligente. Collaborando con Docker, gli sviluppatori di NanoClaw non solo promuovono l’agente AI rendendolo facilmente accessibile agli utenti Docker, ma stanno anche evidenziando la differenza tra le construct OpenClaw e NanoClaw. Il primo ha, probabilmente, troppi problemi di sicurezza aperti per consentire la fiducia, mentre il secondo è stato codificato con al centro l’isolamento dell’intelligenza artificiale.

È probabile che la partnership catturi l’interesse anche delle aziende, poiché le aziende possono sperimentare NanoClaw senza caricare direttamente un “artiglio” su una macchina host, un rischio che può portare a problemi come cancellazione accidentale, danni, vulnerabilità della sicurezza e attacchi di iniezione tempestiva.

Inoltre: questo agente IA virale si sta evolvendo rapidamente ed è un carburante da incubo per i professionisti della sicurezza

Secondo NanoClaw, gli agenti vengono eseguiti in zone di isolamento usa e getta basate su MicroVM all’interno dei Docker Sandbox; pertanto, se un agente tentasse di fuggire sfruttando una vulnerabilità, rimarrebbe contenuto.

“Ogni organizzazione vuole mettere al lavoro gli agenti di intelligenza artificiale, ma la barriera è il controllo: a cosa possono accedere questi agenti, dove possono connettersi e cosa possono cambiare”, ha affermato il presidente di Docker Mark Cavage. “I Docker Sandbox forniscono il livello di esecuzione sicuro per l’esecuzione sicura degli agenti e NanoClaw mostra cosa è possibile fare quando story base è predisposta.”

Come proteggere la tua costruzione advert artiglio

La chiave è l’isolamento.

Se vuoi provare OpenClaw, NanoClaw o qualsiasi numero di fork fork disponibili, devi ricordare che quando le abilità sono abilitate e l’autorizzazione è stata concessa, questi agenti possono distribuire ed eseguire codice per tuo conto, accedere alle credenziali, comunicare per te, effettuare acquisti e altro ancora, a seconda delle abilità che hai concesso al tuo assistente AI.

Sebbene potente, questo può anche essere estremamente pericoloso senza contenimento. È necessario stabilire dei confini per mantenere il controllo dei tuoi account, delle tue informazioni e, potenzialmente, della tua identità on-line.

Inoltre: il nuovo pc di Perplexity è una versione più sicura di OpenClaw? Come funziona

Si consiglia di utilizzare questa tecnologia solo in un ambiente container o sandbox, poiché al momento non esistono altre opzioni sicure.

“Un singolo agente compromesso può accedere alle credenziali, leggere la cronologia delle sessioni e raggiungere dati appartenenti advert agenti completamente separati”, ha osservato il group di NanoClaw. “I controlli dei permessi a livello di applicazione non offrono una protezione sufficiente. Ciò che serve è l’isolamento imposto dal sistema operativo: ogni agente nel proprio ambiente sicuro, con il proprio filesystem e cronologia delle sessioni, invisibile a ogni altro agente che lo affianca.”



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here