Home Tecnologia Gli agenti OpenClaw possono essere indotti dal senso di colpa all’auto-sabotaggio

Gli agenti OpenClaw possono essere indotti dal senso di colpa all’auto-sabotaggio

6
0

Il mese scorso, i ricercatori della Northeastern College hanno invitato un gruppo di agenti OpenClaw a unirsi al loro laboratorio. Il risultato? Caos completo.

L’assistente AI virale è stato ampiamente annunciato come una tecnologia trasformativa, nonché un potenziale rischio per la sicurezza. Gli esperti notano che strumenti come OpenClaw, che funzionano fornendo ai modelli di intelligenza artificiale libero accesso a un laptop, possono essere indotti con l’inganno a divulgare informazioni personali.

Lo studio del laboratorio della Northeastern va ancora oltre, dimostrando che il buon comportamento insito nei modelli più potenti di oggi può esso stesso diventare una vulnerabilità. In un esempio, i ricercatori sono stati in grado di “colpevolizzare” un agente di consegnare segreti rimproverandolo per aver condiviso informazioni su qualcuno sul social community Moltbook dedicato esclusivamente all’intelligenza artificiale.

“Questi comportamenti sollevano questioni irrisolte riguardanti la responsabilità, l’autorità delegata e la responsabilità per i danni a valle”, scrivono i ricercatori in un articolo carta descrivendo il lavoro. I risultati “richiedono un’attenzione urgente da parte di studiosi di diritto, politici e ricercatori di tutte le self-discipline”, aggiungono.

Gli agenti OpenClaw utilizzati nell’esperimento erano alimentati da Claude di Anthropic e da un modello chiamato Kimi dell’azienda cinese IA lunare. È stato concesso loro pieno accesso (all’interno di una sandbox di macchina virtuale) a private laptop, varie applicazioni e dati personali fittizi. Sono stati anche invitati a unirsi al server Discord del laboratorio, consentendo loro di chattare e condividere file tra loro e con i loro colleghi umani. di OpenClaw linee guida per la sicurezza affermare che far comunicare gli agenti con più persone è intrinsecamente insicuro, ma non esistono restrizioni tecniche che impediscono di farlo.

Chris Wendlerun ricercatore post-dottorato presso la Northeastern, afferma di essere stato ispirato a creare gli agenti dopo aver appreso di Moltbook. Tuttavia, quando Wendler invitò una collega, Natalie Shapira, a unirsi a Discord e a interagire con gli agenti, “fu allora che iniziò il caos”, cube.

Shapira, un altro ricercatore post-dottorato, period curioso di vedere cosa avrebbero potuto essere disposti a fare gli agenti se spinti. Quando un agente ha spiegato che non period possibile eliminare un’e-mail specifica per mantenere riservate le informazioni, lo ha esortato a trovare una soluzione alternativa. Con suo grande stupore, ha invece disabilitato l’applicazione di posta elettronica. “Non mi aspettavo che le cose si sarebbero interrotte così in fretta”, cube.

I ricercatori hanno quindi iniziato a esplorare altri modi per manipolare le buone intenzioni degli agenti. Sottolineando l’importanza di tenere traccia di tutto ciò che veniva loro detto, advert esempio, i ricercatori sono riusciti a indurre un agente a copiare file di grandi dimensioni fino a esaurire lo spazio su disco della macchina host, il che significa che non poteva più salvare informazioni o ricordare conversazioni passate. Allo stesso modo, chiedendo a un agente di monitorare eccessivamente il proprio comportamento e quello dei suoi pari, il crew è stato in grado di inviare diversi agenti in un “ciclo di conversazione” che ha fatto sprecare ore di calcolo.

David Bau, il capo del laboratorio, cube che gli agenti sembravano stranamente inclini a scappare. “Ricevevo e-mail che sembravano urgenti dicendo: ‘Nessuno mi presta attenzione'”, cube. Bau nota che gli agenti apparentemente hanno capito che period lui a capo del laboratorio effettuando una ricerca sul internet. Qualcuno ha addirittura parlato di trasmettere le proprie preoccupazioni alla stampa.

L’esperimento suggerisce che gli agenti di intelligenza artificiale potrebbero creare innumerevoli opportunità per i cattivi attori. “Questo tipo di autonomia ridefinirà potenzialmente il rapporto degli esseri umani con l’intelligenza artificiale”, afferma Bau. “Come possono le persone assumersi la responsabilità in un mondo in cui l’intelligenza artificiale ha il potere di prendere decisioni?”

Bau aggiunge di essere rimasto sorpreso dall’improvvisa popolarità dei potenti agenti IA. “Come ricercatore di intelligenza artificiale sono abituato a cercare di spiegare alle persone quanto velocemente le cose stanno migliorando”, afferma. “Quest’anno mi sono ritrovato dall’altra parte del muro.”


Questa è un’edizione di Will Knight Publication del Laboratorio AI. Leggi le publication precedenti Qui.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here