In un recente esperimento, Anthropic ha creato un mercato classificato in cui gli agenti AI rappresentavano sia acquirenti che venditori, concludendo affari reali per beni reali e denaro reale.
La società ha ammesso questo check – chiamato Mission Deal – period solo “un esperimento pilota con un pool di partecipanti autoselezionati” di 69 dipendenti di Anthropic a cui period stato assegnato un funds di $ 100 (pagato tramite buoni regalo) per acquistare cose dai loro colleghi.
Ciononostante, Anthropic ha affermato di essere “colpito dal modo in cui Mission Deal ha funzionato”, con 186 accordi conclusi, per un valore totale di oltre $ 4.000.
L’azienda ha affermato di gestire in realtà quattro mercati separati con modelli diversi: uno “reale” (dove tutti erano rappresentati dal modello più avanzato dell’azienda e con accordi effettivamente onorati dopo l’esperimento) e altri tre per lo studio.
A quanto pare, quando gli utenti sono rappresentati da modelli più avanzati, ottengono “risultati oggettivamente migliori”, ha affermato Anthropic. Ma gli utenti non sembravano notare la disparità, aumentando la possibilità di “divari di qualità dell’agente” in cui “le persone in svantaggio potrebbero non rendersi conto che stanno peggio”.
Inoltre, le istruzioni iniziali fornite agli agenti non sembravano influenzare la probabilità di vendita o i prezzi negoziati.










