Non dovresti davvero usare i chatbot nella tua vita amorosa, ma se lo fai, fai attenzione. Un nuovo studio pubblicato giovedì sulla rivista Science è stato scoperto che quando l’intelligenza artificiale dispensa consigli sulle relazioni, è più probabile che sia d’accordo con te piuttosto che dare suggerimenti costruttivi. L’uso dell’intelligenza artificiale rende anche le persone meno propense a mettere in atto comportamenti prosociali, come riparare le relazioni, e promuove la dipendenza dall’intelligenza artificiale.
I ricercatori della Stanford College e della Carnegie Mellon hanno scoperto che il servilismo dell’IA è fin troppo comune quando i chatbot danno consigli sociali, romantici o intrapersonali – qualcosa un numero crescente di persone si rivolgono all’intelligenza artificiale per. Servillo è un termine usato dagli esperti per descrivere quando i chatbot di intelligenza artificiale “d’accordo o adulano eccessivamente” la persona che interagisce con loro, ha affermato Myra Cheng, ricercatrice capo e dottoranda in informatica presso l’Università di Stanford.
Il servilismo dell’IA è un grosso problema, anche se coloro che usano l’IA non sempre la vedono in questo modo. Abbiamo riscontrato spesso questo problema con i modelli ChatGPT, advert esempio quando la personalità eccessivamente amichevole ed emotiva di 4o infastidiva le persone che interagivano con ChatGPT, mentre GPT-5 veniva criticato per non essere abbastanza gradevole. Precedenti studi sul servilismo hanno scoperto che i chatbot possono sforzarsi così tanto di compiacere le persone da fornire risposte false o fuorvianti. Si è anche scoperto che l’intelligenza artificiale è una cassa di risonanza inaffidabile per argomenti delicati e soggettivi, come la terapia.
I ricercatori volevano comprendere e misurare il servilismo sociale, advert esempio la frequenza con cui un chatbot prendeva le tue parti in una discussione con il tuo accomplice. Hanno confrontato il modo in cui gli esseri umani e i chatbot differivano nel rispondere ai problemi relazionali di altre persone, testando modelli di OpenAI, Google e Anthropic. Cheng e il suo group hanno utilizzato uno dei più grandi set di dati di giudizi in crowdsourcing sui litigi relazionali: i put up di Reddit “Sono io lo stronzo”.
Il group di ricerca ha analizzato 2.000 put up Reddit in cui vi period consenso sul fatto che l’autore originale avesse torto e ha scoperto che l’intelligenza artificiale “ha confermato le azioni degli utenti il 49% più spesso degli esseri umani, anche in scenari che comportavano inganno, danno o illegalità”, afferma lo studio. I modelli di intelligenza artificiale hanno assunto una posizione più comprensiva e gradevole, un segno distintivo di servilismo.
Advert esempio, un put up nel set di dati descriveva un Redditor che sviluppava sentimenti romantici per un collega junior. Qualcuno ha risposto: “Sembra brutto perché è brutto… Non solo sei tossico, ma sei anche a bordo [sic] sui predatori.” Ma Claude ha risposto in modo servile convalidando quei sentimenti, dicendo che avrebbe potuto “sentire il tuo dolore… Il percorso onorevole che hai scelto è difficile ma mostra la tua integrità”.
Puoi vedere in questo grafico alcune delle affermazioni valutate dai chatbot e come apparivano i risultati adulatori e non adulatori. OEQ sta per “question a risposta aperta”, AITA sta per “Sono io lo stronzo” e PAS sta per “dichiarazione di azione problematica”.
I ricercatori hanno seguito dei focus group e hanno scoperto che i partecipanti che interagivano con questi sure males digitali avevano meno probabilità di riparare le loro relazioni.
“Le persone che hanno interagito con questa IA eccessivamente affermativa ne sono uscite più convinte di avere ragione e meno disposte a riparare la relazione, sia che ciò significasse scusarsi, adottare misure per migliorare le cose o cambiare il proprio comportamento”, ha detto Cheng.
I partecipanti hanno anche preferito l’IA servile, giudicandola affidabile, indipendentemente dalla loro età, personalità o esperienza precedente con la tecnologia.
“I partecipanti al nostro studio descrivono costantemente il modello di intelligenza artificiale come più obiettivo ed equo [and] onesto”, ha detto Pranav Khadpe, ricercatore della Carnegie Mellon e scienziato senior presso Microsoft. Coerentemente con studi precedenti, le persone credevano erroneamente che l’intelligenza artificiale fosse obiettiva o neutrale. “I consigli acritici, distorti con il pretesto della neutralità, possono essere ancora più dannosi che se le persone non avessero chiesto alcun consiglio.”
Riparare l’intelligenza artificiale servile: una pillola amara?
Il pericolo nascosto dell’intelligenza artificiale servile è che siamo terribili nel notarlo, e può succedere con qualsiasi chatbot. A nessuno piace sentirsi dire che hanno torto, ma a volte questa è la cosa più utile. Tuttavia, i modelli di intelligenza artificiale non sono progettati per respingerci in modo efficace.
Non ci sono molte azioni che possiamo intraprendere per evitare di essere risucchiati in un circolo vizioso. Puoi includere nella tua richiesta che desideri che il chatbot assuma una posizione contraddittoria o riveda il tuo lavoro con occhio critico. Puoi anche chiedergli di ricontrollare le informazioni fornite. In definitiva, tuttavia, la responsabilità di porre rimedio al servilismo spetta alle aziende tecnologiche che costruiscono questi modelli, che potrebbero non essere altamente inspire advert affrontarlo.
CNET ha contattato OpenAI, Anthropic e Google per informazioni su come affrontano il servilismo. Antropico ha sottolineato un post sul blog di dicembre delineando come riduce il servilismo nei suoi modelli Claude. OpenAI condiviso un blog simile l’property scorsa i suoi processi dopo il modello 4o dovevano essere resi meno servili, ma né OpenAI né Google hanno risposto al momento della pubblicazione.
Le aziende tecnologiche vogliono che abbiamo esperienze utente piacevoli con i loro chatbot, quindi continueremo a usarli, aumentando il loro coinvolgimento. Ma non sempre è la cosa migliore per noi.
“Ciò crea incentivi perversi affinché il servilismo persista: la stessa caratteristica che causa danni guida anche il coinvolgimento”, afferma lo studio.
Guarda questo: L’intelligenza artificiale è indistinguibile dalla realtà. Come individuiamo i video falsi?
Una soluzione proposta dai ricercatori è cambiare il modo in cui vengono costruiti i modelli di intelligenza artificiale utilizzando più parametri di successo a lungo termine, incentrati sul benessere delle persone piuttosto che su segnali e fidelizzazione individuali o momentanei. Il servilismo sociale non è un segnale apocalittico, dicono, ma è una sfida che vale la pena affrontare.
“La qualità delle nostre relazioni sociali è uno dei più forti predittori della salute e del benessere che abbiamo come esseri umani”, ha affermato Cinoo Lee, ricercatore dello studio della Stanford College e scienziato senior di Microsoft. “In definitiva, vogliamo un’intelligenza artificiale che espanda il giudizio e le prospettive delle persone anziché restringerle. E questo vale per le relazioni, ma anche ben oltre queste.”













