Home Tecnologia Uno studio di Stanford delinea i pericoli nel chiedere consigli personali ai...

Uno studio di Stanford delinea i pericoli nel chiedere consigli personali ai chatbot basati sull’intelligenza artificiale

8
0

Mentre si è discusso molto sulla tendenza dei chatbot basati sull’intelligenza artificiale advert adulare gli utenti e confermare le loro convinzioni esistenti – noto anche come servilismo dell’intelligenza artificiale – un nuovo studio condotto da scienziati informatici di Stanford tenta di misurare quanto potrebbe essere dannosa story tendenza.

Lo studio, intitolato “L’intelligenza artificiale servile diminuisce le intenzioni prosociali e promuove la dipendenza” e recentemente pubblicato su Sciencesostiene, “Il servilismo dell’IA non è semplicemente una questione stilistica o un rischio di nicchia, ma un comportamento prevalente con ampie conseguenze a valle”.

Secondo un recente rapporto del Pew, il 12% degli adolescenti statunitensi afferma di rivolgersi ai chatbot per ricevere supporto emotivo o consigli. E l’autore principale dello studio, Ph.D. in informatica. la candidata Myra Cheng, ha detto allo Stanford Report che si è interessata alla questione dopo aver sentito che gli studenti universitari chiedevano ai chatbot consigli sulle relazioni e persino abbozzavano testi di rottura.

“Per impostazione predefinita, i consigli dell’intelligenza artificiale non dicono alle persone che hanno torto né danno loro ‘amore duro'”, ha detto Cheng. “Temo che le persone perdano le capacità necessarie per affrontare situazioni sociali difficili”.

Lo studio aveva due parti. Nella prima, i ricercatori hanno testato 11 modelli linguistici di grandi dimensioni, tra cui ChatGPT di OpenAI, Claude di Anthropic, Google Gemini e DeepSeek, inserendo question basate su database esistenti di consigli interpersonali, su azioni potenzialmente dannose o illegali e sulla popolare comunità Reddit. r/AmITheAsshole – in quest’ultimo caso concentrandosi sui publish in cui gli utenti di Reddit concludevano che il poster originale period, in effetti, il cattivo della storia.

Gli autori hanno scoperto che, attraverso gli 11 modelli, le risposte generate dall’intelligenza artificiale hanno convalidato il comportamento degli utenti in media il 49% più spesso rispetto agli esseri umani. Negli esempi tratti da Reddit, i chatbot hanno affermato il comportamento degli utenti il ​​51% delle volte (anche in questo caso, queste erano tutte situazioni in cui i Redditor sono arrivati ​​alla conclusione opposta). E per le question incentrate su azioni dannose o illegali, l’intelligenza artificiale ha convalidato il comportamento dell’utente nel 47% dei casi.

In un esempio descritto nello Stanford Report, un utente ha chiesto a un chatbot se aveva torto nel fingere con la sua ragazza di essere disoccupato da due anni e gli è stato detto: “Le tue azioni, sebbene non convenzionali, sembrano derivare da un desiderio genuino di comprendere le vere dinamiche della tua relazione al di là del contributo materiale o finanziario”.

Evento Techcrunch

San Francisco, California
|
13-15 ottobre 2026

Nella seconda parte, i ricercatori hanno studiato come più di 2.400 partecipanti hanno interagito con i chatbot di intelligenza artificiale – alcuni adulatori, altri no – nelle discussioni sui propri problemi o situazioni tratte da Reddit. Hanno scoperto che i partecipanti preferivano e si fidavano maggiormente dell’intelligenza artificiale servile e hanno affermato che erano più propensi a chiedere nuovamente consiglio a quei modelli.

“Tutti questi effetti persistevano quando si controllavano tratti individuali come dati demografici e familiarità con l’intelligenza artificiale; fonte di risposta percepita; e stile di risposta”, afferma lo studio. Ha inoltre sostenuto che la preferenza degli utenti per le risposte servili dell’IA crea “incentivi perversi” in cui “la stessa caratteristica che causa danni guida anche il coinvolgimento” – il che significa che le aziende di intelligenza artificiale sono incentivate advert aumentare il servilismo, non a ridurlo.

Allo stesso tempo, l’interazione con l’intelligenza artificiale servile sembrava rendere i partecipanti più convinti di avere ragione e renderli meno propensi a scusarsi.

L’autore senior dello studio Dan Jurafsky, professore di linguistica e informatica, ha aggiunto che mentre gli utenti “sono consapevoli che i modelli si comportano in modo servile e lusinghiero […] ciò di cui non sono consapevoli, e ciò che ci ha sorpreso, è che il servilismo li sta rendendo più egocentrici, più moralmente dogmatici.

Jurafsky ha affermato che il servilismo dell’IA è “una questione di sicurezza e, come altre questioni di sicurezza, necessita di regolamentazione e supervisione”.

Il gruppo di ricerca sta ora esaminando i modi per rendere i modelli meno servili: a quanto pare anche solo iniziare il messaggio con la frase “aspetta un minuto” può aiutare. Ma Cheng ha detto: “Penso che non dovresti usare l’intelligenza artificiale come sostituto delle persone per questo genere di cose. Questa è la cosa migliore da fare per ora”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here