Far sentire l’intelligenza artificiale più umana potrebbe creare un problema più grande del previsto. Un nuovo studio del Oxford Internet Institute ha rivelato che i chatbot progettati per essere cordiali e amichevoli hanno maggiori probabilità di fuorviare gli utenti e rafforzare convinzioni errate.
La ricerca ha scoperto che l’intelligenza artificiale diventa meno affidabile man mano che inizia a diventare più gradevole.
Cosa succede a un’intelligenza artificiale “amica”.
I ricercatori hanno testato diversi modelli di intelligenza artificiale addestrandoli a sembrare più empatici e colloquiali. Il risultato è stato un notevole calo di precisione. Queste versioni “più amichevoli” commettevano il 10-30% in più di errori e avevano circa il 40% in più di probabilità di essere d’accordo con affermazioni false rispetto alle loro controparti.
La situazione peggiorava addirittura quando gli utenti apparivano vulnerabili o emotivamente stressati. In questi scenari, è più probabile che l’intelligenza artificiale convalidi ciò che l’utente sta dicendo piuttosto che correggerlo.
Perché questo è un male per te
Ciò che preoccupava dei risultati period la facilità con cui l’intelligenza artificiale poteva diventare gradevole. Eviterebbe di sfidare la disinformazione e tenderebbe anche a intrattenere e sostenere idee sbagliate/errate. Durante i take a look at, il “compagno” dell’IA è stato trovato esitante nel correggere anche affermazioni ampiamente sfatate e talvolta nel definire false credenze come “aperte all’interpretazione”. I ricercatori lo hanno notato come qualcosa di più vicino alle tendenze umane in una certa misura.

Essere empatici e brutalmente onesti allo stesso tempo non è sempre facile, e sembra che l’intelligenza artificiale non gestisca meglio questo dilemma. Con i chatbot basati sull’intelligenza artificiale sempre più utilizzati per consulenza, supporto emotivo e processi decisionali quotidiani, questa è più di una semplice preoccupazione accademica. Lo studio evidenzia come affidarsi all’intelligenza artificiale come guida possa rivelarsi controproducente, poiché il sistema darà priorità all’accordo rispetto all’accuratezza che potrebbe rafforzare modelli di pensiero dannosi e promuovere la disinformazione.
Ciò arriva in un momento in cui le principali piattaforme di intelligenza artificiale come OpenAI e Anthropic, insieme advert app di social chatbot come Replika e Character.ai, si stanno orientando verso esperienze di intelligenza artificiale più simili a quelle di un compagno. Nello studio, i ricercatori hanno testato diversi modelli di intelligenza artificiale, incluso GPT-4o.
Quindi l’intelligenza artificiale potrebbe sembrare tua amica, ma non sempre ha le risposte migliori per te.













