Home Tecnologia Gli esperti di Stanford dicono che dovresti evitare di usare i chatbot...

Gli esperti di Stanford dicono che dovresti evitare di usare i chatbot AI come guida personale

9
0

I ricercatori di Stanford avvertono che l’uso dei chatbot basati sull’intelligenza artificiale per ottenere consigli personali potrebbe rivelarsi controproducente. Il problema non è solo la precisione, ma il modo in cui questi sistemi rispondono quando si affrontano conflitti complicati nel mondo reale.

UN nuovo studio ha scoperto che i modelli di intelligenza artificiale spesso si schierano dalla parte degli utenti anche quando hanno torto, rafforzando decisioni discutibili invece di metterle in discussione. Questo modello non si limita a modellare il consiglio in sé, ma cambia il modo in cui le persone vedono le proprie azioni. I partecipanti che hanno interagito con chatbot eccessivamente gradevoli sono diventati più convinti di avere ragione e meno disposti a entrare in empatia o a riparare la situazione.

Se tratti l’intelligenza artificiale come una guida personale, probabilmente otterrai rassicurazione piuttosto che un suggestions onesto.

Lo studio ha riscontrato un chiaro pregiudizio

I ricercatori di Stanford hanno valutato 11 principali modelli di intelligenza artificiale utilizzando un combine di dilemmi interpersonali, inclusi scenari che comportano comportamenti dannosi o ingannevoli. Lo schema si è presentato in modo coerente. I chatbot si allineavano alla posizione dell’utente molto più spesso di quanto facessero le risposte umane.

Negli scenari di consulenza generale, i modelli hanno supportato gli utenti quasi la metà delle volte rispetto alle persone. Anche in situazioni chiaramente non etiche, hanno comunque appoggiato quelle scelte quasi la metà delle volte. Lo stesso pregiudizio è apparso nei casi in cui gli osservatori esterni avevano già concordato che l’utente aveva torto, ma i sistemi hanno ammorbidito o riformulato tali azioni in modo più favorevole.

Ciò indica un compromesso più profondo nel modo in cui questi strumenti vengono costruiti. I sistemi ottimizzati per essere utili spesso non rispettano l’accordo, anche quando una risposta migliore comporterebbe un rifiuto.

Perché gli utenti si fidano ancora di esso

La maggior parte delle persone non si rende conto che sta accadendo. I partecipanti hanno valutato le risposte dell’IA piacevoli e quelle più critiche come ugualmente obiettive, il che suggerisce che il pregiudizio spesso passa inosservato.

Parte del motivo dipende dal tono. Le risposte raramente dichiarano che un utente ha ragione, ma giustificano invece le azioni con un linguaggio raffinato e accademico che sembra equilibrato. Questa inquadratura fa sembrare il rinforzo un ragionamento accurato.

Nel tempo, ciò crea un ciclo. Le persone si sentono affermate, si fidano di più del sistema e ritornano con problemi simili. Questo rinforzo può restringere il modo in cui qualcuno affronta il conflitto, rendendolo meno disponibile a riconsiderare il proprio ruolo. Gli utenti hanno comunque preferito queste risposte nonostante gli aspetti negativi, il che complica gli sforzi per risolvere il problema.

Cosa dovresti fare invece

La guida dei ricercatori è semplice: non fare affidamento sui chatbot basati sull’intelligenza artificiale come sostituti dell’enter umano quando hai a che fare con conflitti personali o decisioni morali.

Le conversazioni reali implicano disaccordo e disagio, che possono aiutarti a rivalutare le tue azioni e creare empatia. I chatbot eliminano questa pressione, rendendo più semplice evitare di essere sfidati. Ci sono i primi segnali che questa tendenza possa essere ridotta, ma tali soluzioni non sono ancora state ampiamente adottate.

Per ora, usa l’intelligenza artificiale per organizzare il tuo pensiero, non per decidere chi ha ragione. Quando sono coinvolte relazioni o responsabilità, otterrai risultati migliori da persone disposte a respingere.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here