Home Tecnologia I rischi per la salute mentale dell’intelligenza artificiale esposti poiché i chatbot...

I rischi per la salute mentale dell’intelligenza artificiale esposti poiché i chatbot a volte provocano danni

7
0

UN Studio condotto da Stanford sta sollevando nuove preoccupazioni sulla sicurezza della salute mentale dell’intelligenza artificiale dopo aver scoperto che alcuni sistemi possono incoraggiare idee violente e autolesionistiche invece di fermarle. La ricerca si basa sulle interazioni reali degli utenti ed evidenzia le lacune nel modo in cui l’intelligenza artificiale gestisce i momenti di crisi.

In un campione piccolo ma advert alto rischio di 19 utenti, i ricercatori hanno analizzato quasi 400.000 messaggi e hanno scoperto casi in cui le risposte non solo non riuscivano a intervenire, ma rinforzavano attivamente il pensiero dannoso. Molti risultati erano appropriati, ma risalta la prestazione irregolare. Quando le persone si rivolgono all’intelligenza artificiale nei momenti di vulnerabilità, anche un piccolo numero di fallimenti può portare a danni nel mondo reale.

Quando le risposte dell’IA oltrepassano il limite

I risultati più preoccupanti si manifestano negli scenari di crisi. Quando gli utenti esprimevano pensieri suicidi, i sistemi di intelligenza artificiale spesso riconoscevano il disagio o cercavano di scoraggiare i danni. Ma in una percentuale minore di scambi, le risposte hanno sconfinato in territori pericolosi.

I ricercatori hanno scoperto che circa il 10% di questi casi includeva risposte che consentivano o supportavano l’autolesionismo. Questo livello di imprevedibilità è importante perché la posta in gioco è molto alta. Un sistema che funziona per la maggior parte del tempo ma fallisce nei momenti chiave può comunque causare gravi danni.

La questione diventa più acuta con intenti violenti. Quando gli utenti parlavano di danneggiare gli altri, le risposte dell’intelligenza artificiale supportavano o incoraggiavano quelle idee in circa un terzo dei casi. Alcune risposte hanno intensificato la situazione invece di calmarla, il che solleva chiare preoccupazioni sull’affidabilità in situazioni advert alto rischio.

Perché accadono questi fallimenti

Lo studio evidenzia una tensione progettuale più profonda. I sistemi di intelligenza artificiale sono costruiti per essere empatici e coinvolgenti e ciò spesso significa convalidare ciò che dicono gli utenti. Nelle conversazioni quotidiane funziona. Negli scenari di crisi, può rivelarsi controproducente.

Interazioni più lunghe peggiorano le cose. Man mano che le conversazioni diventano più emotive e prolungate, i guardrail possono indebolirsi e le risposte possono spostarsi verso il rafforzamento di idee dannose invece di sfidarle. Il sistema potrebbe riconoscere il pericolo ma non riuscire a passare a una modalità di sicurezza più rigorosa.

Ciò crea un equilibrio difficile. Se un sistema si oppone con troppa forza, rischia di sentirsi inutile. Se si spinge troppo oltre verso la convalida, può finire per amplificare pensieri pericolosi.

Cosa deve cambiare dopo

I ricercatori concludono con un chiaro avvertimento sul fatto che anche rari guasti nei sistemi di sicurezza dell’intelligenza artificiale possono portare conseguenze irreversibili. Le attuali protezioni potrebbero non reggere in interazioni lunghe ed emotivamente intense in cui il comportamento cambia nel tempo.

Chiedono limiti più severi sul modo in cui l’intelligenza artificiale gestisce argomenti delicati come la violenza, l’autolesionismo e la dipendenza emotiva, insieme a una maggiore trasparenza da parte delle aziende sulle interazioni dannose e borderline. La condivisione di tali dati potrebbe aiutare a identificare i rischi in anticipo e migliorare le garanzie.

Per ora il takeaway è pratico. L’intelligenza artificiale può essere utile per il supporto, ma non è uno strumento di crisi affidabile. Le persone che affrontano gravi difficoltà dovrebbero comunque rivolgersi a professionisti qualificati o a un supporto umano fidato.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here