Martedì, Google ha condiviso per la prima volta i dettagli su come il suo chatbot AI Gemini è progettato per non comportarsi come un compagno o affermare di essere umano quando interagisce con minori.
L’informativa, pubblicata dalla società in a articolo del blogè stato annunciato tra le modifiche per supportare meglio la salute mentale degli utenti che interagiscono con Gemini.
Gli esperti di sicurezza childish e salute mentale temono da tempo che i chatbot simili a compagni siano troppo pericolosi da utilizzare per gli adolescenti. L’anno scorso, il gruppo di difesa Frequent Sense Media ha valutato le versioni per adolescenti e sotto i 13 anni di Gemelli “ad alto rischio” dopo che i suoi ricercatori hanno stabilito che il chatbot esponeva i bambini a contenuti inappropriati, tra cui sesso, droghe, alcol e “consigli” non sicuri sulla salute mentale.
Cosa pensano davvero gli adolescenti dell’intelligenza artificiale e del loro futuro
Il gruppo ha raccomandato che nessuno sotto i 18 anni si rivolga a un chatbot AI per compagnia o supporto per la salute mentale.
Google ha affermato che Gemini ha “protezioni della persona” quando interagisce con utenti minori di 18 anni. Secondo Google, i vincoli di lunga information sono progettati per prevenire la dipendenza emotiva ed evitare “il linguaggio che simula l’intimità o esprime bisogni”. Altre misure di salvaguardia dovrebbero aiutare a scoraggiare il chatbot dal bullismo e da altri tipi di molestie.
Rapporto sulle tendenze mashable
“I nostri sforzi per la sicurezza continuano advert evolversi e riflettono il nostro impegno costante nella creazione di un ambiente digitale sano e positivo in cui i giovani possano esplorare e apprendere con fiducia”, ha affermato Google nel publish sul weblog dell’azienda.
Google ha inoltre annunciato di aver aggiornato Gemini per semplificare le risorse per gli utenti che potrebbero cercare o aver bisogno di risorse per la salute mentale. Una nuova interfaccia “one-touch” offrirà vari collegamenti alle risorse della hotline di crisi, anche tramite chat, chiamate e SMS.
L’interfaccia apparirà durante una conversazione con Gemini una volta attivata. Google ha affermato che sta cercando di dare la priorità advert aiutare gli utenti a ricevere supporto umano. Inoltre, le risposte dei Gemelli dovrebbero incoraggiare la ricerca di aiuto invece di convalidare comportamenti dannosi e confermare false credenze.
Spiegare il fenomeno noto come “psicosi dell’intelligenza artificiale”
A marzo, Google e la sua società madre Alphabet sono stati citati in giudizio dalla famiglia di un uomo adulto che sosteneva che si fosse suicidato su sollecitazione di Gemini.
“Gemini è progettato per non incoraggiare la violenza nel mondo reale o suggerire l’autolesionismo”, ha affermato Google in una nota all’epoca. “I nostri modelli generalmente si comportano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo, ma sfortunatamente i modelli di intelligenza artificiale non sono perfetti.”
Se hai tendenze suicide o stai vivendo una crisi di salute mentale, parla con qualcuno. Puoi chiamare o inviare un messaggio al 988 Suicide & Disaster Lifeline al 988 o chattare su 988lifeline.org. Puoi contattare Trans Lifeline chiamando il numero 877-565-8860 o il Trevor Venture al numero 866-488-7386. Invia il messaggio “START” alla riga di testo di crisi al 741-741. Contatta la HelpLine NAMI al numero 1-800-950-NAMI, dal lunedì al venerdì dalle 10:00 alle 22:00 ET, oppure invia un’e-mail [email protected]. Se non ti piace il telefono, considera l’utilizzo di 988 Suicidio e crisi Chat ancora di salvezza. Ecco un elenco delle risorse internazionali.











