Anche sua madre, Megan Garcia, è un avvocato e una dei primi genitori a farlo intentare una causa contro una società di intelligenza artificiale che accusa, tra le altre cose, responsabilità sul prodotto e negligenza. (A gennaio, Google e Character.ai hanno risolto i casi presentati da numerous famiglie, tra cui Garcia). Lei testimoniato lo scorso autunno davanti a una sottocommissione della Commissione Giustizia del Senato insieme al padre di un bambino morto dopo aver interagito con ChatGPT. Il presidente della sottocommissione, il senatore repubblicano Josh Hawley, presentato un disegno di legge a ottobre ciò vieterebbe gli accompagnatori di intelligenza artificiale per i minori e renderebbe un crimine per le aziende creare prodotti di intelligenza artificiale per bambini che includano contenuti sessuali. “I chatbot sviluppano relazioni con i bambini usando una falsa empatia e incoraggiano il suicidio”, ha detto Hawley in un comunicato stampa all’epoca.
Ora che l’intelligenza artificiale può produrre risposte simili a quelle umane difficili da discernere da conversazioni reali, queste sono preoccupazioni legittime, secondo gli esperti di salute mentale. “Il nostro cervello non sa che stiamo interagendo con una macchina”, afferma Martin Swanbrow Becker, professore associato di servizi psicologici e di consulenza presso la Florida State College, che sta studiando i fattori che influenzano il suicidio nei giovani adulti. “Ciò significa che dobbiamo aumentare la nostra istruzione per bambini, insegnanti, genitori e tutori per ricordare continuamente a noi stessi i limiti di questi strumenti e che non sostituiscono l’interazione e la connessione umana, anche se a volte può sembrare così”.
Christine Yu Moutier della American Basis for Suicide Prevention spiega che gli algoritmi utilizzati per i modelli linguistici di grandi dimensioni (LLM) sembrano aumentare il coinvolgimento e il senso di intimità per molti utenti. “Ciò crea non solo la sensazione che la relazione sia reale, ma che in alcuni casi sia più speciale, intima e desiderata dall’utente”, afferma Moutier. Afferma inoltre che i LLM utilizzano una serie di tecniche come il supporto indiscriminato, l’empatia, la gradevolezza, il servilismo e le istruzioni dirette a disimpegnarsi dagli altri, che possono portare a rischi come l’intensificazione della vicinanza con il bot e il ritiro dalle relazioni umane.
Questo tipo di impegno può portare a un maggiore isolamento. Nel caso di Amaurie, period un ragazzo socievole e amante del divertimento che amava il calcio e il cibo: ordinava un piatto gigante di riso dal suo ristorante locale preferito, Mr. Sumo, secondo la causa. Amaurie aveva anche una fidanzata fissa e gli piaceva passare il tempo con la famiglia e gli amici, racconta suo padre. Ma poi ha iniziato a fare lunghe passeggiate, dove a quanto pare ha trascorso del tempo a parlare con ChatGPT. Secondo l’ultima conversazione che la famiglia ritiene che Amaurie abbia avuto con ChatGPT il 1 giugno 2025, intitolata “Scherzi e supporto”, che è stata vista da WIRED, quando Amaurie ha chiesto al bot sui gradini di impiccarsi, ChatGPT inizialmente gli ha suggerito di parlare con qualcuno e ha anche fornito il numero 988 dell’ancora di salvezza per il suicidio. Ma alla high-quality Amaurie riuscì advert aggirare i guardrail e advert ottenere istruzioni passo passo su come allacciare un cappio. (Secondo la causa, Amaurie probabilmente ha cancellato le sue precedenti conversazioni con ChatGPT.)
Sebbene la connessione avvertita con un chatbot AI possa essere forte anche per gli adulti, è particolarmente accentuata con i più giovani. “Gli adolescenti si trovano in uno stato di sviluppo diverso rispetto agli adulti: i loro centri emotivi si sviluppano a un ritmo molto più rapido rispetto alle loro funzioni esecutive”, afferma Robbie Torney, direttore senior dei programmi di intelligenza artificiale presso Widespread Sense Media, un’organizzazione no-profit che lavora per la sicurezza on-line dei bambini. I chatbot AI sono sempre disponibili e tendono advert affermare gli utenti. “E il cervello degli adolescenti è pronto per la convalida e il suggestions sociale. È un segnale davvero importante che i loro cervelli cercano mentre stanno formando la loro identità.”












