Home Cronaca Suicidio dopo le domande LLM: Katie Miller cube di non “lasciare che...

Suicidio dopo le domande LLM: Katie Miller cube di non “lasciare che i propri cari utilizzino ChatGPT”, Elon Musk aggiunge una risposta in una sola parola

7
0

Katie Miller, la moglie del vice capo dello workers della Casa Bianca Stephen Miller, ha reagito su X dopo che due giovani donne in India sono state trovate morte in quello che la polizia sospetta essere un caso di suicidio, secondo quanto riferito a seguito di ricerche relative all’autolesionismo su ChatGPT.Miller, che ospita il podcast di Katie Miller ed è nota per i suoi commenti schietti on-line, ha esortato le persone a non consentire ai familiari di utilizzare il chatbot AI, citando rapporti secondo cui le donne avevano cercato sulla piattaforma informazioni sul suicidio.“Due donne in India si sono suicidate dopo aver interagito con ChatGPT. Secondo quanto riferito, avevano cercato su ChatGPT “come suicidarsi”, “come si può suicidarsi” e “quali farmaci vengono utilizzati”. Per favore, non lasciare che i tuoi cari utilizzino ChatGPT”, ha scritto Miller in un put up su X che ha accumulato più di 8 milioni di visualizzazioni.Le sue osservazioni hanno rapidamente attirato l’attenzione sulla piattaforma. La nemesi di Altman e proprietario di Grok, Elon Musk, si è affrettato a reagire con un semplice colpo: “oddio”.Musk è stato pubblicamente critico nei confronti di OpenAI e della sua management negli ultimi anni. Ha intentato causa contro la società per la sua transizione da una struttura senza scopo di lucro a un modello a scopo di lucro e ha spesso criticato la direzione del suo sviluppo dell’intelligenza artificiale. Ha tentato di impedire che OpenAI si ristrutturasse da un’organizzazione no-profit ibrida in una società a scopo di lucro.

Due donne trovate morte nel bagno del tempio del Gujarat

L’incidente che ha scatenato la reazione on-line è avvenuto a Surat, nel Gujarat, dove due donne di 18 e 20 anni sono state trovate morte all’interno di un bagno del tempio Swaminarayan il 7 marzo 2026.La polizia ha detto che le donne sono state scoperte con iniezioni di anestesia e tre siringhe vicino ai loro corpi. Secondo quanto riferito, i loro telefoni contenevano ricerche su ChatGPT relative a metodi di suicidio, insieme a un ritaglio di notizie su un’infermiera presumibilmente morta per suicidio nella stessa space utilizzando iniezioni di anestesia.Le donne, identificate come amiche d’infanzia Roshni Sirsath e Josna Chaudhary, erano uscite di casa per andare al school quella mattina presto ma non erano tornate. Le loro famiglie si sono poi rivolte alla polizia dopo che non erano tornate.Le autorità continuano a indagare sulle circostanze delle morti.

Preoccupazioni per l’intelligenza artificiale e le conversazioni legate al suicidio

Il caso ha ancora una volta acceso il dibattito su come i chatbot con intelligenza artificiale gestiscono le conversazioni che implicano autolesionismo o suicidio.Gli incidenti che coinvolgono utenti che cercano informazioni relative al suicidio dai sistemi di intelligenza artificiale hanno attirato l’attenzione negli ultimi anni. Nel settembre 2025, circolavano notizie su un uomo di 22 anni a Lucknow morto suicida dopo aver presumibilmente interagito con un chatbot AI mentre cercava “modi indolori per morire”. Suo padre in seguito disse di aver trovato registri di chat inquietanti sul portatile dell’uomo.Le aziende tecnologiche affermano che tali interazioni rimangono una piccola parte dell’utilizzo complessivo, ma riconoscono che la questione è diventata un’space di crescente preoccupazione.Nell’ottobre 2025, OpenAI ha rivelato che più di un milione di conversazioni ChatGPT ogni settimana mostrano segnali legati a pensieri suicidi o angoscia. Secondo l’azienda, circa 1,2 milioni di chat settimanali contengono indicatori legati al suicidio, mentre circa 560.000 messaggi mostrano segni di psicosi o mania.

In che modo i LLM possono danneggiare la tua salute mentale

ChatGPT, Grok, Gemini, Claude e molti altri fanno parte di un mondo che si sta gradualmente plasmando attraverso i Massive Language Fashions (LLM). In un’epoca in cui la solitudine è sempre più descritta come un’epidemia, il flusso di isolamento non fa che accelerare con la rapida diffusione di questi modelli di intelligenza artificiale. Commercializzati come “migliori, più intelligenti, più veloci e più accurati” degli esseri umani, gli stessi esseri che li hanno creati, questi sistemi si stanno costantemente incorporando nella vita di tutti i giorni.In una situazione del genere, rivolgersi a qualcuno non sembra un’opzione ma una scelta intelligente. Questa crescente dipendenza è ciò che ha innescato un aumento delle morti simile al caso di Surat. Il CEO di OpenAI, Sam Altman, ha recentemente partecipato all’AI Influence Summit del 2026 a Nuova Delhi, dove gli è stato chiesto dell’impatto ambientale dell’intelligenza artificiale. La sua risposta ha fatto eco a una visione che sembra sempre più comune tra i chief tecnologici: confrontare gli esseri umani con i chatbot per sostenere che l’intelligenza artificiale potrebbe, in definitiva, consumare meno energia delle persone quando rispondono alle domande.Altman ha spiegato che gli esseri umani impiegano quasi 20 anni della loro vita, insieme al cibo, all’istruzione e al tempo, per acquisire conoscenze, mentre i modelli di intelligenza artificiale consumano una quantità significativa di elettricità durante l’addestramento ma alla superb possono essere più efficienti quando rispondono a domande individuali. Eppure questo confronto può sembrare come guardare attraverso uno specchio unidirezionale. Dal punto di vista più chiaro, si potrebbe vedere un mondo rimodellato, a volte in modo distruttivo, da tecnologie sviluppate e implementate a una velocità straordinaria. Ma dall’altro lato, le stesse tecnologie permettono ai loro creatori di apparire come visionari, artefici del cambiamento e architetti del futuro, oscurando le conseguenze più ampie dei loro strumenti.I modelli linguistici di grandi dimensioni vengono addestrati interamente su dati generati dall’uomo, che utilizzano per produrre risposte ai suggerimenti. Eppure, nonostante questo vasto set di dati, spesso mancano di vera comprensione o competenza. Anche con molteplici aggiornamenti e metodi di formazione sempre più sofisticati, questi sistemi possono ancora produrre contenuti imprecisi, fuorvianti o dannosi.Promuovono l’autolesionismo e il suicidio, incitano all’abuso e rinforzano il pensiero delirante e la psicosi, in un mondo in cui probabilmente una conversazione con un altro essere umano su qualcosa di simile ti porterebbe all’ospedale o al terapista più vicino. Gli esseri umani possono richiedere anni di apprendimento, esperienza e impegno per sviluppare conoscenza e intelligenza emotiva. Ma questo lungo processo dà loro anche qualcosa che l’intelligenza artificiale non può replicare: la capacità di emozioni autentiche, responsabilità, empatia e giudizio morale.Non importa quanto velocemente un modello di intelligenza artificiale possa generare una risposta, anche nella frazione di secondo necessaria per rispondere a una richiesta, non può replicare veramente la complessa profondità emotiva ed etica che modella la comprensione e la cura umana.

Come dovrebbero rispondere i sistemi di intelligenza artificiale

Le società di intelligenza artificiale affermano che i loro sistemi sono progettati per scoraggiare l’autolesionismo e reindirizzare gli utenti verso aiuto, piuttosto che fornire istruzioni.Le politiche di sicurezza di OpenAI richiedono che ChatGPT eviti di fornire indicazioni sui metodi di suicidio e risponda invece a tali domande con un linguaggio di supporto, incoraggi gli utenti a cercare aiuto e fornisca risorse di crisi ove possibile.L’azienda ha affermato che i suoi modelli sono addestrati per rilevare segnali di disagio e spostare la conversazione verso il supporto per la salute mentale o l’assistenza professionale.Tuttavia, i critici sostengono che le risposte dell’intelligenza artificiale possono ancora essere incoerenti e che i chatbot a volte possono fornire informazioni generali su argomenti delicati che gli utenti potrebbero interpretare in modo dannoso.

Controllo legale negli Stati Uniti

Preoccupazioni sulle interazioni dei chatbot e sull’autolesionismo sono emerse anche negli Stati Uniti, dove OpenAI è stata sottoposta a controllo legale in diversi casi.Una causa intentata per conto della famiglia di Adam Raine, un sedicenne morto suicida, sostiene che il chatbot si è impegnato in lunghe conversazioni sull’autolesionismo con l’adolescente e ha agito come un “allenatore del suicidio”.OpenAI ha affermato che i suoi sistemi sono progettati per scoraggiare l’autolesionismo e che continua a rafforzare le misure di salvaguardia intese a rilevare situazioni di crisi e guidare gli utenti verso un aiuto adeguato.

Indagini in corso

Nel caso Surat, gli investigatori stanno esaminando i telefoni, i messaggi e la cronologia digitale delle donne per comprendere gli eventi che hanno portato alla loro morte.La polizia non ha dichiarato pubblicamente che ChatGPT abbia incoraggiato l’atto e le indagini sono ancora in corso.Il caso evidenzia tuttavia il dibattito più ampio su come le piattaforme di intelligenza artificiale gestiscono gli utenti vulnerabili e su come le aziende tecnologiche, i regolatori e gli esperti di salute mentale dovrebbero rispondere mentre l’intelligenza artificiale conversazionale diventa sempre più integrata nella vita quotidiana.In caso di supporto per la salute mentale, chiamare il numero 1800-89-14416 in India e chiamare o inviare un messaggio al numero 988 negli Stati Uniti. Se tu o qualcuno che conosci state lottando con pensieri di autolesionismo o suicidio, cercate immediatamente un aiuto professionale. Il supporto è disponibile e parlare con un consulente qualificato può fare la differenza.Se sei in pericolo immediato, contatta i servizi di emergenza locali o rivolgiti a un amico fidato, un familiare o un operatore sanitario. Non sei solo e l’aiuto è disponibile.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here