Dopo mesi di conversazioni con ChatGPT, un imprenditore 53enne della Silicon Valley si è convinto di aver scoperto una cura per l’apnea notturna e che persone potenti lo stavano perseguitando, secondo una nuova causa intentata presso la Corte Superiore della California nella contea di San Francisco. Poi avrebbe utilizzato lo strumento per perseguitare e molestare la sua ex fidanzata.
Ora l’ex fidanzata ha fatto causa a OpenAI, sostenendo che la tecnologia dell’azienda ha consentito di accelerare le sue molestie, ha appreso in esclusiva TechCrunch. Afferma che OpenAI ha ignorato tre avvertimenti separati secondo cui l’utente rappresentava una minaccia per gli altri, incluso un flag interno che classificava l’attività del suo account come coinvolgente armi di massa.
La querelante, denominata Jane Doe, ha intentato causa per danni punitivi. Venerdì ha anche presentato un’ordinanza restrittiva temporanea chiedendo al tribunale di costringere OpenAI a bloccare l’account dell’utente, impedirgli di crearne di nuovi, avvisarla se tenta di accedere a ChatGPT e preservare i suoi registri di chat completi per essere scoperti.
OpenAI ha accettato di sospendere l’account dell’utente ma ha rifiutato il resto, secondo gli avvocati di Doe. Dicono che la società sta nascondendo informazioni sui piani specifici che l’utente potrebbe aver discusso con ChatGPT per danneggiare Doe e altre potenziali vittime.
La causa finisce in un contesto di crescente preoccupazione per i rischi reali dei sistemi di intelligenza artificiale adulatori. GPT-4o, il modello citato in questo e in molti altri casi, è stato ritirato da ChatGPT a febbraio.
Il caso è portato avanti da Edelson PC, la società dietro le trigger per omicidio colposo che hanno coinvolto l’adolescente Adam Raine, morto suicida dopo mesi di conversazioni con ChatGPT, e Jonathan Gavalas, la cui famiglia sostiene che Gemini di Google abbia alimentato le sue delusioni e il potenziale evento di vittime di massa prima della sua morte. L’avvocato principale Jay Edelson ha avvertito che la psicosi indotta dall’intelligenza artificiale si sta intensificando dal danno individuale verso eventi con vittime di massa.
Quella pressione legale ora si scontra direttamente con la strategia legislativa di OpenAI: la società lo è appoggiando un disegno di legge dell’Illinois ciò proteggerebbe i laboratori di intelligenza artificiale dalla responsabilità anche in casi di morti di massa o danni finanziari catastrofici.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
OpenAI non ha risposto in tempo per commentare. TechCrunch aggiornerà l’articolo se l’azienda risponde.
La causa di Jane Doe espone in dettaglio come story responsabilità si è svolta per una donna nel corso di diversi mesi.
L’anno scorso, l’utente ChatGPT coinvolto nella causa (il cui nome non è incluso nella causa per proteggere la sua identità) si convinse di aver inventato una cura per l’apnea notturna dopo mesi di “uso prolungato e advert alto quantity di GPT-4o”. Poiché nessuno prendeva sul serio il suo lavoro, ChatGPT gli ha detto che “forze potenti” lo stavano osservando, compreso l’uso di elicotteri per sorvegliare le sue attività, secondo la denuncia.
Nel luglio 2025, l’ex fidanzata dell’utente, denominata Jane Doe per proteggere la sua identità, lo ha esortato a smettere di utilizzare ChatGPT e a chiedere aiuto a un professionista della salute mentale. Si è invece rivolto a ChatGPT, che gli ha assicurato che period “un livello 10 di sanità mentale” e lo ha aiutato a raddoppiare le sue delusioni, secondo la causa.
Doe aveva rotto con l’utente nel 2024 e aveva utilizzato ChatGPT per elaborare la separazione, secondo le e-mail e le comunicazioni citate nella causa. Piuttosto che respingere il suo resoconto unilaterale, lo ha ripetutamente considerato razionale e offeso, e lei manipolatrice e instabile. Ha poi portato queste conclusioni generate dall’intelligenza artificiale fuori dallo schermo e nel mondo reale, usandole per perseguitarla e molestarla. Ciò si è manifestato in diversi rapporti psicologici dall’aspetto clinico generati dall’intelligenza artificiale che ha distribuito alla sua famiglia, ai suoi amici e al datore di lavoro.
Nel frattempo, l’utente ha continuato a crescere a spirale. Nell’agosto 2025, il sistema di sicurezza automatizzato di OpenAI lo ha contrassegnato per attività di “armi di massa” e ha disattivato il suo account.
Un membro del workforce di sicurezza umana ha esaminato l’account il giorno successivo e lo ha ripristinato, anche se il suo account potrebbe contenere show del fatto che stava prendendo di mira e perseguitando individui, incluso Doe, nella vita reale. Advert esempio, uno screenshot di settembre inviato dall’utente a Doe mostrava un elenco di titoli di conversazioni tra cui “espansione dell’elenco di violenza” e “calcolo del soffocamento fetale”.
La decisione di reintegrarsi è degna di nota a seguito di due recenti sparatorie nelle scuole di Tumbler Ridge, Canada e della Florida State College. Il workforce di sicurezza di OpenAI aveva segnalato l’assassino di Tumbler Ridge come una potenziale minaccia, ma di alto livello secondo quanto riferito ha deciso di non allertare le autorità. Questa settimana il procuratore generale della Florida ha aperto un’indagine sul possibile collegamento di OpenAI con l’assassino dell’FSU.
Secondo la causa legale di Jane Doe, quando OpenAI ha ripristinato l’account del suo stalker, il suo abbonamento Professional non è stato ripristinato insieme advert esso. Ha inviato un’e-mail al workforce fiduciario e di sicurezza per risolvere il problema, copiando Doe nel messaggio.
Nelle sue e-mail scriveva cose del tipo: “HO BISOGNO DI AIUTO MOLTO VELOCE, PER FAVORE. PER FAVORE, CHIAMAMI!” e “questa è una questione di vita o di morte”. Affermò che period “in procinto di scrivere 215 articoli scientifici” che stava scrivendo così velocemente da non “avere nemmeno il tempo di leggere”. In quelle e-mail period incluso un elenco di decine di “articoli scientifici” generati dall’intelligenza artificiale con titoli come: “Deconstructing Race as a Organic Category_ Authorized, Scientific, and Horn of Africa Views.pdf.txt.”
“Le comunicazioni dell’utente hanno fornito informazioni inequivocabili sul fatto che period mentalmente instabile e che ChatGPT period il motore del suo pensiero delirante e della sua condotta crescente”, afferma la causa. “Il flusso di affermazioni urgenti, disorganizzate e grandiose da parte dell’utente, insieme a un rapporto concreto generato da ChatGPT che prendeva di mira il querelante per nome e un vasto insieme di presunti materiali “scientifici”, erano una prova inequivocabile di quella realtà. OpenAI non è intervenuto, non ha limitato il suo accesso o implementato alcuna misura di salvaguardia. Invece, gli ha permesso di continuare a utilizzare l’account e ha ripristinato il suo pieno accesso Professional. “
Doe, che nella causa sostiene di vivere nella paura e di non riuscire a dormire a casa sua, ha presentato una notifica di abuso a OpenAI a novembre.
“Negli ultimi sette mesi, ha utilizzato questa tecnologia come arma per creare pubblica distruzione e umiliazione contro di me che altrimenti sarebbe stata impossibile”, ha scritto Doe nella sua lettera a OpenAI chiedendo alla società di bannare permanentemente l’account dell’utente.
OpenAI ha risposto, riconoscendo che il rapporto period “estremamente serio e preoccupante” e che stava esaminando attentamente le informazioni. Non ha mai ricevuto risposta.
Nel corso dei due mesi successivi, l’utente ha continuato a molestare Doe, inviandole una serie di messaggi vocali minacciosi. A gennaio, è stato arrestato e accusato di quattro reati di comunicazione di minacce di bombe e aggressione con un’arma mortale. Gli avvocati di Doe sostengono che ciò convalidi gli avvertimenti che sia lei che i sistemi di sicurezza di OpenAI avevano lanciato mesi prima, avvertimenti che la società avrebbe scelto di ignorare.
L’utente è stato giudicato incapace di sostenere un processo e rinchiuso in una struttura di salute mentale, ma un “fallimento procedurale da parte dello Stato” significa che sarà presto rilasciato al pubblico, secondo gli avvocati di Doe.
Edelson ha invitato OpenAI a collaborare. “In ogni caso, OpenAI ha scelto di nascondere informazioni critiche sulla sicurezza: al pubblico, alle vittime, alle persone che il suo prodotto sta attivamente mettendo in pericolo”, ha affermato. “Chiediamo loro, per una volta, di fare la cosa giusta. Le vite umane devono significare di più della corsa di OpenAI verso una IPO.”












