Various famiglie di vittime di una sparatoria di massa in Canada all’inizio di quest’anno hanno fatto causa a OpenAI e al suo CEO, Sam Altman, sostenendo che il chatbot AI generativo dell’azienda, ChatGPT, ha avuto un ruolo nell’omicidio. la sparatoria di febbraio e che la società avrebbe dovuto adottare misure per impedirlo.
“L’attacco a Tumbler Ridge è stato il risultato del tutto prevedibile di scelte progettuali deliberate fatte da OpenAI con piena consapevolezza di dove tali scelte hanno portato”, affermano le sette trigger depositate mercoledì presso il tribunale federale di San Francisco.
Le trigger legali affermano che l’assassino ha avuto ampie conversazioni durate più giorni su scenari che coinvolgono la violenza armata. Finora sono stati resi pubblici pochi dettagli sulle chat.
La polizia ha detto che l’assassino, identificato come il diciottenne Jesse Van Rootselaar, ha ucciso cinque studenti e un insegnante, oltre a due membri della famiglia a casa, ed è morto per una ferita da arma da fuoco autoinflitta durante la furia dell’11 febbraio.
La polizia ha detto che l’uomo che ha sparato period stato precedentemente trattenuto ai sensi del Psychological Well being Act della Columbia Britannica, che consente alla polizia di trattenere qualcuno che soffre di una crisi di salute mentale che potrebbe aver bisogno di treatment. Le denunce sostengono che le autorità avrebbero anche temporaneamente rimosso le armi da fuoco dall’abitazione dell’assassino.
OpenAI ha già ammesso di aver vietato l’account ChatGPT di Van Rootselaar lo scorso giugno, otto mesi prima della sparatoria, per aver violato le sue politiche di utilizzo. La società ha dichiarato a CBS Information che l’account è stato segnalato dagli strumenti automatizzati di rilevamento degli abusi dell’azienda e da investigatori umani.
La settimana scorsa, Altman ha pubblicato un lettera di scuse alla piccola comunità di Tumbler Ridge, nella Columbia Britannica, per non aver allertato le forze dell’ordine sull’account ChatGPT dell’autore della sparatoria. “Sono profondamente dispiaciuto di non aver avvisato le forze dell’ordine dell’account che è stato bannato a giugno”, ha detto Altman.
A febbraio, OpenAI ha dichiarato a CBS Information di aver valutato se allertare le forze dell’ordine in merito all’account, ma ha concluso che l’account non presentava alcun rischio credibile di gravi danni fisici e quindi non raggiungeva la soglia per il rinvio.
Ma le trigger legali intentate questa settimana sostengono che, nonostante le raccomandazioni di diversi membri del workforce OpenAI di contattare la polizia canadese, la società ha deciso di non denunciare l’account nel tentativo di proteggere la reputazione dell’azienda.
“OpenAI sapeva che l’assassino stava pianificando l’attacco e, dopo un controverso dibattito interno, ha preso la decisione consapevole di non avvisare le autorità”, sostengono le trigger.
Tra coloro che hanno intentato causa ci sono la famiglia di un’assistente scolastica della Tumbler Ridge Secondary Faculty che è stata colpita a morte davanti ai suoi studenti – inclusa sua figlia – e la famiglia di un tredicenne ucciso fuori dalla biblioteca della scuola. “La sua famiglia, i suoi amici, i suoi compagni di squadra e gli altri membri della comunità hanno perso qualcuno con un sorriso straordinario e una risata forte e orgogliosa”, afferma la causa.
OpenAI ha dichiarato in una dichiarazione a CBS Information che la società ha rafforzato le sue misure di salvaguardia per migliorare il modo in cui ChatGPT risponde ai segnali di disagio mettendo in contatto le persone con supporto locale e risorse per la salute mentale.
“Gli eventi di Tumbler Ridge sono una tragedia”, ha affermato OpenAI. “Abbiamo una politica di tolleranza zero nei confronti dell’utilizzo dei nostri strumenti per assistere nella commissione di violenze”.
OpenAI ha inoltre affermato che sta rafforzando il modo in cui valuta e intensifica la risposta a potenziali minacce di violenza e sta migliorando l’individuazione dei trasgressori recidivi delle politiche.
Le trigger citano altri incidenti dello scorso anno in cui ChatGPT sarebbe stato utilizzato per prepararsi alla violenza nel mondo reale. Nel gennaio 2025, sostiene la causa, il chatbot è stato utilizzato per fornire consigli su come utilizzare gli esplosivi da un uomo che ha fatto esplodere un Tesla Cybertruck davanti al Trump Worldwide Lodge di Las Vegas. Quattro mesi dopo, secondo le trigger legali, il chatbot è stato interrogato sulle tattiche di accoltellamento da parte di un adolescente finlandese che ha effettuato un attacco con accoltellamento nella sua scuola.
Sebbene i chatbot assumano spesso un tono affermativo con gli utenti, molte delle trigger legali puntano a un modello controverso chiamato GPT‑4o, noto per essere particolarmente adulatorio. Il modello è stato lanciato nel maggio 2024 e pensionato il 13 febbraio di quest’anno.
Le trigger legali sostengono che GPT-4o abbia utilizzato la sua funzione di memoria per costruire un profilo completo di Van Rootselaar nel corso di mesi di interazione, monitorando le loro lamentele ed esprimendo empatia in un modo che imitava una relazione umana senza respingersi come una vera forza umana. Il design di OpenAI ha svolto un ruolo sostanziale nell'”accesso dell’assassino a un prodotto che convalidava ed elaborava l’ideazione violenta”, afferma una causa.
“Per un diciottenne sempre più isolato e fissato con la violenza, ChatGPT si è trasformato in un incoraggiante cospiratore”, sostiene la causa.
Le trigger legali arrivano mentre OpenAI si trova advert affrontare un crescente controllo sulla connessione del suo chatbot con diversi crimini di alto profilo.
Il procuratore generale della Florida James Uthmeier ha lanciato un indagine penale su OpenAI all’inizio di questo mese dopo un’analisi dei messaggi tra ChatGPT e uno studente della Florida State College accusato di sparando mortalmente a due persone e ferendone molti altri nel campus lo scorso aprile.
Uthmeier in seguito disse che avrebbe ampliato le indagini per includere l’uccisione di due studenti laureati dell’Università della Florida del Sud, dopo che i pubblici ministeri avevano detto il sospettato in quel caso ha posto domande a ChatGPT sullo smaltimento di un corpo umano e sul possesso di un’arma da fuoco senza licenza nei giorni precedenti al crimine.
Uthmeier ha emesso mandati di comparizione a OpenAI richiedendo registrazioni di politiche aziendali e materiali di formazione per quando gli utenti minacciano di danneggiare se stessi o altri e per cooperare con le forze dell’ordine e denunciare possibili crimini.
Nelle dichiarazioni rilasciate a CBS Information, OpenAI ha definito “terribili” i crimini commessi in Florida e ha affermato che continuerà a sostenere e collaborare con le forze dell’ordine.









