È stata avviata un’indagine penale per verificare se un chatbot di intelligenza artificiale (AI) abbia avuto un ruolo in una sparatoria di massa mortale presso la Florida State College.Il procuratore generale della Florida James Uthmeier ha detto che il suo ufficio sta indagando se ChatGPT abbia fornito indicazioni al presunto uomo armato, Phoenix Ikner, prima dell’attacco del 17 aprile 2025. Il raccapricciante incidente ha provocato 2 morti e 7 feriti.“ChatGPT ha offerto consigli significativi all’assassino prima che commettesse crimini così atroci”, ha detto Utmeier in una conferenza stampa a Tampa.Secondo il procuratore generale, il chatbot ha fornito risposte dettagliate su armi e pianificazione. Ha detto che suggerisce che tipo di pistola e munizioni usare, cosa funziona meglio a distanza ravvicinata e ha anche indicato le aree affollate del campus.“I miei procuratori hanno esaminato questo caso e mi hanno detto che se ci fosse stata una persona dall’altra parte dello schermo, l’avremmo accusata di omicidio”, ha detto Utmeier.La sparatoria è avvenuta davanti al sindacato studentesco nel campus universitario di Tallahassee. Ikner, uno studente, ha usato la pistola d’ordinanza della sua matrigna per aprire il fuoco, uccidendo due persone e ferendone altre sei prima che la polizia gli sparasse. Le vittime sono state identificate come Robert Morales, 57 anni, e Tiru Chabba, 45 anni, entrambi lavoratori come venditori nel campus.Ikner è stato gravemente ferito ma è sopravvissuto. Le autorità affermano che il motivo rimane poco chiaro e non vi è alcuna indicazione che conoscesse le sue vittime. Ora deve affrontare accuse tra cui omicidio di primo grado e tentato omicidio.Nell’ambito dell’indagine, l’ufficio del procuratore generale ha emesso mandati di comparizione a OpenAI, la società dietro ChatGPT. I funzionari vogliono sapere come funziona il sistema, come viene addestrato e come si comporta con gli utenti che potrebbero voler danneggiare gli altri. Hanno anche chiesto dettagli sul personale dell’azienda e eventuali dichiarazioni pubbliche relative all’incidente.Gli esperti legali affermano che il caso potrebbe essere difficile da portare avanti. Neama Rahmani, ex procuratore, ha affermato che sarebbe complesso dimostrare la responsabilità quando è coinvolto un sistema di intelligenza artificiale. “È insolito, e [Utmeier] si sta avventurando in acque legali inesplorate”, ha detto Rahmani.Rahmani ha affermato che anche se l’illecito fosse dimostrato, qualsiasi punizione sarebbe probabilmente finanziaria, non penale. “Alla effective dei conti, non puoi comunque mettere una società in prigione, quindi stai parlando di una multa”, ha detto.In una dichiarazione, OpenAI ha affermato che sta collaborando con gli investigatori e ha respinto le accuse di illeciti. Un portavoce ha affermato che le risposte del chatbot erano “risposte basate sui fatti a domande con informazioni che potevano essere trovate ampiamente attraverso fonti pubbliche su Web. Non incoraggiavano né promuovevano attività illegali o dannose”.La società ha aggiunto che la sparatoria è stata una tragedia, ma ha insistito sul fatto che il chatbot non period responsabile. Ha inoltre affermato di aver identificato un account collegato al sospettato e di aver condiviso le informazioni con le forze dell’ordine, continuando a migliorare le garanzie per individuare intenti dannosi.
Home Cronaca Le armi vanno bene a distanza ravvicinata? Richieste inquietanti richieste su ChatGPT...











