Giovedì OpenAI annunciato una nuova funzionalità chiamata Contatto fidato, progettata per avvisare una terza parte fidata se idee di autolesionismo vengono espresse all’interno di una conversazione. La funzione consente a un utente adulto di ChatGPT di designare un’altra persona come contatto fidato all’interno del proprio account, come un amico o un familiare. Nei casi in cui una conversazione potrebbe trasformarsi in autolesionismo, OpenAI ora incoraggerà l’utente a contattare quel contatto. Invia inoltre un avviso automatico al contatto, incoraggiandolo a verificare con l’utente.
OpenAI ha dovuto affrontare un’ondata di trigger legali da parte delle famiglie di persone che si sono suicidate dopo aver parlato con il suo chatbot. In molti casi le famiglie parlano di ChatGPT incoraggiato la persona amata a suicidarsi o addirittura li ha aiutati a pianificarlo.
OpenAI attualmente utilizza una combinazione di automazione e revisione umana per gestire incidenti potenzialmente dannosi. Alcuni fattori scatenanti della conversazione avvisano il sistema dell’azienda di idee suicide, che poi trasmettono le informazioni a un crew di sicurezza umana. L’azienda afferma che ogni volta che riceve questo tipo di notifica, l’incidente viene esaminato da un essere umano. “Cerchiamo di esaminare queste notifiche di sicurezza in meno di un’ora”, afferma l’azienda.
Se il crew interno di OpenAI resolve che la situazione rappresenta un serio rischio per la sicurezza, ChatGPT procede a inviare un avviso al contatto fidato, tramite e-mail, messaggio di testo o notifica in-app. L’avviso è progettato per essere breve e per incoraggiare il contatto a verificare con la persona in questione. Non embody informazioni dettagliate su ciò che è stato discusso, come mezzo per proteggere la privateness dell’utente, afferma la società.
La funzionalità Contatto di fiducia segue le tutele dell’azienda introdotto lo scorso settembre che dava ai genitori il potere di esercitare una certa supervisione sui conti dei propri figli, inclusa la ricezione di notifiche di sicurezza progettato per avvisare il genitore se il sistema di OpenAI ritiene che il proprio figlio stia affrontando un “serio rischio per la sicurezza”. Da qualche tempo ChatGPT ha incluso anche avvisi automatici per richiedere servizi sanitari professionali, nel caso in cui la conversazione dovesse orientarsi verso il tema dell’autolesionismo.
Fondamentalmente, Belief Contact è facoltativo e, anche se la protezione è attivata su un particolare account, qualsiasi utente può avere più account ChatGPT. Anche i controlli parentali di OpenAI sono facoltativi, presentando una limitazione simile.
“Trusted Contact fa parte del più ampio sforzo di OpenAI per costruire sistemi di intelligenza artificiale che aiutare le persone nei momenti difficili“, ha scritto la società nel publish dell’annuncio. “Continueremo a lavorare con medici, ricercatori e politici per migliorare il modo in cui i sistemi di intelligenza artificiale rispondono quando le persone potrebbero essere in difficoltà.”
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Quando acquisti tramite i hyperlink presenti nei nostri articoli, potremmo guadagnare una piccola commissione. Ciò non pregiudica la nostra indipendenza editoriale.











