OpenAI ha dichiarato martedì che rilascerà una serie di istruzioni che gli sviluppatori potranno utilizzare per rendere le loro app più sicure per gli adolescenti. Il laboratorio di intelligenza artificiale ha detto che il set di politiche di sicurezza degli adolescenti può essere utilizzato con il suo modello di sicurezza a peso aperto noto come gpt-oss-safeguard.
Invece di lavorare da zero per capire come rendere l’intelligenza artificiale più sicura per gli adolescenti, gli sviluppatori possono utilizzare questi suggerimenti per rafforzare ciò che costruiscono. Affrontano questioni come violenza grafica e contenuti sessuali, ideali e comportamenti corporei dannosi, attività e sfide pericolose, giochi di ruolo romantici o violenti e beni e servizi soggetti a limiti di età.
Queste politiche di sicurezza sono progettate come suggerimenti, rendendole facilmente compatibili con altri modelli oltre a gpt-oss-safeguard, sebbene siano probabilmente più efficaci all’interno dell’ecosistema di OpenAI.
Per scrivere questi suggerimenti, OpenAI ha affermato di aver collaborato con gli enti di vigilanza sulla sicurezza dell’intelligenza artificiale Frequent Sense Media e Everybody.ai.
“Queste politiche tempestive aiutano a stabilire un livello di sicurezza significativo in tutto l’ecosistema e, poiché sono rilasciate come open supply, possono essere adattate e migliorate nel tempo”, ha affermato Robbie Torney, responsabile di AI e valutazioni digitali presso Frequent Sense Media, in una dichiarazione.
OpenAI ha notato nel suo blog che gli sviluppatori, compresi i group esperti, spesso hanno difficoltà a tradurre gli obiettivi di sicurezza in regole operative exact.
“Ciò può portare a lacune nella protezione, applicazione incoerente o filtri eccessivamente ampi”, ha scritto la società. “Politiche chiare e ben particular costituiscono una base fondamentale per sistemi di sicurezza efficaci”.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
OpenAI ammette che queste politiche non sono una soluzione alle complicate sfide della sicurezza dell’IA. Ma si basa sugli sforzi precedenti, comprese le garanzie a livello di prodotto come il controllo parentale e la previsione dell’età. L’anno scorso, OpenAI ha aggiornato le linee guida per i suoi grandi modelli linguistici, noti come Specifica del modello — per affrontare il modo in cui i suoi modelli di intelligenza artificiale dovrebbero comportarsi con gli utenti di età inferiore ai 18 anni.
OpenAI, tuttavia, non ha il monitor file più pulito. L’azienda sta affrontando numerous trigger legali intentate dalle famiglie di persone morte per suicidio dopo l’uso estremo di ChatGPT. Queste relazioni pericolose spesso si formano dopo che l’utente ha eclissato le protezioni del chatbot e i guardrail di nessun modello sono completamente impenetrabili. Tuttavia, queste politiche rappresentano almeno un passo avanti, soprattutto perché possono aiutare gli sviluppatori indipendenti.












