OpenAI ha annunciato nuove istruzioni di sicurezza open supply per gli sviluppatori, volte a lanciare un’implementazione di massa di politiche per proteggere gli adolescenti.
IL pacchetto di sicurezza tempestivo embrace linee guida modello sui rischi comuni degli adolescenti, raccomandazioni sui contenuti relativi allo sviluppo e linee guida adeguate all’età su argomenti come autolesionismo, contenuti sessuali e giochi di ruolo romantici, tendenze pericolose o sfide virali e ideali corporei dannosi.
OpenAI ha affermato che si tratta di un’alternativa più solida alle linee guida di alto livello precedentemente offerte, formattate come suggerimenti che si collegano direttamente ai sistemi di intelligenza artificiale.
Perché il Friction Maxxing potrebbe essere utile per il tuo utilizzo della tecnologia
OpenAI ha aggiunto nuovi principi Underneath 18 alle sue specifiche del modello a dicembre. Pochi mesi prima, la società ha rilasciato gpt-oss-safeguardun modello di ragionamento a peso aperto progettato per assistere gli sviluppatori nell’implementazione delle condizioni di sicurezza e nella classificazione dei contenuti sicuri e non sicuri. A differenza dei tradizionali processi di classificazione della sicurezza, gpt-oss-safeguard può essere alimentato direttamente con le coverage di sicurezza della piattaforma e deduce l’intento della coverage in quanto distingue gli output appropriati.
Ma “anche i group esperti spesso hanno difficoltà a tradurre obiettivi di sicurezza di alto livello in regole operative exact, soprattutto perché ciò richiede sia competenze in materia che una profonda conoscenza dell’intelligenza artificiale”, ha affermato OpenAI nel suo ultimo comunicato stampa. “Ciò può portare a lacune nella protezione, a un’applicazione incoerente o a un filtraggio eccessivamente ampio. Politiche chiare e ben mirate sono una base fondamentale per sistemi di sicurezza efficaci”.
Velocità della luce mashable
Il pacchetto sviluppatore aggiuntivo è stato progettato in collaborazione con Widespread Sense Media e tutti.ai.
Gli esperti hanno messo in guardia i genitori dall’eccessiva esposizione ai chatbot di adolescenti vulnerabili e persino di bambini piccoli, mentre le aziende di intelligenza artificiale tentano di gestire le ramificazioni dei loro modelli sulla salute mentale degli utenti. L’anno scorso, OpenAI è stata citata in giudizio dai genitori dell’adolescente Adam Raine nel primo caso di omicidio colposo del settore, con la famiglia Raine che sosteneva che una combinazione di servilismo di ChatGPT e politiche di sicurezza permissive period responsabile della morte per suicidio del figlio. L’azienda ha negato le accuse di illeciti e in risposta ha rafforzato le sue caratteristiche di salute mentale e sicurezza degli adolescenti, inclusa la garanzia dell’età. Anche così, gli sviluppatori di terze parti che concedono in licenza i modelli di OpenAI hanno faticato a mantenere lo stesso livello di precauzioni di sicurezza, anche nei giocattoli per bambini alimentati dall’intelligenza artificiale.
Il caso contro OpenAI ha fatto seguito a molteplici trigger legali contro la controversa piattaforma Carattere.AI e ha posto le basi per una recente causa per omicidio colposo intentata contro il concorrente di OpenAI Google e il suo assistente Gemini AI.
Le aziende di settore, tecnologiche e di social media, si trovano advert affrontare un’ondata di sfide legali riguardanti l’impatto a lungo termine dei loro prodotti sugli utenti. Il mese scorso, il CEO di Instagram Adam Mosseri e il capo di Meta Mark Zuckerberg hanno testimoniato davanti a una giuria in un caso spartiacque che metteva le piattaforme di social media sotto processo per i loro presunti principi di progettazione che creano dipendenza. Un verdetto ha ancora da raggiungere.
OpenAI ha affermato che il suo nuovo pacchetto di istruzioni di sicurezza non è una “definizione o garanzia completa o definitiva della sicurezza degli adolescenti”. Robbie Torney, responsabile dell’intelligenza artificiale e delle valutazioni digitali per Widespread Sense Media, ha affermato che le nuove politiche possono creare un “piano di sicurezza significativo in tutto l’ecosistema”, colmando un divario nella sicurezza dell’intelligenza artificiale che è stato esacerbato dalla mancanza di politiche operative per gli sviluppatori.
Gli sviluppatori possono scaricare il modello di sicurezza di OpenAI su Volto che abbraccia e accedi al suo nuovo pacchetto di immediate GitHub.
Divulgazione: Ziff Davis, la società madre di Mashable, advert aprile ha intentato una causa contro OpenAI, sostenendo che avrebbe violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.













