In risposta alle crescenti preoccupazioni sulla sicurezza dei bambini on-line, OpenAI ha svelato un progetto per rafforzare gli sforzi statunitensi in materia di protezione dell’infanzia nel contesto del growth dell’intelligenza artificiale. IL Progetto per la sicurezza dei bambiniche è stato rilasciato martedì, è progettato per aiutare con un rilevamento più rapido, una migliore segnalazione e un’indagine più efficiente sui casi di sfruttamento minorile consentito dall’intelligenza artificiale.
L’obiettivo generale del Baby Security Blueprint è quello di affrontare l’allarmante aumento dello sfruttamento sessuale minorile legato ai progressi nell’intelligenza artificiale. Secondo il Fondazione Internet Watch (IWF), nella prima metà del 2025 sono state rilevate oltre 8.000 segnalazioni di contenuti di abusi sessuali su minori generati dall’intelligenza artificiale, un aumento del 14% rispetto all’anno precedente. Ciò embrace i criminali che utilizzano strumenti di intelligenza artificiale per generare false immagini esplicite di bambini a scopo di estorsione finanziaria e per generare messaggi convincenti a scopo di adescamento.
Il progetto di OpenAI arriva anche nel mezzo di un maggiore controllo da parte di politici, educatori e sostenitori della sicurezza dei bambini, soprattutto alla luce di incidenti preoccupanti in cui giovani individui sono morti per suicidio dopo aver presumibilmente interagito con chatbot di intelligenza artificiale.
Lo scorso novembre, il Social Media Victims Legislation Middle e il Tech Justice Legislation Undertaking hanno intentato sette trigger legali nei tribunali statali della California, sostenendo che OpenAI aveva rilasciato GPT-4o prima che fosse pronto. Le trigger sostengono che la natura psicologicamente manipolativa del prodotto ha contribuito a morti ingiuste per suicidio e suicidio assistito. Citano quattro persone che sono morte per suicidio e altre tre che hanno sperimentato deliri gravi e potenzialmente letali dopo interazioni prolungate con il chatbot.
Questo progetto è stato sviluppato in collaborazione con il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC) e la Procura generale Alliance, nonché con il suggestions del Procuratore generale della Carolina del Nord Jeff Jackson e del Procuratore generale dello Utah Derek Brown.
La società afferma che il progetto si concentra su tre aspetti: aggiornare la legislazione per includere materiale abusivo generato dall’intelligenza artificiale, affinare i meccanismi di segnalazione alle forze dell’ordine e integrare le misure di salvaguardia preventiva direttamente nei sistemi di intelligenza artificiale. In questo modo, OpenAI mira non solo a rilevare tempestivamente potenziali minacce, ma anche a garantire che le informazioni utilizzabili raggiungano tempestivamente gli investigatori.
Il nuovo progetto di sicurezza childish di OpenAI si basa su iniziative precedenti, comprese linee guida aggiornate per le interazioni con utenti sotto i 18 anni, che vietano la generazione di contenuti inappropriati o incoraggiano l’autolesionismo ed evitano consigli che aiuterebbero i giovani a nascondere comportamenti non sicuri agli operatori sanitari. L’azienda ha recentemente pubblicato un progetto di sicurezza per gli adolescenti in India.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026











