Home Tecnologia OpenAI, gruppi di difesa e funzionari statali vogliono regole più extreme sull’intelligenza...

OpenAI, gruppi di difesa e funzionari statali vogliono regole più extreme sull’intelligenza artificiale per proteggere i bambini

26
0

Mercoledì OpenAI rilasciato un nuovo modello politico su come affrontare una delle questioni più importanti e consequenziali dell’period dell’intelligenza artificiale: proteggere gli utenti più giovani.

Come ogni azienda di intelligenza artificiale che cerca di evitare azioni legali, OpenAI dispone di guardrail per impedire che la sua intelligenza artificiale venga utilizzata per scopi illegali o dannosi. Ma, come ogni azienda tecnologica, abbiamo visto quanto sia facile aggirare queste regole. Ciò può avere risultati devastanti, in particolare per bambini e adolescenti, come abbiamo visto nella causa legale di una famiglia della Florida contro OpenAI secondo cui il figlio diciassettenne ha utilizzato ChatGPT come “allenatore suicidario”.

Il piano di OpenAI si concentra sul rafforzamento delle leggi esistenti e delle tutele tecniche per tenere il passo con le capacità dell’intelligenza artificiale generativa. Il quadro è stato sviluppato in collaborazione con i gruppi di difesa della sicurezza dei minori Thorn e il Nationwide Heart for Lacking and Exploited Youngsters, nonché con la activity pressure AI della Procura generale dell’Alleanza, guidata dal Procuratore generale della Carolina del Nord Jeff Jackson e dal Procuratore generale dello Utah Derek Brown.

Questo piano embody una serie di raccomandazioni, inclusi i guardrail che OpenAI ha già implementato e altri che sta attivamente costruendo, ha detto la società a CNET. La tabella di marcia è ampia e richiede il coordinamento tra aziende tecnologiche, governi statali e federali, forze dell’ordine e gruppi di difesa. Sebbene questo tipo di coordinamento possa aumentare le probabilità di successo, la regolamentazione dei modelli di intelligenza artificiale si è rivelata una sfida continua e l’attuazione di politiche efficaci non è certo una garanzia.

Mantenere i bambini al sicuro on-line, anche quando utilizzano l’intelligenza artificiale, è un dibattito particolarmente acceso nel mondo della tecnologia. È stato riacceso sulla scia di due casi giudiziari storici in cui Meta e Google sono stati giudicati negligenti per non aver protetto i giovani utenti. Considerato tutto ciò, le aziende di intelligenza artificiale sono sempre più sotto pressione per definire come intendono proteggere gli utenti ed evitare errori del passato.

Guarda questo: Il tuo telefono è disgustoso: risolviamolo

Leggi più extreme e barriere tecniche

Uno dei maggiori problemi è il il progetto si occupa di è materiale pedopornografico. Il CSAM esisteva prima dell’intelligenza artificiale, ma l’intelligenza artificiale generativa ha messo il turbo al lavoro dei cattivi attori. Ciò è diventato sorprendentemente chiaro quando le persone che utilizzavano Grok di xAI hanno fatto circa 3 milioni di immagini AI sessuali in 11 giorni a gennaio, 23.000 dei quali includevano immagini di bambini.

La tendenza del deepfake è stata ampia e ha suscitato molta indignazione, spingendo a indagare sull’xAI di Elon Musk e a una causa da parte di tre ragazze adolescenti vittime di queste immagini sessuali non consensuali dell’IA. Grok ha rimosso la sua capacità di modificare le immagini da X (precedentemente Twitter), ma la sua “modalità piccante” è ancora disponibile attraverso il sito net autonomo.

Atlante dell'intelligenza artificiale

OpenAI e i suoi collaboratori raccomandano aggiornamenti alle leggi esistenti che regolano la creazione e la condivisione di deepfake e CSAM. Finora, secondo i dati, 45 stati hanno criminalizzato i prodotti CSAM creati dall’intelligenza artificiale e dai pc un rapporto del 2025. Il nuovo piano prevede l’adozione di leggi in tutti i 50 stati e nel Distretto di Columbia. Si chiede inoltre di chiarire le norme sulla responsabilità per garantire che le forze dell’ordine possano perseguire coloro che tentano di creare materiale pedopornografico, anche se tali tentativi vengono bloccati dalla società di intelligenza artificiale.

La maggior parte delle società di intelligenza artificiale dispone di misure di salvaguardia per prevenire la creazione di contenuti illegali o abusivi, ma non sono perfette. Il piano parla anche di migliorare i guardrail tecnici e di sviluppare nuovi strumenti per rilevare i contenuti generati dall’intelligenza artificiale, che ha rappresentato un’altra grande sfida: i modelli di intelligenza artificiale possono creare immagini indistinguibili dalla realtà, rendendo estremamente difficile il rilevamento dell’intelligenza artificiale.

Richiede inoltre “canali di segnalazione più efficaci che supportino un’azione più rapida da parte del Centro nazionale per i bambini scomparsi e sfruttati”.

Nonostante l’intelligenza artificiale sia diventata una tecnologia di uso quotidiano, la legislazione relativa alla nuova tecnologia è rimasta indietro, creando un problema di ritmo. Una delle poche leggi importanti specifiche per l’intelligenza artificiale è il Take It Down Act, convertito in legge dal presidente Trump nel 2025, che vieta la condivisione di immagini intime non consensuali, compresi i deepfake generati dall’intelligenza artificiale. Ha concesso alle piattaforme di social media tempo fino a maggio 2026 per implementare processi affinché i propri utenti richiedano la rimozione di queste immagini.



fonte