Home Tecnologia L’intelligenza artificiale ha messo il turbo alla peggiore forma di contenuti offensivi...

L’intelligenza artificiale ha messo il turbo alla peggiore forma di contenuti offensivi su Web e i tutori non riescono a tenere il passo

12
0

L’intelligenza artificiale ha senza dubbio portato molti strumenti utili su Web. Ma ha anche dato una nuova, triste spinta a una delle forme di abuso più orribili. Recenti segnalazioni e scoperte di watchdog indicano lo stesso brutto modello di intelligenza artificiale generativa che aiuta gli autori di reato a creare immagini di abusi sessuali su minori su scala più ampia.

Questi stanno diventando sempre più realistici e in formati che stanno diventando sempre più difficili da affrontare per le piattaforme, i regolatori e i gruppi per la sicurezza dei bambini.

Come l’intelligenza artificiale sta peggiorando la scala e rendendo i contenuti più estremi

Già a febbraio, Reuters ha rivelato che le segnalazioni utilizzabili di immagini di abusi sessuali su minori generate dall’intelligenza artificiale erano più che raddoppiate negli ultimi due anni, mentre la Web Watch Basis ha successivamente affermato di aver identificato 8.029 immagini e video di abusi sessuali su minori generati dall’intelligenza artificiale solo nel 2025. Questo quadro cupo è stato presentato anche in a Bloomberg riferire su come l’intelligenza artificiale generativa sta cambiando il panorama dei materiali relativi agli abusi sessuali sui minori negli Stati Uniti.

Gli investigatori non hanno più a che fare solo con immagini e video pornografici generati dall’intelligenza artificiale, ma ci sono anche immagini manipolate di bambini reali e persino conversazioni di chatbot in cui gli autori del reato presumibilmente cercano consigli sull’adescamento o inscenano abusi sessuali. Nel frattempo, le forze dell’ordine stanno perdendo tempo cercando di capire se un bambino in un’immagine è reale, alterato digitalmente o completamente falso.

I casi reali stanno diventando sempre più inquietanti

Il rapporto fa riferimento a un caso del Minnesota che coinvolge William Michael Haslach, un addetto al controllo del pranzo scolastico e una guardia stradale accusato di utilizzare strumenti di intelligenza artificiale per spogliare digitalmente i bambini nelle foto scattate al lavoro. Gli agenti federali hanno identificato più di 90 vittime e hanno trovato sui suoi dispositivi quasi 800 immagini di abusi generate dall’intelligenza artificiale. Ciò dimostra come i delinquenti utilizzino sempre più foto di tutti i giorni estratte dai social media per creare materiale esplicito.

Gli investigatori sono sommersi dal quantity e dalle cattive piste

La bilancia sta diventando brutta velocemente. Bloomberg riferisce che l’NCMEC ha ricevuto 1,5 milioni di segnalazioni CSAM legate all’intelligenza artificiale nel 2025, rispetto alle 67.000 dell’anno precedente e alle 4.700 del 2023. Allo stesso tempo, gli investigatori affermano che i sistemi di moderazione automatizzata stanno generando un’ondata di suggerimenti spazzatura, sommergendo job pressure già sovraccariche. E ogni chiamata sbagliata brucia tempo che avrebbe potuto essere sprecato per un bambino che avrebbe dovuto affrontare un danno immediato.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here