La divisione dei servizi di intelligenza artificiale di Amazon ha presentato 1,1 milioni di segnalazioni di sospetto sfruttamento minorile on-line nel 2025 a un gruppo di difesa. Ma poiché quei rapporti mancavano di informazioni essenziali, non ci sono stati casi in cui le forze dell’ordine sono state in grado di intervenire. Una nuova inchiesta aperta al Senato mira a garantire che ciò non accada mai più.
Il senatore Chuck Grassley, un repubblicano dell’Iowa che presiede la commissione giudiziaria del Senato, questa settimana ha aperto un’inchiesta in otto grandi aziende tecnologiche per la loro gestione della segnalazione obbligatoria dello sfruttamento minorile on-line. È l’ultimo passo di un movimento in crescita che si chiede se ci si possa fidare delle aziende tecnologiche per proteggere gli utenti più giovani mentre sono on-line.
I fornitori di servizi elettronici sono tenuti per legge a denunciare gli episodi di sfruttamento sessuale minorile al CyberTipline gestito dal Centro nazionale per i bambini scomparsi e sfruttati. Nel 2025 sono state presentate oltre 17 milioni di segnalazioni di sospetto sfruttamento sessuale minorile on-line. Ma questi rapporti potrebbero non contenere le informazioni necessarie per sollecitare un’azione nel mondo reale.
“Sono allarmato da quello che ho letto”, ha detto Grassley. “Sulla base delle informazioni fornite al mio ufficio, sono preoccupato che alcune aziende non abbiano fornito all’NCMEC e alle forze dell’ordine i dati sufficienti necessari per proteggere i bambini e perseguire i presunti predatori”.
Grassley ha inviato richieste di ulteriori informazioni a various importanti aziende tecnologiche: Meta, TikTok, Roblox, Snap, Amazon AI Companies, xAI, Grindr e Discord. Queste otto società rappresentano l’81% di tutte le denunce di sfruttamento minorile presentate all’NCMEC. Assente dall’inchiesta period Google, proprietaria di YouTube.
Un portavoce di Meta ha detto a CNET che l’azienda “lavora instancabilmente” per proteggere i bambini da questo “crimine orribile”, affermando: “Siamo impegnati a migliorare costantemente e apprezziamo il suggestions, che ci ha già portato advert apportare alcuni miglioramenti, come ha riconosciuto NCMEC. Continueremo advert apportare perfezionamenti per migliorare il nostro processo di segnalazione. ”
Grindr, Discord e Roblox hanno fatto commenti simili, affermando che intendono collaborare con il Senato e l’NCMEC su questi temi. Grindr ha aggiunto che il suo sito di incontri è solo per adulti, dai 18 anni in su. Le altre società tecnologiche non hanno risposto immediatamente alle richieste di commento.
L’indagine del repubblicano dell’Iowa fa seguito ai rapporti dell’NCMEC del 2025 secondo cui le aziende tecnologiche non fornivano dati essenziali sulla posizione nei loro rapporti e non rivelavano l’uso di materiale pedopornografico nella formazione sui dati sull’intelligenza artificiale. Ciò è particolarmente preoccupante visti i precedenti episodi in cui l’intelligenza artificiale è stata utilizzata per creare immagini intime non consensuali, compreso materiale pedopornografico.
Lo sfruttamento minorile on-line è un problema crescente. Nel 2025, la sola Meta ha presentato quasi 11 milioni di denunce, 1,2 milioni delle quali riguardavano sospetti traffici di minori. Meta possiede le popolari piattaforme Fb, Instagram e WhatsApp. NCMEC ha affermato nel 2025 che Meta e xAI avevano migliorato i loro rapporti, ma mancavano ancora.
“Molti ESP pubblicizzano regolarmente il numero di segnalazioni che inviano alla CyberTipline, ma non rivelano che milioni di segnalazioni mancano di informazioni di base”, ha scritto l’NCMEC a Grassley nel 2025. “Ciò lascia i bambini non protetti on-line, sottopone i sopravvissuti a una rivittimizzazione, consente agli autori di reati sessuali di rimanere liberamente on-line e spreca risorse preziose e limitate per le forze dell’ordine”.
C’è stato movimento in altri rami del governo per ritenere le aziende tecnologiche responsabili della sicurezza dei bambini. Meta è stata recentemente giudicata responsabile da una giuria del New Mexico per aver ingannato gli utenti sulla sicurezza delle sue piattaforme e per non aver impedito lo sfruttamento minorile. La società è stata condannata a pagare 375 milioni di dollari di danni. Il giorno dopo, Meta e Google sono stati giudicati responsabili da una giuria californiana per aver creato piattaforme di social media che creano dipendenza per i bambini.
La prima persona è stata condannata martedì ai sensi della nuova legge statunitense anti-IA deepfake, il Take It Down Act, per aver creato materiale pedopornografico generato dall’intelligenza artificiale.













