Home Tecnologia La crisi dei nudi deepfake nelle scuole è molto peggiore di quanto...

La crisi dei nudi deepfake nelle scuole è molto peggiore di quanto pensassi

3
0

 

Tuttavia, emergono schemi chiari. Nella quasi totalità dei casi, i responsabili della creazione delle immagini o dei video sarebbero ragazzi adolescenti. Sono spesso condivisi nelle app dei social media o tramite messaggistica istantanea con i compagni di classe. E sono estremamente dannosi per le vittime. “Sono preoccupata che ogni volta che mi vedono, vedono quelle foto”, una vittima in Iowa disse all’inizio di quest’anno. “Ha pianto. Non ha mangiato”, dice la famiglia di un altro disse.

In molti casi, le vittime spesso non vogliono frequentare la scuola o trovarsi di fronte a coloro che hanno creato immagini o video espliciti su di loro. “Si sente senza speranza perché sa che queste immagini probabilmente finiranno su Internet e raggiungeranno i pedofili”, affermano l’avvocato Shane Vogt e tre studenti della Yale Law School, Catharine Strong, Tony Sjodin e Suzanne Castillo, che sono rappresentare un adolescente senza nome del New Jersey in un’azione legale contro un servizio di nudizzazione. “È gravemente angosciata dalla consapevolezza che queste immagini sono disponibili e dovrà monitorare Internet per il resto della sua vita per impedire che si diffondano”.

In Corea del Sud E Australiale scuole hanno dato agli alunni la possibilità di non pubblicare le proprie foto negli annuari o hanno smesso di pubblicare immagini di studenti sui loro account ufficiali sui social media, citando il loro utilizzo come potenziale abuso di deepfake. “In tutto il mondo, ci sono stati casi in cui le immagini scolastiche sono state prese da pagine pubbliche di social media, alterate utilizzando l’intelligenza artificiale e trasformate in deepfake dannosi”, una scuola in Australia disse. “Le immagini conterranno invece profili laterali, sagome, retro di teste, scatti di gruppo distanti, filtri creativi o fotografie stock approvate.”

I deepfake sessuali creati utilizzando l”intelligenza artificiale esistono dalla fine del 2017; tuttavia, man mano che i sistemi di intelligenza artificiale generativa sono emersi e sono diventati più potenti, hanno portato a un oscuro ecosistema di tecnologie di “nudificazione” o “svestizione”. Decine di app, bot e siti Web consentono a chiunque di creare immagini e video sessualizzati di altri con solo un paio di clic, spesso senza conoscenze tecniche.

“Ciò che cambia l’intelligenza artificiale è la portata, la velocità e l’accessibilità”, afferma Siddharth Pillai, cofondatore e direttore della RATI Foundation, un’organizzazione con sede a Mumbai che lavora per prevenire la violenza contro donne e bambini. “La barriera tecnica è diminuita in modo significativo, il che significa che più persone, compresi gli adolescenti, possono produrre risultati più convincenti con il minimo sforzo. Come per molti danni provocati dall’intelligenza artificiale, ciò si traduce in un eccesso di contenuti.”

Amanda Goharian, direttrice della ricerca e degli approfondimenti presso il gruppo per la sicurezza infantile Thorn, afferma che la sua ricerca indica che ci sono diverse motivazioni coinvolte negli adolescenti che creano abusi deepfake, che vanno da motivazioni sessuali, curiosità, vendetta o persino adolescenti che sfidano l’un l’altro per creare le immagini. Gli studi che coinvolgono adulti che hanno creato abusi sessuali deepfake mostrano in modo simile a serie di ragioni diverse perché le immagini possono essere create. “L’obiettivo non è sempre la gratificazione sessuale”, afferma Pillai. “L’intento è sempre più l’umiliazione, la denigrazione e il controllo sociale”.

“Non è solo una questione di tecnologia”, afferma Tanya Horeck, professoressa e ricercatrice femminista di studi sui media che si occupa di violenza di genere e che ha studiato deepfake sessualizzati nelle scuole del Regno Unito presso l’Università dell’Anglia Ruskin. “Riguarda le dinamiche di genere di lunga data che facilitano questi crimini”.

fonte