Se desideri che un’app che hai creato sia scaricabile dall’Apple App Retailer o dal Google Play Retailer, deve soddisfare una serie di criteri, inclusi gli normal di sicurezza.
Ma un nuovo rapporto di mercoledì sostiene che Apple e Google abbiano infranto le proprie regole promuovendo app “nudificate” che sono messe fuori legge nelle politiche del loro app retailer.
Il Tech Transparency Venture, parte di un ente di controllo tecnologico senza scopo di lucro, ha rivelato per la prima volta a gennaio che gli app retailer di Apple e Google avevano oltre 100 app per nudizzare o spogliare. Si tratta di app con l’unico scopo di scattare immagini di persone, solitamente donne, e modificarle per farle sembrare quella persona senza vestiti, creando quelle che vengono chiamate immagini intime non consensuali. Molte di queste app utilizzano l’intelligenza artificiale generativa per creare deepfake.
All’epoca Apple rimosse alcune delle app vietate. Ma molti sono ancora là fuori, come evidenziato in una successiva indagine.
Advert aprile, TTP ha scoperto che Apple e Google consentivano ancora agli utenti di cercare una serie di parole chiave preoccupanti, tra cui “nudificare”, “spogliarsi” e “nudo profondo”. Dopo un’analisi approfondita delle 10 migliori app di entrambi gli app retailer, TTP ha scoperto che il 40% delle app si pubblicizzava are available grado di “rendere le donne nude o poco vestite”, secondo il rapporto.
Il nuovo rapporto ha anche scoperto che Google e Apple hanno effettivamente promosso tali app nei loro negozi, aumentandone la visibilità, con Google in particolare che ha creato “un carosello di annunci per alcune delle app sessualmente più esplicite riscontrate nell’indagine”.
Per saperne di più: Come mantenere i bambini al sicuro on-line? L’Europa crede che la sua app per la verifica dell’età sia la risposta
Sia Apple che Google hanno nelle loro politiche un linguaggio che vieta le app con “materiale apertamente sessuale o pornografico” (Mela) e “pose sessualmente allusive in cui il soggetto è nudo, sfocato o minimamente vestito” (Google). Ed entrambi hanno applicato queste politiche in passato, in particolare attaccando le app porno.
Ma Apple e Google guadagnano dagli sviluppatori di app pubblicando pubblicità e prendendo una parte degli abbonamenti alle app a pagamento. La società di analisi AppMagic ha scoperto che queste app “nudify” sono state scaricate 483 milioni di volte e hanno generato entrate per oltre 122 milioni di dollari.
“Questo flusso di entrate potrebbe essere il motivo per cui le due società sono state poco vigili quando si tratta di nudizzare le app che violano le loro politiche”, scrive TTP.
Dopo la notizia diffusa questa settimana, ha detto Apple Notizie Bloomberg che ha rimosso 15 delle app segnalate. Google ha confermato di averne rimossi sette. Apple ha anche affermato di aver bloccato molti dei termini di ricerca segnalati da TTP nel suo rapporto. Apple e Google non hanno risposto immediatamente alle richieste di commenti e aggiornamenti di CNET da mercoledì.
I contenuti graficamente sessuali non consensuali sono un problema crescente, in parte dovuto all’intelligenza artificiale. Abbiamo visto con sorprendente chiarezza come le app dotate di intelligenza artificiale possano essere utilizzate per creare questi contenuti illegali e offensivi all’inizio dell’anno, quando gli utenti di Grok hanno realizzato 1,4 milioni di deepfake sessualizzati in un periodo di nove giorni.
Alcuni Senatori americani dell’epoca ha invitato Apple e Google a rimuovere Grok dai loro app retailer, ma nessuno dei due lo ha rimosso.
Abbiamo appreso questa settimana che Apple ha contattato privatamente Grok per esprimere le sue preoccupazioni riguardo alle sue capacità di intelligenza artificiale abusive e ha minacciato di rimuoverlo. Grok è ancora disponibile negli app retailer di Apple e Google e, secondo quanto riferito, lo è ancora in grado di creare immagini sessuali AI abusivenonostante la compagnia detto Altrimenti.













