All’inizio di quest’anno, Twitter è stato inondato di immagini di nudo non consensuali di persone, compresi bambini, generate da Grok di xAI. Si scopre che il problema non period limitato solo a Twitter. Secondo una causa intentata lunedì nel distretto settentrionale della California e riportata per la prima volta dal Washington Submit, un gruppo di adolescenti sta facendo causa alla società di intelligenza artificiale di Elon Musk per le accuse secondo cui una persona ha utilizzato il modello di xAI per generare immagini e video sessualizzati di loro. Il caso è il primo in cui minorenni hanno intrapreso un’azione legale contro le società che consentono la generazione di materiale sessuale non consensuale.
L’azione legale collettiva, intentata da tre querelanti, tra cui due minorenni, sostiene che xAI ha consapevolmente progettato, commercializzato e tratto profitto dall’uso del suo modello di generazione di immagini e video, che è stato utilizzato per creare materiale sessualmente esplicito di persone, tra cui più di 18 ragazze che sono state molestate nel caso che alla fantastic ha portato a questa causa. Affermano inoltre che xAI non è riuscita advert attuare misure di prevenzione materiale di abuso sessuale su minori che sarebbero altrimenti thoughtful una protezione commonplace del settore.
Al centro del caso contro xAI c’è una situazione davvero straziante per queste ragazze adolescenti, che secondo quanto riferito sono state molestate da un individuo che ha trascorso mesi a generare e distribuire immagini sessuali di loro. L’autore del reato, arrestato a dicembre a seguito di un’indagine della polizia, secondo il Washington Postsecondo quanto riferito, ha preso foto e video dagli account dei social media delle ragazze e li ha usati per generare immagini di loro nude e sessualmente esplicite. Quelle immagini sono state poi vendute e scambiate tra le comunità su Discord e Telegram, dove hanno continuato a persistere. Alcune ragazze sono venute a conoscenza delle immagini dopo essere state contattate sui social e informate che venivano diffuse.
Quando la polizia ha arrestato la persona responsabile della realizzazione delle immagini, ha stabilito che aveva utilizzato Grok per crearle. Grok è stato utilizzato anche per generare immagini sessuali non consensuali di persone su Twitter, circa 23.000 foto che sembravano raffigurare bambini in situazioni sessuali. secondo i ricercatori che hanno indagato sui publish.
All’epoca quelle immagini si stavano diffondendo su Twitter, il CEO di xAI (e Twitter) Elon Musk, reclamato“Non sono a conoscenza di immagini di minorenni nudi generate da Grok. Letteralmente zero”, e ha detto “Quando gli viene chiesto di generare immagini, si rifiuterà di produrre qualcosa di illegale, poiché il principio operativo di Grok è obbedire alle leggi di un dato paese o stato.” A quel tempo, Grok veniva utilizzato per raffigurare persone, compresi i bambini, in bikini senza il loro consenso. Musk ha pubblicato publish seguendo questa tendenza, inclusa un’immagine raffigurante un razzo in bikini, suggerendo apparentemente che fosse a conoscenza della tendenza, indipendentemente dal fatto che fosse consapevole o meno che veniva utilizzata su immagini di bambini. Alcune settimane dopo, la società ha annunciato che avrebbe aggiunto restrizioni alla generazione di immagini e ha fatto riferimento a persone che “tentano di abusare dell’account Grok per violare la legge”, ma non ha riconosciuto direttamente la generazione di materiale pedopornografico.
Musk e xAI hanno anche promosso la capacità di Grok di essere utilizzato per attività sessualmente esplicite tramite il suo file Modalità “Piccante”.che può essere utilizzato per la generazione di testo, immagini e video. L’azione legale collettiva sostiene che l’azienda e il suo amministratore delegato erano più consapevoli di come veniva utilizzato lo strumento di quanto non avessero lasciato intendere, sostenendo di “vedere un’opportunità di enterprise: un’opportunità per trarre profitto dalla predazione sessuale di persone reali, compresi i bambini”.
xAI non ha risposto a una richiesta di commento riguardante la causa.













