Si stanno preparando altri problemi legali per Google, poiché una vittima di Jeffrey Epstein ha intentato un’azione collettiva contro il più grande motore di ricerca del mondo, sostenendo che la sua modalità AI ha pubblicato in modo improprio informazioni personali sulle vittime del traffico sessuale.
Il problema è iniziato con il Dipartimento di Giustizia, la cui presentazione dei file Epstein, in seguito all’approvazione del Legge sulla trasparenza dei file Epstein l’anno scorso, è stato crivellato redazioni affrettateche spesso proteggeva l’identità dei presunti autori del reato, lasciando invece non nascosta l’identità delle vittime.
I creatori di Jmail rilasciano il calendario di Jeffrey Epstein come JCal
Il Dipartimento di Giustizia, tuttavia, ha riconosciuto gli errori e ha rimosso le informazioni personali dal suo sito net. Il problema ora risiede in Google e, più specificamente, nella sua intelligenza artificiale, che ha analizzato i documenti iniziali e non oscurati e ospita ancora le informazioni personali sensibili delle vittime della tratta sessuale.
“Anche dopo che il governo ha riconosciuto che la divulgazione violava i diritti dei sopravvissuti e ha ritirato le informazioni, entità on-line come Google le ripubblicano continuamente, rifiutandosi di [the] richiesta della vittima di rimuoverlo”, si legge nella causa.
Velocità della luce mashable
Le accuse non si fermano qui. Non solo Google ha rifiutato consapevolmente di rimuovere le informazioni sensibili, che includono “nome completo, informazioni di contatto, città di residenza e associazione con Jeffrey Epstein”, ma l’intelligenza artificiale avrebbe anche “generato un collegamento ipertestuale che consente a chiunque di inviare un’e-mail diretta al querelante con il semplice clic di un pulsante”.
Peggio ancora, per Google: la causa accusa altre società di intelligenza artificiale no pubblicare in modo improprio le informazioni sulle vittime: “In particolare, molti altri strumenti di intelligenza artificiale disponibili al pubblico che generano contenuti analizzando fonti on-line, come ChatGPT, Claude e Perplexity, non hanno fornito alcuna informazione relativa alle vittime in check ripetuti simili.”
Quest’ultima causa arriva sulla scia di a sentenza schiacciante della giuria di Los Angeles che ha ritenuto sia Meta che YouTube, di proprietà di Google, responsabili di “progettare prodotti che creano dipendenza e danneggiano i bambini”, dando priorità all’impegno on-line rispetto al benessere dei propri utenti.
Al momento in cui scriviamo, Google non ha rilasciato una dichiarazione pubblica sulla causa, ma un verdetto in questo processo potrebbe creare importanti precedenti per la tutela della privateness nell’period dell’intelligenza artificiale, con implicazioni che si ripercuoterebbero su tutto il panorama tecnologico.













