Perplexity, uno degli strumenti di ricerca AI in più rapida crescita in questo momento, si trova improvvisamente advert affrontare una situazione particolarmente critica. E questa volta non si tratta di precisione o allucinazioni.
Una nuova causa legale sta sollevando domande scomode su ciò che realmente accade ai dati degli utenti dietro le quinte, soprattutto quando le persone presumono che le loro chat siano personal. E se le accuse hanno qualche peso, questo potrebbe essere uno di quei momenti che spinge molti utenti a riconsiderare la disinvoltura con cui condividono le informazioni con gli strumenti di intelligenza artificiale.
La “modalità di navigazione in incognito” di Perplexity è effettivamente privata?
Secondo una class motion appena intentata da un utente anonimo di Perplexity, John Doe, non proprio. La denuncia sostiene che la cosiddetta modalità di navigazione in incognito di Perplexity è essenzialmente una “finzione” che non riesce a proteggere i dati degli utenti come la maggior parte delle persone si aspetterebbe.

La causa afferma che le conversazioni degli utenti, inclusi argomenti potenzialmente sensibili come consulenza finanziaria, problemi di salute o domande legali, sono state condivise con terze parti come Google e Meta. E come riportato da Ars Tecnicaciò è accaduto anche quando gli utenti hanno scelto esplicitamente la modalità di navigazione in incognito, che dovrebbe limitare il monitoraggio e la raccolta dei dati.

Ciò che è più preoccupante è il tipo di dati presumibilmente coinvolti. I rapporti suggeriscono che informazioni come indirizzi IP, ID e-mail, dati di geolocalizzazione e persino trascrizioni full delle chat potrebbero essere state trasmesse per scopi di focusing on degli annunci. La causa accusa inoltre Perplexity di incorporare strumenti di tracciamento simili a quelli utilizzati nella pubblicità on-line, senza informare chiaramente gli utenti. In alcuni casi, si afferma addirittura che è possibile accedere a intere conversazioni tramite collegamenti raggiungibili pubblicamente.
Perché questa causa potrebbe cambiare il modo in cui ci fidiamo dell’intelligenza artificiale
Questo va oltre un’app poiché gli strumenti di intelligenza artificiale sembrano personali, il che rende facile la condivisione eccessiva. La causa sostiene inoltre che anni di chat sono stati condivisi con i giganti della pubblicità e che Perplexity non fa emergere chiaramente la sua politica sulla privateness come fanno i rivali.
Se fosse vero, potrebbe imporre una trasparenza più rigorosa su tutte le piattaforme di intelligenza artificiale. Per ora, sono solo accuse, ma sufficienti per rendere il prossimo suggerimento dell’IA un po’ meno casuale.












