Home Tecnologia Meta AI Incognito Chat rende non-public le conversazioni degli utenti, afferma Zuckerberg

Meta AI Incognito Chat rende non-public le conversazioni degli utenti, afferma Zuckerberg

13
0

Secondo Mark Zuckerberg, una funzionalità chiamata Incognito Chat arriverà presto su Meta AI e WhatsApp.

Lo ha annunciato il CEO di Meta protagonista sulla sua pagina Facebook e lo ha descritto come consentire agli utenti un “modo completamente privato” di interagire con l’assistente AI dell’azienda.

VEDI ANCHE:

Meta ha guadagnato 14 milioni di dollari solo con queste pubblicità truffa

“Questo è il primo grande prodotto di intelligenza artificiale in cui non vi è alcun registro delle conversazioni archiviate sui server”, ha scritto Zuckerberg.

Ha detto che la funzionalità è simile alla crittografia end-to-end, il che “significa che nessuno può leggere le tue conversazioni, nemmeno Meta o WhatsApp”.

Sebbene le conversazioni non possano essere lette dalle piattaforme stesse, svaniscono anche quando un utente termina la sessione.


I preferiti dei fan di Mashable 101: Vota il tuo creatore preferito Oggi!


“Per ottenere il massimo dalla superintelligenza personale, avremo tutti bisogno di modi per discutere argomenti delicati in modi a cui nessun altro possa accedere”, ha scritto Zuckerberg.

Problemi relativi alla privateness e alla sicurezza della chat in incognito

Le chat che scompaiono sollevano domande sulla sicurezza che Zuckerberg e Post del blog di Meta sulla chat in incognito non si è rivolto.

Sebbene la privateness assoluta possa indurre gli utenti a porre domande delicate sulla loro salute, finanze o carriera, impedirà anche a Meta di sapere quando gli utenti potrebbero aver bisogno di aiuto o intervento urgente.

Advert esempio, le conversazioni con Meta AI in WhatsApp che indicano che un utente potrebbe prendere in considerazione l’autolesionismo o il suicidio possono innescare una revisione umana, secondo i check di Mashable. Lo stesso vale per le discussioni sulla violenza.

Questi messaggi non potrebbero essere identificati con la chat in incognito, né ci sarebbe alcuna registrazione retrospettiva di essi.

Meta ha affermato di implementare misure di sicurezza progettate per rifiutare richieste potenzialmente dannose e che Meta AI non rispetterà le richieste pericolose. Inoltre, secondo la società, gli utenti che inviano ripetutamente messaggi dannosi verranno temporaneamente bloccati.

Entrambi gli scenari – comportamento suicidario e atti di violenza pubblica – sono oggetto di azioni legali e indagini penali contro le più grandi società di intelligenza artificiale.

OpenAI è stata citata in giudizio più volte dalle famiglie degli utenti in lutto. Affermano che ChatGPT di OpenAI ha istruito la persona amata a togliersi la vita. OpenAI ha negato le accuse in un caso che coinvolgeva un sedicenne morto.

Separatamente, il procuratore generale dello stato della Florida ha recentemente aperto un’indagine penale per verificare se ChatGPT abbia offerto consigli “significativi” a un uomo armato che avrebbe ucciso due persone e altre cinque in una sparatoria nell’aprile 2025.

Google, creatore del chatbot Gemini, è stato citato in giudizio per omicidio colposo all’inizio di quest’anno dalla famiglia di un uomo adulto dopo che Gemini lo avrebbe convinto advert uccidersi.

“I nostri modelli generalmente si comportano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo, ma sfortunatamente i modelli di intelligenza artificiale non sono perfetti”, ha affermato Google in una nota in seguito alle accuse.

Le trigger legali contro Google e OpenAI si basano in gran parte sulle trascrizioni delle chat degli utenti.

Gli adolescenti possono utilizzare la chat in incognito con Meta AI?

Nel frattempo, nel tentativo di rafforzare la tutela per gli utenti adolescenti di Meta AI, la società ha recentemente introdotto una funzionalità che consente ai genitori di visualizzare i loro argomenti di discussione con l’intelligenza artificiale.

Secondo Meta, la chat in incognito è pensata per utenti di età pari o superiore a 18 anni. Agli utenti verrà richiesto di confermare la propria età prima di utilizzare la funzionalità. Quando richiesto dalla legge, Meta implementerà ulteriori metodi di controllo dell’età per verificare che un utente sia un adulto.

Sarah Gardner, CEO di Warmth Initiative, un gruppo di difesa focalizzato sulla sicurezza on-line e sulla responsabilità aziendale, ha espresso preoccupazione per la Incognito Chat, in particolare considerando il precedente lancio da parte di Meta di chatbot AI che consentivano conversazioni “sensuali” con i bambini.

“Le nuove funzionalità annunciate oggi dovrebbero assolutamente suonare come un campanello d’allarme per i genitori,” ha detto Gardner in una dichiarazione a Mashable. “Non abbiamo fiducia nel document di Meta sulla verifica dell’età, quindi devono rispondere a molte più domande su come garantiranno la sicurezza dei bambini”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here