Meta giovedì annunciato che sta iniziando a implementare sistemi di intelligenza artificiale più avanzati per gestire l’applicazione dei contenuti mentre prevede di ridurre i fornitori di terze parti. Le attività relative all’applicazione dei contenuti includono l’acquisizione e la rimozione di contenuti riguardanti terrorismo, sfruttamento minorile, droga, frode e truffe.
La società afferma che distribuirà questi sistemi di intelligenza artificiale più avanzati nelle sue app una volta che avranno costantemente superato gli attuali metodi di applicazione dei contenuti. Allo stesso tempo, ridurrà la dipendenza da fornitori di terze parti per l’applicazione dei contenuti.
“Anche se avremo ancora persone che revisionano i contenuti, questi sistemi saranno in grado di svolgere lavori più adatti alla tecnologia, come revisioni ripetitive di contenuti grafici o aree in cui gli attori antagonisti cambiano costantemente le loro tattiche, come con la vendita di farmaci illeciti o le truffe”, ha spiegato Meta in un submit sul weblog.
Meta ritiene che questi sistemi di intelligenza artificiale siano in grado di rilevare più violazioni con maggiore precisione, prevenire meglio le truffe, rispondere più rapidamente agli eventi del mondo reale e ridurre l’applicazione eccessiva.
L’azienda afferma che i primi take a look at dei sistemi di intelligenza artificiale sono stati promettenti, in quanto sono in grado di rilevare il doppio dei contenuti che violano l’adescamento sessuale per adulti rispetto ai suoi crew di revisione, riducendo allo stesso tempo il tasso di errore di oltre il 60%. Cube inoltre che i sistemi possono identificare e prevenire ulteriori account di furto d’identità che coinvolgono celebrità e altri individui di alto profilo, oltre a contribuire a fermare le acquisizioni di account rilevando segnali come accessi da nuove posizioni, modifiche della password o modifiche apportate a un profilo.
Inoltre, Meta afferma che i sistemi possono identificare e mitigare circa 5.000 tentativi di truffa al giorno, in cui i truffatori cercano di indurre le persone a fornire i propri dati di accesso.
“Gli esperti progetteranno, formeranno, supervisioneranno e valuteranno i nostri sistemi di intelligenza artificiale, misurando le prestazioni e prendendo le decisioni più complesse e advert alto impatto”, ha scritto Meta nel submit sul weblog. “Advert esempio, le persone continueranno a svolgere un ruolo chiave nel modo in cui prendiamo le decisioni più critiche e a rischio più elevato, come i ricorsi per la disattivazione degli account o le segnalazioni alle forze dell’ordine”.
La mossa arriva quando Meta ha allentato le sue regole di moderazione dei contenuti nell’ultimo anno circa, quando il presidente Donald Trump è entrato in carica per la seconda volta. L’anno scorso, la società ha interrotto il programma di verifica dei fatti di terze parti a favore di un modello Group Notes simile a X. Ha inoltre eliminato le restrizioni sugli “argomenti che fanno parte del discorso tradizionale” e ha affermato che gli utenti sarebbero incoraggiati advert adottare un approccio “personalizzato” ai contenuti politici.
Si tratta anche del momento in cui Meta e altre grandi aziende tecnologiche si trovano attualmente advert affrontare diverse cause legali cercando di ritenere i giganti dei social media responsabili di danneggiare bambini e giovani utenti.
Meta ha anche annunciato giovedì che sta lanciando un assistente di supporto Meta AI che darà agli utenti l’accesso al supporto 24 ore su 24, 7 giorni su 7. L’assistente è disponibile a livello globale nelle app Fb e Instagram per iOS e Android e all’interno del Centro assistenza su Fb e Instagram su desktop.













