Meta ha un nuovo modo di catturare i ragazzi che mentono on-line sulla loro età e va ben oltre il controllo di ciò che scrivono.
L’azienda annunciato ora utilizza l’analisi visiva dell’intelligenza artificiale per scansionare foto e video su Instagram e Fb per indicatori fisici dell’età, tra cui altezza e struttura ossea. L’obiettivo di Meta è trovare e rimuovere account appartenenti a utenti sotto i 13 anni che potrebbero essersi registrati con una knowledge di nascita falsa.
Come funziona effettivamente l’analisi visiva?
Meta ha avuto cura di chiarire che non si tratta di riconoscimento facciale. L’intelligenza artificiale non identifica chi è qualcuno. Cerca invece segnali visivi generali che suggeriscano che qualcuno sia giovane, come le sue proporzioni fisiche, per stimare un’ampia fascia di età.
Questa scansione visiva funziona insieme al rilevamento basato su testo esistente, che cerca indizi contestuali come menzioni di compleanni, riferimenti a voti scolastici e informazioni in biografie, put up, didascalie e commenti. Meta prevede inoltre di espandere questa analisi del testo a Instagram Reels, Instagram Stay e Gruppi Fb.
Se un account viene contrassegnato come potenzialmente minorenne, viene disattivato. L’utente deve quindi verificare la propria età per riaverla, altrimenti l’account verrà eliminato definitivamente. L’analisi visiva è attualmente attiva in paesi selezionati, con un’implementazione più ampia pianificata.
Cos’altro sta facendo Meta per la sicurezza degli adolescenti?

Meta sta inoltre espandendo il suo sistema di account per adolescenti, che inserisce automaticamente gli utenti che sospetta abbiano tra i 13 e i 15 anni in un’esperienza di account più rigorosa. Ciò significa account privati per impostazione predefinita, messaggi diretti limitati a persone che già conoscono e commenti dannosi nascosti.
Questa espansione ora copre Instagram in Brasile e in 27 paesi dell’UE, a seguito delle precedenti restrizioni sui contenuti modellate sulle classificazioni dei movie. Anche Fb negli Stati Uniti lo sta ottenendo per la prima volta, seguito nel Regno Unito e nell’UE a giugno. Meta ha anche dato ai genitori visibilità sulle chat AI dei loro figli come parte della stessa spinta più ampia.
Le mosse arrivano mentre Meta deve affrontare una crescente pressione legale e normativa sulla sicurezza dei bambini, inclusa una sanzione di 375 milioni di dollari nel New Mexico e un’indagine della Commissione Europea per verificare se le sue piattaforme stanno facendo abbastanza per tenere lontani i bambini.













