Meta inizierà a utilizzare l’intelligenza artificiale per scansionare foto e video alla ricerca di indizi visivi per vedere se un utente ha meno di 13 anni e deve essere rimosso da Fb e Instagram, la società annunciato il martedì. Questi indizi visivi includono l’altezza o la struttura ossea di una persona.
“Vogliamo essere chiari: questo non è riconoscimento facciale”, ha spiegato Meta nel suo put up sul weblog. “La nostra intelligenza artificiale esamina temi generali e segnali visivi, advert esempio l’altezza o la struttura ossea, per stimare l’età generale di qualcuno; non identifica la persona specifica nell’immagine. Combinando queste informazioni visive con la nostra analisi del testo e delle interazioni, possiamo aumentare significativamente il numero di account minorenni che identifichiamo e rimuoviamo.
Il sistema di analisi visiva è ora operativo in paesi selezionati, ma Meta afferma che sta lavorando per un’implementazione più ampia.
Meta afferma che questo sistema fa parte dei suoi sforzi per tenere i bambini sotto i 13 anni lontani dalle sue piattaforme. Questi sforzi includono l’uso dell’intelligenza artificiale per analizzare interi profili alla ricerca di indizi contestuali, come feste di compleanno o menzioni di voti scolastici. L’azienda cerca questi segnali in diversi formati, come put up, commenti, biografie, didascalie e altro ancora. Meta prevede di espandere questa tecnologia a più parti delle sue app, inclusi Instagram Dwell e Gruppi Fb, in futuro.
Se Meta determina che una persona potrebbe essere minorenne, disattiverà il suo account e l’utente dovrà dimostrare la propria età utilizzando il processo di verifica dell’età dell’azienda per evitare che il proprio account venga eliminato.
L’annuncio arriva settimane dopo che una giuria del New Mexico ha ordinato a Meta di pagare 375 milioni di dollari in sanzioni civili per aver ingannato i consumatori sulla sicurezza delle sue piattaforme e aver messo a rischio i bambini. Alla società è stato inoltre ordinato di implementare modifiche fondamentali alle sue piattaforme. Da allora Meta ha minacciato di farlo chiudere i suoi servizi di social media nello stato.
Vale la pena notare che questo caso è una delle tante trigger legali che Meta e altre società Large Tech stanno affrontando per la sicurezza dei bambini.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Martedì Meta ha anche annunciato che sta espandendo la sua tecnologia che inserisce automaticamente gli adolescenti in “account adolescenti” più rigidi su Instagram in 27 paesi dell’UE e in Brasile. Questi account per adolescenti pongono gli utenti in un’esperienza di account più rigorosa con ulteriori garanzie, come ricevere messaggi diretti solo da persone che seguono o a cui sono già connessi, nascondere commenti dannosi e impostare gli account su privati per impostazione predefinita.
Inoltre, Meta ha affermato che sta espandendo la tecnologia a Fb per la prima volta negli Stati Uniti, seguita da Regno Unito e UE a giugno.
Quando acquisti tramite i hyperlink presenti nei nostri articoli, potremmo guadagnare una piccola commissione. Ciò non pregiudica la nostra indipendenza editoriale.












