Sulla scia di due massicce perdite giudiziarie statunitensi sulla sicurezza dei bambini on-line, Meta sta espandendo i suoi programmi di sicurezza per adolescenti. IL ha detto la compagnia giovedì che sta espandendo l’uso del suo normal ispirato alla classificazione dei movie PG-13 agli account di adolescenti a livello internazionale, in particolare in Europa.
IL Valutazione PG-13, come tutti lo sappiamo, è stato creato dalla Movement Image Affiliation. È essenzialmente un segnale di avvertimento per i genitori che un movie ha contenuti che potrebbero non essere adatti a bambini di età inferiore a 13 anni a causa di violenza, linguaggio, sesso o altri fattori. Gli account degli adolescenti di Instagram limitano i tipi di contenuti che vengono forniti a questi utenti, dicendo che ora sono “ispirati” dalla classificazione PG-13 dell’MPA.
Meta ha implementato queste modifiche negli Stati Uniti, nel Regno Unito, in Australia e in Canada nell’ottobre 2025. Poco dopo, l’MPA ha inviato a Meta una lettera di diffida nel novembre 2025 per aver utilizzato il termine PG-13 senza autorizzazione. Entro marzo, le due organizzazioni raggiunto un accordo per chiarire cosa significasse lo normal quando utilizzato in riferimento ai contenuti dei social media.
“Anche se ovviamente ci sono differenze tra movie e social media, abbiamo apportato queste modifiche in modo che le esperienze degli adolescenti di età superiore ai 13 anni sembrino più vicine all’equivalente Instagram della visione di un movie considerato appropriato per 13 anni e più”, ha affermato Meta in un post sul blog di giovedì annunciando la politica.
È l’ultima mossa di Meta nel tentativo di rassicurare il pubblico che le sue piattaforme sono sicure per i giovani utenti. Il 24 marzo, una giuria del New Mexico ha ritenuto Meta responsabile di negligenza per fuorviare gli utenti sulla sicurezza dei bambini e consentendo lo sfruttamento minorile, ordinando alla società di pagare 375 milioni di dollari di danni punitivi. Il giorno successivo, 25 marzo, una giuria di Los Angeles ha ritenuto Meta e Google responsabili di aver deliberatamente commesso un errore costruire le loro piattaforme di social media per creare dipendenza. Meta non è d’accordo con entrambi i verdetti e Google ha affermato che intende presentare ricorso.
Gli oltre 13 account adolescenti di Instagram
Quello di Instagram programma di contabilità per adolescenti lanciato negli Stati Uniti nel 2024. L’obiettivo period spostare tutti gli utenti di età inferiore a 16 anni su questi account più privati e sicuri. Gli account per adolescenti sono privati per impostazione predefinita, il che significa che è più difficile per gli estranei interagire con loro. Questi account sono inoltre soggetti alle impostazioni dei contenuti più limitate di Instagram, il che significa che non dovrebbero essere mostrati put up sessualmente allusivi, contenenti immagini grafiche o inquietanti o sostanze per adulti come tabacco e alcol. Gli adolescenti necessitano dell’autorizzazione di un genitore per disattivare queste impostazioni predefinite. Meta ha preso queste restrizioni sui contenuti un ulteriore passo avanti nell’ottobre 2025 con la sua prima versione con oltre 13 valutazioni.
Gli account Instagram degli adolescenti verranno “nascosti”.[e] o non raccomandare put up con un linguaggio forte, alcune acrobazie rischiose e contenuti aggiuntivi che potrebbero incoraggiare comportamenti potenzialmente dannosi, come put up che mostrano accessori legati alla marijuana,” ha ribadito Meta nel suo put up sul weblog questa settimana.
Ha aggiunto che gli adolescenti non potranno più seguire le persone che già seguono se tali account hanno un nome utente “inappropriato” e condividono costantemente contenuti “inappropriati per l’età” degli adolescenti. E per i genitori che non ritengono che queste impostazioni predefinite siano sufficienti, Meta ha una nuova impostazione di “contenuto limitato” che è ancora più rigorosa riguardo ai commenti e alle interazioni con l’intelligenza artificiale. Meta è stata criticata l’anno scorso quando un rapporto interno ha mostrato che i suoi chatbot con intelligenza artificiale avrebbero funzionato interazioni “sensuali” con i bambini.
I critici hanno affermato che i controlli sui contenuti di Instagram per gli utenti più giovani potrebbero impedire loro di vedere contenuti informativi. I sistemi di moderazione di Instagram, sempre più alimentato dall’intelligenza artificialepossono avere difficoltà a interpretare il contesto attorno a parole chiave specifiche. Advert esempio, i put up sulla salute riproduttiva o sui disturbi alimentari potrebbero essere contrassegnati, anche se hanno contenuti educativi.











