Home Tecnologia Roblox sta cambiando la sicurezza on-line con l’intelligenza artificiale

Roblox sta cambiando la sicurezza on-line con l’intelligenza artificiale

6
0

NUOVOOra puoi ascoltare gli articoli di Fox Information!

Se ti sei mai chiesto come fanno le piattaforme a tenere il passo con milioni di utenti contemporaneamente, è qui che le cose diventano reali. Roblox ha oltre 144 milioni di utenti giornalieri. Questa scala crea una sfida enorme. I contenuti dannosi non sempre vengono visualizzati in modo evidente. A volte, è la combinazione di cose che crea il problema. Ora, l’azienda sta lanciando un nuovo sistema progettato per catturare esattamente questo. Ma prima aiuta a capire cosa è realmente Roblox.

Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario

LO STRANIERO ILLEGALE MESSICANO PRESUNTA HA USATO LA VALUTA ROBLOX PER SOLLECITARE CONTENUTI ESPLICITI A BAMBINI SOTTO I 10 ANNI

Roblox lancia un nuovo sistema di intelligenza artificiale che analizza intere scene in tempo reale per rilevare contenuti dannosi sulla sua piattaforma. (Brent Lewin/Bloomberg tramite Getty Photos)

Cos’è Roblox

Roblox è una piattaforma on-line in cui le persone possono creare, condividere e giocare a giochi creati da altri utenti. Invece di essere un singolo gioco, è un enorme ecosistema di esperienze generate dagli utenti che vanno da semplici percorsi a ostacoli a complessi mondi virtuali.

Ciò che rende Roblox diverso è la quantità di controllo che hanno gli utenti. I giocatori non si limitano a consumare contenuti. Lo creano costantemente in tempo reale attraverso avatar, testo e ambienti interattivi. Quella creazione costante è esattamente ciò che rende la moderazione più complessa.

Un modo più intelligente per individuare contenuti dannosi

La maggior parte degli strumenti di moderazione esamina una cosa alla volta. Un messaggio. Un’immagine. Un avatar. Questo approccio può far perdere il quadro più ampio. Parlando in esclusiva con CyberGuy, Matt Kaufman, responsabile della sicurezza di Roblox, ha spiegato chiaramente il cambiamento:

“Moderiamo già tutti gli oggetti in un mondo virtuale, ma il modo in cui si uniscono e interagiscono è da tempo una sfida. Il nostro nuovo sistema di moderazione multimodale in tempo reale esamina un’intera scena simultaneamente dal punto di vista dell’utente – inclusi oggetti 3D, avatar e testo – catturando tutti questi elementi insieme in un momento specifico per valutare se la combinazione di tipi di contenuto infrange le nostre regole.”

Questa si chiama moderazione multimodale. Invece di analizzare i pezzi isolatamente, guarda tutto insieme in tempo reale.

Perché i sistemi più vecchi non risolvevano il problema

Ecco il problema che le piattaforme affrontano da anni. Qualcosa può sembrare innocuo di per sé. Ma se combinato con altri elementi può diventare dannoso o violare le regole.

Kaufman la mette in questo modo: “I tradizionali sistemi di moderazione dell’intelligenza artificiale, che moderano un oggetto alla volta, possono mancare di contesto e perdere combinazioni che potrebbero essere problematiche in modi in cui i singoli elementi non lo sono. Questo modello comprende la relazione tra diversi oggetti e il modo in cui si uniscono per individuare violazioni sfumate che i filtri normal potrebbero non cogliere.”

Quel contesto mancante è esattamente ciò che i malintenzionati hanno sfruttato.

Cosa cattura effettivamente questa nuova intelligenza artificiale

Questo sistema si concentra su scenari che in precedenza erano sfuggiti. Pensa ai giochi in cui gli utenti possono disegnare liberamente o personalizzare gli avatar. Un disegno da solo potrebbe andare bene. Un avatar da solo potrebbe andare bene. Ma insieme potrebbero creare qualcosa di inappropriato.

Kaufman spiega come il sistema gestisce questa situazione: “Il sistema è in grado di rilevare combinazioni di oggetti che potrebbero violare gli normal della nostra comunità. Advert esempio, alcuni giochi consentono il disegno in forma libera. Questo sistema di moderazione multimodale in tempo reale esaminerebbe il disegno, l’avatar e l’impostazione 3D insieme e li valuterebbe in modo olistico, al high quality di individuare e chiudere i server con contenuti in violazione.”

In questo momento, il lancio sta già prendendo di mira avatar problematici e disegni inappropriati.

La Louisiana fa causa alla piattaforma di gioco on-line Roblox per aver favorito i predatori di bambini

Un bambino gioca a Roblox su un laptop.

I funzionari di Roblox affermano che il nuovo sistema mira a proteggere in modo proattivo i bambini mantenendo il gameplay per gli utenti conformi. (Riccardo Milani/Hans Lucas/AFP tramite Getty Photos)

La scala è più grande di quanto pensi

Questa non è una piccola modifica. Sta operando su vasta scala. Roblox afferma che sta già chiudendo circa 5.000 server al giorno per violazioni.

Kaufman afferma che ciò riflette la realtà della piattaforma: “Con 144 milioni di utenti che si connettono e creano su Roblox ogni singolo giorno, i nostri sistemi di sicurezza devono essere agili e dinamici come i nostri stessi creatori”.

Aggiunge anche un importante controllo della realtà: “Nessun sistema è infallibile contro i malintenzionati, quindi ci impegniamo a fare del nostro meglio per stare al passo con coloro che tentano di aggirare i protocolli di sicurezza, e stiamo lavorando per ampliare questo nuovo sistema multimodale per catturare e monitorare il 100% del tempo di gioco.”

Cosa cambia per gli utenti Roblox di tutti i giorni

Se tu o i tuoi figli usate Roblox, questo sistema probabilmente funzionerà in background senza che voi ve ne accorgiate. Ma cambia la rapidità con cui i comportamenti dannosi vengono fermati.

“Quando un comportamento problematico si verifica ripetutamente in una singola istanza di gioco, questo nuovo sistema è progettato per rilevare e spegnere automaticamente quei server specifici in tempo reale, riducendo notevolmente il numero di utenti che potrebbero essere esposti a story comportamento.”

Quest’ultima parte è importante. Invece di chiudere un intero gioco, si concentra solo sul problema.

“Prendendo di mira solo il server in violazione anziché l’intera esperienza, possiamo aiutare a impedire che le violazioni raggiungano più utenti, consentendo allo stesso tempo ai giocatori ben intenzionati di continuare le loro sessioni senza interruzioni.”

Cosa significa questo per i genitori

Per i genitori, questo rappresenta un grande passo avanti verso la sicurezza proattiva. Invece di attendere le segnalazioni, il sistema agisce in tempo reale.

Kaufman spiega: “Vogliamo che i genitori sappiano che non stiamo solo reagendo alle segnalazioni: stiamo costruendo in modo proattivo alcuni dei sistemi di moderazione IA più sofisticati al mondo per aiutare a proteggere i loro figli in tempo reale”.

C’è anche un importante livello di protezione durante il gioco: “Ora possiamo valutare una combinazione di testo problematico, disegni 3D o movimenti di avatar in tempo reale e chiudere immediatamente quel server specifico, spesso prima che un bambino lo incontri.”

Tuttavia, Roblox sottolinea che la tecnologia da sola non è sufficiente. “Nessun sistema è perfetto e incoraggiamo i genitori a parlare ai propri figli della sicurezza on-line.”

Modi in cui i genitori possono aiutare a proteggere i bambini

Anche con la moderazione avanzata basata sull’intelligenza artificiale, alcuni semplici passaggi possono aiutarti a rimanere un passo avanti e a garantire la sicurezza di tuo figlio on-line.

1) Parla di cosa fa tuo figlio on-line

Chiedi a quali giochi giocano e con chi interagiscono in modo da rimanere coinvolto.

2) Incoraggia a segnalare tutto ciò che ti sembra strano

Ricorda a tuo figlio di segnalare comportamenti che sembrano inappropriati o scomodi.

3) Controlla insieme le impostazioni di privateness e sicurezza

Controlla le impostazioni dell’account per limitare chi può chattare o interagire con tuo figlio.

4) Stabilisci confini chiari per il gioco

Concordare le regole relative al tempo trascorso davanti allo schermo e i tipi di esperienze consentite.

IL CEO DI ROBLOX RISPONDE ALL’ESAME SULLA SICUREZZA DEI MINORI: STABILIRE IL “GOLD STANDARD” PER LA SICUREZZA

Viene mostrato l'esterno del quartier generale di Roblox.

Roblox mira a infrangere le regole in modo sfumato analizzando avatar, testo e ambienti insieme invece che isolatamente. (JasonDoiy/Getty Photos)

Come Roblox evita i falsi positivi

Una preoccupazione con qualsiasi sistema di intelligenza artificiale è sbagliare. Roblox afferma che sta lavorando attivamente per migliorare la precisione nel tempo.

“Abbiamo creato un ciclo di valutazione continuo per misurare i falsi positivi provenienti dal sistema di moderazione multimodale e stiamo addestrando il sistema con quel suggestions per aiutarlo a cogliere questo tipo di esempi in futuro.”

Anche il suggestions degli utenti gioca un ruolo. “I nostri creatori e utenti sono spesso quelli che individuano le nuove tendenze emergenti… Questo tipo di segnalazione è il modo più efficace per consentire agli utenti di proteggere la comunità.”

L’intelligenza artificiale e la supervisione umana sono ancora importanti

Anche con l’automazione, gli esseri umani sono ancora coinvolti. “Utilizziamo già una combinazione di intelligenza artificiale e un staff di esperti di sicurezza per esaminare i contenuti caricati sulla piattaforma prima che vengano mostrati agli utenti.”

Il nuovo sistema aggiunge un altro livello, non una sostituzione. “Questo sistema di moderazione multimodale in tempo reale costituisce un livello aggiuntivo ed è completamente automatizzato nella valutazione dell’intera scena.”

E la privateness e l’equità?

Qualsiasi sistema così potente solleva interrogativi sulla privateness e sulla portata eccessiva. Roblox afferma che sta limitando il modo in cui vengono utilizzati i dati: “I nostri sistemi e processi sono progettati in modo story che i dati raccolti per la sicurezza vengano utilizzati solo per scopi di sicurezza”.

Per quanto riguarda l’equità, l’azienda punta sulla formazione continua e sulla trasparenza: “Siamo concentrati nel garantire che i nostri sistemi di sicurezza siano altamente efficaci ed equi”.

Stanno inoltre offrendo ai creatori maggiore visibilità: “Abbiamo introdotto un nuovo grafico nella dashboard dei creatori che consente agli sviluppatori di vedere esattamente quanti server dei loro giochi sono stati chiusi”.

Dove andrà a finire?

Questo sistema è appena iniziato. Uno degli obiettivi futuri sarà quello di individuare le riproduzioni di eventi del mondo reale che potrebbero oltrepassare il limite.

Kaufman spiega perché il contesto è importante in questo caso: “I filtri normal potrebbero vedere un edificio specifico o una riga di testo isolatamente e non riconoscere una violazione. Tuttavia, la moderazione multimodale in tempo reale può comprendere la relazione tra un ambiente, il modo in cui gli avatar interagiscono al suo interno e la chat di accompagnamento.”

C’è anche una spinta advert andare oltre la chiusura dei server: “Stiamo lavorando su modi per identificare specifici cattivi attori in modo da poterli rimuovere senza interrompere l’esperienza per la stragrande maggioranza dei nostri giocatori ben intenzionati”.

I punti chiave di Kurt

Si tratta di un cambiamento importante nel modo in cui le piattaforme on-line affrontano la sicurezza. Invece di reagire dopo che qualcosa va storto, Roblox sta cercando di fermare comportamenti dannosi prima che la maggior parte degli utenti se ne accorga. Questa è una grande promessa, soprattutto su questa scala. Allo stesso tempo, evidenzia una domanda più profonda sul futuro degli spazi on-line. Man mano che l’intelligenza artificiale diventa sempre più coinvolta nella moderazione dei comportamenti, l’equilibrio tra sicurezza, equità e libertà diventerà sempre più complicato.

Quindi ecco la domanda su cui vale la pena riflettere: se l’intelligenza artificiale ora resolve cosa oltrepassa il limite in tempo reale, quanto controllo possiamo cederle? Fatecelo sapere scrivendoci a Cyberguy.com

CLICCA QUI PER SCARICARE L’APP FOX NEWS

Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario

Copyright 2026 CyberGuy.com. Tutti i diritti riservati.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here