Home Tecnologia Roblox ora utilizza la moderazione dell’intelligenza artificiale per chiudere i contenuti dannosi...

Roblox ora utilizza la moderazione dell’intelligenza artificiale per chiudere i contenuti dannosi prima che ti raggiungano

6
0

Se hai mai giocato a Roblox, sai quanto può diventare selvaggia e imprevedibile la piattaforma. Ora, Roblox utilizza la stessa imprevedibilità come motivo per rivedere il modo in cui modera i contenuti.

La piattaforma appena lanciato un sistema di moderazione AI multimodale in tempo reale che non esamina solo singole istanze, ma scansiona intere scene di gioco in tempo reale per catturare i contenuti che sono sfuggiti ai filtri precedenti.

Come funziona la nuova moderazione AI di Roblox?

A differenza dei vecchi strumenti di moderazione che valutano un oggetto alla volta, il nuovo sistema multimodale valuta un’intera scena, inclusi avatar, testo e oggetti 3D, per determinare se l’intera combinazione infrange gli normal della group di Roblox.

Advert esempio, considera qualcuno che utilizza uno strumento di disegno a forma libera per abbozzare un simbolo offensivo, del tipo che non attiverebbe un controllo di un singolo elemento ma è ovviamente un problema nel contesto.

Quando vengono rilevate violazioni ripetute in una singola istanza di gioco, il sistema spegne solo quel server anziché l’intero gioco. Dal momento del lancio, ogni giorno sono stati chiusi circa 5.000 server.

Roblox sta lavorando per monitorare il 100% del tempo di gioco con questo sistema. Oltre all’arresto dei server, sta anche sviluppando strumenti per identificare e rimuovere singoli soggetti malintenzionati senza rovinare l’esperienza di tutti gli altri.

Cosa significa questo per i creatori di Roblox?

Anche i creatori non sono lasciati all’oscuro. Un nuovo grafico all’interno della dashboard del creatore esistente ora mostra quanti dei tuoi server di gioco sono stati chiusi in un dato giorno a causa del cattivo comportamento degli utenti.

Picchi in quel numero possono segnalare un problema che vale la pena indagare, dando ai creatori la possibilità di rivedere e modificare cose come emote personalizzate o strumenti di costruzione in-game prima che la situazione peggiori.

Un nuovo programma di certificazione per ripulire il gioco on-line

Roblox sta anche affrontando un problema più ampio del settore. Insieme a Key phrase Studios e Riot Video games, sta co-sviluppando Programma di leadership DLC per gestori e moderatori di comunità on-line.

La psicologa ricercatrice Rachel Kowert, che ricopre il ruolo di direttore della ricerca presso Video games for Change, guida il lato accademico. L’obiettivo è creare una formazione standardizzata e basata sull’evidenza per le persone che gestiscono comunità di gioco, qualcosa che il settore non ha mai avuto prima.

Da un po’ Roblox ha anche rafforzato la sua rete di sicurezza, dai controlli parentali ai filtri delle chat basati sull’età, e l’ultimo aggiornamento è la mossa più ambiziosa finora.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here