Roblox använder redan AI för att moderera röstchattar, men det slutliga beslutet fattas fortfarande av människor

Den som någonsin har spelat konkurrenskraftiga onlinespel vet hur giftig en plats röstchatt kan vara i spel. Till skillnad från textchatt, där det tar tid att skriva något, sker röstchatt direkt, vilket gör det mycket svårt att moderera. För att lösa detta problem implementerar Roblox aktivt artificiell intelligens (AI), men erkänner att mänsklig kontroll fortfarande är nödvändig för att säkerställa en säker miljö för spelare.
Här är vad vi vet
Under Game Developers Conference (GDC ) 2025 talade Kiran Bhat, Senior CTO på Roblox, och Hannes Heikinheimo, Head of Voice Chat Security, om året med att använda AI för moderering. Bhat noterade att den största svårigheten inte bara ligger i att upptäcka stötande ord, utan också i att förstå tonen, intensiteten och sammanhanget som avgör om uttalanden verkligen är stötande.
Trots dessa utmaningar har artificiell intelligens visat sig vara mycket effektiv. Bhat förklarade att 85% av giftigt beteende kan sammanfattas i fyra huvudkategorier och att de flesta överträdelser är förknippade med cirka 50 nyckelord. Maskininlärning gör ett utmärkt jobb med att identifiera dessa mönster, vilket avsevärt minskar antalet klagomål om missbruk i röstchatt.
All AI har dock sina begränsningar. Heikinigheimo betonade att även om algoritmer ger stabilitet och opartiskhet kan de inte alltid tolka sällsynta eller kontextuellt komplexa fall korrekt, där mänsklig bedömning fortfarande är oumbärlig.
Källa: Videogamer