Os jogos multiplayer do gênero de tiro em primeira pessoa, infelizmente, são conhecidos pela toxicidade de seus jogadores em lobbies e chats de voz. As desenvolvedoras tentam reprimir esse comportamento e, agora, recorreram a inteligência artificial para tal.
A Activision anunciou uma parceria com a empresa Modulate para trazer a moderação de chat de voz no jogo para seus títulos. O sistema usará uma tecnologia de IA chamada ToxMod para identificar discursos de ódio, discriminação e assédio em tempo real.
A IA ToxMod teve seu lançamento beta inicial na América do Norte nesta semana nos games Call of Duty: Modern Warfare II e Call of Duty: Warzone. O teste vai servir de base para um “lançamento mundial completo” (não inclui a Ásia) em 10 de novembro.
Vale notar que o lançamento global da ferramenta chega junto com o Call of Duty: Modern Warfare III, a nova entrada deste ano na franquia. Infelizmente, o comunicado da Modulate não incluiu muitos detalhes sobre como exatamente o ToxMod funciona.
Entretanto, o site da empresa observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada problema”.
É importante citar que a ferramenta, ao menos por enquanto, não vai tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision. O envolvimento humano continuará com a palavra final.
E você, gostou dessa novidade? Conta pra gente nos comentários logo abaixo!