Call of Duty vai usar inteligência artificial para moderar chats de voz


Os jogos multiplayer do gênero de tiro em primeira pessoa, infelizmente, são conhecidos pela toxicidade de seus jogadores em lobbies e chats de voz. As desenvolvedoras tentam reprimir esse comportamento e, agora, recorreram a inteligência artificial para tal.

A Activision anunciou uma parceria com a empresa Modulate para trazer a moderação de chat de voz no jogo para seus títulos. O sistema usará uma tecnologia de IA chamada ToxMod para identificar discursos de ódio, discriminação e assédio em tempo real.

A IA ToxMod teve seu lançamento beta inicial na América do Norte nesta semana nos games Call of Duty: Modern Warfare II e Call of Duty: Warzone. O teste vai servir de base para um “lançamento mundial completo” (não inclui a Ásia) em 10 de novembro.

Vale notar que o lançamento global da ferramenta chega junto com o Call of Duty: Modern Warfare III, a nova entrada deste ano na franquia. Infelizmente, o comunicado da Modulate não incluiu muitos detalhes sobre como exatamente o ToxMod funciona.

Entretanto, o site da empresa observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada problema”.

É importante citar que a ferramenta, ao menos por enquanto, não vai tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision. O envolvimento humano continuará com a palavra final.

E você, gostou dessa novidade? Conta pra gente nos comentários logo abaixo!


Leave a Reply

Your email address will not be published. Required fields are marked *