O Instituto de Tecnologia da Califórnia (CALTECH) uniu forças com a Activision para um projeto de pesquisa científica, cujo objetivo é desenvolver um método de empregar a inteligência artificial (IA) no combate ao abuso e assédio no ambiente online.

Segundo o comunicado da instituição, a ideia é monitorar partidas de Call of Duty, possivelmente a maior franquia de jogos da Activision e uma marca ícone do universo multijogador, para coletar dados e identificar parâmetros de ofensas e ataques que contenham práticas de racismo, misoginia, homofobia e quaisquer outras figuras abusivas de linguagem.

Call of Duty: Modern Warfare 2 (2022), da Activision

(Imagem: Activision/Divulgação)

O estudo será capitaneado por dois especialistas no assunto: Anima Anandkumar, professora de Computação e Ciências Matemáticas e diretora de pesquisas em machine learning da NVIDIA; e Michael Alvarez, professor de Ciências Políticas e Computação Social. Os dois já trabalharam juntos em um estudo que criou ferramentas de detecção automática de abuso nas redes sociais – o trabalho deles é um dos templates usados pelas principais plataformas em suas áreas de moderação de conteúdo.

No novo projeto, os dois vão atuar em conjunto com as equipes de engenharia de dados da Activision, que fornecerão informações consistentes para alimentar a tecnologia inteligente que os especialistas pretendem desenvolver.

“Ao longo dos últimos anos, a nossa colaboração com o grupo de Anima Anandkumar tem sido muito eficiente. Nós aprendemos muito sobre como usar grandes volumes de dados e deep learning para identificar conversas e comportamentos tóxicos. Nesta nova direção, os nossos colegas da Activision nos darão a oportunidade de aplicarmos o nosso aprendizado ao estudo de comportamentos nocivos em uma área extremamente importante – os videogames.” – Michael Alvarez, CALTECH

“Como podemos criar uma IA que seja transparente, benéfica à sociedade, e livre de qualquer viés? Como asseguramos um ambiente seguro de jogos para todos? Queremos saber como os jogadores interagem. Que tipo de linguagem eles usam? Quais vieses eles têm? O que deveríamos procurar? Isso requer expertise e domínio do assunto.” – Anima Anandkumar, CALTECH/NVIDIA

Trabalho não vai faltar: um dos maiores problemas do multiplayer contemporâneo é justamente o abuso e a abordagem tóxica entre jogadores. No caso de Call of Duty, o maior exemplo é, sem sombra de dúvida, a misoginia, com jogadoras mulheres sendo forçadas a tolerar trollagens e linguajar ofensivo de membros masculinos da partida apenas para poder jogar o título.

Em setembro, uma postagem no blog oficial da marca fala sobre o banimento ou moderação de mais de um milhão de jogadores que engajaram em comportamento tóxico – desde o cancelamento de perfis de contas com ofensas repetidas até a obrigação de alteração de nomes de usuário potencialmente ofensivos.

Este estudo da SBGames, inclusive, aborda todas as razões que levam ao comportamento tóxico em jogos online e dedica uma boa parte de seu conteúdo às questões de gênero, bem como idade, panorama social e grau de participação social em classe.

Dada a popularidade de Call of Duty, é de se entender que a Activision tenha um interesse especial em coibir essa prática ao máximo. Querendo ou não, isso acaba afastando jogadores do título, o que traz uma conotação negativa à imagem pública da empresa e, consequentemente, impacta de forma ruim as vendas da marca:

“Nossos times continuam a fazer grande progresso no combate ao comportamento disruptivo, e nós também queremos enxergar muito mais além neste caminho. Essa colaboração nos permitirá aprimorar um trabalho na existente dentro da pesquisa nesta área.” – Michael Vance, CTO da Activision

via Caltech

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários