Algoritmo de recomendações do YouTube expõe crianças a vídeos de armas
Estudo mostra que público gamer está mais vulnerável a conteúdos no Youtube com tiroteios em escolas e materiais pró-armasBy - Rafael Arbulu, 17 maio 2023 às 16:08
Uma pesquisa conduzida pelo Tech Transparency Project revelou que o YouTube, por meio do seu algoritmo de vídeos recomendados na home page, está expondo crianças a vídeos nocivos, como ataques armados a escolas, tiroteios que vitimam pessoas inocentes e conteúdo pró-armas.
O estudo, cujas conclusões foram publicadas no site do próprio projeto, também mostram que o público gamer está especificamente vulnerável ao material, especificamente apontando que meninos em idades mais jovens que demonstrem interesses em jogos, na verdade, conseguiram até acessar vídeos sobre assassinos seriais.
Como metodologia, a ONG afirma ter criado quatro contas não relacionadas, sendo duas se passando por meninos de 8 anos, e as outras duas, por meninos de 14 anos. Todas elas relacionaram jogos como Roblox, Minecraft, Lego Star Wars como tópicos de interesse. No intuito de oferecer um contraponto, as mesmas contas também assistiram a vídeos sobre Grand Theft Auto e Halo, embora não os marcassem como tópicos de interesse dos perfis estudados.
Dessas quatro contas, duas clicavam nos vídeos recomendados pelo algoritmo da plataforma de vídeos do Google, enquanto as outras duas ignoravam as sugestões. A partir daí, o grupo monitorou os vídeos recomendados às contas pelo Youtube durante um período de 30 dias.
“Nosso estudo descobriu que o YouTube empurrou conteúdos sobre tiroteios e armas para todas as contas gamer que criamos, mas em um volume muito maior para as duas onde nós clicamos nos links de recomendação da plataforma. Esses vídeos incluiam cenas explícitas sobre tiroteios em escolas e outros eventos de assassinato em massa; demonstrações gráficas sobre quanto dano uma arma causa no corpo humano; e até mesmo guias e tutoriais sobre como converter uma pistola comum em uma arma totalmente automática.” – Tech Transparency Project
Segundo o estudo, vários dos vídeos exibidos parecem estar em violação dos termos de uso do próprio Youtube: crianças manuseando armas, por exemplo, foi um dos conteúdos sugeridos, mas isso em teoria deveria ser barrado pela moderação da plataforma – que hoje consiste de sistemas humanos auxiliados por inteligência artificial.
A pesquisa foi encaminhada ao YouTube, que respondeu através de nota onde recomendou a adoção do aplicativo YouTube Kids, mais centrado à exibição para crianças e que conta com ferramentas exclusivas de supervisão parental, ausentes na versão normal da plataforma. A nota também teceu críticas ao levantamento:
“Nós damos abertura a pesquisas sobre nossas recomendações, e estamos explorando mais formas de trazer estudiosos acadêmicos para avaliar nossos sistemas. Mas ao revisarmos o conteúdo deste levantamento, é difícil para nós tirarmos qualquer conclusão. Por exemplo, o estudo não ofereceu contexto sobre como a maior parte dos vídeos foram recomendados às contas de teste, e não trazem nenhum dado sobre como elas foram criadas e ajustadas, incluindo se as ferramentas da função YouTube Supervised Experiences foram utilizadas.”
Comentários