Guerra Israel-Hamas: como as redes sociais estão blindando conteúdos durante o conflito
Veja mais detalhes sobre como as big techs por trás das mais populares plataformas sociais de hoje estão atuando para proteção de usuários e bloqueio de conteúdos nocivosBy - Tissiane Vicentin, 22 outubro 2023 às 20:28
As divergências entre Israel e a Palestina não são novas e há anos acompanhamos o conflito que se estende principalmente pela Faixa de Gaza. Infelizmente, no início de outubro deste ano, os desdobramentos da guerra Israel-Hamas ganharam um novo capítulo na história e ainda seguem sem resolução. Sabemos que a situação está longe de ser algo simples de ser solucionada e, para além dos conflitos no mundo físico, não é incomum que a Internet acabe sendo palco para conflitos derivados e que redes sociais populares são, por vezes, usadas como ferramenta de guerra.
Por isso, em casos delicados como este, as plataformas do mundo virtual não apenas são requisitadas judicialmente a responderem sobre como estão atuando durante o período conflituoso.
Elas, como plataformas usadas globalmente por milhões de pessoas e justamente por terem a essência de compartilhar (sem necessariamente verificar informações antes do apertar de botões), precisam estar preparadas para implementar mecanismos de proteção e segurança que possam, por exemplo, evitar a disseminação rápida de fake news — que são comumente confeccionadas com intuito de agravar ainda mais as situações já tão delicadas vividas no mundo físico.
Seja também para mitigar o compartilhamento de imagens que, em vez de servirem com o propósito de alertar e/ou informar, servem apenas para espalhar medo e/ou contribuir com a desinformação, com o crescimento de discurso de ódio, com a disseminação de conteúdos violentos ou de atos terroristas, além de outras infrações graves previstas em lei.
Instagram, Facebook, TikTok, X: como as redes sociais atuam diante da guerra Israel-Hamas
Antes de começarmos a explicar um pouco sobre como as mídias sociais estão respondendo neste conflito específico, vale lembrar: a guerra Israel-Hamas não é um caso isolado. Outros momentos, como o caso de guerra entre Rússia e Ucrânia, bem como outros conflitos político-ideológicos que já vivenciamos ao longos dos anos e desde que as redes sociais ganharam um papel importante na Internet, necessitam de uma atenção especial por parte das grandes empresas de tecnologia.
Agora, sem mais delongas, a seguir separamos um compiladão sobre a ações que mídias como Instagram, Facebook, TikTok e X (ex-Twitter), e outras plataformas populares estão realizando durante a guerra Israel-Hamas. Você pode navegar pelo menu abaixo para ir diretamente no assunto sobre o qual deseja ver mais detalhes, ou apenas rolar a barra lateral para baixo.
Vamos nessa?
⚓️ Navegue por aqui~*
- A Meta e os bloqueios em aplicativos da empresa
- O TikTok e as ações implementadas na plataforma
- As marcações do X e as contas verificadas
- Onde encontrar as ações das empresas
A Meta e os bloqueios em aplicativos da empresa
Em 13 de outubro, a Meta liberou um post em seu blog para divulgar os esforços da empresa frente à guerra Israel-Hamas. De acordo com a publicação, a companhia de Mark Zuckerberg afirma ter reunido uma equipe de especialistas para “introduzir uma série de medidas para endereças o aumento de conteúdos danosos e potencialmente danosos disseminados em nossas plataformas”.
A empresa tem salientado esforços de moderação de conteúdo, tendo removido ou marcado como “perturbador” quase 800 mil postagens em apenas três dias após o conflito mais recente ter se iniciado, em 7 de outubro. Ainda de acordo com a Meta, os conteúdos barrados violavam as diretrizes de uso da empresa e, especificamente, as regras abraçaram conteúdos em hebraico e árabe.
As contas responsáveis pelos compartilhamentos da maioria dos conteúdos publicados nas plataformas, no entanto, não foram bloqueadas. Isso porque, segundo a Meta, são altas as chances de terem contas bloqueadas de forma inadequada (ou seja, contas que estavam compartilhando conteúdos informativos e não que de fato violaram as políticas de uso da empresa) quando há um volume muito alto de conteúdos sobre um determinado assunto sendo barrados em massa — como acontece em casos de guerras.
Por isso também, a empresa disse ter estabelecido um Grupo Especial de Operações, especificamente para o Instagram e para o Facebook, para cuidar desses conteúdos de forma mais “manual”.
O grupo em questão é composto por especialistas, muitos deles nativos ou fluentes em hebraico e árabe, para analisar de forma apropriada as publicações que circulam nas plataformas.
A Meta também realizou bloqueios temporários de hashtags, bem como priorizou conteúdos ao vivo do Instagram e do Facebook que pudessem estar relacionados ao conflito.
Além disso, a companhia afirma que o grupo Hamas foi banido das plataformas controladas pela empresa.
Uma pausa estratégica aqui para uma explicação sobre o Hamas: o grupo é considerado um movimento islamista situado na Palestina e é atualmente um dos mais influentes dentro do território. Não vamos entrar aqui em detalhes sobre motivações ou ideologias por trás dele, porque não é o intuito do nosso compilado, mas vale dizer que o Hamas é considerado por alguns países no mundo como uma organização terrorista.
Nos Estados Unidos, onde também é a sede da Meta, o grupo é incluído pelo Departamento de Estado na lista de Organização Terrorista Estrangeira (FTOs). A empresa de Zuckerberg segue essa premissa e prevê o Hamas dentro da sua política de “Organizações e Indivíduos Perigosos“.
Por isso também, a Meta chegou a ser acusada por diversos usuários de estar moderando os conteúdos publicados nos aplicativos para, propositalmente, deixar que um dos grupos do conflito se sobressaísse sobre o outro. Sobre isso, a big tech ressaltou que:
“Nossas políticas foram projetadas para manter as pessoas seguras em nossos aplicativos e, ao mesmo tempo, dar voz a todos. Aplicamos essas políticas igualmente em todo o mundo e não há verdade na sugestão de que estamos deliberadamente suprimindo vozes. No entanto, conteúdos que contenham elogios ao Hamas, que é designado pela Meta como Organização Perigosa, ou conteúdos violentos e explícitos, por exemplo, não são permitidos nas nossas plataformas”.
A empresa também convida usuários a contribuírem com a analise dos conteúdos que ocasionalmente aparecem nos feeds das plataformas controladas pela empresa — entre elas Facebook, Instagram, Threads e WhatsApp — para auxiliá-los. “Podemos cometer erros e é por isso que oferecemos um processo de recurso para que as pessoas nos informem quando acharem que tomamos a decisão errada, para que possamos analisar o assunto.”
Lembrando que “analisar o assunto” não significa necessariamente que a empresa irá concordar com o posicionamento do usuário que relatou alguma incongruência (e isso vale para todas as plataformas, não apenas para as controladas pela Meta).
O TikTok e as ações implementadas na plataforma
Um dia após a publicação do post da Meta sobre medidas implementadas na rede social, foi a vez do TikTok se pronunciar. A plataforma, controlada pela gigante chinesa ByteDance, afirma que:
“Estamos comprometidos com a transparência, ao passo que trabalhamos para fornecer um espaço seguro e protegido para nossa comunidade global. Continuamos concentrados em apoiar a liberdade de expressão, em defender o nosso compromisso com os direitos humanos e em proteger a nossa plataforma durante a guerra entre Israel e Hamas.”
Como parte das medidas de gerenciamento de crise, a plataforma afirma ter estabelecido um Centro de Comando e Controle, composto por membros-chave do time global da companhia (que atualmente conta com cerca de 40 mil funcionários), bem como diz trabalhar continuamente em sistemas para detecção e exclusão automatizada de conteúdos que possam representar alguma ameaça — conteúdos gráficos e violentos.
A empresa também trabalha para adicionar à equipe mais profissionais moderadores que sejam fluentes em hebraico e árabe, para efetuar a revisão humana de conteúdos nos posts da plataforma. Nesse sentido, a companhia também ressaltou que está trabalhando em cuidados de saúde específicos para esses profissionais:
“À medida que continuamos a nos concentrar no cuidado dos moderadores, estamos implantando recursos adicionais de bem-estar para os moderadores da linha de frente durante esse período.”
O TikTok, em especial, possui uma parcela considerável de jovens entre seus usuários e, por esse mesmo motivo, está na mira da Comissão Europeia, para garantir que medidas de segurança sejam implementadas. Thierry Breton, comissário responsável pelo Digital Services Act da Comissão Europeia, salientou a obrigação da plataforma nesse contexto:
“#TikTok tem a particular obrigação de proteger crianças e adolescentes de conteúdos violentos e de propaganda terrorista, bem como conteúdos de ‘desafios da morte’ e de conteúdos que potencialmente ameaçam à vida”, disse ele, compartilhando também uma carta aberta, direcionada ao CEO Shou Zi Chew, requisitando formalmente que a companhia explique o que está realizando diante da situação.
#TikTok has a particular obligation to protect children & teenagers from violent content & terrorist propaganda —as well as death challenges & potentially life-threatening content.#DSA sets out very clear obligations TikTok must comply with.
Letter to TikTok CEO Shou Zi Chew⤵️ pic.twitter.com/J1tpVzXaYR
— Thierry Breton (@ThierryBreton) October 12, 2023
A rede social chegou a confirmar que chegou a remover mais de 500 mil vídeos e outros 8 mil conteúdos livestream na região da guerra, desde quando os ataques foram iniciados, em 7 de outubro.
As marcações do X e as contas verificadas
O X (ex-Twitter) também foi uma das empresas que entrou na mira da Comissão Europeia sob os mesmos princípios do Digital Services Act.
A Comissão chegou, inclusive, a abrir uma investigação formal sobre o caso, por ter recebido indicações sobre a plataforma estar difundindo “conteúdo ilegal e desinformação, particularmente conteúdos terroristas, violentos e discursos de ódio”.
Em resposta, a atual CEO da plataforma, Linda Yaccarino, afirma que a empresa chegou a excluir “centenas” de contas afiliadas ao Hamas e que “tomou medidas para remover ou rotular milhares de conteúdo”.
Everyday we're reminded of our global responsibility to protect the public conversation by ensuring everyone has access to real-time information and safeguarding the platform for all our users. In response to the recent terrorist attack on Israel by Hamas, we've redistributed… https://t.co/VR2rsK0J9K
— Linda Yaccarino (@lindayaX) October 12, 2023
“Todos os dias somos lembrados sobre a nossa responsabilidade global em proteger as conversas públicas, assegurando que todos tenham acesso às informações em tempo real e salvaguardando a plataforma para todos os nossos usuários. Em resposta ao recente ataque terrorista a Israel por parte do Hamas, redistribuímos recursos e reorientamos as equipes internas que trabalham sem parar para resolver esta situação em rápida evolução”, afirmou ela, em post no X.
Por permitir que usuários paguem pelos selos de verificação, o X tem enfrentado um cenário mais complicado. Devido à recente implementação da política de contas verificadas de Elon Musk, algumas contas dentro da plataforma aproveitaram o recurso para promover desinformação sobre a guerra Israel-Hamas.
O caso é especificamente grave na plataforma, visto que os posts em questão conseguiram bastante visibilidade, como aponta o levantamento realizado pela NewsGuard, organização que avalia a confiabilidade dos sites de notícias.
De acordo com dados do Misinformation Monitor: October 2023 da NewsGuard, quase três quartos das postagens mais virais sobre o conflito foram feitas por contas verificadas.
Durante a primeira semana do conflito (entre 7 e 14 de outubro), a NewsGuard analisou os 250 posts mais engajados (contabilizando curtidas, repostagens, respostas e marcadores) dentro do que a empresa definiu como “uma das 10 mais proeminentes narrativas falsas ou infundadas relacionadas à guerra”, monitoradas pelo Misinformation Fingerprints.
Destas, 186 (ou 74%) foram publicadas por contas verificadas (X Blue, ou o antigo Twitter Blue) e somaram um engajamento de 1.349.979 ações (incluindo curtidas, repostagens, respostas e marcadores) e foram visualizadas mais de 100 milhões de vezes em todo o mundo.
Apesar da empresa também relatar continuamente que mantém esforços contra fake news e desinformação, especialmente por meio do seu “Community Notes”, a NewsGuard identificou que apenas 79 das 250 postagens analisadas foram identificadas pelo recurso de segurança da plataforma.
Na prática, isso significa que em apenas cerca de 32% das vezes em que um desses conteúdos mais proeminentes e falsos foram compartilhados eles receberam algum tipo de identificação de que era um conteúdo danoso.
Onde encontrar as ações das empresas
A maioria das empresas acima citadas possuem páginas que foram confeccionadas e divulgadas publicamente, para informar usuários sobre as medidas tomadas nos últimos dias. Para acessar cada uma das páginas e detalhes sobre as respectivas ações que as empresas estão implementando durante este período de conflitos, separamos aqui os links oficiais.
- Detalhes sobre as ações da Meta aqui.
- Detalhes sobre as ações do TikTok aqui.
- Detalhes sobre as ações da X aqui.
- Mais sobre o Digital Services Act, da Comissão Europeia, aqui.
Fontes usadas para o desenvolvimento da matéria: Meta, TikTok, X, NewsGuard Misinformation Monitor, Comissão Europeia
Outras publicações usadas no compilado: The Verge, The Guardian, AP News, Reuters, Engadget.
Comentários