O Facebook disse na noite de sábado (16) que 24 horas após um horrível ataque contra os muçulmanos em Christchurch, Nova Zelândia, que matou pelo menos 50 pessoas e feriu outras dezenas na sexta-feira (15), bloqueou 1,5 milhão de tentativas de compartilhar um vídeo do ataque. O atentado foi transmitido no Facebook pelo atirador. Mais de 1,2 milhão dessas tentativas foram bloqueadas no upload.

O gigante das mídias sociais escreveu no Twitter que havia tomado a medida adicional de bloquear todas as versões do vídeo editado para remover o conteúdo gráfico a mando das autoridades locais e “por respeito às pessoas afetadas por esta tragédia”.

Pelo menos 17 minutos do ataque foram transmitidos ao vivo no Facebook, e o assassinato em massa foi acompanhado pelo lançamento online de um manifesto aparentemente destinado a enquadrar o incidente dentro do contexto de comunidades marginais de internet, como fóruns de extrema direita. O suspeito fez referência a personalidades da Internet, como o youtuber gamer Felix “PewDiePie” Kjellberg e a colunista conservadora norte-americana Candace Owens, além de citar um terrorista neo-Nazi como inspiração para o ataque. De acordo com relatos, o suspeito portava armas exibindo símbolos supremacistas brancos.

Como o Wall Street Journal escreveu no domingo, apesar das tentativas de suprimir sua disseminação pelas autoridades da Nova Zelândia e por muitas plataformas importantes, o vídeo rapidamente se espalhou nestas mesmas plataformas, incluindo Facebook, YouTube e Twitter. O Washington Post observou que ainda era fácil localizar versões do vídeo nesses sites na sexta-feira, e as versões arquivadas foram igualmente disseminadas.

O TechCrunch também nota que o número de 1,2 milhão de vídeos bloqueados logo no envio significa que o Facebook deixou passar aproximadamente 300 mil cópias no momento em que foram colocadas na plataforma para distribuição. A rede também não esclarece quanto tempo os vídeos permaneceram no site ou quantas vezes eles foram visualizados.

Além disso, o Journal escreveu que é simples localizar cópias sendo compartilhadas em sites marginais, particularmente aqueles associados à internet de extrema-direita, como um certo fórum de imagens.

Os usuários podem postar imagens ou discussões anonimamente, e materiais anti-muçulmanos e anti-semitas são difundidos no site. Em vários segmentos criados no sábado, pessoas não identificadas compartilharam o vídeo e vincularam-se a versões arquivadas.

Alguns usuários editaram e retocaram o vídeo, tentando imitar os videogames projetados do ponto de vista dos personagens empunhando armas. Uma versão foi editada para incluir efeitos sonoros durante os tempos em que o suspeito disparou sua arma e gráficos de balas e outras ferramentas quando ele mudou de arma. Outro vídeo adicionou música de fundo em ritmo acelerado.

O Reddit baniu uma comunidade chamada r/watchpeopledie por violar políticas que proíbem “conteúdo que incita ou glorifica a violência” após os tiroteios. Uma fonte disse ao Verge que os usuários do subreddit estavam encorajando ativamente o compartilhamento do vídeo e do manifesto. (No entanto, o subreddit estava em grande parte inativo desde 2012 e estava “em quarentena” por trás de uma landing page há algum tempo, escreveu o Verge.) A Steam também derrubou mais de 100 perfis que tinham nomes de usuários ou fotos de perfil glorificando o atirador de Christchurch.

Enquanto o Facebook removeu um número impressionante de vídeos, as autoridades ainda estão zangadas com a plataforma por causa de seu papel na disseminação de imagens violentas — e cada vez mais céticas sobre a desculpa dada por ela e outras empresas de tecnologia, que dizem que a quantidade torna isso difícil, se não impossível, para eles reagirem rapidamente a tais eventos.

“A disseminação rápida e em larga escala desse conteúdo odioso — transmitido ao vivo no Facebook, carregado no YouTube e amplificado no Reddit — mostra com que facilidade as maiores plataformas ainda podem ser mal utilizadas”, escreveu o senador Mark Warner em um e-mail ao Gizmodo. “Está cada vez mais claro que o YouTube, em particular, ainda precisa lidar com o papel que desempenhou na facilitação da radicalização e do recrutamento”.

As empresas de tecnologia “têm um problema de moderação de conteúdo que está fundamentalmente além da escala com a qual elas sabem como lidar”, disse Becca Lewis, pesquisadora da Universidade de Stanford e do Data & Society, ao Washington Post. “Os incentivos financeiros estão em jogo para manter o conteúdo em primeiro lugar e a monetização em primeiro lugar.”

A primeira-ministra da Nova Zelândia, Jacinda Ardern, solicitou uma reunião com o Facebook para falar sobre o streaming ao vivo, segundo a Reuters. Jeremy Corbyn, líder do Partido Trabalhista Britânico, afirmou que “aqueles que controlam e possuem plataformas de mídia social devem lidar com isso imediatamente e impedir que essas coisas sejam transmitidas”.

No ano passado, os legisladores da União Europeia ponderaram a imposição de multas em plataformas que não conseguem remover o conteúdo extremista em uma hora, prenunciando o tipo de proposta que provavelmente ocorrerá após o ataque.