Facebook diz ter removido 1,5 milhão de vídeos do atentado na Nova Zelândia em 24 horas
O Facebook disse na noite de sábado (16) que 24 horas após um horrível ataque contra os muçulmanos em Christchurch, Nova Zelândia, que matou pelo menos 50 pessoas e feriu outras dezenas na sexta-feira (15), bloqueou 1,5 milhão de tentativas de compartilhar um vídeo do ataque. O atentado foi transmitido no Facebook pelo atirador. Mais de 1,2 milhão dessas tentativas foram bloqueadas no upload.
O gigante das mídias sociais escreveu no Twitter que havia tomado a medida adicional de bloquear todas as versões do vídeo editado para remover o conteúdo gráfico a mando das autoridades locais e “por respeito às pessoas afetadas por esta tragédia”.
Out of respect for the people affected by this tragedy and the concerns of local authorities, we’re also removing all edited versions of the video that do not show graphic content.” — Mia Garlick, Facebook New Zealand
— Facebook Newsroom (@fbnewsroom) March 17, 2019
Pelo menos 17 minutos do ataque foram transmitidos ao vivo no Facebook, e o assassinato em massa foi acompanhado pelo lançamento online de um manifesto aparentemente destinado a enquadrar o incidente dentro do contexto de comunidades marginais de internet, como fóruns de extrema direita. O suspeito fez referência a personalidades da Internet, como o youtuber gamer Felix “PewDiePie” Kjellberg e a colunista conservadora norte-americana Candace Owens, além de citar um terrorista neo-Nazi como inspiração para o ataque. De acordo com relatos, o suspeito portava armas exibindo símbolos supremacistas brancos.
Como o Wall Street Journal escreveu no domingo, apesar das tentativas de suprimir sua disseminação pelas autoridades da Nova Zelândia e por muitas plataformas importantes, o vídeo rapidamente se espalhou nestas mesmas plataformas, incluindo Facebook, YouTube e Twitter. O Washington Post observou que ainda era fácil localizar versões do vídeo nesses sites na sexta-feira, e as versões arquivadas foram igualmente disseminadas.
O TechCrunch também nota que o número de 1,2 milhão de vídeos bloqueados logo no envio significa que o Facebook deixou passar aproximadamente 300 mil cópias no momento em que foram colocadas na plataforma para distribuição. A rede também não esclarece quanto tempo os vídeos permaneceram no site ou quantas vezes eles foram visualizados.
These numbers are vanity metrics unless they’re shown alongside engagement and video views from the live stream. This is bordering on misinformation which gives us no way of understanding the true scale of distribution and amplification.https://t.co/6dgRc7KiVj
— Mark Rickerby (@maetl) March 17, 2019
Além disso, o Journal escreveu que é simples localizar cópias sendo compartilhadas em sites marginais, particularmente aqueles associados à internet de extrema-direita, como um certo fórum de imagens.
Os usuários podem postar imagens ou discussões anonimamente, e materiais anti-muçulmanos e anti-semitas são difundidos no site. Em vários segmentos criados no sábado, pessoas não identificadas compartilharam o vídeo e vincularam-se a versões arquivadas.
Alguns usuários editaram e retocaram o vídeo, tentando imitar os videogames projetados do ponto de vista dos personagens empunhando armas. Uma versão foi editada para incluir efeitos sonoros durante os tempos em que o suspeito disparou sua arma e gráficos de balas e outras ferramentas quando ele mudou de arma. Outro vídeo adicionou música de fundo em ritmo acelerado.
O Reddit baniu uma comunidade chamada r/watchpeopledie por violar políticas que proíbem “conteúdo que incita ou glorifica a violência” após os tiroteios. Uma fonte disse ao Verge que os usuários do subreddit estavam encorajando ativamente o compartilhamento do vídeo e do manifesto. (No entanto, o subreddit estava em grande parte inativo desde 2012 e estava “em quarentena” por trás de uma landing page há algum tempo, escreveu o Verge.) A Steam também derrubou mais de 100 perfis que tinham nomes de usuários ou fotos de perfil glorificando o atirador de Christchurch.
Enquanto o Facebook removeu um número impressionante de vídeos, as autoridades ainda estão zangadas com a plataforma por causa de seu papel na disseminação de imagens violentas — e cada vez mais céticas sobre a desculpa dada por ela e outras empresas de tecnologia, que dizem que a quantidade torna isso difícil, se não impossível, para eles reagirem rapidamente a tais eventos.
“A disseminação rápida e em larga escala desse conteúdo odioso — transmitido ao vivo no Facebook, carregado no YouTube e amplificado no Reddit — mostra com que facilidade as maiores plataformas ainda podem ser mal utilizadas”, escreveu o senador Mark Warner em um e-mail ao Gizmodo. “Está cada vez mais claro que o YouTube, em particular, ainda precisa lidar com o papel que desempenhou na facilitação da radicalização e do recrutamento”.
As empresas de tecnologia “têm um problema de moderação de conteúdo que está fundamentalmente além da escala com a qual elas sabem como lidar”, disse Becca Lewis, pesquisadora da Universidade de Stanford e do Data & Society, ao Washington Post. “Os incentivos financeiros estão em jogo para manter o conteúdo em primeiro lugar e a monetização em primeiro lugar.”
A primeira-ministra da Nova Zelândia, Jacinda Ardern, solicitou uma reunião com o Facebook para falar sobre o streaming ao vivo, segundo a Reuters. Jeremy Corbyn, líder do Partido Trabalhista Britânico, afirmou que “aqueles que controlam e possuem plataformas de mídia social devem lidar com isso imediatamente e impedir que essas coisas sejam transmitidas”.
No ano passado, os legisladores da União Europeia ponderaram a imposição de multas em plataformas que não conseguem remover o conteúdo extremista em uma hora, prenunciando o tipo de proposta que provavelmente ocorrerá após o ataque.