Atualizado às 17h00

Após uma semana dura de críticas ao Facebook — com direito ao CEO Mark Zuckerberg dizendo que aqueles que negam o holocausto não “estão errando intencionalmente”  (depois, ele se retratou dizendo que não estava defendendo o holocausto)—, o gigante das redes sociais anunciou que vai começar a apagar notícias falsas que provocam violência no mundo real.

A pena do Facebook no Reino Unido pelo escândalo da Cambridge Analytica é “dinheiro de troco”
Identificação de quem pagou por anúncios políticos no Facebook vai chegar ao Brasil

Essa nova política, segundo o New York Times, é “uma resposta aos episódios ocorridos em Sri Lanka, Myanmar e Índia”, onde rumores rapidamente espalhados no Facebook levaram a ataques a pessoas de minorias étnicas. O jornal diz ainda que funcionários do Facebook admitem ter responsabilidade em restringir esse tipo de conteúdo:

“Identificamos que há um tipo de desinformação que é compartilhada em alguns países que podem incitar tensões e causar danos físicos no mundo real”, disse Tessa Lyons, gerente de produtos do Facebook. “Temos uma ampla responsabilidade não só de reduzir esse tipo de conteúdo, mas de removê-lo.”

Em um outro comunicado à CNBC, um porta-voz do Facebook caracterizou a política como uma ofensiva contra um tipo específico de conteúdo que eles consideram digno de remoção, embora defenda sua abordagem liberal em outros posts com conteúdo duvidoso:

“Reduzir a distribuição de informações falsas — em vez de removê-las completamente — estabelece o balanço entre liberdade de expressão e uma comunidade segura e autêntica”, disse um porta-voz do Facebook à CNBC. “Há certas formas de informações falsas que contribuíram para a ocorrência de danos físicos, e estamos fazendo uma mudança de política que nos permitirá tirar esse tipo de conteúdo do ar. Vamos começar a implementar isso nos próximos meses.”

O Facebook informa ainda que essa política contará com a ajuda de grupos da sociedade civil para identificar conteúdos em texto e imagem com o propósito de “contribuir ou exacerbar a violência ou danos físicos” para remoção. A CNBC diz ainda que o processo envolverá tecnologias internas do Facebook de reconhecimento de imagem, presumivelmente um sistema parecido com o que tenta remover pornô de vingança do site.

Isso já é uma melhoria, em comparação com a situação atual. Por exemplo, no Sri Lanka e em Myanmar, a companhia foi alvo de críticas por ONGs locais por não fazer nada em casos de incitação à violência e propaganda que circulavam pela rede social. Em ambos os países, apesar de ter largas bases de usuários, relatos indicam que o Facebook não contratou uma equipe grande o suficiente para moderar conteúdos. Fazer parcerias com organizações locais pode ajudar o site a deixar de agir como uma plataforma ausente.

No entanto, isso provavelmente está longe de ser uma correção ao problema. Por exemplo, o processo de classificação de algo como inapropriado pelo Facebook geralmente é negligente. A rede frequentemente confia em métodos automatizados que são fáceis de serem contornados ou em outros que simplesmente acabam dando errado (como foi o caso da sinalização de notícias como questionáveis, que nem chegou a ser lançado no Brasil).

Como aponta o New York Times, há outras duas soluções que a rede social vai adotar: reduzir o alcance de posts indicados como falsos por checadores de informações e adicionar links relacionados com notícias verdadeiras quando tais links forem compartilhados. Embora os métodos possam ter impactos, agências de checagem de notícias já expressaram preocupação sobre o sistema do site ser muito restrito para ser eficaz.

Além disso, o jornal norte-americano informa que o Facebook não tem planos de lançar iniciativas semelhantes para o WhatsApp, que tem sido usado para espalhar notícias falsas que já levaram a pelo menos uma dezena de vítimas mortais, porém o Instagram está incluído na iniciativa:

As novas regras se aplicam a outra propriedade do Facebook, o Instagram, mas não ao WhatsApp, em que notícias falsas também têm sido disseminadas. Na Índia, por exemplo, rumores espalhados na plataforma sobre sequestro de crianças levou à violência da população.

Monitorar o que acontece no WhatsApp pode ser mais difícil ou impossível, pois o Facebook não consegue ver o conteúdo compartilhado das mensagens, a não ser que a rede enfraqueça a criptografia da plataforma. Então, a situação é mais complexa. Para se ter uma ideia, as autoridades na Índia, como noticia o Economic Times, ainda consideram administradores de grupo do WhatsApp responsáveis pelos conteúdos compartilhados.

Além disso tudo, tem o fato de o Facebook dizer que está comprometido com a liberdade de expressão, o que é ótimo na teoria, mas vago na prática, pois parece que a ideia é se proteger de críticas. Ligado a isso está um post de 2016 do Gizmodo, que informou que havia enviesamento em uma seção de notícias que estavam bombando no site, o que fez com que grupos conservadores nos EUA acusassem a rede de censura. O site InfoWars, por exemplo, compartilhou uma teoria da conspiração sobre uma pizzaria em Washington, nos EUA, supostamente envolvida com tráfico humano e pornografia infantil. Aí simplesmente um atirador foi até o local para tentar salvas as crianças que estavam supostamente presas lá.

De qualquer jeito, como lembra o Washington Post, é difícil a coexistência dessa abordagem do Facebook se a rede deixar atores mal-intencionados continuarem no site.

Esses problemas são inumeráveis. Como Max Read, um ex-editor da Gawker, escreveu recentemente, eles talvez não sejam passíveis de solução sem uma reestruturação radical da companhia, dado que a escala do Facebook é agora tão grande que torna difícil a imposição de um “poder soberano sem responsabilização” (ou uma visão coerente do que a rede deveria ser).

“Nem sempre existe uma linha clara”, disse a gerente de produtos Tessa Lyons ao New York Times. “Tudo isso é desafiador — por essa razão estamos evoluindo. Por isso estamos levando a sério os feedbacks.”

[New York Times]

Imagem do topo: AP