Em pouco mais de um ano, a empresa Meta recebeu mais de 1,1 milhão de contestações enviados por usuários do Facebook e do Instagram que tiveram suas postagens removidas das redes sociais. A maioria das reclamações são de pessoas nos Estados Unidos, Canadá e Europa, porém, há também casos de apelações feitas por usuários brasileiros.

Geralmente, as postagens são banidas por violar alguma regra da Meta, como conteúdos com algum tipo de bullying, discurso de ódio ou incitação à violência. Contudo, por ser um sistema automatizado, algumas postagens podem ser banidas por engano.

Os questionamentos enviados pelos usuários são avaliados pelo Oversight Board, um conselho independente da Meta que atua desde outubro de 2020, e é responsável por avaliar publicações e sugerir melhorias na moderação de conteúdos no Facebook e Instagram.

Entre os 20 casos de remoção de conteúdo citados em um relatório divulgado pelo grupo independente, 14 deles foram revogados. O conselho também já fez 86 recomendações de melhorias para a Meta, focando na transparência e liberdade de expressão.

Como exemplo, está o caso de uma imagem de uma criança morta ao lado de um texto que pedia uma retaliação contra a China, pelo tratamento dado aos muçulmanos uigures; assim como a decisão de banir o ex-presidente americano Donald Trump da plataforma. Enquanto o primeiro caso foi revogado, o conselho manteve a decisão de banir Trump, criticando apenas o prazo “indefinido” estipulado pela Meta.

Banimentos de conteúdo pela Meta no Brasil

No relatório divulgado pelo Oversight Board, é citado o caso de uma publicação brasileira no Instagram voltada para conscientizar sobre o câncer de mama. A foto que mostrava seios femininos foi removida automaticamente da plataforma por algoritmos que entenderam que a imagem trazia nudez adulta e atividade sexual.

Porém, o conselho revogou a remoção do conteúdo, pois as regras do Facebook permitem a nudez desde que o usuário busque “conscientizar sobre uma causa de
motivos educacionais e médicos”.

O relatório também cita o caso de remoções de conteúdo relacionados à pandemia da Covid no Brasil. Em vez da remoção, o Oversight Board propôs ao Facebook adotar medidas menos radicais, como rotular conteúdos que têm informações contestáveis, assim como fornecer links para pontos de vista de autoridades de saúde nacionais e internacionais.

Além disso, foi sugerido que o Facebook tomasse providências técnicas para reduzir o alcance de postagens que trazem desinformação e que poderiam ameaçar o combate à pandemia.