O Facebook disse na terça-feira (11) que não consegue moderar certas categorias de violações em seu próprio site ou no Instagram da forma mais eficaz possível durante a pandemia de coronavírus. Além disso, quase ninguém pôde apelar das decisões de seus moderadores no segundo trimestre de 2020.

De acordo com a versão mais recente de seu Community Standards Enforcement Report (relatório de aplicação dos padrões da comunidade, em tradução livre), que cobre o período do segundo trimestre de abril a junho de 2020, o Facebook tomou medidas em relação a 1,7 milhão de conteúdos que violaram suas políticas sobre suicídio e automutilação no primeiro trimestre, mas apenas 911 mil no segundo. Esse número caiu de 5 milhões no quarto trimestre de 2019.

Embora a aplicação de medidas contra conteúdo que viole as políticas do Facebook sobre nudez infantil e exploração sexual tenha subido de 8,6 milhões para 9,5 milhões, esse número caiu no Instagram, de cerca de 1 milhão para pouco mais de 479 mil.

A aplicação de regras que proíbem conteúdo de suicídio e autolesão no Instagram também caiu de 1,3 milhão de ações no primeiro trimestre para 275 mil no segundo trimestre. A rede de fotos e vídeos aumentou a fiscalização contra conteúdo gráfico e violento, mas no Facebook essa categoria caiu de 25,4 milhões de ações no primeiro trimestre para 15,1 milhões no segundo trimestre.

O vice-presidente de integridade do Facebook, Guy Rosen, escreveu no blog da empresa que a queda no número de ações tomadas foi uma consequência direta do coronavírus, já que a aplicação de regras nessas categorias requer maior supervisão humana. Os moderadores de conteúdo da empresa — que já enfrentam condições de trabalho muito ruins — não conseguem render tão bem ou mesmo trabalhar quando está em casa, de acordo com Rosen:

Com menos revisores de conteúdo, tomamos medidas em relação a um número menor de peças de conteúdo no Facebook e no Instagram para suicídio e automutilação, e nudez infantil e exploração sexual no Instagram. Apesar dessas reduções, priorizamos e tomamos medidas em relação ao conteúdo mais prejudicial dentro dessas categorias. Nosso foco continua em encontrar e remover esse conteúdo, enquanto aumentamos a capacidade de revisão da maneira mais rápida e segura possível.

O relatório não ofereceu estimativas da prevalência de conteúdo violento, gráfico, nudez adulta ou atividade sexual no Facebook ou no Instagram. Rosen alega que a empresa “priorizou a remoção de conteúdo prejudicial”.

O processo de apelação do Facebook, pelo qual os usuários podem contestar uma decisão da moderação, também ficou quase em zero em todas as categorias. Em julho, a empresa havia anunciado que, com moderadores fora do escritório, daria aos usuários que desejam apelar a opção de manifestar essa visão. A companhia disse que monitoraria esse feedback para melhorar a precisão, mas provavelmente não revisaria o conteúdo uma segunda vez.

O Facebook tomou medidas em um número muito maior de postagens por violar as regras contra discurso de ódio no segundo trimestre (22,5 milhões, contra 9,6 milhões no primeiro trimestre).

Em seu relatório, a empresa diz que as ferramentas de aprendizado de máquina automatizadas agora encontram 94,5% do discurso de ódio que a empresa acaba derrubando, algo que ela atribuiu ao suporte para mais idiomas (inglês, espanhol e birmanês). A fiscalização contra o conteúdo de grupos de ódio organizado caiu (4,7 milhões para 4 milhões), enquanto a contra o conteúdo de terrorismo aumentou (6,3 milhões para 8,7 milhões).

Curiosamente, a quantidade de conteúdo que foi restaurada posteriormente sem apelação após ser removida sob as regras contra ódio organizado e terrorismo disparou no segundo trimestre.

O Facebook restaurou 135 mil postagens na primeira categoria e 533 mil na segunda. A rede, aparentemente, não processou um apelo sequer em qualquer categoria no segundo trimestre, sugerindo que os moderadores humanos da empresa estão de olho em outro lugar. O Facebook não divulga os dados internos que poderiam mostrar a prevalência de discurso de ódio ou grupos de ódio organizados no site.

Lembre-se de que tudo isso é de acordo com o Facebook, que recentemente enfrentou acusações de fazer vista grossa para violações de regras que são politicamente inconvenientes, bem como um protesto de funcionários e boicote de anunciantes pressionando a empresa a adotar um combate mais rígido contra o discurso de ódio e desinformação.

Por definição, o relatório mostra apenas o conteúdo proibido que o Facebook já tem conhecimento. Avaliações independentes da forma como a empresa lida com questões como discurso de ódio nem sempre refletem a insistência com que a empresa afirma tem progredido nessas questões.

Uma auditoria de direitos civis publicada em julho de 2020 concluiu que o Facebook falhou em construir uma infraestrutura de direitos civis e fez escolhas “frustrantes e dolorosas” que ativamente causaram “retrocessos significativos para os direitos civis”.

Um relatório das Nações Unidas em 2019 classificou a reação como lenta e medíocre do Facebook às acusações de cumplicidade no genocídio do povo Rohingya em Mianmar, denunciando a empresa por não fazer o suficiente para remover conteúdo racista do site rapidamente ou para impedi-lo de ser postado. (É possível que parte do aumento do discurso de ódio identificado pelo Facebook se deva à introdução de mais ferramentas de detecção em birmanês, a língua predominante de Mianmar.)

Ainda não se sabe se as ferramentas de inteligência artificial do Facebook estão fazendo um bom trabalho.

Caitlin Carlson, professora associada da Universidade de Seattle, disse à Wired que o discurso de ódio “não é difícil de encontrar” no site, e que os 9,6 milhões de posts que o Facebook disse ter removido por discurso de ódio no primeiro trimestre de 2020 pareciam um número muito baixo.

Em janeiro de 2020, Carlson e um colega publicaram os resultados de um experimento em que reuniram 300 posts que acreditavam violar os padrões da empresa e os relataram aos moderadores do Facebook; apenas metade das publicações foram removidos.

Grupos dedicados a teorias da conspiração, como o de extrema-direita QAnon, continuam a se espalhar pelo site e têm milhões de membros. O Facebook, assim como outros sites de mídia social, também desempenhou um papel importante na disseminação da desinformação sobre o coronavírus neste ano.

Muitos dos moderadores do Facebook começaram a voltar ao trabalho. De acordo com a VentureBeat, o Facebook disse que está trabalhando para ver como suas métricas podem ser auditadas “de maneira mais eficaz” e disse que está solicitando uma auditoria externa e independente dos dados do Community Standards Enforcement Report, que deve começar em 2021.