Recentemente, cada semana tem trazido consigo mais e mais detalhes de como agentes russos usaram redes sociais para interferir na eleição presidencial dos Estados Unidos no ano passado – e de como tudo isso foi feito debaixo do nariz de empresas como o Facebook, que não detectou a atividade que alcançou milhões de eleitores.
Parte desse esforço russo estava centrado em jogar lenha na fogueira de assuntos sociais dicotômicos que, gradativa e rapidamente, têm dividido mais as pessoas em extremos, como debates raciais, de gênero, LGBT e de imigração, entre outros que costumam ter como subproduto inúmeras publicações ofensivas.
Se você não é novo no Facebook, já deve ter acompanhado alguma polêmica envolvendo uma publicação inofensiva sobre um dos temas acima que tenha acabado removida, ou então uma que claramente incitava ao ódio contra um grupo ganhando mais e mais tração enquanto nada acontecia. Se você supôs algum viés ideológico por parte do Facebook na tomada de decisões de qual conteúdo fica e qual sai, a empresa garante que esse não é o caso. Mas as péssimas condições de trabalho dos moderadores, exposta nesta reportagem da BBC Brasil, não deixa muita margem para dúvidas sobre por que o Facebook tem tanta dificuldades no gerenciamento de publicações na rede.
O brasileiro Sergio, que pediu à reportagem da BBC Brasil para não ser identificado, conta em detalhes o dia a dia maçante e desumanizador de um moderador de conteúdo do Facebook. Em um prédio com amplas mesas, repletas de computadores, e ao lado de cerca de 500 colegas de todo o mundo, Sergio era responsável por avaliar denúncias de nudez, pedofilia, assassinatos, violência animal, assédios e toda a sorte de podridão que você pode imaginar ser compartilhada na rede social.
Os exemplos dados pelo ex-moderador são bizarros e explicam a necessidade de acompanhamento psicológico que esses funcionários têm. Os conteúdos incluíam vídeos de adolescentes sendo forçados a fazer sexo oral a mando de líderes do tráfico, um recém-nascido sendo espancado no berço por um parente e uma vaca despedaçada viva em um moedor de madeira, além de transmissões ao vivo de suicídio.
Em entrevista ao Gizmodo Brasil, Cesar Bianconi, gerente de comunicação do Facebook no Brasil, não entrou em muitos detalhes, mas afirmou que esses times de moderação, mesmo os que avaliam conteúdo do Brasil, não estão no País, mas, sim, em centros nos Estados Unidos e na Europa. Bianconi ainda destacou, embora também sem mergulhar nos pormenores, que “eles recebem auxílio psicológico. A gente reconhece que é um trabalho super estressante e difícil, e a empresa fornece suporte psicológico”.
Embora alguns conteúdos possam ter apenas uma interpretação óbvia, outros, especialmente no que tange temas sociais como os citados acima, precisam de um olhar mais subjetivo para serem julgados, e é de se esperar que, com essa responsabilidade, a pessoa por trás da decisão de apagar ou não o conteúdo tenha um ambiente favorável para tomar a decisão mais sensata possível. O que, segundo revela Sergio, é bem diferente das condições oferecidas pela empresa.
“Não tinha espaço para pensamento crítico, o trabalho tinha que ser automático e acelerado. Era seguir o manual, apertar botão e não fazer muitas perguntas”, conta à BBC.
As metas batendo à porta certamente não contribuem nesse desafio do Facebook de tornar sua rede social menos tóxica por meio da moderação do que é publicado. Cada revisor, segundo conta o brasileiro, tinha uma meta mínima de analisar 3.500 fotos, vídeos e textos. O que, em média, dá um post a cada 8,5 segundos. E isso em um local com pausas para comida ou idas ao banheiro monitoradas, contratos de trabalho com multas previstas contra vazamento de informações, exposição constante a conteúdo perturbador, e tudo por um salário mínimo.
Claro, ninguém era obrigado a aceitar o emprego, mas, como aponta a BBC, o Facebook se aproveitava de conjunturas que todos conhecemos bem: jovens desempregados, em cidades com grande concentração de imigrantes, que não conseguiram achar empregos em sua área. E mesmo com a necessidade de um sustento, a alta rotatividade da equipe, cuja maioria não completa um ano no local, dá a ideia do quão maravilhoso deve ser aguentar essa rotina.
Como revela Sergio, as decisões na moderação, pautadas por políticas internas, têm o propósito também de ensinar algoritmos, que gradativamente aprendem como responder a diferentes tipos de denúncias, tornando obsoleto o trabalho. “Quanto mais ensinávamos o algoritmo, menos nos tornávamos necessários”, explica o brasileiro.
Nesta semana, Mark Zuckerberg anunciou a contratação de mais dez mil pessoas para funções como a de Sergio, e a expectativa é de que isso facilite um pouco o processo de moderação, que chega a excluir mais de 300 mil publicações por mês. Segundo informou o CEO em maio deste ano, o número atual seria de 4.500 funcionários na função. À época, Zuckerberg havia anunciado que o Facebook contrataria mais três mil pessoas em 2018. O salto no número de novos colaboradores em questão de seis meses indica o quanto o assunto cresceu em importância nos corredores da empresa.
Mais do que números, o Facebook precisará pensar em condições mais humanas para dar sequência ao gerenciamento de conteúdo enquanto os algoritmos não estão prontos para fazer o trabalho de forma eficaz e justa.