Não é segredo que a mão de obra responsável por analisar os conteúdos mais ofensivos da internet é mal remunerada, trabalha demais e tem pouco suporte. Uma nova reportagem do  Verge sobre os moderadores do Facebook em Phoenix (Arizona), nos Estados Unidos, ilustra a triste realidade desses trabalhadores — que tem salários na casa de US$ 28 mil por ano e usam drogas e o sexo para lidar com estresse.

A reportagem publicada nesta segunda-feira (25) detalha as experiências de ex-funcionários e funcionários que trabalharam para uma companhia chamada Cognizant, uma empresa terceirizada que cuida dos esforços de moderação da rede social.

(O Verge usou apelidos para todos os trabalhadores entrevistados, que disseram estar sob acordos de confidencialidade que os impedem de discutir o trabalho da Cognizant com o Facebook).

Segundo a reportagem, funcionários tiveram problemas sérios de saúde mental e lidavam com isso fazendo sexo no escritório e fumando maconha. Alguns até passaram a acreditar em teorias da conspiração que eles deveriam analisar. Um gerente responsável por garantir a qualidade do serviço disse que começou a carregar sua arma para o serviço por causa de ameaças de trabalhadores demitidos.

“Eles não faziam nada por nós”, disse um ex-moderador ao Verge, “além de esperar que relatássemos que estávamos devastados. A maioria das pessoas que estão lá está se deteriorando — e elas nem notam. E é isso é desolador”.

“Randy”, um trabalhador do setor de controle de qualidade da Cognizant responsável por analisar posts sinalizados por moderadores, disse que várias vezes durante o ano na empresa foi abordado e intimidado por moderadores para mudar suas decisões. “Eles me confrontavam no estacionamento e diziam que iriam me espancar”, disse Randy ao Verge. Ele também disse que alguns funcionários demitidos pela Cognizant fizeram o que ele acredita ser ameaças sérias à integridade de seus ex-colegas. Por isso, Randy começou a carregar sua arma para se proteger.

Os funcionários disseram ao Verge que moderadores do escritório de Phoenix lidavam com a realidade infernal do trabalho fazendo sexo nas dependências do trabalho — nas escadas, banheiros, estacionamentos e até na sala de lactação —, fumavam maconha nos intervalos e faziam piadas sobre suicídio. Um ex-moderador disse que havia uma piada entre seus colegas que dizia que “era hora de dar uma volta no telhado”, um código para querer pular de cima do prédio.

Moderadores do Facebook tinham de analisar posts contendo violência, discursos degradantes e abuso infantil, mas também tinham de verificar teorias da conspiração que estavam circulando pela rede. Já é sabido que o primeiro tipo de post resultou em moderadores que desenvolveram transtorno de estresse pós-traumático e outras doenças mentais, mas nesta reportagem do Verge é indicado que o último tipo de conteúdo passou a causar o desenvolvimento de crenças marginais nessas pessoas.

Randy disse ao Verge que não acredita que os atentados de 11 de setembro tenham sido um ataque terrorista, depois de verificar vários vídeos de teorias conspiratórias que tentavam convencer as pessoas do contrário. Um moderador afirmou que um trabalhador da área de qualidade estava tentando convencer ele e seus colegas de que a Terra era plana. Outro funcionário da Cognizant se referia ao holocausto como “holohoax” (um trocadilho para dizer que o holocausto teria sido uma farsa).

“As pessoas passaram a acreditar nesses posts que eles deveriam moderar”, disse um moderador ao Verge. “Eles diziam: ‘meu Deus, eles não estavam lá. Olhe esse vídeo da CNN (do sobrevivente do tiroteio em Parkland) sobre o David Hogg — ele era muito velho para estar na escola’. Aí as pessoas começavam a buscar essas coisas no Google em vez de trabalhar e ficavam olhando essas teorias da conspiração. Nossa reação era: ‘caras, não, isso é o tipo de coisa maluca que você deve moderar. O que vocês estão fazendo?’.”

Não está claro se os moderadores ficaram radicalizados como produto do trabalho que eles faziam ou se eles se tornaram inclinados ou predispostos a acreditarem em determinadas farsas. No entanto, para aqueles que buscam confirmar certas crenças ou que são facilmente convencidos, consumir um monte de conteúdo do tipo não é só inevitável como parte do trabalho.

Após um pedido de comentário sobre a reportagem, um porta-voz do Facebook enviou para o Gizmodo um post do vice-presidente global de operações da companhia falando sobre “questões, mal-entendidos e acusações” sobre o programa de análise de conteúdo do Facebook.

O post lista várias “iniciativas chave” da gigante das redes sociais para melhorar o bem-estar dos trabalhadores nas companhias parceiras do Facebook, incluindo “um processo regular de auditoria e conformidade para todos os nossos parceiros terceirizados” e melhoria nos “canais de comunicação, particularmente com sites gerenciados por parceiros”.

Além disso, o porta-voz do Facebook forneceu um comunicado da Cognizant informando que a companhia “está comprometida em fornecer um ambiente de trabalho saudável, seguro e positivo”:

Nós investigamos os problemas de ambiente de trabalho apontados (pelo Verge/pelas reportagens) e previamente tomamos ações quando necessárias e tomamos medidas para continuar a trabalhar com esses problemas e outros levantados por nossos funcionários. Além de oferecer um abrangente programa de bem-estar na Cognizant, incluindo cultura de suporte e segurança, suporte telefônico 24×7 e suporte a funcionários, a Cognizant fez uma parceria com consultores de RH e bem-estar para desenvolver a próxima geração de práticas de bem-estar.

Para assegurar um ambiente de trabalho seguro, nós continuamente revisamos o que oferecemos em nossos locais de trabalho em parceria com (Facebook/nossos clientes) e continuaremos a fazer melhorias necessárias.

[The Verge]