_Facebook

Facebook fecha acordo de US$ 52 milhões para compensar moderadores que tiverem estresse pós-traumático

Facebook concordou em pagar um total de US$ 52 mi aos seus moderadores de conteúdo para compensá-los pela tensão mental causada pela revisão de materiais.

Logo do Facebook em vidraça

Créduto: Sean Gallup/Getty

O Facebook concordou em pagar um total de US$ 52 milhões aos seus atuais e antigos moderadores de conteúdo para compensá-los pela enorme tensão mental causada pela revisão de materiais impactantes que são regularmente publicados na plataforma, de acordo com registros preliminares registrados na Corte Superior de San Mateo, na Califórnia, EUA, que foram obtidos pelo site The Verge.

O acordo é o resultado de uma batalha legal entre a plataforma e a ex-moderadora Selena Scola, que processou o Facebook em 2018 alegando que ela tinha desenvolvido estresse pós-traumático depois de ser forçada a rever regularmente cenas de estupro, suicídio e assassinato durante seus nove meses de trabalho. Segundo Scola, a empresa falhou em proteger a ela e a outros trabalhadores da rede de terceirizados que fazem esse trabalho.

Cerca de dois anos depois, parece que o Facebook está concordando, sem querer, que algum tipo de compensação é válida. O acordo cobre 11.250 moderadores de conteúdo, tanto atuais quanto aqueles que já deixaram o trabalho, e promete a cada um deles um mínimo de US$ 1.000 e ganhos adicionais (de até US$ 1.500) caso sejam diagnosticados com estresse pós-traumático ou qualquer condição relacionada. Caso sejam diagnosticados com múltiplas condições, eles têm direito a até US$ 6.000 em compensação.

Como detalha a reportagem do Verge, os advogados envolvidos no caso acreditam que até metade dos moderadores envolvidos se qualificarão para os US$ 1.500 – e não é difícil imaginar o porquê. Desde o ano passado, a empresa tem sido criticada por várias reportagens que detalham que esses trabalhadores recebem um pouco mais do que o salário mínimo dos EUA para filtrar conteúdo traumático, dia sim, dia não.

E por esse trabalho, a empresa oferece pouco reconhecimento – em uma relatório divulgado nesta semana, o Facebook detalhou a aplicação dos padrões da comunidade pela empresa e fez várias considerações sobre sua tecnologia que “proativamente encontra conteúdo que violam as diretrizes”, mas não ofereceu nenhuma menção sobre as vidas humanas que são prejudicadas quando essa tecnologia invariavelmente falha e o conteúdo precisa ser feito por humanos – que, neste processo, treinam o algoritmo.

Um porta-voz do Facebook disse ao Gizmodo que a empresa é “grata às pessoas que fazem este importante trabalho para tornar o Facebook um ambiente seguro para todos.”

“Estamos empenhados em oferecer apoio adicional por meio deste acordo e no futuro”, acrescentaram.

Sair da versão mobile