_YouTube

Ex-moderadora processa YouTube por desenvolver transtorno pós-traumático

Uma ex-moderadora afirma que o trabalho de um ano e meio a levou a desenvolver sintomas de TEPT (transtorno de estresse pós-traumático).

Logotipo do YouTube visto em SmarTV

Getty Images

Mesmo com relatos e mais relatos indicando que o trauma emocional é um risco ocupacional de moderação de conteúdo, o YouTube ainda está expondo trabalhadores com baixa remuneração a um ataque emocional diário, supostamente com poucas salvaguardas de saúde mental. Em uma ação coletiva movida nesta segunda-feira (21), uma ex-moderadora afirma que o trabalho de um ano e meio a levou a desenvolver sintomas de TEPT (transtorno de estresse pós-traumático).

A litigante anônima também afirma que o YouTube falhou em fornecer os tipos de padrões de segurança no local de trabalho que ajudou a redigir e empreendeu uma “campanha agressiva” para sufocar os denunciantes.

A ação pede indenização por expor funcionários a atividades anormalmente perigosas, entre outras acusações.

O que a moderadora supostamente testemunhou é perturbador até mesmo para imaginar, quanto mais ter que assistir continuamente. A moderadora afirma que ela foi exposta a “milhares de vídeos sensíveis e questionáveis”, incluindo:

uma caveira aberta esmagada com pessoas comendo o conteúdo; uma mulher que foi sequestrada e decapitada por um cartel; a cabeça de uma pessoa sendo atropelada por um tanque; um homem comendo a cabeça de um rato; uma raposa sendo esfolada viva; um homem caindo de um telhado em um vídeo que incluía o áudio do impacto do seu corpo atingindo o solo; tiroteios em escolas que incluíam cadáveres de crianças; um político atirando em si mesmo; abortos caseiros; abuso infantil e agressão sexual infantil.

Imagens de cérebros sendo consumidos, decapitação e agressão sexual de crianças fizeram parte de uma sessão de treinamento, disse ela.

Embora esses tipos de coisas sejam desagradáveis de ver, e em conjunto possam ser psicologicamente prejudiciais, este processo inclui um pequeno lembrete de que existem recomendações (voluntárias) para aumentar a “resiliência do funcionário”. A Technology Coalition, que criou essas recomendações, é composta por algumas das maiores empresas do setor de tecnologia, incluindo o próprio Google. E, no entanto, a companhia alega que esses padrões — que incluem proteções insuficientes como expor os moderadores a “não mais do que quatro horas consecutivas” de mídia perturbadora ou impedi-los de ver pornografia infantil durante uma hora (sim, apenas uma) antes de encerrarem seu turno — não foram promulgados.

De acordo com o processo, pouca ou nenhuma dessas proteções chegou aos contratados, que eram frequentemente lembrados pelos supervisores das expectativas de ver “entre 100 e 300 peças de conteúdo por dia, com uma taxa de erros de dois a cinco por cento”. O processo também afirma que os moderadores permanecem apenas cerca de um ano e, por esse motivo, a força de trabalho de moderação de conteúdo do YouTube é “cronicamente insuficiente”.

Mesmo o curso de treinamento profissional de três semanas, onde o canibalismo e a decapitação foram mostrados, deu poucas informações sobre “bem-estar ou resiliência”, de acordo com o processo. Como resultado, esta moderadora disse que desenvolveu uma série de problemas psicológicos:

Ela frequentemente ficava acordada à noite tentando dormir, reproduzindo vídeos que viu em sua mente. Ela não pode ficar em lugares cheios, incluindo shows e eventos, porque tem medo de tiroteios em massa. Ela tem ataques de pânico graves e debilitantes. Ela perdeu muitos amigos por causa de sua ansiedade com as pessoas. Ela tem problemas para interagir e estar perto de crianças e agora está com medo de ter filhos.

Em vez de mostrar aos moderadores em potencial as imagens horríveis que eles esperariam ver em um dia normal, continua a ação, os moderadores foram instruídos a assinar contratos NDA, uma espécie de contrato de confidencialidade. Após uma denúncia do The Verge, o YouTube supostamente fez moderadores de conteúdo assinarem documentos reconhecendo que eles entendiam que o trabalho poderia causar transtorno de estresse pós-traumático, e dizendo que “este trabalho não é para todos”. O YouTube também supostamente apagou qualquer menção a trauma de seus fóruns internos.

O YouTube também pode seguir o exemplo da Microsoft implementando filtros, recomendados pelo National Center for Missing and Exploired Children. A empresa desfoca imagens, altera-as para preto e branco, reduz para o tamanho de miniaturas e desfoca o áudio. De acordo com a reclamação, os moderadores de conteúdo solicitaram no quadro de mensagens interno do YouTube em 2017 que a empresa desfocasse as imagens sinalizadas como “muito sensíveis”, mas Suzanne French, chefe de operações globais de fornecedores do YouTube, recusou o pedido, dizendo que a mudança não era prioridade da empresa, de acordo com as alegações no processo.

No início deste ano, o mesmo escritório de advocacia que representa os moderadores de conteúdo do YouTube ganhou um acordo de US$ 52 milhões para moderadores do Facebook. Como o YouTube usa terceirizados, eles não têm certeza de quantos moderadores trabalham para o YouTube, mas estima que esteja na casa dos milhares.

O Gizmodo entrou em contato com o YouTube e os advogados da autora da ação. Atualizaremos este artigo, caso recebamos uma resposta.

Caso você queira saber detalhes do processo, basta acessá-lo aqui (está em inglês).

Sair da versão mobile