Um grupo de ex-funcionários do TikTok entrou com uma ação coletiva contra o aplicativo e a controladora ByteDance, alegando extremo estresse e traumas psicológicos por exposição a conteúdos impróprios, pornográficos e violentos. O processo corre na justiça da Califórnia, nos Estados Unidos.

Não é de hoje que existe uma discussão sobre os efeitos nocivos das redes sociais na saúde mental dos usuários. Entretanto, o problema se estende também aos responsáveis por moderar os vídeos veiculados na plataforma.

Segundo os ex-moderadores, eles precisavam lidar com conteúdos “extremamente pertubardores” e sem qualquer filtro ou censura. Durante o trabalho de moderação, eles tinham que ficar 12 horas por dia revisando e removendo um grande volume de vídeos com conteúdos sexuais, estupros, torturas, suicídios, assassinatos, além de crueldade animal.

Além disso, eles enfrentavam teorias da conspiração, como vídeos que diziam que a pandemia da Covid era uma fraude ou que nevagam o Holocausto durante a Segunda Guerra Mundial. Mais do que isso, eles eram pressionados a cumprir cotas — moderando vídeos em menos de 25 segundos e ter uma taxa de precisão de 80% –, para não receberem ações disciplinares.

Moderação no TikTok

Estima-se que existam 10 mil moderadores de conteúdo ao redor do mundo, garantindo que o TikTok permanece um ambiente alegre e saudável para os usuários — que é formado, em sua maioria, por crianças e adolescentes.

Somente no segundo trimestre de 2021, mais de 8,1 milhões de vídeos foram removidos por violarem as regras da plataforma. Por mais que a inteligência artificial possa rastrear vídeos em busca de algo perturbador, boa parte dos conteúdos ainda precisa ser removida por moderadores humanos.

“Alguém tem que sofrer e ver essas coisas”, diz Ashley Velez, uma das profissionais que entraram com a ação contra o Tiktok. Ela era contratada pela Telus International, uma empresa de tecnologia canadense que prestava serviço para o app, mas diz que o TikTok e a ByteDance controlavam o trabalho diário dela. Velez afirmou ter visto pessoas sendo baleadas no rosto ou uma criança sendo espancada. Os advogados dela afirmam que o TikTok falhou ao não atender aos padrões e normas do setor para minimizar os potenciais danos que esses tipos de conteúdo causam aos moderadores.

O processo cita ainda que, durante o processo de contratação e treinamento, os moderadores não são informados sobre a real natureza do trabalho ou o efeito que a revisão do conteúdo pode ter em sua saúde mental.

Procurado pelo site NPR, o TikTok se recusou a comentar o processo, mas um porta-voz afirmou que a empresa “se esforça para promover um ambiente de trabalho adequado aos nossos funcionários e contratados”, e que os moderadores recebem acesso a “uma gama de serviços” para que eles se sintam apoiados mental e emocionalmente.