Ex-funcionários processam TikTok por ter que moderar vídeos perturbadores

Antes de chegar à sua timeline, o conteúdo do TikTok é "filtrado" - muitas vezes, por humanos. Nos EUA, moderadores alegam traumas mentais ao serem expostas a vídeos explícitos e violentos
Ex-funcionários processam TikTok por ter que moderar vídeos perturbadores

Um grupo de ex-funcionários do TikTok entrou com uma ação coletiva contra o aplicativo e a controladora ByteDance, alegando extremo estresse e traumas psicológicos por exposição a conteúdos impróprios, pornográficos e violentos. O processo corre na justiça da Califórnia, nos Estados Unidos.

Não é de hoje que existe uma discussão sobre os efeitos nocivos das redes sociais na saúde mental dos usuários. Entretanto, o problema se estende também aos responsáveis por moderar os vídeos veiculados na plataforma.

Segundo os ex-moderadores, eles precisavam lidar com conteúdos “extremamente pertubardores” e sem qualquer filtro ou censura. Durante o trabalho de moderação, eles tinham que ficar 12 horas por dia revisando e removendo um grande volume de vídeos com conteúdos sexuais, estupros, torturas, suicídios, assassinatos, além de crueldade animal.

Além disso, eles enfrentavam teorias da conspiração, como vídeos que diziam que a pandemia da Covid era uma fraude ou que nevagam o Holocausto durante a Segunda Guerra Mundial. Mais do que isso, eles eram pressionados a cumprir cotas — moderando vídeos em menos de 25 segundos e ter uma taxa de precisão de 80% –, para não receberem ações disciplinares.

Moderação no TikTok

Estima-se que existam 10 mil moderadores de conteúdo ao redor do mundo, garantindo que o TikTok permanece um ambiente alegre e saudável para os usuários — que é formado, em sua maioria, por crianças e adolescentes.

Somente no segundo trimestre de 2021, mais de 8,1 milhões de vídeos foram removidos por violarem as regras da plataforma. Por mais que a inteligência artificial possa rastrear vídeos em busca de algo perturbador, boa parte dos conteúdos ainda precisa ser removida por moderadores humanos.

“Alguém tem que sofrer e ver essas coisas”, diz Ashley Velez, uma das profissionais que entraram com a ação contra o Tiktok. Ela era contratada pela Telus International, uma empresa de tecnologia canadense que prestava serviço para o app, mas diz que o TikTok e a ByteDance controlavam o trabalho diário dela. Velez afirmou ter visto pessoas sendo baleadas no rosto ou uma criança sendo espancada. Os advogados dela afirmam que o TikTok falhou ao não atender aos padrões e normas do setor para minimizar os potenciais danos que esses tipos de conteúdo causam aos moderadores.

O processo cita ainda que, durante o processo de contratação e treinamento, os moderadores não são informados sobre a real natureza do trabalho ou o efeito que a revisão do conteúdo pode ter em sua saúde mental.

Procurado pelo site NPR, o TikTok se recusou a comentar o processo, mas um porta-voz afirmou que a empresa “se esforça para promover um ambiente de trabalho adequado aos nossos funcionários e contratados”, e que os moderadores recebem acesso a “uma gama de serviços” para que eles se sintam apoiados mental e emocionalmente.

 

Hemerson Brandão

Hemerson Brandão

Hemerson é editor e repórter, escrevendo sobre espaço, tecnologia e, às vezes, sobre outros temas da cultura nerd. Grande entusiasta da astronomia, também é interessado em exploração espacial e fã de Star Trek.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas