ChatGPT: OpenAI usou trabalhadores quenianos para filtrar conteúdo no chatbot
Uma reportagem da revista Time, revelou que a OpenAI, responsável pelo ChatGPT, utilizou trabalhadores quenianos sub-remunerados para filtrar conteúdo sensível e tóxico para tornar o chatbot mais seguro para os usuários.
A função dos trabalhadores era analisar o conjunto de dados de treinamento, identificar e rotular conteúdo impróprio. Segundo as informações reveladas pela revista americana, os funcionários eram expostos a conteúdos como tortura, suicídio, violência extrema e pedofilia, pro exemplo.
Alguns trabalhadores declararam terem tido o psicológico afetado devido a exposição diária ao material gráfico. Além disso, os rotuladores de dados recebiam salários que variavam entre US$ 1,32 e US$ 2 por hora, a depender da produção e do desempenho.
A OpenAI fez uma parceria com a Sama, empresa sediada em São Francisco, que diz oferecer trabalho digno em países em desenvolvimento. Os trabalhadores do Quênia foram contratados para fazer um serviço essencial para possibilitar uma boa experiência com o chatbot.
Para fins de comparação, o antecessor do ChatGPT, e GPT-3, gerava muitos textos racistas e sexistas, já que utilizava um banco formado com uma infinidade de materiais extraídos da internet.
Ao que parece, terceirizar serviços traumatizantes em países pobres é uma prática muito comum entre as grandes empresas de tecnologia.
No início de 2022, uma investigação conduzida também pela Time revelou que muitos trabalhadores desenvolveram traumas após trabalharem rotulando conteúdo sensível nas plataformas da Meta por um salário de US$ 1,50 por hora. De acordo com a publicação, as pessoas contratadas pela Sama eram obrigadas a visualizar conteúdos como fotos e vídeos de assassinatos e pedofilia praticamente todos os dias.
Enquanto a OpenAI arrecada bilhões de dólares em rodadas de investimentos, os bastidores revelam uma situação triste, mas que, infelizmente, é muito comum no mundo da tecnologia. A Sama possui funcionários, que são terceirizados para big techs como Microsoft, Google e Meta, em Uganda, Quênia e Índia que são frequentemente expostos a conteúdos perturbadores.
Não há informações sobre se as pessoas que trabalham como rotuladoras de dados nos projetos das grandes empresas de tecnologia recebem amparo ou auxílio psicológico para se recuperarem dos traumas causados pela exposição a materiais sensíveis.