Google teria orientado cientistas de IA para não falarem mal de tecnologias da empresa

Segundo a agência Reuters, funcionários de equipes de inteligência artificial precisam adotar um "tom positivo" para falar sobre pesquisas.
Imagem: Leon Neal / Staff (Getty Images)
Imagem: Leon Neal (Getty Images)

Quase três semanas após a demissão de Timnit Gebru, especialista negra em ética da inteligência artificial do Google, mais detalhes estão surgindo sobre como a companhia orientava seus funcionários da equipe de pesquisa a lidar com o próprio trabalho. Em mais de um caso, a empresa pediu que os autores não manifestassem tons negativos sobre tecnologias de IA desenvolvidas internamente.

Depois de revisar comunicados internos e falar com pesquisadores afetados pela mudança de regra, a Reuters informou na última quarta-feira (23) que o Google adicionou recentemente um processo de revisão de “tópicos sensíveis” para os artigos de seus cientistas, e em pelo menos três ocasiões solicitou de forma explícita que os autores usassem uma abordagem positiva para falar sobre a tecnologia da empresa.

De acordo com o novo procedimento, os cientistas agora devem se reunir com equipes jurídicas, políticas e de relações públicas especiais antes de realizar pesquisas de IA relacionadas aos tais tópicos sensíveis, que podem incluir análise facial e categorizações de raça, gênero ou afiliação política. Não se sabe quando a companhia passou a implementar as novas regras, mas três funcionários do Google disseram à Reuters que as mudanças começaram em junho.

Em um exemplo analisado pela Reuters, os cientistas que pesquisaram a recomendação usada pela inteligência artificial para preencher os feeds dos usuários em plataformas como o YouTube, que é de propriedade do Google, redigiram um documento detalhando as preocupações de que a tecnologia poderia ser utilizada para promover “resultados com desinformação, discriminatórios ou injustos” e “diversidade insuficiente de conteúdo”, além de levar à “polarização política”. Após revisão por um gerente sênior, que instruiu os pesquisadores a adotar um tom mais positivo, a publicação final sugere que os sistemas podem promover “informações precisas, justas e com diversidade de conteúdo”.

“Os avanços em tecnologia e a crescente complexidade de nosso ambiente externo estão nos levando cada vez mais a situações em que projetos aparentemente inofensivos levantam questões éticas de reputação, regulatórias ou legais”, afirma uma página interna da web que descreve a política.

Nas últimas semanas – e particularmente após a saída de Timnit Gebru, que alertou sobre a censura no processo de pesquisa dos algoritmos dos serviços do Google -, a empresa tem passado por um minucioso processo que analisa os potenciais preconceitos de sua divisão de pesquisa interna.

Quatro pesquisadores da equipe que conversaram com a Reuters validaram as afirmações de Gebru, dizendo que eles também acreditam que o Google está começando a interferir em estudos críticos sobre os danos que a tecnologia pode causar.

“Se estivermos pesquisando o que é apropriado devido ao nosso conhecimento e não tivermos permissão para publicar isso por motivos que não estão de acordo com a revisão de alta qualidade [do Google], vamos enfrentar um sério problema de censura”, disse Margaret Mitchell, uma cientista sênior da empresa.

No início de dezembro, Gebru declarou ter sido demitida pelo Google depois de se opor a uma ordem de não publicar pesquisas alegando que a inteligência artificial capaz de imitar a fala poderia colocar populações marginalizadas em desvantagem. Na época, e-mails internos sobre conversas envolvendo a pesquisadora e seus superiores vazou na internet.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas