Após boom do Bing, Microsoft demite equipe inteira de ética para IA

Equipe de ética era responsável por identificar possíveis riscos da adoção do ChatGPT, da OpenAI, nos produtos da Microsoft
microsoft fecha estúdios
Imagem: Thomas Hawk/Flickr/Reprodução

A Microsoft demitiu o resto da equipe que cuidava das questões de ética e sociedade nos recursos de IA (inteligência artificial) da companhia. O grupo atingiu seu auge em 2020, quando chegou a 30 funcionários. Desde outubro, sete pessoas operavam no setor. 

O grupo está entre os 10 mil funcionários com contratos rescindidos pela empresa, segundo informações obtidas pelo site Platformer. Com as saídas, a Microsoft está sem uma equipe dedicada a manter a ética dentro das suas plataformas de IA. 

As saídas acontecem enquanto o Bing explode em número de usuários após implementar um bot aos moldes do ChatGPT na plataforma. Só no primeiro mês de implantação da IA, o navegador ganhou mais de 100 milhões de usuários, como anunciou a Microsoft em seu blog, na quinta-feira (9).

A empresa mantém um Escritório de IA ativo, que ficou encarregado de criar regras e princípios para governar as iniciativas de inteligência artificial internas. Mesmo com as demissões, a Microsoft diz que o investimento geral está aumentando. 

“A Microsoft está comprometida em desenvolver produtos e experiências de IA com segurança e responsabilidade, e o faz investindo em pessoas, processos e parcerias que priorizam isso”, afirmou a big tech em comunicado. 

Por que uma equipe de ética 

O grupo, que inclui engenheiros, designers e até sociólogos e filósofos, desempenha um papel importante ao garantir que os princípios de IA da empresa reflitam no produto final que é entregue ao usuário. 

Nos últimos anos, a equipe projetou o jogo “Judgment Call”, que ajudou os designers a visualizar possíveis danos causados pela IA. A partir disso, eles discutiam formas de combater preconceitos e ajustar o comportamento via aprendizado de máquina durante o desenvolvimento do produto. 

Mais recentemente, a equipe estava trabalhando para identificar possíveis riscos da adoção do ChatGPT, da OpenAI, em todos os produtos da Microsoft. Faz sentido: a IA do Bing, por exemplo, já demonstrou comportamentos inadequados ao ameaçar e até fazer declarações de amor para usuários. 

Depois dos relatos assustadores, a Microsoft impôs limites de tempo para as conversas. A big tech alegou que os insultos, informações falsas e comportamento sexual da plataforma só aconteceram porque os diálogos se prolongaram por mais de duas horas, o que “confundiu” a máquina. 

Julia Possa

Julia Possa

Jornalista e mestre em Linguística. Antes trabalhei no Poder360, A Referência e em jornais e emissoras de TV no interior do RS. Curiosa, gosto de falar sobre o lado político das coisas - em especial da tecnologia e cultura. Me acompanhe no Twitter: @juliamzps

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas