A Microsoft demitiu o resto da equipe que cuidava das questões de ética e sociedade nos recursos de IA (inteligência artificial) da companhia. O grupo atingiu seu auge em 2020, quando chegou a 30 funcionários. Desde outubro, sete pessoas operavam no setor.
O grupo está entre os 10 mil funcionários com contratos rescindidos pela empresa, segundo informações obtidas pelo site Platformer. Com as saídas, a Microsoft está sem uma equipe dedicada a manter a ética dentro das suas plataformas de IA.
As saídas acontecem enquanto o Bing explode em número de usuários após implementar um bot aos moldes do ChatGPT na plataforma. Só no primeiro mês de implantação da IA, o navegador ganhou mais de 100 milhões de usuários, como anunciou a Microsoft em seu blog, na quinta-feira (9).
A empresa mantém um Escritório de IA ativo, que ficou encarregado de criar regras e princípios para governar as iniciativas de inteligência artificial internas. Mesmo com as demissões, a Microsoft diz que o investimento geral está aumentando.
“A Microsoft está comprometida em desenvolver produtos e experiências de IA com segurança e responsabilidade, e o faz investindo em pessoas, processos e parcerias que priorizam isso”, afirmou a big tech em comunicado.
Por que uma equipe de ética
O grupo, que inclui engenheiros, designers e até sociólogos e filósofos, desempenha um papel importante ao garantir que os princípios de IA da empresa reflitam no produto final que é entregue ao usuário.
Nos últimos anos, a equipe projetou o jogo “Judgment Call”, que ajudou os designers a visualizar possíveis danos causados pela IA. A partir disso, eles discutiam formas de combater preconceitos e ajustar o comportamento via aprendizado de máquina durante o desenvolvimento do produto.
Mais recentemente, a equipe estava trabalhando para identificar possíveis riscos da adoção do ChatGPT, da OpenAI, em todos os produtos da Microsoft. Faz sentido: a IA do Bing, por exemplo, já demonstrou comportamentos inadequados ao ameaçar e até fazer declarações de amor para usuários.
Depois dos relatos assustadores, a Microsoft impôs limites de tempo para as conversas. A big tech alegou que os insultos, informações falsas e comportamento sexual da plataforma só aconteceram porque os diálogos se prolongaram por mais de duas horas, o que “confundiu” a máquina.