Meta é alertada para chatbot “com defeito”: rude e mentiroso

O BlenderBot 3 pode "esquecer" que é um robô e ter "alucinações" ao conversar com humanos. Meta faz testes para melhorar o chatbot antes de lançá-lo oficialmente
Meta alerta para chatbot “com defeito”: é rude e mentiroso
Imagem: Meta/Divulgação

A Meta – big tech que controla Facebook, WhatsApp e Instagram – criou um novo chatbot para conversar com o público: o BlenderBot 3 (BB3). Só tem um problema: o robô é excessivamente rude e bastante mentiroso. 

Segundo a plataforma ParlAI, o bot pode conversar sobre praticamente qualquer assunto com base em pesquisas na internet. Ele foi projetado para aprender a melhorar suas habilidades e segurança através de conversas e feedbacks espontâneos dos usuários. 

Em seu blog, a Meta reconheceu que o BB3 pode, sim, ferir nossos singelos corações humanos. Além da toxidade, há relatos de que o bot “esqueceu” que era um robô e criou “alucinações” – a forma que a Meta descreveu casos em que o robô proferiu mentiras com toda confiança do mundo.

“Os usuários não devem confiar nesse bot para obter informações factuais, incluindo aconselhamento médico, jurídico ou financeiro”, alertou a big tech. Mas, segundo a companhia, é isso que o fará melhorar a experiência conosco. 

“Embora seja doloroso ver algumas dessas respostas ofensivas, demonstrações públicas como essa são importantes para construir sistemas de Inteligência Artificial interativas verdadeiramente confiáveis”, disse a dona do Facebook. 

A Meta afirmou que já coletou 70 mil conversas da demonstração pública do BB3 e vai melhorar seu bot sem educação. Segundo a big tech, as respostas ofensivas do robô caíram até 90%. Por enquanto, sua demonstração só está disponível nos EUA, mas deve chegar a outros países, como o Brasil, em breve. 

O que quer a Meta com o BlenderBot 3

A empresa de Mark Zuckerberg pesquisa há anos formas de melhorar o desempenho de seus chatbots online. Agora, vai disponibilizar o BB3 para ser usado na pesquisa de indústrias, universidades, organizações governamentais e da sociedade civil. 

Isso é importante porque o chatbot “aprende” com a experiência: ele passa por correção quando algum usuário notifica algo ofensivo ou declarações falsas e contraditórias.

A expectativa é alta sobre o BB3 porque o robô foi construído a partir do modelo de linguagem OPT-175B – ou seja, método com 175 bilhões de parâmetros treinados com dados disponíveis publicamente. 

Até então, esses modelos – que não passam de sistemas de processamento de linguagem natural – tinham pouco mais de 100 bilhões de parâmetros. Esse aumento deve fazer com que bots se comuniquem de modo mais criativo, sejam capazes de solucionar problemas básicos de matemática e a interpretar textos, por exemplo. 

Na comparação com o Google, o LaMDA – bot mais recente da companhia – é um modelo de 137 bilhões de parâmetros de linguagem. Foram quase 2 meses de desenvolvimento, com mais de 1.024 chips Tensor, da própria companhia. Ele ainda não está disponível para o público. 

A Meta espera superar em muito o chatbot de inteligência artificial da Microsoft, Tay.AI. O robô precisou sair do ar depois de entrar no Twitter em 2016. O motivo: testes com humanos ensinaram o bot a propagar discurso de ódio e racista.  

Assine a newsletter do Giz Brasil

Julia Possa

Julia Possa

Jornalista e mestre em Linguística. Antes trabalhei no Poder360, A Referência e em jornais e emissoras de TV no interior do RS. Curiosa, gosto de falar sobre o lado político das coisas - em especial da tecnologia e cultura. Me acompanhe no Twitter: @juliamzps

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas