Lançamento do Bard, o ChatGPT do Google, é marcado por gafe com James Webb

Em uma demonstração no Twitter, chatbot respondeu com uma informação imprecisa sobre o telescópio espacial. Entenda
Lançamento do Bard, o ChatGPT do Google, é marcado por gafe com James Webb
Imagem: Google/Divulgação

Nem tudo são flores: o Google cometeu uma gafe daquelas sobre o telescópio espacial James Webb ao anunciar o Bard, seu bot nos moldes do ChatGPT. A companhia divulgou informações falsas sobre o equipamento da NASA em anúncio sobre a IA (inteligência artificial) no Twitter. 

whatsapp invite banner

Em um GIF, o Google mostra um exemplo de pergunta para o Bard. “Que novas descobertas do telescópio Espacial James Webb posso contar ao meu filho de 9 anos?”, mostra a imagem. O sistema apresenta três ideias rapidamente – incluindo uma fake news. 

“O JWST tirou as primeiras fotos de um planeta fora do nosso próprio sistema solar. Esses mundos distantes se chamam ‘exoplanetas’. Exo significa ‘de fora’”, disse Bard. 

O erro está na informação de que o James Webb tirou as primeiras fotos de um astro externo à Via Láctea. Na verdade, quem tirou a primeira foto de um exoplaneta foi o VLT (Very Large Telescope), do Observatório Europeu do Sul, ainda em 2004. 

É possível que o Bard tenha se “confundido” com notícias recentes que divulgaram a primeira foto de um exoplaneta do James Webb – o que é diferente de um registro inédito em toda a história. 

Sinal dos tempos 

A primeira gafe do Bard é um detalhe que pode ter passado despercebido no Twitter, mas se transformou em alerta sobre a proeminente onda de desinformação propagada por bots automatizados. 

Além do Bard do Google, o mecanismo de busca Bing já incluiu o ChatGPT no navegador a fim de tornar suas “pesquisas mais humanizadas”. Além disso, sites começaram a usar a IA generativa para escrever textos – muitos deles cheios de erros. 

Mas é fácil confiar neles. Na verdade, IAs generativas como o ChatGPT e Bard foram criados para soar 100% confiáveis. Eles se baseiam em um algoritmo de previsão de textos – ou seja, escolhem palavras que transmitam maior credibilidade ao texto. 

Respostas cheias de confiança poderão fazer com que milhares não verifiquem os fatos e confiem em informações falsas. A diferença é que a desinformação poderá ganhar ainda mais força ao ser alimentada por IA. 

Julia Possa

Julia Possa

Jornalista e mestre em Linguística. Antes trabalhei no Poder360, A Referência e em jornais e emissoras de TV no interior do RS. Curiosa, gosto de falar sobre o lado político das coisas - em especial da tecnologia e cultura. Me acompanhe no Twitter: @juliamzps

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas