Desde que o ChatGPT se popularizou, outras gigantes da tecnologia, como Google e Meta, correm para aperfeiçoar seus próprios chatbots baseados em inteligência artificial. No entanto, embora sejam excelentes ferramentas, as soluções de IA têm ficado marcadas pela grande incidência de informações incorretas e desinformação.
O portal The Verge fez um teste com o Bing, alimentado pelo ChatGPT, da OpenAI. Em uma resposta, a IA afirmou que o Bard AI, concorrente do Google recém-lançado, foi desativado. O serviço da Microsoft utilizou uma publicação satírica no como fonte para passar a informação. Isso mostra como os chatbots ainda tem certa dificuldade para filtrar fontes confiáveis.
O BardAI foi lançado para testes nos Estados e Reino Unido nesta semana e, ao menos por enquanto, ainda não pode ser testado no Brasil. Embora o Bing tenha decretado o fim do chatbot, ele segue ativo e como uma das maiores apostas do Google para o futuro.
A resposta incorreta do serviço de pesquisa da Microsoft está longe de ser o primeiro caso de desinformação disseminada por chatbots. O próprio Bard AI divulgou uma informação falsa sobre o telescópio James Webb em um material promocional e fez as ações do Google despencaram e o valor de mercado da empresa diminuir em US$ 100 bilhões.
Durante a apresentação do modelo mais recente que alimenta o ChatGPT, o GPT-4, a OpenAI afirmou que um dos focos é tornar a IA mais precisa e menos suscetível a erros, mas alertou que, mesmo com todos os esforços empregados no desenvolvimento, ainda existe possibilidade de respostas incorretas.