O ChatGPT é capaz de mentir? Saiba o que é “alucinação de IA” e como evitar

Chatbots podem fornecer dados falsos por engano ou até gerar informações inventadas; veja como conseguir respostas mais assertivas
NY derruba proibição ao ChatGPT e passa a incentivar IA nas escolas
Imagem: Focal Foto/Flickr/Reprodução

Milhões de pessoas confiam no ChatGPT diariamente para facilitar tarefas no trabalho, nos estudos e também para entretenimento. Mas essa popularidade levanta a questão: será que a plataforma pode mentir ou fornecer informações falsas? Tecnicamente, sim.

O programa não é capaz de mentir de propósito, logicamente. Mas ele pode fornecer dados falsos por engano ou até “viajar na maionese”, enviando coisas completamente inventadas, que não existem na vida real.

Antes de ser lançado, o ChatGPT foi alimentado por uma vasta quantidade de dados e informações das mais diversas fontes, como sites institucionais de agências, órgãos importantes e governos, livros, filmes, documentários, revistas científicas, estudos acadêmicos, notícias, podcasts e muito mais.

Cerca de 300 bilhões de palavras foram inseridas no sistema GPT-3, totalizando 570 GB de dados. Vale ressaltar que, por enquanto, a ferramenta só conta com informações obtidas até 2021. Ou seja, dados mais recentes não estarão na base do programa.

O que é “alucinação de IA”?

A plataforma tem a capacidade de responder com precisão a perguntas infinitas e geralmente fornece informações verdadeiras, mas pode mentir “sem querer”. O ChatGPT é uma ferramenta de processamento de linguagem e não foi programado para dar informações falsas ou de má fé.

Quando uma ferramenta de inteligência artificial “mente”, ou seja, inventa informações, chamamos de “alucinação de IA”. Resumindo, essas ferramentas nunca serão confiáveis 100% do tempo. É fundamental checar os dados obtidos na plataforma e garantir que são baseados na realidade.

Um exemplo recente de mau uso do instrumento foi o caso de dois advogados norte-americanos que utilizaram o ChatGPT para ajudar na argumentação no recurso de um cliente. Resultado: os profissionais foram repreendidos por um juiz federal e receberam uma multa de 5 mil dólares como punição por usarem informações que não condiziam com a realidade.

Os advogados apresentaram uma petição inicial sobre um acidente aéreo que aconteceu em maio, mas o texto estava repleto de citações de casos inexistentes, fruto de uma “alucinação de IA”. Steven A. Schwartz e Peter LoDuca, da Levidow, Levidow & Oberman, inicialmente defenderam sua pesquisa mesmo depois que o advogado adversário apontou que era falsa. Depois, a dupla se desculpou ao tribunal e assumiu o equívoco.

Basicamente, a alucinação de IA ocorre quando um sistema de IA oferece uma resposta que considera plausível e precisa, mas, na realidade, é completamente falsa. Ele pode fornecer informações com as quais nunca foi alimentado, por exemplo, na tentativa de obter uma resposta decente.

Além disso, pode ocorrer quando um programa fornece informações completamente sem relação com o pedido solicitado. Plataformas de IA como o ChatGPT podem acabar “alucinando” por vários motivos, incluindo falta de compreensão do mundo real, bugs de software e limitações na base de dados.

Saiba como evitar as informações falsas

Quando perguntado sobre, o ChatGPT explicou os motivos pelos quais poderia mentir ou fornecer uma resposta falsa:

  • Interpretação errada do contexto;
  • Erros no material de origem;
  • Informações desatualizadas;
  • Incerteza ou especulação;
  • Limitações de IA.

Vários desses problemas são evitáveis e simples de contornar. Veja as dicas abaixo para fugir das “alucinações” e garantir respostas mais assertivas e confiáveis.

Use linguagem simples e direta

Quando você usa prompts diretos , diminui a probabilidade de o modelo de IA interpretar mal seu pedido. Portanto, certifique-se de que suas instruções sejam claras, diretas e fáceis de entender. Evite escrever um prompt complicado, com vários detalhes desnecessários.

Uma boa dica é reler seu texto antes de enviar, para garantir que ele esteja focado no objetivo que você deseja. Se você achar que seu pedido inclui detalhes desnecessários ou frases complicadas, corrija-os para obter uma resposta precisa e evitar que a ferramenta de IA tenha alucinações.

Dê contexto ao ChatGPT

Fornecer algum contexto à ferramenta de IA em seu prompt pode ajudá-la a gerar uma resposta mais precisa. O contexto contribui para reduzir potenciais respostas “sem noção” e incentiva a plataforma de IA a considerar uma abordagem mais específica ao responder a sua pergunta.

Você pode tornar esse pedido ainda mais específico adicionando detalhes como sua idade, renda e taxa desejada de crescimento de capital nos próximos anos. Esse nível de especificidade ajudará o modelo de IA a entender sua situação e preferências exclusivas e a fornecer uma resposta mais alinhada com suas expectativas.

Configure a temperatura

A temperatura é um parâmetro customizável do ChatGPT. Essa configuração altera a “criatividade” do modelo de linguagem. Ao definir um valor mais alto, como 0,8, você obtém respostas mais criativas, embora possam ser menos precisas. O valor padrão é 0,5, mas você pode ajustar isso como preferir.

Uma temperatura mais baixa ajuda a gerar um resultado mais preciso, enquanto uma temperatura mais alta pode aumentar a aleatoriedade da resposta. Se você está procurando respostas baseadas em fatos, certifique-se de usar a configuração de temperatura mais baixa, para uma resposta menos criativa e mais analítica.

Se você estiver, digamos, fazendo um brainstorming ou buscando respostas engraçadas, aumentar a temperatura pode funcionar a seu favor. Tenha em mente, porém, que aumentar a temperatura pode fazer com que o modelo de IA gere respostas “sem noção”.

Assine a newsletter do Giz Brasil

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas