O que é o ChatGPT – e outros 12 bots com proposta parecida

Gigantes da tecnologia já investem em IA generativa há um bom tempo. Listamos aqui algumas opções menos famosas (e com alguns recursos extra)
OpenAI cria ferramenta que separa textos criados por humanos e pelo ChatGPT
Imagem: Gertruda Valaseviciute/Unsplash/Reprodução

O ChatGPT viralizou, mais ainda deixa muitas perguntas não respondidas. A começar pelo nome: o que, afinal, é GPT? Existem outras opções além desse mais famoso? 

A plataforma lançada pela OpenAI em novembro se chama ChatGPT porque é um chatbot baseado no modelo de linguagem GPT-3.5, uma versão atualizada do GPT-3. De forma bem resumida, é uma IA (inteligência artificial) que produz respostas dando a impressão de que é humana.

O mecanismo usa a lógica da previsão de texto e um aprendizado de máquina que se baseou em milhões de textos escritos por humanos disponíveis na internet até 2021. Assim, consegue parecer fiel à escrita humana – mesmo que muitas vezes use informações falsas e desconexas. 

O mais impressionante do ChatGPT é que a tecnologia faz de tudo um pouco, desde receitas de bolo até rap, passando por textos sobre qualquer assunto, piadas — e até códigos de computador. O bot só não é muito bom em entrar em polêmicas, como prova esta entrevista que o Giz Brasil com ele

Junto com a ferramenta, surgiram outros parecidos, e que seguem a mesma linha: um chatbot ultra responsivo capaz de auxiliar nas mais variadas tarefas sem a necessidade de pesquisar ou acessar diversos links até conseguir uma informação. 

A maioria dos que listamos aqui tem apenas o código disponível, o que é mais interessante para programadores e profissionais da área tech. Mas vale a pena conferir como as gigantes da tecnologia irão surfar nessa onda dos sistemas de IA que imitam a linguagem humana. Veja abaixo alguns eles. 

Bard 

É o mais recente chatbot do Google. Entrou em fase de testes públicos nesta terça-feira (7), primeiro para “testadores confiáveis”. Em algumas semanas, deve ficar disponível para o público geral. 

O sistema é baseado no modelo de linguagem LaMDA, e deve ser incorporado à Pesquisa e Maps do Google em breve. Assim como o ChatGPT, a IA extrai informações da internet e usa o processamento de linguagem LaMDA para criar textos e responder perguntas diretamente, sem que os usuários precisem acessar links. 

BERT

BERT é o acrônimo para Bidirectional Encoder Representations from Transformers, um modelo de aprendizagem de máquina desenvolvido pelo Google. O robô tem habilidades de processamento de linguagem natural, como resposta a perguntas e análise de sentimentos. 

Em sua base, usa o BookCorpus e Wikipédia em inglês como referências de pré-treinamento. Já aprendeu 800 milhões e 2,5 bilhões de palavras nesses dois sistemas, respectivamente. 

Acesse a versão em código aberto neste link do GitHub. 

Meena 

Outro chatbot do Google, Meena foi lançado em janeiro de 2020 para testar conversas da forma humana. O robô desempenha funções simples, como piadas e trocadilhos (que sempre funcionam melhor em inglês, claro).

Na época do lançamento, foi uma alternativa direta ao GPT-2 da OpenAI e tinha capacidade de processar até 8,5 vezes mais dados que a concorrente. A rede neural foi treinada a partir de conversas em mídias sociais, o que lhe deu 79% na métrica de SSA (Sensibilidade e Especificidade Média, na sigla em inglês). 

Acesse a versão em código aberto neste link do GitHub. 

RoBERTa 

É uma versão avançada do BERT original: Robustly Optimized BERT Pretraining Approach. O Facebook anunciou a tecnologia em julho de 2019 como um modelo de linguagem de pré-treinamento. 

O bot usa 76 GB de dados do CommonCrawl (CC-News), que inclui 63 milhões de artigos de notícias em inglês produzidos entre setembro de 2016 e fevereiro de 2019. É bem mais que o BERT original, que usa 16 GB de dados. RoBERTa está em código aberto desde setembro de 2019. 

XLNet 

Modelo de linguagem autorregressiva desenvolvido por pesquisadores do Google Brain e Universidade Carnegie Mellon. Foi apresentado em 2019 e é basicamente um BERT mais avançado. 

É bem conhecido entre a comunidade de pesquisa em PNL (Programação Neurolinguística). O código e modelo pré-treinados estão disponíveis no GitHub

DialoGPT

Modelo de linguagem lançado em novembro de 2019 pela Microsoft Research, o DialoGPT foi treinado para imitar as conversas humanas de forma semelhante ao GPT-2. Tem como base 147 milhões de diálogos extraídos de tópicos do fórum Reddit. O código está disponível no GitHub

ALBERT 

É a versão “lite” do BERT. Desenvolvido pelo Google em dezembro de 2019, tem limitações nos parâmetros do modelo original, mas o treinamento pode acontecer em um conjunto de dados maior e com outros bots, como XLNet e RoBERTa. Código no GitHub

T5 

O T5 (Text-to-Text Transfer Transformer) é outro modelo do Google que se baseia em modelos anteriores, como GPT, BERT, XLNet, RoBERTa e ALBERT. A diferença é que adiciona um novo conjunto de dados chamado C4 (Colossal Clean Crawled Corpus), o que permite produzir resultados com contexto de mais qualidade. Código no GitHub

CTRL

Desenvolvido pela Salesforce, o CTRL é um modelo de linguagem de 1,6 milhão de parâmetros que pode ser usados para analisar grandes textos de uma só vez. Ele é capaz de diferenciar desde a pontuação até a intenção de consultas específicas. 

Um exemplo: o modelo diferencia se a afirmação “o aquecimento global é uma mentira” não passa de uma opinião impopular ou uma teoria da conspiração, dependendo da análise de contexto das páginas web. 

Em seu pré-treinamento, usou fontes como Wikipédia, avaliações da Amazon e Reddit. Também faz referência a uma série de notícias, informações e recursos internacionais. Código no GitHub

GShard 

É um modelo de tradução de idiomas do Google, introduzido em junho de 2020. Inclui 600 milhões de parâmetros, o que permite treinar milhares de conjuntos de dados de uma só vez. É particularmente adepto da tradução de idiomas: está sendo treinado para traduzir 100 idiomas para o inglês em quatro dias. 

Blender 

Chatbot de código aberto lançado pelo Facebook em abril de 2020. A big tech disse que o sistema tem capacidade de fornecer “conversas envolventes, ouvir e mostrar compreensão da opinião do outro”. Também demonstra “empatia e personalidade”. 

Está disponível na plataforma Parl.ai

Pegasus 

O modelo de processamento de linguagem neural do Google saiu em dezembro de 2019. Ele cria resumos sobre qualquer coisa – notícias, artigo, literatura, instruções, e-mails, patentes, projetos de lei, etc. O código está disponível no GitHub

Julia Possa

Julia Possa

Jornalista e mestre em Linguística. Antes trabalhei no Poder360, A Referência e em jornais e emissoras de TV no interior do RS. Curiosa, gosto de falar sobre o lado político das coisas - em especial da tecnologia e cultura. Me acompanhe no Twitter: @juliamzps

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas