Tecnologia

OpenAI ajuda a criar robô que fala e pensa como humano, enquanto trabalha

Com ajuda de um modelo de linguagem desenvolvido pela OpenAI, Figure-01 consegue se comunicar de forma natural com humanos
Imagem: Figure/Divulgação

A Figure AI e a OpenAI se uniram para tornar o robô humanoide Figure-01 ainda mais inteligente e interativo. Na mais recente demonstração, o robô aparece conversando diretamente com um humano, executando comandos e até mesmo dizendo em detalhes o que está enxergando, por meio da tecnologia de reconhecimento visual.

whatsapp invite banner

No vídeo, disponível no canal oficial da Figure, é possível ver o Figure-01 funcionando como uma espécie de chatbot, mas com cabeça, braços e pernas. Assim como o ChatGPT, o robô recebe instruções, analisa os arredores e responde da forma mais adequada.

Ao ser questionado o que estava enxergando, o robô respondeu com precisão: uma maçã vermelha, em um prato, no centro da mesa; um escorredor, com copos e pratos; e o humano em pé, com uma mão apoiada na mesa.

Em seguida, o humano pede ao robô algo para comer, e o Figure-01 entrega a maçã. Depois, o homem coloca lixo em cima da mesa e pede à máquina para limpar, enquanto explica por que ofereceu a maçã.

Poucos segundos se passam, até que o Figure-01 começa a recolher o lixo em uma cesta e falar que entregou a maçã por ser o único item comestível na mesa, ao mesmo tempo.

O humano ainda pergunta ao robô onde o prato deve ser colocado. Prontamente, o Figure-01 decide que o objeto precisa ficar no escorredor e executa o comando de guardar não só o prato, como também o copo ao lado.

Por fim, ao questionar o robô sobre o desempenho nas tarefas, o Figure-01 considera ter feito um bom trabalho, já que “a maçã encontrou seu novo dono, o lixo sumiu, e a mesa está onde deveria”.

Robô Figure-01 mostra potencial dos modelos de linguagem da OpenAI

Entregar uma maçã e guardar um prato são tarefas simples. Contudo, executá-las enquanto conversa de forma natural com um humano mostra a capacidade de evolução rápida dos modelos de linguagem, como o ChatGPT.

Impressiona, por exemplo, o fato do Figure-01 conseguir identificar o que está à frente dele e responder de acordo. Tudo isso acontece quase em tempo real, graças a um novo modelo de linguagem visual (da sigla em inglês VLM), que garante habilidades quase humanas à máquina.

O modelo, aliás, é fruto da parceria entre a Figure e a OpenAI. Porém, o Figure-01 reúne influências de outros projetos importantes de empresas especializadas em robótica, como Boston Dynamics, Tesla, Google Deep Mind e Archer Aviation.

Vale lembrar que, em janeiro deste ano, a Figure mostrou o robô aprendendo a fazer café sozinho, somente observando um humano. Cada dia que passa, estamos mais próximos de viver em uma versão do livro “Eu, Robô” (1950), escrito pelo russo Isaac Asimov.

Murilo Tunholi

Murilo Tunholi

Jornalista especializado em tecnologia, jogos, entretenimento e ciência. Já passou por grandes redações do Brasil (TechTudo, Tecnoblog, Terra e Olhar Digital) e trabalhou com relações públicas e assessoria de imprensa na Theogames, atendendo à Blizzard Entertainment e mais clientes do mercado de videogames. É apaixonado pela cultura geek, música e produção de conteúdo. Nas horas vagas, é aspirante a artista marcial e cozinheiro.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas