_Tecnologia

OpenAI ajuda a criar robô que fala e pensa como humano, enquanto trabalha

Com ajuda de um modelo de linguagem desenvolvido pela OpenAI, Figure-01 consegue se comunicar de forma natural com humanos

Este robô fala e pensa como humano, enquanto trabalha, graças à OpenAI

A Figure AI e a OpenAI se uniram para tornar o robô humanoide Figure-01 ainda mais inteligente e interativo. Na mais recente demonstração, o robô aparece conversando diretamente com um humano, executando comandos e até mesmo dizendo em detalhes o que está enxergando, por meio da tecnologia de reconhecimento visual.

No vídeo, disponível no canal oficial da Figure, é possível ver o Figure-01 funcionando como uma espécie de chatbot, mas com cabeça, braços e pernas. Assim como o ChatGPT, o robô recebe instruções, analisa os arredores e responde da forma mais adequada.

Ao ser questionado o que estava enxergando, o robô respondeu com precisão: uma maçã vermelha, em um prato, no centro da mesa; um escorredor, com copos e pratos; e o humano em pé, com uma mão apoiada na mesa.

Em seguida, o humano pede ao robô algo para comer, e o Figure-01 entrega a maçã. Depois, o homem coloca lixo em cima da mesa e pede à máquina para limpar, enquanto explica por que ofereceu a maçã.

Poucos segundos se passam, até que o Figure-01 começa a recolher o lixo em uma cesta e falar que entregou a maçã por ser o único item comestível na mesa, ao mesmo tempo.

O humano ainda pergunta ao robô onde o prato deve ser colocado. Prontamente, o Figure-01 decide que o objeto precisa ficar no escorredor e executa o comando de guardar não só o prato, como também o copo ao lado.

Por fim, ao questionar o robô sobre o desempenho nas tarefas, o Figure-01 considera ter feito um bom trabalho, já que “a maçã encontrou seu novo dono, o lixo sumiu, e a mesa está onde deveria”.

Robô Figure-01 mostra potencial dos modelos de linguagem da OpenAI

Entregar uma maçã e guardar um prato são tarefas simples. Contudo, executá-las enquanto conversa de forma natural com um humano mostra a capacidade de evolução rápida dos modelos de linguagem, como o ChatGPT.

Impressiona, por exemplo, o fato do Figure-01 conseguir identificar o que está à frente dele e responder de acordo. Tudo isso acontece quase em tempo real, graças a um novo modelo de linguagem visual (da sigla em inglês VLM), que garante habilidades quase humanas à máquina.

O modelo, aliás, é fruto da parceria entre a Figure e a OpenAI. Porém, o Figure-01 reúne influências de outros projetos importantes de empresas especializadas em robótica, como Boston Dynamics, Tesla, Google Deep Mind e Archer Aviation.

Vale lembrar que, em janeiro deste ano, a Figure mostrou o robô aprendendo a fazer café sozinho, somente observando um humano. Cada dia que passa, estamos mais próximos de viver em uma versão do livro “Eu, Robô” (1950), escrito pelo russo Isaac Asimov.

Sair da versão mobile