OpenAI ajuda a criar robô que fala e pensa como humano, enquanto trabalha
A Figure AI e a OpenAI se uniram para tornar o robô humanoide Figure-01 ainda mais inteligente e interativo. Na mais recente demonstração, o robô aparece conversando diretamente com um humano, executando comandos e até mesmo dizendo em detalhes o que está enxergando, por meio da tecnologia de reconhecimento visual.
No vídeo, disponível no canal oficial da Figure, é possível ver o Figure-01 funcionando como uma espécie de chatbot, mas com cabeça, braços e pernas. Assim como o ChatGPT, o robô recebe instruções, analisa os arredores e responde da forma mais adequada.
Ao ser questionado o que estava enxergando, o robô respondeu com precisão: uma maçã vermelha, em um prato, no centro da mesa; um escorredor, com copos e pratos; e o humano em pé, com uma mão apoiada na mesa.
Em seguida, o humano pede ao robô algo para comer, e o Figure-01 entrega a maçã. Depois, o homem coloca lixo em cima da mesa e pede à máquina para limpar, enquanto explica por que ofereceu a maçã.
Poucos segundos se passam, até que o Figure-01 começa a recolher o lixo em uma cesta e falar que entregou a maçã por ser o único item comestível na mesa, ao mesmo tempo.
O humano ainda pergunta ao robô onde o prato deve ser colocado. Prontamente, o Figure-01 decide que o objeto precisa ficar no escorredor e executa o comando de guardar não só o prato, como também o copo ao lado.
Por fim, ao questionar o robô sobre o desempenho nas tarefas, o Figure-01 considera ter feito um bom trabalho, já que “a maçã encontrou seu novo dono, o lixo sumiu, e a mesa está onde deveria”.
Robô Figure-01 mostra potencial dos modelos de linguagem da OpenAI
Entregar uma maçã e guardar um prato são tarefas simples. Contudo, executá-las enquanto conversa de forma natural com um humano mostra a capacidade de evolução rápida dos modelos de linguagem, como o ChatGPT.
Impressiona, por exemplo, o fato do Figure-01 conseguir identificar o que está à frente dele e responder de acordo. Tudo isso acontece quase em tempo real, graças a um novo modelo de linguagem visual (da sigla em inglês VLM), que garante habilidades quase humanas à máquina.
O modelo, aliás, é fruto da parceria entre a Figure e a OpenAI. Porém, o Figure-01 reúne influências de outros projetos importantes de empresas especializadas em robótica, como Boston Dynamics, Tesla, Google Deep Mind e Archer Aviation.
Vale lembrar que, em janeiro deste ano, a Figure mostrou o robô aprendendo a fazer café sozinho, somente observando um humano. Cada dia que passa, estamos mais próximos de viver em uma versão do livro “Eu, Robô” (1950), escrito pelo russo Isaac Asimov.