O engenheiro do Google Blake Lemoine foi afastado da empresa após afirmar que a inteligência artificial (IA) LaMDA (sigla em inglês de Modelo de Linguagem para Aplicações de Diálogo) havia desenvolvido sentimentos. Para justificar sua fala, o funcionário divulgou a transcrição de conversas que teve com o robô, o que foi considerado uma violação de confidencialidade.

Mas o que leva uma pessoa a concluir que uma máquina adquiriu consciência? Para começar, podemos falar do famoso teste de Turing. O método foi desenvolvido em 1950 por Alan Turing, matemático e cientista da computação britânico.

O objetivo do pesquisador era investigar a capacidade das máquinas em imitar os humanos. Isso é feito a partir da troca de mensagens com a IA, que deve se mostrar capaz de falar e agir como uma pessoa para ter seu selo máximo de inteligência conquistado. 

Agora, um time formado por mais de 400 pesquisadores – incluindo cientistas do Google – está trabalhando em um novo teste para verificar a compreensão de leitura, o raciocínio lógico e o senso comum de inteligências artificiais. O artigo completo está disponível no arXiv.

O método recebe o nome de Beyond the Imitation Game (BIG-bench) e soma mais de 200 tarefas que podem ser apresentadas à IA. Ele foi equipado com problemas de linguística, matemática, biologia, informações sobre preconceito social, desenvolvimento de software, entre outros tópicos. 

Em geral, foram escolhidas tarefas que estariam além da capacidade dos modelos de linguagem, ou seja, que as máquinas não conseguiriam resolver com uma simples programação. A IA precisaria de uma inteligência próxima ou igual a humana para passar no teste.

De toda forma, os cientistas acham impossível que uma inteligência artificial desenvolva sentimentos. No geral, o que a máquina realmente faz é imitar os humanos com maestria, reproduzindo falas que seriam ditas por nós em conversas cotidianas. A revolução dos robôs não deve acontecer tão cedo.