Não, o Facebook não desligou o programa de inteligência artificial que criou o próprio “idioma”

Nas últimas semanas, uma história sobre pesquisas experimentais de aprendizagem de máquina do Facebook vem espalhando cada vez mais pânico, através de manchetes dignas de ficção científica. • Facebook deve anunciar headset de realidade virtual “barato” ainda neste ano • Nova lei alemã força Facebook a remover discurso de ódio sob risco de multa milionária […]

Nas últimas semanas, uma história sobre pesquisas experimentais de aprendizagem de máquina do Facebook vem espalhando cada vez mais pânico, através de manchetes dignas de ficção científica.

• Facebook deve anunciar headset de realidade virtual “barato” ainda neste ano
• Nova lei alemã força Facebook a remover discurso de ódio sob risco de multa milionária

“Engenheiros do Facebook entram em pânico e puxam a tomada da IA depois de os robôs desenvolverem seu próprio idioma”, escreveu um site. “Facebook desliga IA depois que ela inventa sua própria linguagem assustadora”, outro acrescentou. “Nós, humanos, acabamos de criar o Frankenstein?”, perguntou mais um. Um tabloide britânico citou um professor de robótica dizendo que o incidente mostrou “os perigos de adiar a inteligência artificial” e que “poderia ser letal” se uma tecnologia similar fosse usada em robôs militares.

Referências à revolução robótica, androides assassinos, IAs maliciosas e sobre o extermínio humano floresceram, algumas mais e outras menos graves do que as outras. Continuamente citada foi esta passagem, na qual dois bots de bate-papo do Facebook aprenderam a conversar um com o outro, no que foi entendido como uma forma bastante assustadora.

Bob: eu posso eu todo o resto
Alice: bolas têm zero para mim comigo para mim para para mim para mim para mim
Bob: você eu todo o resto
Alice: bolas têm uma bola para mim para mim para mim para mim para mim para mim para mim

A realidade é um pouco mais prosaica. Algumas semanas atrás, o FastCo Design falou sobre o esforço do Facebook para desenvolver uma “rede contraditória generativa” com o objetivo de desenvolver software de negociação.

Os dois bots citados na passagem acima foram projetados, como explicado em um post de blog da unidade de Inteligência Artificial do Facebook em junho, com a finalidade de mostrar que é “possível para agentes de diálogo com diferentes objetivos (implementados como redes neurais treinadas de ponta a ponta) se envolver em negociações de início a fim com outros bots, ou pessoas, enquanto chegam a decisões ou resultados comuns “.

axtcsaqineavhvdsoc1v

A interface do sistema de negociação. Gif: Facebook AI Research

Os bots nunca fizeram nada mais nefasto do que discutir uns com os outros como dividir uma série de itens fornecidos (representados na interface do usuário como objetos inócuos, como livros, chapéus e bolas) em uma troca mutuamente aceitável.

A intenção era desenvolver um chatbot que pudesse aprender com a interação humana para negociar coisas com um usuário final, de forma tão fluente que o usuário não perceberia que eles estão falando com um robô, o que a FAIR disse ter sido um sucesso:

“O desempenho do melhor agente de negociação da FAIR, que faz uso de aprendizagem de reforço e lançamentos de diálogo, correspondeu aos negociadores humanos … demonstrando que os bots da FAIR não só podem falar inglês, mas também pensar de maneira inteligente sobre o que dizer.”

Quando o Facebook colocou dois desses robôs semi-inteligentes para conversar um com o outro, informou FastCo, os programadores perceberam que cometeram um erro ao não incentivar os chatbots a se comunicarem de acordo com as regras humanas de compreensão da língua inglesa. Em suas tentativas de aprender um do outro, os bots começaram a conversar de um lado para o outro de uma forma abreviada e incongruente – mas, embora possa parecer assustador, era tudo o que era.

“Os agentes perderam a linguagem compreensível e inventaram palavras-chave para si”, disse a pesquisadora visitante da FIRA Dhruv Batra. “Como se eu dissesse ‘o’ cinco vezes, você interpreta isso como se eu quisesse cinco cópias deste item. Isso não é tão diferente da forma como as comunidades de seres humanos criam abreviações.”

O Facebook realmente encerrou a conversa, mas não porque eles entraram em pânico, achando que pudesse virar a Skynet. O pesquisador da FAIR Mike Lewis disse à FastCo que eles simplesmente decidiram que “nosso interesse era ter bots que pudessem falar com as pessoas”, não eficientemente uns com os outros, e então escolheram exigir que escrevessem legivelmente um para o outro.

Mas em um jogo de telefone sem fio não tão diferente do que os bots de bate-papo estavam fazendo, essa história evoluiu a partir de um olhar educado sobre as potenciais implicações a curto prazo da tecnologia de aprendizado de máquinas para um cenário apocalíptico.

Provavelmente há boas razões para não permitir que máquinas inteligentes desenvolvam seu próprio idioma, que os seres humanos não poderiam entender de forma significativa — mas, novamente, esse é um fenômeno relativamente mundano que surge quando você coloca dois dispositivos de aprendizado de máquina e os deixa aprender um com o outro. Vale ressaltar que quando as abreviaturas dos robôs foram traduzidas, a conversa resultante foi compreendida e não tão assustadora quanto pudesse parecer.

Como FastCo observou, é possível que esse tipo de aprendizagem de máquina possa permitir que dispositivos ou sistemas inteligentes se comuniquem uns com os outros de forma mais eficiente. Esses ganhos podem vir acompanhados de alguns problemas — imagine o quão difícil pode ser fazer o debug de um sistema desses que deu certo —, mas é bem diferente de tirar a inteligência da máquina do controle humano.

Nesse caso, a única coisa que os chatbots foram capazes de fazer foi encontrar uma maneira mais eficiente de trocar as bolas uns dos outros.
Existem bons usos da tecnologia de aprendizado de máquinas, como diagnósticos médicos aprimorados, e também os potencialmente muito ruins, como a política de software de predição de manifestações, que poderia ser usada para justificar a repressão de protestos. Todos eles são essencialmente formas de compilar e analisar grandes quantidades de dados, e até agora os riscos têm principalmente a ver com a forma como os seres humanos escolhem distribuir e exercer esse poder.

Esperemos que os humanos também sejam inteligentes o suficiente para não conectar programas experimentais de aprendizagem de máquinas a algo muito perigoso, como um exército de androides laser ou um reator nuclear. Mas se alguém o fizer e um desastre se desenrolar, seria o resultado de negligência e estupidez humana, não porque os robôs tiveram uma revelação filosófica sobre o quanto os humanos são ruins.

Pelo menos ainda não. A aprendizagem de máquinas está longe de ser uma verdadeira inteligência artificial, é apenas o início do uso da tecnologia pela humanidade. Se alguém deveria estar entrando em pânico com esta notícia em 2017, são os negociadores profissionais, que podem ficar em breve sem emprego.

[Fastco Design]

Imagem do topo: AP

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas