A cada conquista da inteligência artificial, exigimos que as nossas máquinas façam escolhas cada vez mais complexas e pesadas. O problema é que as IAs estão começando a agir além dos nossos níveis de compreensão. Em negociações de ações de alta frequência, por exemplo, isso levou aos chamados flash crashes, quando os algoritmos tomam decisões rápidas demais para entendermos. Em um esforço para diminuir o crescente vão entre o homem e a máquina, o Pentágono está lançando um novo programa para criar máquinas que podem explicar suas ações de uma forma que os lentos humanos possam entender.

• Uber demite engenheiro acusado de roubar documentos confidenciais do Google
• Como fazer os carros autônomos serem mais confiáveis

A Defense Advanced Research Projects Agency (DARPA) está dando US$ 6,5 milhões para oito professores de ciências da computação da Escola de Engenharia da Universidade do Estado de Oregon. A ala do Pentágono de pesquisa de conceitos avançados espera que esses especialistas consigam desenvolver um novo sistema ou plataforma que mantenha os humanos dentro do ciclo conceitual da tomada de decisões das inteligências artificiais, permitindo que possamos pesar essas decisões enquanto elas estão sendo feitas. A ideia é fazer sistemas baseados em inteligência, como veículos e drones aéreos autônomos, mais confiáveis. É importante ressaltar que a mesma tecnologia pode resultar em uma IA mais segura.

Parte do problema dos humanos não entenderem o sistema de tomada de decisões da inteligência artificial vem de como a IA funciona hoje. Ao invés de ser programada para comportamentos específicos, muitos dos robôs mais inteligentes operam ao aprender sozinhos de muitos exemplos, um processo chamado aprendizado de máquina. Infelizmente, isso costuma levar a soluções que os desenvolvedores dos sistemas não entendem — pense em computadores fazendo movimentos de xadrez que surpreendem até os grande mestres do jogo. Ao mesmo tempo, o sistema não consegue providenciar nenhum tipo de retorno que explique.

Com razão, estamos ficando cada vez mais preocupados com as máquinas terem que tomar decisões importantes. Em um estudo recente, a maioria dos participantes concordou que veículos autônomos devem ser programados para tomar decisões éticas difíceis, como matar o ocupante do carro ao invés de dez pedestres na falta de qualquer outra opção. O problema é que os mesmos participantes da pesquisa disseram que eles não andariam em tal carro. Parece que queremos que as nossas máquinas inteligentes ajam tão eticamente e sejam tão socialmente responsáveis quanto possível, contanto que não sejamos nós que soframos o dano.

Talvez, se pudéssemos dar uma olhada em como as IAs chegam às decisões, isso nos ajudasse a confiar mais em nossas máquinas. Se não estivermos felizes com o que vimos, ou com como a inteligência artificial chegou à decisão, podemos simplesmente desligá-la ou escolher não comprar certo carro. Uma alternativa seria os programadores e cientistas da computação darem novos dados à IA ou diferentes conjuntos de regras, para ajudar a máquina a encontrar decisões mais palatáveis.

Sob a nova concessão de quatro anos do DARPA, pesquisadores vão trabalhar para desenvolver uma plataforma que facilite a comunicação entre humanos e IA para servir esse propósito. “Por fim, queremos que essas explicações sejam bem naturais, traduzindo essas profundas decisões de rede em frases e visualizações”, disse Alan Fern, principal investigador da concessão e diretor associado do College of Engineering’s Collaborative Robotics and Intelligent Systems Institute.

Durante o primeiro estágio desse esforço multidisciplinar, pesquisadores vão usar jogos de estratégia em tempo real, como StarCraft, para treinar “jogadores” de IA que vão ter que explicar suas decisões aos humanos. Mais tarde, os pesquisadores vão adaptar essas descobertas para a robótica e para veículos aéreos autônomos.

Essa pesquisa pode se tornar crucial não apenas para melhorar a confiança entre humanos e carros autônomos, mas qualquer tipo de máquina autônoma, incluindo aquelas que podem ter responsabilidades ainda maiores. Eventualmente, máquinas de guerra inteligentes podem precisar matar combatentes inimigos. Nesse estágio, vamos certamente precisar saber por que as máquinas estão agindo de uma maneira específica. Olhando mais adiante, podemos um dia precisar dar uma olhada na mente de uma inteligência artificial muito além da humana. Isso não vai ser fácil; tal máquina vai ser capaz de calcular milhares de decisões em um segundo. Pode até ser possível que nós não entendamos tudo sobre a IA do futuro, mas, ao pensar sobre o problema agora, nós temos uma chance melhor de restringir as ações dos robôs do futuro.

[Oregon State University]

Imagem do topo: Hot Tub Time Machine 2