Conforme a inteligência artificial dos robôs começa a desempenhar um papel cada vez maior em nossas vidas, a questão de como queremos que eles se comportem fica mais importante com cada avanço. No novo livro Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence (“Ética Robótica 2.0: De Carros Autônomos a Inteligência Artificial”, em tradução livre), os roboeticistas Will Bridewell e Alistair M.C. Isaac fazem a surpreendente defesa dos robôs enganadores. Perguntamos aos autores por que faríamos uma coisa tão louca.

Publicado nesta semana, Robot Ethics 2.0 foi editado por Patrick Lin, Ryan Jenkins e Keith Abney, todos os três pesquisadores no Ethics + Emerging Sciences Group, na Universidade Politécnica Estadual da Califórnia. Essa é a segunda edição do livro, a versão inaugural tendo sido lançada há cinco anos.

Como o primeiro livro, Robot Ethics 2.0 reúne os principais especialistas para discutir os temas emergentes em robótica e inteligência artificial. O novo livro inclui capítulos sobre a identidade artificial, nossa tendência a antropomorfizar robôs, robôs sexuais, o futuro, a responsabilidade e o risco dos robôs, confiança e interação homem-robô e muitos outros tópicos.

Um dos ensaios mais intrigantes, “White Lies and Silver Tongues: Why Robots Need to Deceive (and How) (Mentiras Brancas e Eloquência: Por Que os Robôs precisam Enganar [e Como])”, é de autoria de Will Bridewell, cientista da computação do Laboratório de Pesquisa Naval dos Estados Unidos, onde trabalha no cruzamento entre a inteligência artificial e a ciência cognitiva, e Alistair MC Isaac, professor de Mente e Cognição da Universidade de Edimburgo, onde é diretor do programa para o Mestrado em Mente, Idioma e Cognição Incorporada. Eles argumentam que o engano é uma característica regular da interação humana, e que a informação enganosa (ou retenção de informações) exerce funções sociais importantes. Um dia, vamos precisar de robôs com a capacidade de enganar se eles virão a contribuir efetivamente na comunicação humana, defendem os pesquisadores.

Gizmodo: Robôs que são deliberadamente programados para enganar os seres humanos têm sido retratados inúmeras vezes na ficção científica. Quais são alguns dos seus exemplos favoritos e o que esses “contos de advertência” nos dizem sobre as consequências de robôs “mentirosos”?

Will bridewell: Os robôs ficcionais perigosos que prontamente vêm à minha mente não são programados para enganar. Pense no Ash, em Alien, de Ridley Scott, que incansavelmente segue as ordens da corporação dirigindo a missão da tripulação e leva a sério o parâmetro da tripulação ser dispensável. Ao longo do filme, Ash não mente para a tripulação sobre a missão, mas retém informações sobre as ordens da corporação, que são “somente para olhos de oficiais da ciência”. Como prova de que ele é programado para ser sincero, suas últimas palavras ao restante tripulação são: “Eu não posso mentir para vocês sobre suas chances.” Isso e outros exemplos como esse sugerem que veracidade e moralidade não precisam estar alinhadas.

Curiosamente, um dos robôs mais amados do cinema mente. R2D2, de Star Wars, de George Lucas, engana pessoas e robôs, tanto por meio da omissão quanto por meio de mentiras diretas para atingir seu objetivo de entregar os planos para Estrela da Morte destruidora de planetas do Império para a Aliança Rebelde. Algumas das mentiras mais evidentes ocorrem quando o protagonista, Luke Skywalker, ativa uma mensagem escondida que R2D2 está carregando. O robô diz que são dados antigos. Em seguida, ele continua a dizer que o parafuso de restrição, que o impede de fugir, está interferindo em sua capacidade de reproduzir a mensagem completa. Após o parafuso ser removido, R2D2 finge que não sabe nada sobre uma mensagem e, enfim, foge. Isso não é exatamente um conto preventivo.

O que você está fazendo, Dave? (Imagem: 2001:Uma Odisseia no Espaço)

Alistair M.C. Isaac: Eu acho que um dos mais interessantes exemplos “de advertência” na ficção científica é muito instrutivo: HAL 9000 de 2001: Uma Odisseia no Espaço, de Stanley Kubrick. Hal apresenta comportamento psicótico, matando membros da tripulação, como resposta à tensão que enfrenta entre a missão do navio para Júpiter e sua missão secreta de investigar o sinal do monólito, um segredo que só Hal sabe.

“A moral aqui não é que Hal mata a tripulação porque foi programado para mentir, mas porque não foi programado para saber mentir.”

O que é interessante é que o comportamento psicótico de Hal não é o resultado direto das ordens que recebe, mas, sim, um resultado indireto emergente da incapacidade de Hal de produzir formas adequadas de comportamento mentiroso. Ironicamente, se Hal soubesse como enganar, ele poderia ter respondido como pretendido e simplesmente teria mantido a equipe no escuro sobre sua verdadeira meta em Júpiter. A moral aqui não é que Hal mata a tripulação porque foi programado para mentir, mas porque não foi programado para saber mentir.

Gizmodo: Quais são algumas formas socialmente importantes da enganação na interação humano com humano?

Isaac: É importante ressaltar que “enganação” é um termo carregado. Nós normalmente só chamamos um ato enganoso se julgarmos que ele seja de alguma forma moralmente repreensível. Se em vez de pensar sobre a enganação simplesmente como um ato destinado a desorientar, ou induzir uma falsa crença, despojado de qualquer julgamento de certo ou errado, nós começamos a ver atos socialmente positivos de “engano” em torno de nós. Um exemplo de que eu particularmente gosto é a conversa de elevador, é um tipo de conversa sobre coisas como esportes, notícias ou fofocas do escritório com os colegas: muitas vezes durante essas conversas casuais, não se preocupam se o que é dito é verdade ou não. Eu poderia manifestar interesse em alguma equipe de esportes, porque eu sei que você é um fã, digamos, mesmo que eu particularmente não ligue para eles. Embora possa ser tecnicamente “enganoso” mostrar que eu me preocupo com o time, o que é realmente importante para a construção de um ambiente social positivo é o interesse que eu mostro em você e seus interesses. Um exemplo clássico do mesmo tipo seria elogios às roupas ou ao novo corte de cabelo de um colega. Esses elogios servem o objetivo de reforçar o nosso sentido positivo de ser parte do mesmo grupo e se preocupar com o outro, e esse efeito é alcançado independentemente de se eu realmente gostei do seu novo corte de cabelo ou não.

Bridewell: Uma forma de engano comum e relativamente complexa socialmente valiosa envolve “gerenciamento de impressão”. Isso pode acontecer quando você está competindo metas. Por exemplo, você pode ter uma meta de longo prazo para uma promoção no trabalho, mas que está em desacordo com planos de curto prazo do seu supervisor para um projeto. Se o seu supervisor prefere a coesão da equipe, pode ser melhor profissionalmente se você “for junto para se entrosar” no projeto e evitar o risco do seu avanço.

O “Princípio Scotty” de engano é tão racional quanto sensato. (Imagem: Star Trek)

Como outro exemplo, outra forma de gestão de impressão. O Princípio Scotty, que tem o nome de um personagem de Gene Roddenberry em Star Trek, envolve multiplicar o tempo previsto para concluir uma tarefa complexa por três. Essa prática serve duas funções. Em primeiro lugar, do ponto de vista egoísta, se você terminar cedo, então você parece brilhante e eficiente. Em segundo lugar, a partir de uma perspectiva social, você cria uma reserva (secreta) para contingências inesperadas que possam surgir. A criação dessa reserva não só o protege, mas protege o seu supervisor de fazer planos sensíveis ao tempo que poderiam ser prejudicados por pequenos problemas. Curiosamente, o Princípio Scotty também protege contra o auto-engano. Você pode pensar que você é mais qualificado ou mais rápido do que você realmente é, e essa forma de exagero pode prevenir a falha devido ao auto-conhecimento impreciso.

Gizmodo: Mentiras brancas e um pouco de enganação são compreensivelmente importantes na interação humana, mas isso porque somos criaturas emocionais e sensíveis. Por que queremos que os nossos robôs adotem nossas fraquezas?

Bridewell: Existem esforços consideráveis em todo o mundo para desenvolver robôs que possam trabalhar em estreita colaboração com os seres humanos como guias, enfermeiros e companheiros de equipe. Além disso, os robôs que mais capturam nossa imaginação são aqueles que interagem com as pessoas, o que sugere uma demanda social existente que os assistentes pessoais, como Siri, da Apple, e Cortana, da Microsoft, só podem resolver parcialmente. Para esses tipos de robôs se comunicarem de maneira eficaz com os seres humanos, eles precisam ter a habilidade tanto de interpretar os sinais implícitos por emoções humanas e usar as emoções como uma forma de expressar de com eficácia a informação que carregam. Embora ainda não tenha sido decidido se os robôs podem alguma hora “ter” emoções, é seguro dizer que qualquer robô que pode sinalizar emoções humanas seria um enganador, especialmente se ele pudesse diferenciar entre conteúdo emocional humano e robô.

Isaac: Eu gostaria de questionar a implicação de que a emoção e sensibilidade são “fraquezas”. Alguns filósofos pensam que a capacidade de experimentar emoções fundamenta nossa capacidade de empatia e, dessa forma, agir eticamente em direção a nossos semelhantes. Se quisermos que os robôs possam agir eticamente, eles podem precisar mostrar formas similares de sensibilidade. Mesmo se os robôs não possam “sentir” emoções da forma como sentimos (e essa é uma questão em aberto), eles ainda podem simular a nossa sensibilidade, a fim de raciocinar sobre isso e, assim, calcular ações éticas.

Eu diria que até mesmo robôs em uma “sociedade” puramente mecanizada, sem nenhum participante humano, iriam precisar de algo análogo às nossas capacidades de sensibilidade e empatia, de forma que eles pudessem simular e raciocinar sobre as respostas internas de outros robôs, a fim de se comportar de uma forma reconhecível para nós como ética, ou “humana”.

Gizmodo: como podemos programar um robô para ser um enganador eficaz?

Bridewell: Existem várias capacidades necessárias para o reconhecimento ou a prática de atividades enganosas, nos concentramos em três. A primeira delas é uma teoria representacional da mente, que envolve a capacidade de representar e raciocinar sobre as crenças e objetivos de si mesmo e dos outros. Por exemplo, ao comprar um carro, você pode notar que ele tem alta quilometragem e poderia estar quase acabado. O vendedor pode dizer: “Claro, este carro tem alta quilometragem, mas isso significa que vai durar um longo tempo!”. Para detectar a mentira, o que você precisa é representar não só a sua própria crença, mas também a crença (verdadeira) do vendedor de que a alta quilometragem é um mau sinal.

Claro, pode ser o caso de que o vendedor realmente acredite no que diz. Nesse caso, você iria representar como se ele tivesse uma falsa crença. Já que não temos acesso direto a crenças e objetivos de outras pessoas, a distinção entre uma mentira e uma falsa crença pode ser sutil. No entanto, se nós sabemos os motivos de alguém, podemos inferir a relativa probabilidade de que eles estão mentindo ou exprimindo uma crença falsa. Assim, a segunda capacidade de um robô precisa representar “segundas intenções”. A terceira capacidade aborda a questão “segundas intenções a quê?”. Esses motivos precisam ser contrastados com “normas comuns”, que são preceitos básicos que guiam nosso comportamento e incluem máximas como “ser verdadeiro” ou “ser educado.” Nesse contexto, segundas intenções são objetivos que podem substituir as normas comuns e abrir a porta para o discurso enganoso.

Gizmodo: O pensamento de um robô sem consciência, mas com a capacidade de engano é – pelo menos para mim – uma perspectiva assustadora. Por que não devemos ficar alarmados por uma sequência de uns e zeros que deliberadamente coloca falsas crenças em nossos cérebros?

Isaac: Pessoalmente, eu não vejo o que a consciência tem a ver com isso, ou por que um robô mentiroso pode ser mais assustador do que uma pessoa mentirosa. Se você acha que a consciência de alguma forma atenua a capacidade de um ser humano de mentir, é porque você acha que a consciência nos permite refletir sobre a correção ou incorreção de nossas ações, de sentir empatia pelos outros, ou questionar e avaliar nossas ações enganosas. Mas tudo isso são apenas suposições sobre um papel funcional distinto para a consciência – contanto que um robô tenha algum componente tendo o mesmo papel funcional (algoritmos para avaliar a correção ou incorreção, simular empatia, avaliar ou questionar ações projetadas), então é tão seguro (ou assustador) quanto um humano mentiroso.

Acho que no final das contas, isso realmente se resume ao ponto de que nos sentimos mais seguros ao redor dos que são como nós. Você fica mais assustado por um robô mentindo que um ser humano mentindo porque você reconhece o ser humano como igual a você, e isso é reconfortante. Mas nós gostaríamos de transformar essa preocupação: se os robôs puderem mentir nas formas socialmente positivas mencionadas acima, elogiar nosso cabelo, ir junto com o chefe quando ele vai ajudar a equipe a se unir, então vamos percebê-los mais como nós. Isso é uma coisa boa, se quisermos que robôs e seres humanos sejam capazes de trabalhar em conjunto como parte de uma mesma unidade social coesa.

Bridewell: É impreciso caracterizar o engano como colocar falsas crenças em nossos cérebros. Nós nunca somos forçados a acreditar no que nos é dito. Em vez disso, nós geralmente mantemos as informações em suspenso e as avaliamos com base na origem, contexto e conteúdo. Isso é verdade se a fonte for um aplicativo de tráfego em seu telefone, um vendedor em uma loja de carros ou um robô em seu local de trabalho, você tem as mesmas oportunidades para aceitar ou descartar qualquer comunicação. Claro, nós aprendemos a confiar em algumas fontes em detrimento de outras, mas mesmo que aprendamos a confiar em alguém, nós não desistimos da nossa capacidade de avaliar o que dizem antes de acreditar nelas.

Gizmodo: Que tipos de padrões éticos devem ser considerados no desenvolvimento de robôs enganadores?

Isaac: As Leis de Asimov não são um mau lugar para começar. Destacamos no artigo que satisfazer as Leis de Asimov pode realmente necessitar de um robô enganador em algumas circunstâncias.

Por exemplo, a primeira lei estipula que um robô não pode ferir um ser humano, ou por meio de inatividade permitir que um ser humano sofra algum mal; enquanto o segundo diz que os robôs devem obedecer às ordens que lhe são dadas por seres humanos. Se um assassino exige que um robô lhe diga a localização de sua vítima, um robô com a capacidade de mentir vai satisfazer muito melhor as Leis de Asimov e manter os seres humanos seguros do que um que não consegue. O melhor que um robô não mentiroso pode fazer é ficar em silêncio, o que pode não ajudar muito a vítima, enquanto o robô mentiroso realmente pode desorientar o assassino, mandando-o para longe de sua vítima e potencialmente salvando uma vida humana.

Bridewell: Em termos de ética da construção de robôs, a prática mais importante é fornecer formação ética para os cientistas de computação e especialistas em robótica. Isso significa que eles devem estar cientes da situação ética do seu trabalho e compreender as implicações sociais do que eles desenvolvem. Sem essa compreensão, os desenvolvedores não podem tomar decisões informadas sobre o que implementar, quando e como.

De importância secundária, os desenvolvedores trabalhando em robôs enganadores devem estar familiarizados com uma variedade de tradições éticas. Há uma ênfase na ética da máquina na deontologia e no consequencialismo, mas considerações de ética da virtude de Aristóteles e pensamento ético religioso (por exemplo, a ética budista) podem descobrir pontos cegos nas visões mais proeminentes e podem levar a perspectivas que melhor controlem as intuições humanas sobre moral e comportamento ético.

Gizmodo: E este não poderia ser um começo “ruim” para a inteligência artificial, a partir do qual uma IA mais maligna poderia surgir?

Isaac: Eu não penso assim. Nossa questão toda é que o engano em si não é ruim. E é, na verdade, uma parte importante das interações sociais humanas positivas. Se um agente artificial simples for evoluir para um mais poderoso que seja “amigável” com os seres humanos, então a coisa mais importante é que seja um participante integrado na sociedade humana, e isso vai exigir a capacidade de mentir de forma socialmente positiva.

Talvez também valha a pena dizer que somos um pedaço de um longo caminho até o tipo de inteligências artificiais poderosas, pós-humanas que vemos nos filmes. O artigo é voltado para uma meta bem mais modesta de conseguir robôs um pouco mais sociáveis, e mesmo isso já está bem na frente no futuro. Se inteligências artificiais super-humanas surgirem alguma hora, no entanto, robôs socialmente aptos certamente serão um passo na história de seu desenvolvimento.

Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, editado por Patrick Lin, Ryan Jenkins e Keith Abney, foi publicado em 03 de outubro de 2017.

Imagem do topo: Futurama, 20th Century Fox