As leis da robótica de Asimov são balela

Quando as pessoas falam sobre robôs e ética, elas sempre gostam de mencionar as “Três Leis da Robótica” de Isaac Asimov. Mas há três grandes problemas com estas leis e o uso delas no nosso mundo real.

Quando as pessoas falam sobre robôs e ética, elas sempre gostam de mencionar as “Três Leis da Robótica” de Isaac Asimov. Mas há três grandes problemas com estas leis e o uso delas no nosso mundo real.

whatsapp invite banner

As Leis
As leis de Asimov inicialmente vincularam três diretrizes para as máquinas:
•    Primeira Lei – “um robô não pode ferir um ser humano ou, por omissão, permitir que um humano seja ferido”.
•    Segunda Lei – “um robô deve obedecer às ordens dadas a ele por seres humanos, exceto quando tais ordens entram em conflito com a Primeira Lei”.
•    Terceira Lei – “um robô deve proteger a sua própria existência, contanto tal proteção não entre em conflito com a Primeira ou a Segunda Lei”.
•    Mais tarde Asimov acrescentou a “Lei Zero”, acima de todas as outras – “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal”.

O Desmascaramento
O primeiro problema é que as leis são ficção! Elas são um mote pro enredo que Asimov inventou para ajudar a guiar as suas histórias. E mais: seus contos quase sempre giravam em torno de como os robôs seguiriam estes excelentes códigos de ética tão lógicos, mas ainda assim saem do rumo e as consequências não-intencionais que se resultavam. Um anúncio para o filme de 2004 adaptação do famoso livro do Asimov, Eu, Robô – com Will Smith – descreve da melhor maneira possível: “Regras foram feitas para serem quebradas”.

Por exemplo, em uma das histórias de Asimov, os robôs são feitos para seguir as leis, mas são programados com um certo significado de “humano”.  Em harmonia com o que rola atualmente no mundo real e suas campanhas de limpeza étnica, os robôs são reconhecem pessoas de um determinado grupo como “humanos”. Eles seguem as leis e ainda assim fazem um genocídio.

O segundo problema é que nenhuma tecnologia ainda é capaz de programar as leis de Asimov dentro de uma máquina. Como disse Rodney Brooks da empresa iRobot – com seu nome se originando do livro de Asimov, eles são os caras que nos trouxeram o robô militar Packbot e o aspirador de pó robótico Roomba: “as pessoas me perguntam se os nossos robôs seguirão as leis de Asimov. Há um motivo bastante simples para eles não as seguirem: eu não tenho como programar as leis de Asimov dentro deles”.

O roboticista Daniel Wilson [e colaborador da semana “Máquinas de Comportamento Mortal” aqui no Gizmodo] foi um pouco mais rebuscado. “As leis de Asimov são legais, mas também são uma tremenda balela. Por exemplo, elas estão em inglês. Como raios você programa isso?”

O motivo mais importante para as Leis de Asimov não serem aplicadas ainda é como os robôs estão sendo usados no nosso mundo real. Você não arma um drone com mísseis Hellfire ou coloca uma metralhadora em um MAARS (Sistema Robótico Armado Avançado Modular) para não causar mal aos humanos. É exatamente este o motivo!

O mesmo serve para construir um robô que aceita ordens de qualquer humano. Será que eu realmente quereria que o Osama bin Laden pudesse dar ordens à vontade no meu robô? E, por fim, o fato de robôs poderem ser enviados para missões perigosas para ser “morto” é na maior parte das vezes justo o propósito de usá-los. Conferir a eles uma noção de “existência” e instinto de sobrevivência seria ir contra esta racionalidade, além de dar asas a possíveis cenários de outras séries de ficção científica, como os filmes Exterminador do Futuro. O ponto, neste caso, é que boa parte do financiamento de pesquisa robótica vem das forças armadas, em especial dos EUA, que tem pagado por robôs que seguem justo o oposto das leis de Asimov. Eles explicitamente querem robôs capazes de matar, que não recebam ordens de qualquer humano e que não se preocupem com as suas próprias existências.

A Questão da Ética
Contudo, o maior dos problemas quando falamos sobre robôs e ética não é se podemos ou não usar algo como as leis de Asimov para fazer máquinas que tenham moralidade embutida (o que pode ser uma contradição inerente, já que a moralidade arrola tanto o intento quanto a ação, não apenas a mera programação).

Em vez disto, nós precisamos começar a combater a ética das pessoas por trás das máquinas. Onde fica o código de ética no campo da robótica para ditar o que pode ser construído e o que não pode? Um jovem roboticista seria voltado para qual lado? Quem poderá usar estes sofisticados sistemas e que não poderá? Um drone Predator seria uma tecnologia limitada somente aos militares? Bom, tarde demais, porque o Departamento de Segurança Nacional dos EUA já está voando seis drones Predator na fiscalização de segurança nas suas fronteiras. Do mesmo modo, muitos departamentos locais de polícia estão explorando a compra dos seus próprios drones para sobrevoarem bairros mais criminosos. Eu poderia achar que isto faz sentido, mas só até o drone começar a observar o meu bairro. Mas e eu? Está dentro do meu direito constitucional possuir um robô que porte armas?

Todas estas parecem ser perguntas que só seriam feitas em convenções de ficção científica. Mas este é o meu ponto. Quando falamos hoje sobre robôs, não estamos mais falando de “mera ficção científica”, como um analista do Pentágono descreveu estas tecnologias. Eles são uma parte bastante presente do nosso mundo real.

Máquinas de Comportamento Mortal: uma semana explorando a relação às vezes difícil entre o homem e a tecnologia. O escritor convidado P.W. Singer é o autor de Wired for War: The Robotics Revolution and Conflict in the 21st Century.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas