Centenas de empresas e milhares de indivíduos, muitos deles pesquisadores e engenheiros proeminentes nos campos de robótica e inteligência artificial, prometeram, nesta quarta-feira (18), nunca aplicar suas habilidades na criação de máquinas mortíferas autônomas.

Liderados pelo Future of Life Institute (FLI), uma ONG de Boston, 160 empresas ligadas a IA em 36 países e 2.400 indivíduos de 90 países assinaram o compromisso. No documento, eles afirmam que armas autônomas representavam “um perigo claro e presente para cidadãos de todos os países do mundo”. Por isso, se comprometem a não participar de seu desenvolvimento.

“A inteligência artificial (IA) está pronta para desempenhar um papel crescente em sistemas militares”, diz o compromisso. “Existem uma oportunidade e uma necessidade urgentes para que cidadãos, legisladores e líderes definam os usos aceitáveis e inaceitáveis da IA.”

Os signatários, que se juntam a 26 países da ONU que explicitamente pediram uma proibição de armas autônomas letais, incluem a DeepMind, principal grupo de pesquisa de IA do Google; a Associação Europeia para a Inteligência Artificial; a ClearPath Robotics/OTTO Motors; a XPRIZE Foundation, Sociedade Sueca de IA; e a University College London, entre outras.

Os líderes em pesquisa de inteligência artificial Demis Hassabis, Stuart Russel, Yoshua Bengio, Anca Dragan, Toby Walsh e o fundador da Tesla e da SpaceX, Elon Musk, estão entre os indivíduos que também assinaram o compromisso.

“Não podemos entregar a decisão de quem vive e quem morre a máquinas”, disse Walsh, professor de inteligência artificial na Universidade de New South Wales, em Sydney, na Austrália. Ele acrescenta que sistemas de armas autônomas letais, ou LAWS, na sigla em inglês, “não têm a ética para fazer isso”.

Aproximadamente um ano atrás, 116 especialistas, entre eles Musk e o expert em IA do Google Mustafa Suleyman, pediram que a ONU proibisse máquinas mortíferas autônomas, chamando-as de “armas de terror”. “Não temos muito tempo para agir”, alertaram os especialistas. “Uma vez que essa Caixa de Pandora seja aberta, será difícil fechá-la.”

Na esteira da escalada do uso de drones militares pelo governo dos EUA ao redor do mundo, engenheiros e cientistas avisaram que máquinas autônomas serão vulneráveis a hackers. Por isso, elas podem ser tomadas de assaltado e usadas contra populações inocentes. No futuro, agentes mal-intencionados inevitavelmente poderiam obtê-las facilmente e, depois disso, até mesmo fabricá-las por conta própria.

Tentando ilustrar como seria a vida sob a ameaça de drones assassinos autônomos, o Future of Life Institute ajudou a produzir o vídeo “Slaughterbots” (abaixo). Em certo momento, ele retrata o assassinato de milhares de estudantes universitários. Os estudantes, identificados usando reconhecimento facial, foram tomados como alvos por um agente desconhecido, depois de compartilhar um vídeo nas redes sociais “expondo a corrupção”. O vídeo foi criado pela “Campanha para Deter Robôs Assassinos“, uma coalizão internacional que trabalha para proibir armas autônomas, da qual o Future of Life Institute faz parte.

“Nenhuma nação estará segura, não importa o quão poderosa seja”, disse o CEO da Clearpath Robotics, Ryan Gariepy, em um comunicado.

Cofundador do Skype e membro do FLI, Jaan Tallinn, disse ao Gizmodo que armas que não exigem operadores humanos são a “ferramenta perfeita” para terroristas e estados párias. “Por definição”, disse, “elas não exigem muita mão-de-obra, e seu uso provavelmente será difícil de se atribuir (assim como ciberataques são difíceis de se atribuir hoje em dia)”.

“Ironicamente, ao apoiar o desenvolvimento de armas autônomas”, acrescentou Tallinn, “as forças militares existentes podem acabar entregando seu poder a agentes não-estatais e grupos marginais”.

Os signatários do Lethal Autonomous Weapons Pledge (“Compromisso de Armas Autônomas Letais”, em tradução livre) pediram ainda que a ONU desenvolva um compromisso entre os países que levará à proibição dessas armas. A Organização das Nações Unidas se reunirá sobre a questão das armas autônomas em agosto.

O texto completo do compromisso está abaixo:

A inteligência artificial (IA) está pronta para desempenhar um papel crescente em sistemas militares. Existem uma oportunidade e uma necessidade urgentes para que cidadãos, legisladores e líderes distinguam os usos aceitáveis e inaceitáveis da IA.

À luz disso, nós, os signatários, concordamos que a decisão de tirar uma vida humana nunca deveria ser delegada a uma máquina. Existe um componente moral nessa posição, de que não deveríamos permitir que máquinas tomem decisões de vida ou morte pelas quais outros — ou ninguém — serão culpados. Existe também um poderoso argumento pragmático: armas autônomas letais selecionando e engajando alvos sem intervenção humana seriam perigosamente desestabilizadoras para todos países e indivíduos. Milhares de pesquisadores de IA concordam que, ao remover o risco, a imputabilidade e a dificuldade de se tirar vidas humanas, armas autônomas letais poderiam se tornar poderosos instrumentos de violência e opressão, especialmente quando ligadas a sistemas de vigilância e de dados. Além disso, armas autônomas letais têm características muito diferentes de armas nucleares, químicas e biológicas, e as ações unilaterais de um único grupo poderiam facilmente desencadear uma corrida armamentista para as quais a comunidade internacional não tem ferramentas técnicas e sistemas de governança global para lidar. Estigmatizar e evitar que tal corrida armamentista aconteça deveria ser uma grande prioridade para a segurança nacional e global.

Nós, os signatários, pedimos aos governos e líderes governamentais que criem um futuro com normas, regulações e leis internacionais fortes contra armas autônomas letais. Sem a presença dessas, nós optamos por nos manter em um alto padrão: não vamos participar ou apoiar o desenvolvimento, a fabricação, o comércio ou o uso de armas autônomas letais. Pedimos que empresas de tecnologia e organizações, assim como líderes, legisladores e outros indivíduos, se juntem a nós nesse compromisso.

Reportagem adicional por George Dvorsky.

Imagem do topo: Getty