A invasão russa na Ucrânia levantou discussões sobre a necessidade de regras sobre o uso de armas totalmente autônomas ou controladas por inteligência artificial (IA). Afinal, elas também são propensas a erros, podendo atingir alvos por engano e vitimar civis.

Na guerra moderna, drones utilizam algoritmos para decidir quando e onde o alvo será atingido. A tecnologia garante precisão cirúrgica, evitando erros humanos e reduzindo a morte de civis (ou mesmo de militares). Porém, em países como Ucrânia, com várias usinas nucleares, um míssil disparado por engano pelo software pode gerar um desastre de proporções globais.

Por mais que a Rússia esteja atualmente no centro da polêmica, outros países também têm desenvolvido armas controversas, como China e os Estados Unidos. Praticamente todos os mísseis americanos contam atualmente com sistemas avançados de GPS, câmeras precisas e sensores infravermelhos. O exército dos EUA também vem utilizando drones de combate autônomos e vem contratando empresas como Microsoft e Amazon para serviços de IA. Mas, claro, o país não é o único.

No ano passado, por exemplo, o Conselho de Segurança da ONU afirmou que um drone turco parece ter disparado de forma totalmente autônoma um míssil que matou um homem. Esta pode ter sido a primeira vez que uma máquina decidiu por conta própria que alguém deveria morrer.

A regulamentação das armas inteligentes

Organizações defendem que a inteligência artificial ainda é imatura e propensa a erros, atingindo invariavelmente alvos errados. Além da desumanização das batalhas, a IA é vista como uma tecnologia apocalíptica, tornando os campos de batalha cada vez mais sombrios.

Por outro lado, os países veem o uso de armas inteligentes como um meio mais rápido, eficaz e barato de atingir potenciais alvos, sem arriscar tropas ou usar de grandes sistemas de armas — que tornam a guerra mais cara.

Enquanto a Ucrânia era bombardeada, a ONU realizou no início de março a “Convenção sobre Certas Armas Convencionais”. Entre os assuntos debatidos foi a criação de um tratado sobre o uso de armas autônomas letais em conflitos armados. Porém, a regulamentação de armas inteligentes já se arrasta na ONU há mais de sete anos e sem chegar a um consenso internacional.