Alguém se lembra do filme de ficção científica Ameaça Invisível – Stealth, de 2005? Pelo que me lembro, envolve um avião de combate secreto e artificial da Força Aérea dos EUA que se rebela contra seus criadores quando é atingido por um raio. Já deu para notar que as coisas não saem nada bem. E por que eu trago essa referência? Porque algo bem parecido está acontecendo no mundo real.

Militares dos Estados Unidos estão um passo mais perto de criar um avião independente que, espero eu, não se torne incontrolável como aquele visto no filme de quinze anos atrás. De acordo com a Air Force Magazine, uma inteligência artificial (IA) venceu, por um placar de 5 a 0, um piloto humano não identificado em um voo simulado de aviões de caça durante os testes AlphaDogfight da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA).

Desenvolvida pela empresa Heron Systems, a IA venceu sete concorrentes de outras companhias antes de enfrentar “Banger”, um piloto da Guarda Aérea Nacional do Distrito de Columbia e recém graduado do Curso de Instrutor de Armas para caças no modelo F-16, da Escola de Armas da Força Aérea. Banger fechou o curso com mais de 2 mil horas de voo em F-16. Outros participantes do concurso incluíram empresas e entidades como Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Lockheed Martin, Perspecta Labs, PhysicsAI e SoarTech.

A tecnologia da Heron Systems se baseia em uma técnica chamada “aprendizado por reforço intenso”, que permite ao programa executar continuamente várias soluções de teste para um determinado problema e aprender o que funciona e o que não funciona.

Nos testes, a IA estava amarrada a certas restrições: junto com Banger, ela só poderia voar dentro de limites realistas, e ambos tinham permissão para disparar o canhão M61 Vulcan simulado (sem mísseis ar-ar para destruir outra aeronave). Mas o piloto artificial tinha outras vantagens, como a capacidade de tomar decisões em microssegundos e a percepção de todas as variáveis ​​do sistema e do computador, enquanto Banger usava um headset de realidade virtual e operava em um simulador, não um jato real.

A inteligência artificial foi capaz de manobrar e destruir a aeronave de Banger em todas as cinco rodadas, embora o piloto humano tenha sobrevivido por mais tempo a cada rodada. Ao site The Next Web, Banger disse que, depois de ser abatido nas primeiras quatro vezes, ele tentou ajustar sua abordagem acelerando para 800 km/h e baixando seu jato para uma altura de 3.962 metros.

“As coisas padrão que fazemos como pilotos de caça não estão funcionando. Então, para este último teste, vou tentar mudar um pouco para ver se podemos fazer algo diferente”, disse Banger durante a simulação. “Essa curva inicial é onde eu perco muitas vidas. Eu só tenho que procurar oportunidades para minimizar essa distância de separação do adversário, tentar trazê-lo de volta para que eu me aproxime ou permaneça fora da área”, completou.

Inicialmente, o truque pareceu funcionar porque a inteligência artificial da Heron não conseguia abaixar sua arma longe o suficiente para atingir o Banger – mas a vantagem durou apenas alguns segundos. O avião pilotado por computador rapidamente ajustou o curso e nocauteou Banger outra vez.

O comandante Vincent “Jell-O” Aiello, ex-piloto da Marinha dos EUA e apresentador do podcast The Fighter Pilot, disse à Forbes que, de longe, os humanos ainda têm uma vantagem em qualquer coisa que se assemelhe a condições realistas.

“Os humanos provaram ser excelentes em uma área importante ao enfrentar a IA – eles sabem como lidar com o tipo de incerteza encontrada nos combates de hoje. O combate não ocorre em ambientes estéreis e estáticos. Ocorre em 3D, em tempo real, onde o clima, seu adversário e uma série de outros fatores entram em jogo”, explicou Aiello.

De acordo com a Air Force Mag, a primeira fase do projeto da DARPA está programada para terminar no final deste ano. A próxima etapa consistirá em duas fases sucessivas de 16 meses nas quais a inteligência artificial será instalada em aviões progressivamente maiores. A agência espera extrair algum tipo de vantagem até 2024, com o objetivo final de fazer com que o sistema lide com aspectos específicos de voo, como manobra e seleção de alvos (presumivelmente aderindo à política de assassinato de IA dos militares dos EUA, que no papel determina que os humanos sejam capazes de “exercer níveis apropriados de julgamento humano sobre o uso da força”). A DARPA espera que, eventualmente, os pilotos possam contar com a IA para lidar com algumas tarefas no meio de uma batalha:

No futuro, esses esforços passarão de simuladores para teste de voo real com armas simuladas. Aeronaves equipadas com IA terão “pilotos de segurança” a bordo para garantir que nada dê errado, embora o software deva ser projetado para evitar acidentes. Esses testes verificarão com que frequência os pilotos contam com o sistema de IA para lidar com as tarefas e como os humanos lidam com a própria missão de gerenciamento de batalha, enquanto a IA faz todo o resto.

Em 2018, centenas de empresas e milhares de especialistas em IA, cientistas e pesquisadores assinaram uma carta aberta jurando que nunca usariam suas habilidades para criar máquinas militares de matar com IA, dizendo que tais armas representariam um “perigo claro e presente para os cidadãos de todos os países do mundo”. Falhas de funcionamento, variáveis ​​ambientais, hacks bem-sucedidos e outros fatores podem resultar em armas totalmente autônomas visando civis, forças amigas, rendição de inimigos ou outros alvos incorretos – ou podem ser usadas ​​propositalmente para atingir qualquer alvo na linha de fogo.

O coronel Daniel Javorsek, gerente do programa DARPA ACE, disse à Air Force Magazine que um “avião totalmente autônomo ainda está muito longe” – os testes atuais são para checar se o conceito é “viável”. Javorsek acrescentou que, mesmo que um sistema perfeito estivesse disponível hoje, levaria uma década para integrá-lo aos caças.