A concepção comum de um apocalipse tecnologicamente possibilitado prevê uma poderosa inteligência artificial que, deliberada ou acidentalmente, destrói a civilização humana. Porém, conforme aponta um novo relatório da RAND Corporation, a realidade pode ser muito mais sutil: à medida que a IA lentamente corrói as bases que possibilitaram a Guerra Fria, podemos nos ver a caminho de uma guerra nuclear completa.
• Facebook supostamente quer usar inteligência artificial para prever seu “comportamento futuro”
• Fugitivo é preso na China depois de ser identificado por IA em uma multidão de 60 mil pessoas
Existe um “potencial significativo” para a inteligência artificial minar os fundamentos da segurança nuclear, segundo um novo relatório publicado nesta terça-feira (24) pela RAND Corporation, uma organização de pesquisa sem fins lucrativos e apartidária. Essa conclusão sombria foi o produto de uma oficina da RAND envolvendo especialistas em IA, segurança nuclear, governo e forças armadas. O objetivo do workshop, que faz parte do projeto Security 2040, da RAND, foi avaliar os próximos impactos da IA e da computação avançada na segurança nuclear ao longo das próximas duas décadas. À luz de suas descobertas, a RAND está pedindo agora um diálogo internacional sobre o assunto.
No centro dessa discussão está o conceito de dissuasão nuclear, no qual a garantia de “destruição mútua assegurada” (MAD, na sigla em inglês), ou “retaliação garantida”, impede que um lado lance suas armas nucleares contra um adversário igualmente armado. É uma lógica fria e calculista que — pelo menos até este momento de nossa história — impediu uma guerra nuclear total, com as potências racionais e em um pensamento de autopreservação optando por lutar uma Guerra Fria.
Enquanto nenhuma potência nuclear mantiver capacidades significativas de primeiro ataque, o conceito de MAD reina supremo; se um sistema de armas puder sobreviver a um primeiro ataque e reagir com igual força, a destruição assegurada permanecerá em vigor. Mas esse arranjo pode se enfraquecer e se tornar instável no caso de um lado perder sua capacidade de contra-atacar, ou mesmo se começar a acreditar que corre o risco de perder essa capacidade.
Essa equação incentiva as nações a evitar medidas que possam desestabilizar o atual equilíbrio geopolítico, mas, como vimos repetidamente ao longo das últimas décadas, as potências nucleares ainda estão dispostas a disparar o primeiro ataque. Veja: o desenvolvimento de bombardeiros furtivos, submarinos com capacidade nuclear e, mais recentemente, a revelação de um míssil balístico invencível por parte do presidente russo Vladimir Putin.
“Este não é apenas um cenário de filme. Coisas que são relativamente simples podem aumentar as tensões e nos levar a lugares perigosos se não formos cuidadosos.”
Ainda bem que nenhum desses desenvolvimentos de fato acabou com a capacidade de uma superpotência de contra-atacar depois de um primeiro ataque. Porém, conforme o relatório da RAND deixa claro, uma inteligência artificial avançada, junto com tecnologias de vigilância como drones, satélites e outros sensores poderosos, poderia acabar com o equilíbrio técnico que mantém o delicado balanço de Guerra Fria.
A inteligência artificial alcançará isso por meio de vigilância em massa da infraestrutura de um adversário, encontrando padrões invisíveis aos olhos humanos e revelando vulnerabilidades devastadoras, de acordo com o relatório.
“Este não é apenas um cenário de filme”, disse Andrew Lohn, engenheiro na RAND e coautor do estudo, em um comunicado. “Coisas que são relativamente simples podem aumentar as tensões e nos levar a lugares perigosos se não formos cuidadosos.”
Um adversário exposto — de repente ciente de sua vulnerabilidade a um primeiro ataque ou ciente de que logo perderia sua capacidade de reagir — seria colocado em uma posição muito desafiadora. Tal cenário pode obrigar o lado em desvantagem a encontrar maneiras de restaurar o campo de jogo equilibrado, e ele pode começar a agir como um glutão que foi encurralado. A IA avançada poderia introduzir uma nova era de desconfiança e competição, com potências nucleares desesperadas dispostas a assumir riscos catastróficos e, possivelmente, até mesmo em escala existencial.
De forma perturbadora, a iminente perda de uma destruição garantida poderia levar a uma chamada guerra preventiva, em que um conflito é iniciado para impedir que um adversário atinja uma capacidade de ataque. Nos anos que antecederam a Primeira Guerra Mundial, por exemplo, a Alemanha assistiu com grande preocupação à medida que sua rival, a Rússia, começou a emergir como poder regional significativo.
Seus especialistas previram que a Rússia seria capaz de derrotar a Alemanha em um conflito armado dentro de 20 anos, o que levou a uma guerra preventiva. E no período imediatamente posterior à Segunda Guerra Mundial, alguns pensadores nos Estados Unidos, incluindo o filósofo Bertrand Russell e o matemático John von Neumann, pediram um ataque nuclear preventivo à União Soviética antes que ela pudesse desenvolver sua própria bomba.
Como esses exemplos mostram, o período em que os desenvolvimentos estão prestes a interromper uma vantagem militar ou um estado de equilíbrio (ou seja, MAD) pode ser um momento muito perigoso, levando a todos os tipos de ideias malucas. Como os autores do novo relatório da RAND apontam, podemos estar nos encaminhando para outro desses períodos de transição. A inteligência artificial tem “o potencial de exacerbar os desafios emergentes para a estabilidade estratégica nuclear até o ano de 2040, mesmo com taxas modestas de progresso técnico”, escrevem os autores no relatório.
Edward Geist, pesquisador associado de política da RAND e coautor do novo relatório, diz que sistemas autônomos não precisam matar pessoas para minar a estabilidade e tornar a guerra catastrófica mais provável. “Novas capacidades de IA podem fazer as pessoas pensarem que vão perder se hesitar”, disse em um comunicado. “Isso poderia fazer seus dedos coçarem nos gatilhos. A essa altura, a IA estará tornando a guerra mais provável, mesmo que os humanos ainda estejam em ‘controle’.” Os autores alertam para um futuro nebuloso, mas ressaltam que a IA pode ajudar em uma estabilidade sem precedentes. Eles escreveram:
Alguns especialistas temem que uma maior dependência na inteligência artificial possa levar a novos tipos de erros catastróficos. Pode haver pressão para usá-la antes que ela esteja tecnologicamente madura; ela pode estar suscetível à subversão adversária; ou os adversários podem acreditar que a IA é mais capaz do que é, levando-os a cometer erros catastróficos. Por outro lado, se as potências nucleares conseguirem estabelecer uma forma de estabilidade estratégica compatível com as capacidades emergentes que a IA poderia fornecer, as máquinas poderiam reduzir a desconfiança e aliviar as tensões internacionais, diminuindo assim o risco de uma guerra nuclear.
Os autores disseram que é impossível prever qual desses dois cenários acontecerá, mas a comunidade global precisa agir agora para amenizar os riscos potenciais. Em termos de soluções, os autores da RAND propõem discussões internacionais, novas instituições globais e acordos, reconhecimento do problema por nações rivais e o desenvolvimento de garantias tecnológicas, diplomáticas e militares inovadoras.
Essa é a faca de dois gumes da tecnologia. A IA poderia ou lubrificar as engrenagens para a nossa desgraça ou, como aconteceu em filmes como Colossus 1980 (1970) e Jogos de Guerra (1983), nos proteger de nós mesmos. Nesse caso, é melhor adotar o velho ditado em que somos lembrados de torcer pelo melhor enquanto nos planejamos para o pior.
Imagem do topo: AP