_Tecnologia

Porque a insurreição de Exterminadores (provavelmente) nunca acontecerá

Em março, quando eu entrevistei P.W. Singer, o autor de Wired for War, ele me disse que as precondições para uma insurreição bem-sucedida de Exterminadores não foram atingidas. No entanto, conforme se acelera o desenvolvimento dos computadores, estas precondições tornam-se bem mais possíveis.

Em março, quando eu entrevistei P.W. Singer, o autor de Wired for War, ele me disse que as precondições para uma insurreição bem-sucedida de Exterminadores não foram atingidas. No entanto, conforme se acelera o desenvolvimento dos computadores, estas precondições tornam-se bem mais possíveis.

Assim sendo, quais são as precondições, de acordo com Singer?

1) A IA ou o robô precisa ter senso de autopreservação e ambição para querer poder ou temer a perda dele.

2) Os robôs precisam ter eliminado toda e qualquer dependência dos humanos.

3) Os humanos precisam ter omitido controles de segurança para que não haja maneira de desligar os robôs ou IA.

4) Os robôs precisam obter estas vantagens de maneira que os humanos se surpreendam.

No momento, diz Singer, estas condições não existem. “Nos filmes da série Exterminador do Futuro, a Skynet obtém superinteligência, descobre que os humanos um dia a desligarão e pensa: ‘É melhor eu atacar primeiro’”. No entanto, nos exércitos de hoje “estamos construindo robôs especificamente para irem lá e serem mortos”. Ele acrescenta: “ninguém está construindo os robôs para que eles tenham um instinto de sobrevivência – eles de fato os estão construindo para o efeito diametralmente oposto”.

Quanto à dependência humana, os robôs podem fazer cada vez mais o serviço sujo dos humanos, mas eles ainda precisam destes sacos de carne para cuidar da roupa suja deles. “O drone Global Hawk pode ser capaz de decolar sozinho, voar sozinho, mas ele ainda precisa de alguém para colocar gasolina nele”. Ainda assim, não é muito difícil ver como esta precondição poderia algum dia ser suprida.

A discussão quanto aos controles de segurança é surpreendentemente bilateral. “Parece um tanto estranho que as pessoas que cresceram assistindo a Exterminador do Futuro nos cinemas não pensem ‘Puxa, seria bom se tivéssemos uma chave “Desligar” aqui’”. Mas, por outro lado, “inteligências artificiais brilhantes poderiam muito bem descobrir uma maneira de contorná-la”. Além disso, “nós não queremos que este controle seja de ativação tão fácil, porque não queremos um robô que chegue até o Bin Laden e que possa ser desligado bastando-se passar a mão por trás dele e apertar um botão”.

Nós, é claro, assumimos que os robôs nunca terão o elemento da surpresa. “Você não gera robôs superinteligentes sem antes ter robôs semi-superinteligentes, e por aí vai. Em cada um destes estágios, alguém precisa dar uma freada”. O mais assutador é que Singer admite que o crescimento exponencial de máquinas superespertas pode de fato um dia nos pegar de surpresa. “Ao pensarmos direito, as coisas estão acontecendo rápidas demais para as pessoas perceberem”.

Independente de quais precondições são deliberadamente prevenidas, há um ponto na linha de tempo de todo futurista no qual os computadores passam a ser “mais espertos” que os humanos em termos de pura capacidade cerebral. E independente do que acontece até este ponto, o jogo será então mudado completamente. “Nos filmes Exterminador do Futuro, a Skynet tanto engana quanto coage as pessoas a cumprirem suas ordens”. Como impedimos que isto aconteça?

“Algumas pessoas dizem: ‘É só não trabalharmos em cima destes sistemas. Se há tantas coisas que possam sair disso que são potencialmente perigosas, por que não simplesmente paramos?’”, diz Singer. “Nós podemos fazer isso, contanto também interrompamos a guerra, o capitalismo e o instinto humano pela ciência e pela invenção”. [Mais da minha entrevista com P.W. Singer]

Máquinas de Comportamento Mortal: uma semana explorando a relação às vezes difícil entre o homem e a tecnologia.

Sair da versão mobile