_Tecnologia

Stephen Hawking diz que a inteligência artificial pode ser o “maior erro na história”

O físico mais conhecido do mundo está nos alertando dos riscos da superinteligência das máquinas, dizendo que essa pode ser a coisa mais significativa a acontecer na história da humanidade – e possivelmente a última. A superinteligência artificial representa uma ameaça em potencial à humanidade, então é bom ver um cientista respeitado como Stephen Hawking […]

O físico mais conhecido do mundo está nos alertando dos riscos da superinteligência das máquinas, dizendo que essa pode ser a coisa mais significativa a acontecer na história da humanidade – e possivelmente a última.

A superinteligência artificial representa uma ameaça em potencial à humanidade, então é bom ver um cientista respeitado como Stephen Hawking reconhecer a questão e fazer o que pode para espalhar a mensagem.

Hawking, junto com o cientista da computação Stuart Russell e os físicos Max Tegmark e Frank Wilczek, diz que os potenciais benefícios podem ser imensos, mas não podemos prever o que pode ser conseguido quando a inteligência artificial estiver bem desenvolvida – nem o que pode vir de bom nisso, nem o que pode acontecer de ruim.

Escrevendo para a The Independent, o cientista alerta:

Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos. Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.

Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.

Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial. Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos.

Você pode ler o artigo completo – em inglês – aqui.

Sair da versão mobile