_Ciência

Stephen Hawking estava certo ao se preocupar com nossa iminente ruína

O físico Stephen Hawking morreu nesta quarta-feira (14) aos 76 anos de idade. Nos últimos estágios de sua ilustre carreira, Hawking dedicou uma considerável quantidade de tempo e esforço para alertar sobre futuras ameaças – dos perigos da mudança climática e da guerra nuclear até a superinteligência artificial e invasões alienígenas. E por razão disso […]

O físico Stephen Hawking morreu nesta quarta-feira (14) aos 76 anos de idade. Nos últimos estágios de sua ilustre carreira, Hawking dedicou uma considerável quantidade de tempo e esforço para alertar sobre futuras ameaças – dos perigos da mudança climática e da guerra nuclear até a superinteligência artificial e invasões alienígenas. E por razão disso era costumeiro ele ser ridicularizado. Entretanto, Hawking estava certo – e seria negligente da nossa parte não levar em consideração os seus conselhos.

Físico Stephen Hawking morre aos 76 anos
• Stephen Hawking diz que a inteligência artificial pode ser o “maior erro na história”
• Stephen Hawking e bilionário russo querem construir nanonaves interestelares

Quando Hawking não estava falando sobre gravitação quântica euclidiana, singularidades nuas, ou radiação escoante de buracos negros, existia uma boa chance que o professor de matemática lucasiana de Cambridge estivesse agindo de forma alarmista, dizendo a sua platéia global que o céu sobre nós um dia cederia, caso continuássemos a ignorá-lo.

Para Hawking, não existiam poucas maneiras para exemplificar como o céu sucumbiria. No início de sua carreira, ele nos alertou sobre cometas e asteroides, mas no começo deste século ele passou a concentrar sua atenção nas feridas que infligimos em nós mesmos. Em 2006, aos 64 anos, com virtualmente mais nada para provar, Hawking postou a seguinte questão online: “Em um mundo que está em caos político, social e ambiental, como a raça humana poderá se manter por mais cem anos?”. Mais de 25 mil pessoas deram suas opiniões, com muitos pedindo conselhos para Hawking. “Eu não sei a resposta”, ele respondeu. “Por isso perguntei”.

No mesmo período, em um outro momento de mudança de humor, Hawking disse durante uma conferência em Hong Kong que a vida na Terra “corre um crescente risco de ser exterminada por um desastre, como uma súbita guerra nuclear, um vírus geneticamente projetado ou outros perigos que ainda não pensamos”. Dessa vez, no entanto, ele ofereceu uma resposta ao problema: colonize outros planetas ou definhe.

Alertas

A visão de Hawking sobre a humanidade se tornou sombria, e em 2010 ele alertava por uma invasão alienígena, dizendo, “Temos apenas que olhar para nós mesmos para ver como a vida inteligente pode se desenvolver em algo que não gostaríamos de conhecer”. Em seu livro de 2012, Stephen Hawking: His Life and Work (Vida e Obra, em tradução livre), a autora Kitty Ferguson escreveu como o físico via vírus de computadores e porque ele achava que estes eram novas formas de vida. “Talvez isso diga algo sobre a natureza humana, que a única forma de vida que criamos até então é puramente destrutiva”, disse Hawking. “Isso que é criar vida de acordo com a sua própria imagem”.

Recentemente, Hawking começou a discutir suas preocupações sobre inteligência artificial. Em 2014, ele disse que a inteligência artificial era o nosso “maior erro da história”, e assinou uma carta aberta alertando sobre os riscos dessa inteligência, juntamente de outras figuras públicas que concordam com a ideia, incluindo o CEO da SpaceX, Elon Musk, o físico Sir Martin Rees, e o biólogo George Church.

“Pode-se imaginar como tal tecnologia pode ludibriar mercados financeiros, superar pesquisadores humanos, manipular lideres humanos e desenvolver armas que não podemos nem mesmo entender”, ele escreveu para uma coluna no Independent juntamente do cientista da computação Stuart Russell e os físicos Max Tegmark e Frank Wilczek. “Apesar de a curto prazo a inteligência artificial depender de quem a controla, o impacto a longo prazo depende se ela pode de algum modo ser controlada”. Um ano depois, ele adicionou o seu nome em uma carta aberta pedindo pelo banimento de máquinas mortais autônomas.

Neste ponto de sua carreira, Hawking começou a soar um tanto redundante. Ele repetidamente pedia pela colonização de outros planetas conforme riscos como “mudança climática, colisão de meteoros, epidemias e crescimento populacional” começaram a soar monótonos, e as pessoas passaram a minimizá-lo – Gizmodo incluso. Exceto pelos tabloides, é claro, que alegremente repetiam seus temíveis alertas sem pausa.

Fadiga da condenação à parte, a morte de Hawking nos dá uma oportunidade de refletir sobre seus alertas. Como alguém que extensivamente escreveu sobre as muitas maneiras que a humanidade pode encerrar sua ocupação na Terra, tenho muito pouco a reclamar sobre as últimas perspectivas do físico.

É um saco de ouvir, mas ele estava certo. Estamos em grande apuro. E precisamos fazer algo.

Legado

Ano passado, por exemplo, o Projeto de Prioridades Globais da Universidade de Oxford listou impactos de asteroides, aquecimento global, inteligência artificial, e pandemias globais entre os riscos de curto prazo que a humanidade corre. Com o clima geopolítico mudando, não temos escolha a não ser nos preocupar – de novo – de uma possível guerra nuclear.

A visão de Hawking de alienígenas malevolentes pode ter violado a concepção popular de amigáveis visitantes extraterrestres, mas ele estava certo em estar aterrorizado. Ao mesmo tempo, não são poucos os riscos existenciais no nosso futuro, seja na forma de inteligência artificial má programada, um apocalipse causado por nanotecnologias, ou um retorno a uma era totalitária distópica.

Mas é claro, Hawking não chegou a essas conclusões do nada, nem era o único a fazer estes alertas. Ele apenas era excepcionalmente vocal quanto a elas, e por causa de seu alcance extraordinário, ele podia comunicar sua mensagem para uma grande audiência global. É por isso que ele foi apelidado de Chicken Little [expressão em inglês que significa alarmista], e porque se tornou tão comum associar a estes cenários de fim do mundo exclusivamente a ele.

A melhor maneira de honrar o legado de Hawking, em minha opinião, é se inspirar em seus conselhos e em sua persistência. Ele poderia até soar misantropo em alguns casos, mas seus alertas eram acompanhados de boas intenções. Apesar de suas dificuldades físicas, que ele teve que enfrentar por muitos anos, Hawking nunca passou a impressão de ter desistido da vida, e por causa de seus incansáveis alertas, ele também nunca desistiu da humanidade.

Sim, o futuro parece assustador – mas como diversas vezes reiterou Hawking, a pior coisa que podemos fazer quando uma ameaça aparece no horizonte é enfiar nossas cabeças em buracos.

Imagem de topo: AP

Sair da versão mobile