Elon Musk, o cara que tem medo de robôs assassinos, tem um plano para salvar a humanidade de um apocalipse robótico: desenvolver sistemas avançados de inteligência artificial. Isso mesmo, a mesma tecnologia que poderia nos levar ao apocalipse robótico.

>>> Especialistas alertam ONU sobre os perigos da superinteligência artificial
>>> Como a inteligência artificial pode acabar com a humanidade

Vamos explicar um pouco mais a história.

Na sexta-feira (11), o chefe da Tesla e vários executivos de tecnologia – incluindo Reid Hoffman (cofundador do LinkedIn) e Peter Thiel (cofundador do PayPal) – anunciaram a criação do OpenAI, uma instituição sem fins lucrativos voltada para “avançar a inteligência digital para o benefício da humanidade como um todo, sem a obrigação de gerar um retorno financeiro”.

Os fundadores da companhia já anunciaram um investimento de US$ 1 bilhão em pesquisa nos próximos anos. Musk dividirá a presidência da OpenAI com o investidor Sam Altman.

Como Altman explicou em uma entrevista, a premissa do OpenAI é incentivar o estudo de sistemas de inteligência artificial. Eles também planejam compartilhar o desenvolvimento de tecnologia com todos, e não apenas com acionistas do Google. Isso parece legal.

A parte estranha é a justificativa para a criação do OpenAI: basicamente, Musk e Altman parecem pensar que a revolução do estudo de inteligência artificial é a única forma de nos salvar da SkyNet. Quando Altman foi questionado se acelerar a inteligência artificial não vai dar mais poder a determinadas pessoas, ele respondeu:

Nós nos protegemos contra um Dr. Evil porque a maioria dos humanos são bons, e existe uma força coletiva da humanidade para conter maus elementos, por isso pensamos ser muito mais provável que muitas [aplicações] de inteligência artificial vão impedir possíveis maus elementos, em vez de termos uma única AI um bilhão de vezes mais poderosa que outras.

Se esse sistema sair dos trilhos e o Dr. Evil tomar conta disso, e não houver como contra-atacar, aí estaremos mal.

Então, quando os robôs matadores vierem — pode se preparar, pois eles virão — Musk, Altman e seu grupo de vingadores poderá contra-atacar… com seus próprios robôs matadores? Isso parece aquele argumento de que “um bom rapaz com uma arma pararia um cara do mal com uma arma”, pois a lógica é praticamente a mesma. Exceto pelo fato de ser aplicado em um mundo futurista onde armas nem existirão mais.

Outra ideia? Nós poderíamos parar de desenvolver uma superinteligência artificial. Isso, provavelmente, seria a forma mais segura, se nós realmente acreditarmos que as máquinas vão tentar nos dizimar.

[BackChannel via The Guardian]

Foto por Francois Mori/AP