Google está criando um botão de desligar para não criar a Skynet acidentalmente

Os robôs vão superar os humanos algum dia? Inteligências artificiais podem sair do controle, então é melhor dar um jeito de desligá-las antes que isso aconteça.

Existem dois lados no debate sobre o futuro da inteligência artificial. De um lado temos empresas como Google, Amazon, Facebook e Microsoft, que investem agressivamente na tecnologia e esperam conseguir criar sistemas de AI cada vez mais inteligentes. Do outro lado, nomes como Elon Musk e Stephen Hawking acham que a inteligência artificial representa uma grande ameaça à humanidade.

>>> Google quer que a sua inteligência artificial também seja artista
>>> Estudantes foram enganados por uma assistente baseada em inteligência artificial

Agora uma das mais avançadas inteligências artificiais do mundo, a DeepMind do Google, vai adotar medidas de segurança caso operadores humanos precisem “assumir o controle de um robô que se comporta mal e que pode levar a consequências irreversíveis”, o que acredito que inclua, mas não se limite, a exterminar a humanidade. No entanto, o artigo não chega a ser tão apocalíptico e usa exemplos simples, como robôs trabalhando em uma fábrica.

Um documento chamado “Safety Interruptible Agents” (agentes interruptores de segurança, em tradução livre), foi feito em uma parceria entre Google e o Instituto do Futuro da Humanidade da Universidade de Oxford que, como sugere o nome, quer que a humanidade tenha um futuro. O diretor Nick Bostrom fala sobre os possíveis perigos do desenvolvimento de inteligências artificiais há algumas décadas, e escreveu livros discutindo consequências de robôs super-inteligentes.

O artigo investiga como fazer para desligar a inteligência artificial se ela começar a fazer alguma coisa que operadores humanos não querem que faça. Ele está cheio de detalhes matemáticos que 99% da humanidade jamais vai entender, que basicamente descrevem métodos de construção do que os autores chamam de “grande botão vermelho” de uma AI.

>>> Por que sempre queremos apertar o botão vermelho

Os pesquisadores devem ter visto os mesmos filmes que a gente. Aqueles em que os robôs aprendem a ignorar comandos para desligar. E eles se prepararam para isso:

Este artigo explora uma forma de garantir que um agente de aprendizagem não vai aprender a prevenir ser interrompido pelo ambiente ou por um humano operador.

Parece uma limitação desnecessária considerando que as mais impressionantes conquistas de AI já vistas pela humanidade envolvem jogos de tabuleiro. Mas Bostrom já teorizou antes que só precisamos construir uma inteligência artificial de nível humano para os cérebros robóticos irem além do que imaginamos:

Assim que a inteligência artificial atinge o nível humano, haverá um retorno positivo que vai impulsionar o desenvolvimento. AIs vão ajudar a construir novas AIs, que por sua vez vão ajudar a fazer AIs melhores, e assim em diante.

É melhor prevenir do que remediar.

[Intelligence.org via Business Insider]

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas