A inteligência artificial em sua forma atual é inofensiva, mas isso não vai durar muito tempo. As máquinas estão ficando mais inteligentes e mais capazes a cada minuto, o que leva a preocupações de que a IA acabará se equiparando e depois excedendo os níveis humanos de inteligência – uma possibilidade conhecida como superinteligência artificial (ASI na sigla em inglês).

Como uma perspectiva tecnológica, a ASI será diferente de tudo que já encontramos antes. Não temos experiência prévia para nos guiar, o que significa que vamos ter que juntar nossas cabeças coletivamente e começar a nos preparar. Não é exagero dizer que a existência da humanidade está em jogo – por mais difícil que seja ouvir e admitir isso – e dado que não há consenso sobre quando podemos esperar encontrar nossos novos senhores digitais, caberia a nós começarmos a nos preparar agora para essa possibilidade, e não esperar até alguma data arbitrária no futuro.

No horizonte

De fato, o retorno de um inverno de IA, um período no qual as inovações da IA ​​diminuem sensivelmente, não parece mais provável. Alimentada principalmente pelos poderes do aprendizado de máquina, entramos em uma era de ouro da pesquisa da IA, e sem um aparente fim em vista.

Nos últimos anos, assistimos a progressos surpreendentes em áreas como aprendizagem independente, previsão, navegação autônoma, visão computacional e gameplay de vídeo. Os computadores agora podem negociar ações na ordem de milissegundos, carros automatizados estão aparecendo cada vez mais em nossas ruas e assistentes artificialmente inteligentes invadiram nossas casas. Os próximos anos vão nos apresentar ainda mais avanços, incluindo a IA que pode aprender através de suas próprias experiências, adaptar-se a situações novas e compreender abstrações e analogias.

“Por definição, a ASI entenderá o mundo e os humanos melhor do que nós entendemos, e não é óbvio como poderíamos controlar algo assim”.

Não sabemos quando a ASI surgirá ou qual será a forma que irá tomar, mas os sinais de sua chegada iminente estão começando a aparecer.

No ano passado, por exemplo, em um torneio de Go de computador contra computador, o AlphaGo Zero (AGZ) de DeepMind, derrotou o AlphaGo normal por uma pontuação de 100 jogos a zero. Incrivelmente, o AGZ precisou de apenas três dias para treinar a partir do zero, período durante o qual adquiriu literalmente milhares de anos de experiência de jogo em humanos.

Como os pesquisadores da DeepMind notaram, agora é “possível treinar [máquinas] para um nível sobre-humano, sem exemplos humanos ou orientação, sem precisar fornecer nenhum conhecimento do domínio além das regras básicas”. Foi um lembrete gritante de que os desenvolvimentos neste campo são suscetíveis a rápidas melhorias dramáticas e imprevisíveis, e que estamos entrando em uma nova era – a era das máquinas superinteligentes.

“Segundo várias estimativas, os supercomputadores podem – ou poderão no futuro próximo – realizar mais operações elementares por segundo do que os cérebros humanos, por isso talvez já tenhamos o hardware necessário para competir com cérebros”, disse Jaan Tallinn, programador, membro fundador do Skype, e cofundador do Centre for the Study of Existential Risk (Centro para o Estudo do Risco Existencial), um centro de pesquisa da Universidade de Cambridge preocupado com cenários de extinção humana. “Além disso, muitos esforços de pesquisa estão agora sendo direcionados para a ‘meta-aprendizagem’ – ou seja, desenvolver IAs que seriam capazes de projetar IAs. Portanto, o progresso da IA ​​pode, em algum momento, simplesmente dissociar-se das velocidades e prazos humanos”.

Esses e outros desenvolvimentos provavelmente levarão à introdução da AGI, também conhecida como inteligência geral artificial. Ao contrário da inteligência artificial limitada (ANI), que é muito boa em resolver tarefas especializadas, como jogar go ou reconhecer rostos humanos, a AGI exibirá proficiência em vários domínios. Esta poderosa forma de IA será mais ‘humana’ em suas habilidades, adaptando-se a novas situações, aprendendo uma ampla variedade de habilidades e executando uma extensa variedade de tarefas. Quando alcançarmos a AGI, o passo para a superinteligência será curto – especialmente se indicarmos para as AGIs criarem versões cada vez melhores de si mesmas.

“É difícil prever o avanço tecnológico, mas alguns fatores indicam que a AGI e a ASI podem ser possíveis nas próximas décadas”, disse Yolanda Lannquist, pesquisadora de políticas de IA da The Future Society, um grupo de especialistas sem fins lucrativos preocupado com os impactos das tecnologias emergentes. Ela aponta para as empresas que atualmente trabalham para o desenvolvimento da AGI, incluindo o Google DeepMind, GoodAI, Araya Inc., Vicarious, SingularityNET, entre outros, incluindo equipes menores e indivíduos em universidades. Ao mesmo tempo, Lannquist disse que a pesquisa sobre ANI pode levar a avanços na direção da AGI, com empresas como Facebook, Google, IBM, Amazon, Apple, OpenAI, Tencent, Baidu e Xiaomi, pois estão investindo pesado em pesquisa de inteligência artificial.

Com a IA cada vez mais entrando em nossas vidas, estamos começando a ver problemas únicos, particularmente nas áreas de privacidade, segurança e justiça. Grupos que discutem a ética da Inteligência Artificial estão começando a se tornar comuns, por exemplo, juntamente com projetos de padrões para garantir a inteligência segura e ética da máquina. Olhando para o futuro, teremos que lidar com desenvolvimentos como o enorme desemprego tecnológico, o surgimento de máquinas autônomas de matar (incluindo drones armados), hacks ativados por IA e outras ameaças.

Além dos níveis humanos de compreensão e controle

Mas estes são problemas do presente e do futuro próximo, a maioria de nós pode concordar que medidas devem ser tomadas para mitigar esses aspectos negativos da IA. Mais controversa, no entanto, é a sugestão que devemos começar a nos preparar para o advento da superinteligência artificial – que anuncia o momento em que as máquinas irão superar os níveis humanos de inteligência em várias ordens de grandeza. O que torna a ASI particularmente perigosa é que ela vai operar além dos níveis humanos de controle e compreensão. Devido ao seu tremendo alcance, velocidade e capacidade computacional, a ASI será capaz de realizar virtualmente qualquer coisa para a qual esteja programada ou decida fazer.

“Imaginar cenários apocalípticos inspirados na superinteligência artificial (ou ASI) é, na verdade, desnecessário; nós já temos todos os meios para nos destruirmos.”

Existem muitos cenários extremos que vêm à mente. Armada de poderes sobre-humanos, uma ASI poderia destruir nossa civilização, por acidente, desentendimento ou deliberadamente.

Por exemplo, poderia transformar nosso planeta em geléia após um simples mal-entendimento de seus objetivos (o alegórico cenário do clips de papel é um bom exemplo), remover a humanidade como um incômodo ou acabar com nossa civilização e infraestrutura enquanto ela se esforça em se auto-aperfeiçoar ainda mais. Isto é possibilidade que os teóricos da IA ​​chamam de auto-aperfeiçoamento recursivo.

Se a humanidade embarcar em uma corrida armamentista de inteligência artificial com nações rivais, uma ASI armada poderia sair do controle, seja em tempo de paz ou durante uma guerra. Uma ASI poderia intencionalmente acabar com a humanidade destruindo a atmosfera ou a biosfera do nosso planeta com nanotecnologia auto-replicadora. Ou poderia disparar todas as nossas armas nucleares, desencadear um apocalipse robô como no Exterminador do futuro ou liberar alguns poderes da física que sequer conhecemos. Usando genética, cibernética, nanotecnologia ou outros meios à sua disposição, uma ASI poderia nos transformar em autômatos irracionais, pensando que estaria nos fazendo algum tipo de favor na tentativa de pacificar nossas naturezas violentas. As ASIs rivais poderiam travar uma guerra contra elas mesmas em uma batalha por recursos, destruindo o planeta no processo.

Claramente, não temos escassez de idéias, mas conjurar cenários apocalípticos inspirados na ASI é realmente muito além do ponto; nós já temos isso dentro de nossos meios para nos destruir, e não será difícil para a ASI criar seus próprios meios para nos destruir.

A perspectiva, reconhecidamente, parece ficção científica, mas um número crescente de pensadores proeminentes e cidadãos preocupados estão começando a levar essa possibilidade muito a sério. Tallinn disse que uma vez que a ASI surgir, ela nos confrontará com novos tipos de problemas.

“Por definição, a ASI entenderá o mundo e os humanos melhor do que nós entendemos, e não é óbvio como poderíamos controlar algo assim”, disse Tallinn. “Se você pensar a respeito, o que acontece com os chimpanzés não depende mais deles, porque nós humanos controlamos seu ambiente já que somos mais inteligentes. Devemos trabalhar no alinhamento da IA ​​[deixando-a amigável aos humanos e aos interesses humanos] para evitar um destino similar”.

Katia Grace, editora do blog AI Impacts e pesquisadora do Instituto de Pesquisa em Inteligência de Máquinas (MIRI), disse que a ASI será a primeira tecnologia a potencialmente superar os humanos em todas as dimensões. “Até agora, os seres humanos tiveram o monopólio da tomada de decisões e, portanto, tinham controle sobre tudo”, disse ela ao Gizmodo. “Com a inteligência artificial, isso pode acabar”.

Stuart Russell, professor de ciência da computação e especialista em inteligência artificial da Universidade da Califórnia em Berkeley, disse que devemos nos preocupar com o potencial da ASI por um simples motivo: inteligência é poder.

“A evolução e a história não fornecem bons exemplos de uma classe menos poderosa de entidades que retêm o poder indefinidamente sobre uma classe mais poderosa de entidades”, disse Russell ao Gizmodo. “Ainda não sabemos como controlar a ASI, porque, tradicionalmente, o controle sobre outras entidades parece exigir a capacidade de pensar melhor do que elas e prevê-las – e, por definição, não podemos pensar melhor do que e prever a ASI. Temos que adotar uma abordagem para projetar sistemas de inteligência artificial que, de alguma forma, evite esse problema básico”.

Esteja preparado

Certo, então temos nosso trabalho definido. Mas não devemos nos desesperar, ou pior, não fazer nada – há coisas que já podemos fazer, aqui e agora.

Nick Bostrom, autor de Superintelligence: Paths, Dangers, Strategies e filósofo do Instituto Futuro da Humanidade de Oxford, disse que nenhum protocolo específico ou mudanças radicais na sociedade são necessários hoje em dia, mas ele concorda que podemos fazer pesquisas de consequências nessa área.

“Há alguns anos, o argumento de que não deveríamos fazer nada pode ter feito sentido, já que não tínhamos uma ideia real de como devemos pesquisar isso e fazer progresso significativo”, disse Bostrom ao Gizmodo. “Mas conceitos e ideias estão agora em vigor, e podemos separá-los em partes dignas de pesquisa”. Ele disse que isso poderia tomar a forma de documentos de pesquisa, grupos de especialistas, seminários e assim por diante. “As pessoas estão fazendo um importante trabalho de pesquisa nesta área”, disse Bostrom, “é algo que podemos desenvolver e progredir”.

Russell concordou, dizendo que devemos pensar em maneiras de desenvolver e projetar sistemas de inteligência artificial que sejam comprovadamente seguros, benéficos, independentemente de quão inteligentes os componentes se tornem. Ele acredita que isso é possível, desde que os componentes sejam definidos, treinados e conectados da maneira correta.

De fato, isso é algo que devemos fazer já. Antes do advento da AGI e da ASI, teremos que enfrentar as ameaças representadas pela IA mais básica e limitada – o tipo que já está começando a aparecer em nossa infraestrutura. Ao resolver os problemas apresentados pela IA atual, poderíamos aprender algumas lições valiosas e estabelecer alguns precedentes importantes que poderiam abrir o caminho para a construção de IA segura, mas ainda mais poderosa, no futuro.

Pegue a perspectiva de veículos autônomos, por exemplo. Quando forem implantados em massa, os carros autônomos serão monitorados e, até certo ponto, controlados por uma inteligência central. Esse “cérebro” de supervisão enviará atualizações de software para sua frota, informará os carros sobre as condições de tráfego e servirá como o centro de comunicação da rede geral. Mas imagine se alguém invadisse esse sistema e enviasse instruções maliciosas para a frota. Seria um desastre em escala monumental.

“A segurança cibernética dos sistemas de IA é uma grande brecha”, disse Lannquist ao Gizmodo. “Sistemas autônomos, como veículos autônomos, robôs assistentes pessoais, brinquedos de IA, drones e até mesmo sistemas armados estão sujeitos a ataques cibernéticos e hackers, para espionar, roubar, excluir ou alterar informações ou dados, interromper ou impedir o serviço e até mesmo sequestrá-lo”, disse ela. “Enquanto isso, há uma escassez de especialistas em segurança cibernética nos governos e empresas”.

Outro grande risco, segundo Lannquist, é o viés tendencioso nos conjuntos de dados usados ​​para treinar os algoritmos de aprendizado de máquina. Os modelos resultantes não são ajustados para todos, disse, levando a problemas de inclusão, igualdade, justiça e até mesmo o potencial para danos físicos. Um veículo autônomo ou robô cirúrgico pode não ser suficientemente treinado em imagens suficientes para discernir humanos de diferentes cores ou tamanhos de pele, por exemplo. Aumente isso até o nível de uma ASI, e o problema se torna exponencialmente mais sério.

O software comercial de reconhecimento facial, por exemplo, tem repetidamente se mostrado menos preciso quando se trata de pessoas com pele mais escura. Enquanto isso, um algoritmo de policiamento preditivo chamado PredPol mostrou segmentar injustamente certos bairros. E, em um caso verdadeiramente preocupante, o algoritmo COMPAS, que prevê a probabilidade de reincidência para orientar uma sentença, foi considerado tendencioso em termos raciais. Isso está acontecendo hoje – imagine o estrago e o dano que uma ASI poderia infligir com maior poder, escopo e alcance social.

Também será importante que os humanos permaneçam dentro do ciclo de compreensão, o que significa que precisamos manter o entendimento do raciocínio de tomada de decisão da IA. Isso já está se mostrando difícil à medida que a IA segue entrando em reinos sobre-humanos. Isso é conhecido como o problema da “caixa preta”, e acontece quando os desenvolvedores não conseguem explicar o comportamento de suas criações. Tornar algo seguro quando não temos plena compreensão de como ela funciona é, na melhor das hipóteses, uma proposta temerária. Assim, esforços serão necessários para criar IAs capazes de se explicarem de maneiras que os humanos possam compreender.

Felizmente, isso já está acontecendo. No ano passado, por exemplo, a DARPA doou U$ 6,5 milhões para cientistas da computação na Universidade Estadual do Oregon para tratar do assunto. A doação de quatro anos apoiará o desenvolvimento de novas metodologias projetadas para ajudar os pesquisadores a entenderem melhor o jogo digital que acontece dentro das caixas pretas, principalmente fazendo com que as IAs expliquem aos humanos por que elas tomaram certas decisões ou o que realmente significam suas conclusões.

Também precisamos mudar a cultura corporativa em torno do desenvolvimento da IA, particularmente no Vale do Silício, onde a atitude que prevalece é “falhar com força e rapidez ou morrer devagar”. Esse tipo de mentalidade não funciona para IA mais poderosa, que exigirá extrema cautela, consideração e previsão. Tomar atalhos e lançar sistemas mal pensados ​​pode acabar em desastre.

“Por meio de mais colaboração, como os pesquisadores da AGI reunindo seus recursos para formar um consórcio, diretrizes e padrões liderados pela indústria, ou padrões e normas técnicas, podemos reprojetar essa ‘corrida para o fundo’ em padrões de segurança a transformando em uma ‘corrida para o topo’”, disse Lannquist. “Em uma corrida para o topo, as empresas tomam tempo para manter os padrões éticos e de segurança. Enquanto isso, a competição é benéfica porque pode acelerar o progresso em direção a inovações benéficas, como a IA para os Objetivos de Desenvolvimento Sustentável da ONU”.

Ao mesmo tempo, as corporações devem considerar o compartilhamento de informações, particularmente se um laboratório de pesquisa se deparar com uma vulnerabilidade particularmente desagradável, como um algoritmo que pode passar por esquemas de criptografia, se espalhar para domínios fora de um domínio visado ou ser facilmente transformado em uma arma.

Mudar a cultura corporativa não será fácil, mas precisa começar no topo. Para facilitar isso, as empresas devem criar uma nova posição executiva, um Oficial Chefe de Segurança, ou algo similar, para supervisionar o desenvolvimento do que poderia ser uma IA catastroficamente perigosa, entre outras tecnologias emergentes perigosas.

Os governos e outras instituições públicas também têm um papel a desempenhar. Russell disse que precisamos de grupos bem informados, comitês, agências e outras instituições dentro de governos que tenham acesso a pesquisadores de IA de alto nível. Também precisamos desenvolver padrões para o projeto seguro de sistemas de IA, ele acrescentou.

“Os governos podem incentivar a pesquisa para a segurança da IA, por meio de doações e prêmios”, acrescentou Lannquist. “O setor privado ou a academia podem contribuir ou colaborar em pesquisas com organizações de segurança da IA. Os pesquisadores de IA podem se organizar para manter procedimentos éticos e seguros de desenvolvimento da IA, e as organizações de pesquisa podem criar processos para denúncias ”.

Também é necessária uma ação em nível internacional. Os perigos existenciais representados pela IA são potencialmente mais graves do que a mudança climática, mas ainda não temos o equivalente ao Painel Internacional para Mudanças Climáticas (IPCC).

Que tal um painel internacional para a inteligência artificial? Além de estabelecer e impor padrões e regulamentos, esse painel pode servir como um “espaço seguro” para desenvolvedores de IA que acreditam estar trabalhando em algo particularmente perigoso. Uma boa regra seria parar o desenvolvimento e procurar o conselho desse painel.

Em uma nota semelhante, e como alguns desenvolvimentos anteriores em biotecnologia mostraram, algumas descobertas de pesquisas são muito perigosas para serem compartilhadas com o público em geral (por exemplo, estudos de “ganho de função” nos quais os vírus são deliberadamente mutados para infectar seres humanos).

Um painel internacional de IA poderia decidir quais avanços tecnológicos deveriam permanecer em sigilo por razões de segurança internacional. Por outro lado, seguindo a lógica dos estudos de ganho de função, o compartilhamento aberto de conhecimento pode resultar no desenvolvimento de medidas de segurança proativas. Dada a natureza existencial da ASI, no entanto, é difícil imaginar os ingredientes do apocalipse sendo mostrados ​​para todos verem. Esta será uma área difícil de navegar.

Em um nível mais geral, precisamos que mais pessoas trabalhem no problema, incluindo matemáticos, lógicos, eticistas, economistas, cientistas sociais e filósofos.

Vários grupos já começaram a tratar do problema da ASI, incluindo o Instituto de Futuro da Humanidade de Oxford, o MIRI, o Centro de Berkeley para Inteligência Humana da Universidade de Michigan, o OpenAI e o Google Brain.

Outras iniciativas incluem a Conferência de Asilomar, que já estabeleceu diretrizes para o desenvolvimento seguro da IA, e a Carta Aberta sobre IA assinada por vários proeminentes pensadores, incluindo o falecido físico Stephen Hawking, o fundador da Tesla e SpaceX, Elon Musk, e outros.
Russell disse que o público em geral também pode contribuir – mas ele precisa se educar sobre os problemas.

“Aprenda sobre algumas das novas idéias e leia alguns dos artigos técnicos, não apenas os artigos da mídia sobre Musk ou Zuckerberg”, disse ele. “Pense em como essas ideias se aplicam ao seu trabalho. Por exemplo, se você trabalha com classificação visual, que objetivo o algoritmo está otimizando? Qual é a matriz de perda? Você tem certeza de que classificar erroneamente um gato como cachorro tem o mesmo custo de classificar erroneamente um humano como um gorila? Se não, pense em como fazer o aprendizado de classificação com uma matriz de perda incerta”.

Por fim, Russell afirma que é importante evitar uma mentalidade tribalista. “Não imagine que uma discussão sobre o risco seja ‘anti-IA’. Não é. É um complemento para a IA. Está dizendo, ‘a IA tem o potencial de impactar o mundo’ ”, disse. “Assim como a biologia e a física cresceram e aceitaram alguma responsabilidade por seu impacto no mundo, chegou a hora da IA crescer – a menos que, na verdade, você acredite que a IA nunca terá nenhum impacto e nunca funcionará”.

O problema da superinteligência artificial está colocado para ser o desafio mais difícil que a nossa espécie já enfrentou, e podemos muito bem falhar. Mas nós temos que tentar.