O autor de ficção científica Isaac Asimov famosamente previu que um dia nós precisaríamos programar nossos robôs com um conjunto de leis que nos proteja de nossas criações mecânicas. Mas antes de chegarmos lá, nós precisamos de regras que assegurem que no nível mais fundamental, estamos desenvolvendo inteligência artificial (AI) responsavelmente e seguramente. Em uma reunião recente, um grupo de especialistas fez exatamente isso, criando 23 princípios para guiar o desenvolvimento da AI em uma direção positiva, e para assegurar que ela não nos destrua.
• Kristen Stewart publicou uma pesquisa sobre inteligência artificial
• Fundador do eBay doa US$ 10 milhões para apoiar inteligência artificial do bem
As novas guias, batizadas 23 Asilomar AI Principles, tocam questões no que concerne a pesquisa, ética e prevenção, de estratégias de pesquisa e direitos de dados a questões de transparência e os riscos da superinteligência artificial. Tentativas anteriores de estabelecer guias de AI, incluindo esforços da IEEE Standards Association, do AI100 Standing Committee da Universidade de Stanford e até mesmo da Casa Branca, ou eram muito estreitos no escopo ou muito gerais. Os princípios Asilomar por sua vez, juntaram muito do pensamento atual sobre o assunto para desenvolver uma espécie de guia de práticas recomendadas no que concerne o desenvolvimento da AI. Os princípios ainda não são obrigatórios, mas pretendem influenciar a forma que a pesquisa será feita no futuro.
A inteligência artificial está nos primórdios de uma era de ouro, como podemos ver pelo nascimento dos assistentes pessoais digitais como Siri, Alexa e Cortana, veículos que dirigem sozinhos, e algoritmos que excedem as capacidades humanas de forma significativa (recentemente, uma AI derrotou os melhores jogadores de poker do mundo). Mas diferente de muitos outros setores da tecnologia, essa área de pesquisa não é limitada por regulamentos de segurança e padrão, o que leva a preocupações que a AI possa eventualmente sair do controle e virar um problema ao invés de uma solução. Medos comuns incluem a AI substituir trabalhadores humanos, nos privando de poder, e se tornando uma ameaça para a nossa própria existência.
Para tratar dessas questões, o Future of Life Institute recentemente juntou dezenas de especialistas para criar um conjunto de princípios para direcionar o desenvolvimento da AI em direções positivas e nos manter longe de cenários apocalípticos. Participantes da conferência vieram de diversas áreas, incluindo engenheiros, programadores, roboticistas, físicos, economistas, filósofos, éticos e juristas.
Os 23 princípios Asilomar para AI desde então foram aprovados por quase 2.300 pessoas, incluindo 880 pesquisadores de robótica e AI. Notáveis apoiadores incluindo o físico Stephen Hawking, CEO do SpaceX Elon Musk, o futurista Ray Kurzweil, e o cofundador do Skype Jaan Tallinn, entre muitos outros.
“A nossa esperança era, e vai continuar sendo, envolver um grupo diverso de pessoas interessadas, mas também fundamentar o processo no conhecimento especializado de desenvolvedores de AI que realmente entendem que sistemas estão sendo desenvolvidos, o que eles podem fazer e para onde eles podem estar indo”, comentou o participante Anthony Aguirre, um físico da Universidade da Califórnia, Santa Cruz.
As discussões muitas vezes ficou acalorada durante a conferência, mas um alto nível de consenso eventualmente surgiu. Para manter o alto nível, os organizadores da FLI só aceitaram um princípio com o qual pelo menos 90 por cento dos participantes concordassem.
Os princípios foram organizados em três seções, questões de pesquisa, ética e valores e questões a longo prazo. Dentro da pesquisa, princípios incluem a necessidade de criar “inteligência benéfica” em oposição à “inteligência não dirigida” (mas no assunto em breve), e um conselho para desenvolvedores de AI manterem um diálogo saudável com os legisladores. Ética e valores incluíram a necessidade de assegurar a segurança em todos os estágios do desenvolvimento da AI, imbuir valores humanos na mente artificial, evitar que exista uma guerra armamentista no desenvolvimento da AI, e a necessidade de manter o controle humano. Considerações a longo prazo incluem avaliações de risco, medidas de controle e adesão da chamada “cautela de capacidade”, um aviso que nós nunca devemos subestimar o potencial poder de uma AI avançada.
“Pensar que a AI meramente automatiza as decisões humanas é como pensar que a eletricidade é só um substituto para a vela”.
Patrick Lin, um participante da conferência e diretor do Ethics + Emerging Sciences Group da Universidade Politécnica do Estado da Califórnia, diz que os princípios de AI Asilomar surgiram de “uma tempestade perfeita de influências” que ele não havia visto antes. “Esse foi um exercício de estabelecimento de padrões em um campo que não tem uma identidade coesa, tornando o exercício muito mais difícil”, ele disse ao Gizmodo.
Por mais que o consenso perfeito nunca fosse esperado, todos na conferência concordaram que a AI vai ser impactante em formas que nunca vimos antes. “Pensar que a AI meramente automatiza as decisões humanas é como pensar que a eletricidade é só um substituto para a vela”, Lin disse. “Dado o enorme potencial para problemas e danos, assim como benefícios, faz sentido estabelecer algumas normas cedo, para ajudar a direcionar a pesquisa em uma boa direção, em oposição a deixar a economia de mercado, que é mais focada em eficiência e lucro, modelar a AI”.
Alguns dos itens dessa lista são meio óbvios, como a necessidade de evitar uma corrida armamentista de AI para garantir nossa segurança. Mas outros itens, apesar de brevemente descritos, são consideravelmente mais complexos. Tome o termo “inteligência benéfica”. É vago, mas Aguirre diz que isso é uma força nesse momento.
“Esperamos que as pessoas interpretem isso de muitas formas”, ele disse ao Gizmodo. “Os aspectos cruciais desse princípio, como o enxergo, é que o benefício é parte da equação. É isso, desenvolvedores de AI estão ativamente pensando sobre as ramificações das ferramentas que eles estão desenvolvendo, ao invés de apenas fazer ferramentas melhores, mais fortes e mais rápidas”.
Outra questão complicada é manter o controle humano. De acordo com esse princípio,
Humanos devem escolher como e se delega decisões aos sistemas de AI, para cumprir objetivos escolhidos por humanos.
O problema é que a AI está ficando cada vez melhor e mais eficiente em muitas tarefas, nos deixando mais inclinados a nos livrarmos dessas responsabilidades. Hoje em dia, por exemplo, algoritmos tomaram o lugar de comerciantes de ações. Existe a preocupação que robôs de combate futuramente tenham autonomia para matar combatentes inimigos sozinhos. Aguirre diz que nós vamos dar algumas decisões para os sistemas de AI, mas devemos fazer isso com cuidado.
“Eu já ouço o Google Maps, por exemplo, que me ajuda a decidir que rota fazer pelo trânsito”, diz Aguirre. “Mas recentemente eu fiquei preso em um trânsito causado por uma queda de barreira com movimento zero, enquanto o Google havia dito que era uma viagem de 48 minutos. Eventualmente eu ignorei e segui um caminho alternativo para casa que me economizou horas”. Ele diz que é importante mantermos os olhos abertos para que decisões queremos delegar e quais devemos manter sob o nosso controle.
Muitos dos princípios da nova lista entram na categoria “mais fácil falar do que fazer”. Por exemplo, existe uma regra que diz que os desenvolvedores AI devem ser abertos e transparentes quanto a suas pesquisas. Dado o grau de competição que existe nesse setor, parece um sonho inatingível. Aguirre concorda ser uma questão importante e difícil.
“Um sinal positivo é a parceria na AI, prevista em parte como um grupo que pode criar dinâmicas colaborativas onde o benefício da participação ultrapassa o ‘custo’ competitivo de compartilhar informações”, ele disse. “Por mais que grandes avanços possam vir de pequenas startups com poucos recursos, até agora muito do avanço real tem vindo de grandes empresas como Google/Deepmind, IBM, Facebook, etc”.
Em termos de conseguir que os desenvolvedores sigam esses princípios, Lin diz que as pessoas que participaram tiveram dificuldade em entender o valor das normas, levando à necessidade das “presas da lei”. Falhas em apontar erros de segurança em uma AI, por exemplo, pode levar a duras multas e punições.
“Mesmo sem os dentes da punição legal, normas ainda são poderosas em moldar o comportamento, seja em casa, em uma sala de aula ou em relações internacionais”, Lin disse. “Por exemplo, os EUA não fazem parte do Tratado de Ottawa que bane minas terrestres. Mas mesmo assim seguimos seu princípio, porque quebrar uma norma tão forte tem consequências políticas e econômicas muito fortes. A condenação global que seguiria é empecilho suficiente (por enquanto)”.
Mas esse pode nem sempre ser o caso, exigindo supervisão, até a nível global.Não é impossível imaginar que uma companhia como o Facebook ou o Google desenvolver uma AI superinteligente que consiga aumentar os lucros a níveis sem precedentes e causar uma ameaça catastrófica para a humanidade. Com lucros aumentando, uma grande companhia pode não se preocupar em violar “normas” e ter que encarar a condenação global. Assustadoramente, não temos proteções contra esse tipo de coisa.
Outro princípio que vai ser difícil, se não impossível, de implementar é o que estabelece que:
Sistemas de AI devem ser planejados e operados em compatibilidade com os ideais humanos de dignidade, direitos, liberdades e diversidade cultural.
Esse conceito, conhecido como “alinhamento de valor” é uma estratégia muito citada para manter a AI segura, mas não existe uma forma universalmente aceita para definir um “valor humano”.
Lin concorda que o alinhamento de valores é um problema especialmente espinhoso. “Na Asilomar, havia muita conversa sobre alinhar a AI com valores humanos, mas pouca discussão sobre o que seriam esses valores humanos”, ele disse. “Tecnólogos compreensivelmente não ficam muito confortáveis em confrontar essa questão primeira, mas é uma questão essencial. Se você tem uma IA perfeitamente alinhada com os valores humanos mas calibrada nos valores humanos errados, então você irá criar uma tecnologia terrível, ou até mesmo uma arma”. Um exemplo clássico porém extremo, uma AI poderia ser orientada que fazer muitos clipes de papel é bom, e segue com o objetivo de transformar o planeta inteiro em clipes de papel. Como Lin teme, um valor a princípio inofensivo pode virar uma séria ameaça.
“Se nós pensarmos uma época onde existam AIs que tão capazes quanto ou mais do que os humanos mais inteligentes, seria incrivelmente ingênuo acreditar que o mundo não passaria por uma mudança fundamental”.
Por fim, tem a questão da inteligência artificial enquanto uma ameaça existencial. Nesse assunto as guias do Asilomar falam da importância de supervisionar qualquer máquina capaz de auto-aperfeiçoamento recursivo (ou seja, a habilidade da AI continuamente melhorar seu próprio código base, levando a um potencial efeito de “fuga”, ou ser capaz de se reprogramar para que funcione contrariando os valores humanos). O desafio aí seria implementar as garantias necessárias que assegurassem que a máquina se mantivesse “na linha” quanto a suas modificações. Isso não vai ser fácil.
Um item final importante da lista é a “capacidade de cautela”. Já que não existe consenso quanto a quão poderosa uma AI pode se tornar, seria sábio evitar fazer grandes previsões sobre seu potencial máximo. Em outras palavras, nós não podemos nunca, nunca, subestimar o poder de uma superinteligência artificial.
“Nenhum sistema de AI atual vai ‘se livrar’ e se tornar perigoso, e é importante que as pessoas saibam disso”, Aguirre disse. “Ao mesmo tempo, se nós pensarmos uma época onde existam AIs que tão capazes quanto ou mais do que os humanos mais inteligentes, seria incrivelmente ingênuo acreditar que o mundo não passaria por uma mudança fundamental. Então a seriedade que encararmos as oportunidades e riscos de uma AI precisa ser de acordo com sua capacidade, e ter avaliações e previsões claras, sem a empolgação da imprensa, indústria ou na pesquisa, que costuma acompanhar os avanços, seria um bom começo”.
No momento, essa lista de princípios é apenas isso, uma lista de princípios. Não existe previsão de quando essa lista será aumentada ou atualizada, nem existe ainda uma necessidade de supervisão institucional ou governamental. Como está, desenvolvedores podem violar essas recomendações sem encarar nenhuma consequência.
Então esses 23 princípios irão nos manter seguros e nos proteger de um apocalipse de AI? Provavelmente não, mas o objetivo desse exercício era juntar as melhores ideias sobre o assunto com a esperança de inspirar algo mais concreto. Por mais imperfeitos e idealistas que esses princípios sejam, é melhor para nós que eles existam.
Imagem do topo: Anthony Hopkins em Westworld.