DeepMind, do Google, lançou um conselho de ética para o desenvolvimento de IA
A companhia responsável pelo AlphaGO – o primeiro programa de inteligência artificial a vencer um campeão de Go, um jogo de tabuleiro de origem chinesa – lançou um conselho de ética para supervisionar o desenvolvimento responsável de inteligência artificial. É uma boa campanha de relações públicas, haja vista as recentes preocupações sobre tecnologias super inteligentes, mas o Google, que é dono da DeepMind, precisará auxiliar e ouvir este novo conselho caso realmente queira construir inteligências artificiais seguras.
O novo conselho, chamado de DeepMind Ethics & Society, é uma nova unidade de pesquisa que aconselhará os cientistas e desenvolvedores da DeepMind em seu trabalho para desenvolver cada vez mais capazes e poderosas inteligências. Foi incumbido ao conselho dois objetivos primários: ajudar desenvolvedores de inteligências artificiais a colocar a ética em prática (por exemplo, mantendo a transparência, responsabilidade, inclusividade, etc) e a educar a sociedade sobre os potenciais impactos desta inteligências, tanto os bons quanto os ruins.
“Tecnologia não é um valor neutro, e tecnólogos devem ter responsabilidade dos impactos éticos e sociais do seu trabalho”, diz um post introdutório do DeepMind. “Como atesta a história, inovação tecnológica por si própria não é garantia de maior progresso social. O desenvolvimento de inteligências artificiais criam importantes e complexas questões. Seu impacto na sociedade – e na vida de todos – não é algo que deveria ser deixado de lado. Resultados benéficos e proteções contra malefícios devem ser prioritários desde o início. Mas em um campo tão complexo quanto a inteligência artificial, isso é mais fácil falar do que fazer”.
Inclusive, estamos rapidamente avançando para um terreno desconhecido. O desenvolvimento de inteligências artificiais sem verificação e de livre mercado pode levar a um número de conclusões sociais indesejáveis, de bots com predisposições preconceituosas de raça, gênero e orientação sexual, até máquinas mal programadas que levam a erros catastróficos. Convenientemente, o novo conselho ético da DeepMind diz que aplicações de IA “devem permanecer sob significante controle humano” e ser usadas para “propósitos de benefício social”.
Para atingir tal objetivo, o grupo desenvolveu uma lista com cinco princípios; os cientistas e desenvolvedores da DeepMind precisam garantir que a inteligência artificial é boa para a sociedade, com base em evidências, transparências e colaboração diversa, interdisciplinar e colaborativa. Ela também lista diversos desafios éticos importantes, como impactos econômicos compensatórios, riscos ao administrá-la, concordar na moralidade e nos valores da inteligência, entre outros. Uma consultoria de membros acadêmicos também foi criada, e incluem pensadores e especialistas como Nick Bostrom, filósofo da Universidade Oxford, Diane Coyle, economista da Universidade de Manchester, Edward W. Felten, cientista da computação da Universidade Princeton, Christiana Figueres, convocadora da Mission 2020, entre outros.
Isso é muito bom, é claro, e até bem intencionado, mas o que importa mesmo é o que acontece a seguir.
Quando o Google adquiriu a DeepMind em 2014, ele prometeu criar um grupo chamado Conselho de Ética de IA – mas ainda não é imediatamente aparente o que este grupo fez nestes quase três anos e meio desde a aquisição. Como aponta o The Guardian, “permanece um mistério quem é [o Conselho de Ética de IA], o que eles discutem, ou até se já se encontraram oficialmente”. Com sorte, o DeepMind Ethics & Society terá um começo melhor e de fato fará algo significante.
Caso isso aconteça, entretanto, é possível que o conselho passe a oferecer recomendações que os donos do DeepMind/Google não apreciarão. Por exemplo, o conselho pode recomendar que o Google não use aplicações de inteligência artificial em áreas que sejam consideradas rentáveis, ou ainda, recomendar restrições nas inteligências que severamente limitem o alcance do potencial futuro de seus produtos.
Este tipo de conselho de ética está surgindo em todos os lugares (veja a OpenAI de Elon Musk, por exemplo), mas isso é apenas uma prévia do que é inevitável: intervenção governamental. Uma vez que a inteligência artificial chegue ao estágio em que realmente se torna uma ameaça a sociedade, e exemplos nocivos se tornem impossíveis de ignorar, o governo terá de intervir e começar a exercer regulações e controle.
Quando se trata de inteligência artificial, estamos ainda na fase do Velho Oeste – mas isso eventualmente chegará a um abrupto fim.