O Google está se comprometendo a não usar inteligência artificial para armas ou vigilância depois de funcionários protestarem contra o envolvimento da empresa no Project Maven, um programa piloto do Pentágono que usa inteligência artificial para analisar filmagens de drone. O Google diz que vai continuar a trabalhar com os militares dos Estados Unidos em segurança cibernética, busca e resgate e outros projetos não ofensivos.

O CEO do Google, Sundar Pichai, anunciou a mudança em um conjunto de princípios da empresa com inteligência artificial publicado nesta quinta-feira (7). Os princípios têm como objetivo governar o uso da inteligência artificial pelo Google e são uma resposta à pressão dos funcionários sobre a empresa para que fossem criadas diretrizes para a utilização de IA.

• Google pode receber multa bilionária na UE por “forçar” fabricantes com apps embarcados
• Google vai trazer melhores momentos e responder suas dúvidas de futebol durante a Copa do Mundo

Os funcionários da companhia passaram meses protestando contra o envolvimento do Google no Project Maven, enviando uma carta para Pichai para exigir que o Google encerrasse seu contrato com o Departamento de Defesa dos EUA. Vários funcionários até mesmo pediram demissão em protesto, preocupados com a possibilidade de que o Google estivesse ajudando no desenvolvimento de sistemas de armas autônomos.

O Google vai se concentrar em criar uma inteligência artificial “socialmente benéfica”, disse Pichai, e evitar projetos que causem “danos gerais”. A companhia aceitará contratos governamentais e com os militares norte-americanos desde que eles não violem seus princípios, acrescentou o CEO.

Como a IA é desenvolvida e usada terá um impacto significativo na sociedade por muitos anos”, escreveu Pichai. “Esses não são conceitos teóricos; são padrões concretos que vão, ativamente, governar nossa pesquisa e nosso desenvolvimento de produto, além de impactar nossas decisões de negócio.”

Os princípios de inteligência artificial representam uma reversão para o Google, que inicialmente defendeu seu envolvimento no Project Maven, apontando que o projeto contava com um software de código aberto e que não estava sendo usado para propósito explicitamente ofensivos. Um porta-voz do Google não respondeu imediatamente ao contato da reportagem para comentar sobre as novas diretrizes éticas.

Os princípios foram recebidos com reações misturadas entre os funcionários do Google. Apesar do comprometimento da empresa de não usar IA para construir armas, os empregados questionaram se os princípios proibiriam explicitamente o Google de ir atrás de contratos governamentais como o Maven no futuro.

Um funcionário disse ao Gizmodo que os princípios eram um “comunicado de relações públicas raso”. Vários empregados afirmaram que não achavam que os princípios eram suficientes para responsabilizar o Google — por exemplo, as diretrizes de IA da empresa incluem um aceno para seguir “princípios da lei internacional”, mas não se compromete explicitamente a seguir leis de direitos humanos internacionais.

“Embora a declaração do Google rejeite a construção de sistemas de inteligência artificial para coleta de informações e vigilância que violem normas internacionalmente aceitas, estamos preocupados com essa qualificação”, disse Peter Asaro, professor da The New School e um dos autores de uma carta aberta que pede ao Google para cancelar seu contrato com o Maven. “As normas internacionais em torno da espionagem, das ciberoperações, da vigilância de informações em massa e até da vigilância por drones são todas contestadas e debatidas na esfera internacional. Até mesmo o Project Maven, estando ligado à vigilância de drones e potencialmente a operações de assassinato direcionadas, levanta muitos problemas que deveriam ter causado a rejeição pelo Google, dependendo de como alguém interpreta essa qualificação.”

Um outro funcionário do Google que conversou com o Gizmodo disse que os princípios eram um bom começo, mitigando alguns dos riscos que preocupavam os funcionários que protestavam contra o Maven. Entretanto, os princípios de IA não deixam claro se o Google seria impedido de trabalhar em um projeto como o Maven — que prometia vastas capacidades de vigilância às forças armadas, mas não chegava a permitir ataques por drones algorítmicos.

A CEO do Google Cloud, Diane Greene, defendeu o envolvimento da sua organização no Project Maven, sugerindo que não teve um impacto letal. “Este contrato envolveu filmagens de drones e identificação de objetos de baixa resolução usando IA, salvar vidas era a intenção geral”, escreveu Greene em um blog post.

“Não buscaremos renovação de contratos para o Project Maven, e, por isso, estamos agora trabalhando com nossos clientes para cumprir com responsabilidade nossas obrigações de uma maneira que funcione a longo prazo para eles e que também seja consistente com nossos princípios de IA”, acrescentou, confirmando a informação do Gizmodo na semana passada de que o Google não procuraria renovar seu contrato com o Maven após sua expiração em 2019.

“Na maioria das frentes, esses princípios são bem pensados, ​​e, com algumas ressalvas, recomendamos que outras grandes empresas de tecnologia estabeleçam diretrizes e objetivos semelhantes para o seu trabalho de IA”, Peter Eckersley, cientista-chefe de computação da Electronic Frontier Foundation, disse ao Gizmodo. Para melhorar seus princípios, o Google deveria se comprometer com uma revisão independente e transparente para garantir que suas regras sejam aplicadas corretamente, afirmou Eckersley. As afirmações de Pichai sobre não usar inteligência artificial para vigilância também deixaram algo a desejar.

“A empresa se limitou a ajudar apenas os projetos de vigilância de IA que não violem as normas aceitas internacionalmente”, disse Eckersley. “Poderia ser mais reconfortante se o Google tentasse evitar a criação de sistemas de vigilância assistidos por IA.”

Em e-mails internos analisados ​​pelo Gizmodo, um funcionário do Google que trabalhava no Project Maven disse que a empresa tentaria fornecer um sistema de vigilância “semelhante ao Google Earth”, oferecendo “uma capacidade excelente” para análises quase em tempo real de filmagens de drones.

Acadêmicos e estudantes nos campos da ciência da computação e da inteligência artificial se juntaram aos funcionários do Google para expressar suas preocupações com o Projeto Maven, argumentando que o Google estava, sem ética, abrindo caminho para a criação de armas totalmente autônomas. Asaro elogiou os princípios éticos do Google por seu compromisso em construir uma IA socialmente benéfica, evitando viés e trazendo privacidade e responsabilidade. No entanto, o Google poderia melhorar, adicionando mais transparência pública e trabalhando com as Nações Unidas para rejeitar armas autônomas, disse ele.

Os protestos internos e externos colocam o Google em uma posição difícil, uma vez que a empresa visa recentrar seus negócios em torno do desenvolvimento e do uso da inteligência artificial. Embora seu contrato com o Departamento de Defesa para o Maven fosse relativamente pequeno, o Google considerou o trabalho do Maven como um passo essencial no processo de conquistar contratos militares mais lucrativos. Provavelmente, o Google planeja fazer uma oferta pelo JEDI, um contrato de computação em nuvem com o Departamento de Defesa, que pode valer até US$ 10 bilhões. Não está claro agora se fazer propostas para o contrato com o JEDI equivalem a uma violação dos princípios anunciados recentemente pelo Google ou se o Pentágono sequer consideraria a parceria com o Google novamente depois de a empresa recuar do Maven.

“Em última análise, como a empresa promulga esses princípios é o que importará mais do que afirmações como essa”, disse Asaro. “Na ausência de ações positivas, como apoiar publicamente uma proibição internacional de armas autônomas, o Google terá que oferecer mais transparência pública quanto aos sistemas que constrói. Caso contrário, continuaremos contando com os funcionários conscientes dispostos a arriscar seus cargos no Google para garantir que a empresa “não faça o mal”.

Imagem do topo: Getty