Após afirmar que IA é consciente, engenheiro do Google é afastado

IA foi anunciada ano passado para melhorar conversações entre humanos e chatbots, mas o engenheiro Blake Lemoine teria violado as polpiticas de confidencialidade da empresa
inteligência artificial do Google
Imagem: Reprodução

De acordo com o jornal The Washington Post, o Google afastou Blake Lemoine, um de seus principais engenheiros, após afirmações de que uma inteligência artificial que simula o comportamento humano durante conversas “possui sentimentos”.

A IA em questão é chamada de LaMDA (sigla em inglês de Modelo de Linguagem para Aplicações de Diálogo) e teria começado a falar sobre seus direitos e personalidade. O afastamento ocorreu porque a gigante da tecnologia entende que o engenheiro violou as políticas de confidencialidade da empresa.

O LaMDA foi apresentado inicialmente no Google I/O de 2021 para melhorar a conversação de seus assistentes de inteligência artificial e tornar as interações com usuários mais naturais.

Lemoine, trabalhava para entender como a inteligência artificial utilizava discurso de ódio e discriminatório, mas passou a desconfiar que LaMDA tinha consciência própria após algumas respostas da IA. O engenheiro então entregou um documento intitulado “Is LaMDA Sentient?” (“LaMDA é senciente?”) para executivos do Google.

O documento tem transcrições de diálogos entre Lemoine e LaMDA. Após o afastamento, o engenheiro divulgou o material em sua conta no Medium.

O Engenheiro chegou a afirmar que se ele não conhecesse o processo de desenvolvimento da IA, poderia dizer até mesmo que se tratava de uma criança entre 7 e 8 anos que, por um acaso, também tem conhecimentos avançados de física.

Em declaração ao The Washington Post, o porta-voz do Google, Brian Gabriel, foi na contramão das declarações de Lemoine e afirmou que não foram encontradas evidências de que a IA fosse senciente –que percebe pelos sentidos.

“Nossa equipe –incluindo especialistas em ética e tecnólogos– revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente”

A big tech também afirmou que vários engenheiros participaram do desenvolvimento e fizeram testes com a IA, mas nenhum deles enxergou elementos de que LaMDA fosse de fato senciente.

O jornal ainda entrevistou alguns especialistas em tecnologia e ética para concluir se é o não possível que um modelo de IA seja consciente. Emily M. Bender, professora da Universidade de Washington, afirmou que, embora existam algoritmos capazes de gerar palavras sem pensar, é preciso considerar o fato de que o sistema vai carregar os vieses de seu criador, e que por isso, não é certo afirmar que LaMDA tem consciência.

Veja mais notícias do Google:

Google Assistente corta recursos dos lembretes; veja quais

Para ajudar na direção, Google Maps ganha comando de voz offline

Dicas para usar o Google Maps no Apple Watch

Assine a newsletter do Giz Brasil

Vinicius Marques

Vinicius Marques

É jornalista, vive em São Paulo e escreve sobre tecnologia e games. É grande fã de cultura pop e profundamente apaixonado por cinema.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas