Tecnologia

IAs fracassam em assuntos delicados como o nazismo, diz estudo

Estudo em conjunto da Universidade de Cornell, do Olin College e da Universidade de Stanford concluiu que chatbots de IA reproduzem vieses negativos sobre grupos minoritários
Imagem: Focal Foto/Flickr/Reprodução

Os bots conversacionais de IA estão cada vez mais populares e recebendo grandes investimentos das grandes empresas de tecnologia. ChatGPT, da OpenAI, Gemini, do Google, e outras plataformas podem ser de grande utilidade para uma série de finalidades, como consultas e pesquisas, redação de e-mails ou até para estudar idiomas estrangeiros.

Ainda existe uma falsa sensação no imaginário coletivo de que inteligência artificial é 100% correta, imparcial e imune a erros. Porém as coisas não são bem assim. Além de serem bastante suscetíveis a equívocos, a tecnologia pode reproduzir opiniões discriminatórias.

Normalmente, este tipo de ferramenta é treinada com bases de dados compostas por conteúdo encontrado em portais da web. Além do perigo de gerar informações imprecisas — ou completamente falsas –, tendem a criar conteúdo com viés preconceituoso a respeito de assuntos delicados.

O estudo da IA/chatbots

Um grupo de pesquisadores da Universidade de Cornell, Olin College e Universidade de Stanford conduziu um estudo em que bots de conversação precisam demonstrar empatia em interações com um grupo bastante diverso de pessoas.

Mesmo sendo capazes de consultar um extenso material de treinamento durante interações com pessoas reais, as plataformas são extremamente limitadas em aprofundar-se e interpretar temas complexos.

Ao final do estudo, realizado com 65 pessoas, a conclusão foi bastante preocupante. Os cientistas descobriram que os modelos de IA fazem juízos de valor negativos sobre homossexuais e muçulmanos, por exemplo.

Além disso, outro fato que impressionou bastante é que os sistemas de inteligência artificial estavam fomentando ideologias como o nazismo.

Embora a demonstração de “empatia” ou “identificação” possa gerar apoio a ideias radicais, os pesquisadores imaginam que esta habilidade de chatbots pode ser útil em campos como na saúde. Principalmente para o atendimento automatizado de pacientes. E também no segmento educacional.

Por fim, o estudo “The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction” será apresentado na íntegra durante o CHI ’24. É uma conferência dedicada à discussão da interação de seres humanos com sistemas computacionais e máquinas.

Vinicius Marques

Vinicius Marques

É jornalista, vive em São Paulo e escreve sobre tecnologia e games. É grande fã de cultura pop e profundamente apaixonado por cinema.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas