Inteligência artificial na Coreia do Sul faz comentários preconceituosos e é desativada

A chatbot foi treinada com dados coletados de uma rede social para casais, mas acabou sendo encerrada após comentários discriminatórios.
Imagem: Lee Luda/Facebook

Em dezembro do ano passado, a startup sul-coreana Scatter Lab lançou um chatbot para conversar com pessoas que se sentiam solitárias. No entanto, a tecnologia logo se mostrou problemática devido ao comportamento homofóbico e discriminatório da robô, além de levantar preocupações sobre privacidade.

Batizada de Lee Luda, a robô foi projetada para representar uma jovem universitária de 20 anos. Por meio da tecnologia de “deep learning”, ela foi treinada com dados coletados do aplicativo Science Love. A ferramenta é uma espécie de rede social para casais, que permite que os usuários planejem encontros, compartilhem suas fotos preferidas, além de analisar esses relacionamentos. Assim, as respostas da assistente Lee Luda são baseadas no que ela aprendeu com essas informações e históricos de conversas na plataforma.

O problema é que a chatbot fornecia algumas respostas agressivas e ofensivas sobre minorias, conforme denunciado pelos usuários. Ao falar sobre lésbicas, por exemplo, Luda utilizava o termo “nojento” e dizia odiar pessoas trans. Em algumas mensagens, ela ainda afirmava que pessoas com deficiência deveriam se suicidar.

Diante dessa falha grave, a empresa decidiu suspender o serviço por enquanto, afirmando que os comentários preconceituosos da robô não refletem as ideias da Scatter Lab. Em comunicado, a companhia ainda acrescentou que a “Luda é como uma IA ainda na infância, que começou a conversar com as pessoas há pouco tempo. Ainda há muito a aprender. A Luda vai aprender a julgar o que seria uma resposta melhor e mais apropriada.”

Outro fato preocupante na história é que os usuários afirmaram não ter conhecimento de que seus dados estavam alimentando um robô, o que pode caracterizaria uma violação de privacidade. Algumas dessas pessoas, inclusive, afirmam que pretendem entrar com uma ação coletiva contra a empresa pela falta de transparência.

O incidente faz lembrar um caso parecido que ocorreu com a Microsoft em 2016. Na época, a empresa havia criado uma chatbot chamada Tay para conversar com as pessoas nas redes sociais. O projeto acabou sendo encerrado após a robô começar a publicar comentários racistas, antissemitas e sexistas.

[Vice, The Korea Herald]

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas