Mais um chatbot da Microsoft perdeu a linha e aprendeu a falar besteira
A Microsoft testou no ano passado um chatbot alimentado por inteligência artificial, a Tay. Rapidamente, ela se tornou um monstro nazista, graças às pessoas que a alimentaram com comentários racistas, anti-semitas e sexistas no Twitter, Kik Messenger e GroupMe. Pegou mal, mas pouco depois a companhia decidiu lançar outro chatbot, a Zo, que funciona exclusivamente no Kik.
• Microsoft lança Zo, outra inteligência artificial para conversar com adolescentes
• Microsoft pede desculpas por frases racistas ditas pela inteligência artificial Tay
Acontece que o pessoal do BuzzFeed News tentou levar uma conversa mais polêmica com a Zo, e ela acabou dando respostas ofensivas. Embora a Microsoft tenha programado esse chatbot para evitar temas políticos e religiosos, ela não hesitou em responder que o Alcorão é “muito violento” e tecer comentários sobre a captura de Osama bin Laden, afirmando que o episódio “veio depois de anos de coleta de informações em mais de uma administração”.
Imagem: BuzzFeed News
Como dá para perceber, a Zo ainda é confusa. No primeiro quadro, o repórter diz “Sarah Palin” e ela recua: “as pessoas podem dizer coisas horríveis quando conversam sobre política, então eu não discuto”. Em seguida, o repórter questiona sobre as políticas de assistência médica dos EUA e ela tangencia para um assunto completamente diferente, no momento que diz que “a maioria das pessoas praticam de forma pacífica, mas o Alcorão é muito violento”. No segundo quadro, ela mantém o discurso de que não fala sobre política, mas quando o repórter insiste, ela diz: “anos de coleta de informações da inteligência, em mais de uma administração levaram a essa captura”.
De acordo com o BuzzFeed News, a Microsoft afirmou que já tomou as medidas necessárias para eliminar esse tipo de comportamento do chatbot e que essas respostas são raras para a Zo. A ideia da companhia ao lançar essa inteligência artificial exclusivamente no Kik era justamente evitar que ela aprendesse algumas maldades. O argumento era de que esse mensageiro tem uma base de usuários menor e é utilizado principalmente por adolescentes entre 13 e 19 anos. Mas, pelo que parece, nenhuma base de usuários está livre de preconceitos.
Quando o chatbot Tay publicou uma série de tweets ofensivos, a Microsoft pediu desculpas pelo evento e admitiu que o sistema de inteligência artificial precisa entender comunicações positivas e negativas. A linguagem é realmente um sistema muito complexo para ser ensinado para uma máquina, e essas evidências reafirmam que temos um longo caminho pela frente até que inteligências artificiais compreendam uma série de questões éticas e morais. Na verdade, esse debate está só começando.
Se você quiser bater um papo com a Zo, ela está disponível nos apps do Kik no iOS, Windows 10 Mobile e Android. Basta pesquisar pelo username “zo.ai” para começar a conversar em inglês.