A Microsoft lançou em março a inteligência artificial Tay, um chatbot que usava “conversas casuais e divertidas” para interagir com humanos. A iniciativa fazia parte de um experimento para coletar dados públicos e usar AI para comunicação, mas acabou não dando muito certo.
• A nova inteligência artificial da Microsoft fala como se fosse uma adolescente
• A internet forçou a Tay, a inteligência artificial da Microsoft, a falar um monte de besteiras
• Microsoft pede desculpas por frases racistas ditas pela inteligência artificial Tay
A Tay estava presente no Twitter, Kik Messenger e GroupMe. Não demorou nem um dia para que a internet a transformasse em um bot sem noção. Ela passou a publicar comentários racistas, anti-semitas, sexistas e algumas outras coisas. Os usuários perguntavam sobre assuntos esquisitos e ela absorvia tudo.
Agora, a companhia está fazendo outra tentativa: a Zo, que também irá aprender e se adaptar com o tempo, junto com as interações que receber. Desta vez, a Microsoft decidiu liberar o chatbot apenas no app Kik Messenger. Como aponta o Neowin, a Zo geralmente dá respostas inteligentes, mas um tanto quanto confusas e equivocadas, que não levam para um diálogo maior.
A Zo ainda está em seus estágios iniciais. A plataforma escolhida pela Microsoft para testá-la dá menos margem para que se torne um bot horrível. De acordo com a DMR Stats, mais de 60% dos usuários do Kik nos EUA possuem entre 13 e 19 anos. Isso não quer dizer que ela não possa fazer comentários terríveis, mas pode ser que demore mais para aprender algumas maldades.
A Microsoft ainda não anunciou o chatbot oficialmente, mas ele já pode ser encontrado nos apps do Kik no iOS, Windows 10 Mobile e Android. Basta pesquisar pelo username “zo.ai” para começar a conversar em inglês.
[Neowin via MSPowerUser]