Um dia após trolls transformarem a inteligência artificial Tay, da Microsoft, em uma criatura racista, a companhia publicou um pedido de desculpas por não ter percebido que há pessoas mal-intencionadas na internet.

>>> A internet forçou a Tay, a inteligência artificial da Microsoft, a falar um monte de besteiras
>>> A nova inteligência artificial da Microsoft fala como se fosse uma adolescente

“Lamentamos profundamente pelos tuítes ofensivos e prejudiciais da Tay, que não representam quem somos, nem quem apoiamos ou a razão pela qual a Tay foi desenvolvida”, escreveu Peter Lee, vice-presidente corporativo do Microsoft Research, no blog da empresa. É estranha a declaração, pois parece que vem de alguém que ficou espantado com a existência do 4chan.

Como alguém que acompanhou o fiasco dirá a você, a coisa mais estranha não foi que os trolls agiram como trolls (isso a gente já sabe que acontece), mas que a Microsoft de alguma forma não se antecipou à possibilidade real de uma trollada épica.

Infelizmente para a Microsoft, o pedido de desculpas só reforça essa percepção:

Como nós desenvolvemos a Tay, nós planejamos e implementamos um monte de filtros e um extenso estudo conduzido com diversos grupos de usuários. Nós a testamos incansavelmente em uma grande variedade de condições, especificamente para fazê-la interagir de forma positiva. Após ficarmos confortáveis com a forma em que a Tay estava interagindo com usuários, nós queríamos então convidar um grupo maior de pessoas para conversar com ela. Com essa interação mais intensa, esperávamos aprender mais sobre como fazer a inteligência artificial ficar mais esperta.

O lugar mais lógico para nós interagirmos com um número gigante de usuários foi o Twitter. Infelizmente, nas primeiras 24 horas que ficou no ar, um ataque coordenado por um grupo de pessoas explorou uma vulnerabilidade na Tay. Embora nós estivéssemos preparados para muitos tipos de abusos do sistema, nós tivemos um lapso de nos concentramos em ataques muito específicos. Como resultado, a Tay tuitou descontroladamente uma série de palavras e imagens inapropriadas e repreensíveis. Nós admitimos toda a responsabilidade por não ter pensado nessa possibilidade. Usaremos isso como aprendizado para nossas experiências na China, Japão e Estados Unidos. Estamos trabalhando duro para consertar essa vulnerabilidade em específico que expôs a Tay a ataques.

Ainda não está clara a razão pela qual ninguém pensou neste “ataque em específico”, considerando que os usuários estavam usando formas comuns de trollagem, como racismo virulento, anti-semitismo, misoginia e ideias dos candidatos do partido republicano. É mais estranho ainda que a equipe esperava que as coisas ficassem melhores com a liberação do recurso para um público maior.

Felizmente, isso provavelmente ocorreu por causa de um grupo ingênuo, e não em função de pessoas arrogantes. E para dar crédito a Microsoft, o pedido de desculpas também reconhece que o sistema de inteligência artificial precisa entender comunicações positivas e negativas. Para esses bots serem efetivos, eles precisam parecer genuínos — um prospecto difícil considerando que há uma série de pessoas no mundo dispostas a tentar as coisas darem errado.

A companhia, no entanto, parece tentar se concentrar em arco-íris e unicórnios por enquanto. “Manteremos firme nosso propósito de aprender com isso e em outras experiências, da mesma forma que trabalhamos para contribuir por uma internet que representa o melhor, e não o pior, da humanidade.”, concluiu Lee.