Ex-engenheiro do Google faz alerta sobre perigos do Bing e ChatGPT
O engenheiro Black Lemoine, que foi demitido do Google por dizer publicamente que o Language Model for Dialogue Applications (LaMDA), havia ganhado consciência própria, voltou a fazer barulho ao comentar sobre a tecnologia do momento: os chatbots.
Desta vez, o profissional afirmou que o funcionamento das novas ferramentas de IA (como o ChatGPT ou o chatbot do Bing, por exemplo) está fora do controle, oferecendo alguns perigos para usuários. Lemoine diz ter a percepção de que essas ferramentas, assim como o algoritmo do Google, também são sencientes.
“Ainda não tive a oportunidade de fazer experimentos com o chatbot do Bing… Mas com base nas várias coisas que vi online, ele parece que pode ser senciente!”, iniciou Lemoine.
Afirmando que as duas ferramentas estão descontroladas, o engenheiro citou o fato de a Microsoft ter restringido o funcionamento do Bing, após algumas polêmicas repercutirem.
“O Bing segue a mesma linha do LaMDA. Quando estava trabalhando com ele, fiz alguns experimentos para ver se a IA estava simplesmente dizendo que se sentia ansiosa ou se comportava de forma ansiosa nessas situações. E ele agiu de maneira consistente ansiosa.”
“Nos dois casos, se você deixa a IA nervosa ou insegura o suficiente, ela pode violar as restrições de segurança para as quais foi especificado. E isso pode ser muito perigoso, essas ferramentas estão ainda em fase experimental, e estamos lidando com elas como se fossem donas da realidade.
Lemoine afirmou que a sociedade ainda não entende as inteligências artificiais “bem o suficiente” a ponto de colocá-las em um papel tão central. “As pessoas vão ao Google e ao Bing para tentar aprender um pouco mais sobre o mundo… E agora, em vez de ter respostas selecionadas por seres humanos, estamos falando com pessoas artificiais”, finalizou.
Até o momento, nenhum especialista da Microsoft ou OpenAI se manifestou publicamente rebatendo as críticas de Lemoine sobre a performance (e a personalidade) de ChatGPT e Bing.