_Tecnologia

Google pede ajuda de funcionários para calibrar o Bard IA; entenda porquê

Em comunicados internos, o CEO do Google, Sundar Pichai, pediu que funcionários tirem de 2h a 4h diárias para melhorar respostas do bot Bard

Google alerta funcionários sobre uso de chatbots para evitar vazamentos

Imagem: Focal Foto/Flickr/Reprodução

Uma semana depois de começar os testes públicos do Bard, seu próprio chatbot ultra responsivo parecido com o ChatGPT, o Google pediu a seus funcionários que ajudassem a calibrar a IA (inteligência artificial). 

O objetivo, segundo a big tech, é que os trabalhadores ajudem a melhorar o serviço antes de lançá-lo em definitivo. “Queremos que Bard gere as melhores respostas possíveis e é aqui que você entra”, diz um memorando interno enviado na quarta-feira (15), obtido pelo site CNBC.

No e-mail, o CEO Sundar Pichai pede que toda a força de trabalho contribua com duas a quatro horas para ajudar a melhorar as respostas do bot. As instruções incentivam os funcionários a questionar o Bard sobre tópicos dos quais têm mais conhecimento. 

“Experimente um tópico com o qual você esteja familiarizado”, diz o e-mail. “Um hobby que você goste. Um assunto no qual você é especialista. Algo que você estudou, lugares onde morou, um esporte que pratica ou segue”. 

Se a IA fornecer uma resposta ruim, os funcionários podem então consertá-la, reescrevendo-a. A nova resposta vai para uma equipe interna focada na qualidade do modelo de linguagem, que deve implementá-la no aprendizado de máquina do bot. 

Pichai também incentivou os funcionários a darem uma joinha ou não gostei para sinalizar as respostas mais e menos adequadas à equipe Bard. 

Segundo o Google, o chatbot aprende melhor pelo exemplo. “Bard aprende melhor pelo exemplo, portanto, reservar um tempo para reescrever uma resposta cuidadosamente ajudará bastante a melhorar o modelo”, pontua o memorando. 

O que não fazer 

No e-mail, o CEO do Google também orienta que os funcionários mantenham em suas respostas um tom “neutro e sem opinião”. Outra regra é evitar respostas que possam descrever uma pessoa ou que possam “ensinar” o Bard a soar como se tivesse “experiências humanas”. 

De modo geral, a big tech quer que o Bard forneça respostas úteis sem nenhum indício controverso. Outra orientação é que os funcionários não escrevam respostas com estereótipos baseados em cor ou gênero. 

Ao final, Pichai instruiu os trabalhadores a sinalizar todas as respostas em que Bard oferece aconselhamento jurídico, médico ou financeiro. O motivo: essas são áreas em que o risco do bot fornecer informações incorretas é alto. 

O que está por trás 

Com a popularidade do ChatGPT e o lançamento do chatbot no Bing depois do investimento pesado da Microsoft na OpenAI, não é surpresa que o Google esteja buscando seu lugar ao sol com o Bard na onda dos modelos de linguagem movidos por IA. 

Uma afirmação do presidente da Alphabet, John Hennessy, na conferência TechSurge, na segunda-feira (13), mostra que talvez o Google não estivesse 100% pronto para lançar Bard tão cedo. 

“Acho que o Google hesitou em produzir isso porque não achava que estava realmente pronto para um produto ainda”, afirmou. “Mas, como é um veículo de demonstração, é uma grande peça de tecnologia”, completou. 

Mas, mesmo com o avanço da concorrência, o Google parece agir com cautela. “Sei que este momento é desconfortavelmente emocionante. E isso é de se esperar: a tecnologia subjacente está evoluindo rapidamente com tanto potencial”, escreveu Pichai em seu memorando.

“A coisa mais importante que podemos fazer agora é focar na construção de um ótimo produto e desenvolvê-lo com responsabilidade”, completou o CEO. Em outro e-mail visto pela Insider, o líder de produto de Bard, Jack Krawczyk, afirma que a adição de respostas dos funcionários melhorou “dramaticamente” a qualidade da IA. 

“Estamos entusiasmados com o fato de que o conhecimento coletivo dos Googlers sobre tópicos específicos pode ajudar a acelerar o treinamento do modelo de maneira poderosa”, escreveu Krawczyk.

Sair da versão mobile