Google pede ajuda de funcionários para calibrar o Bard IA; entenda porquê
Uma semana depois de começar os testes públicos do Bard, seu próprio chatbot ultra responsivo parecido com o ChatGPT, o Google pediu a seus funcionários que ajudassem a calibrar a IA (inteligência artificial).
O objetivo, segundo a big tech, é que os trabalhadores ajudem a melhorar o serviço antes de lançá-lo em definitivo. “Queremos que Bard gere as melhores respostas possíveis e é aqui que você entra”, diz um memorando interno enviado na quarta-feira (15), obtido pelo site CNBC.
No e-mail, o CEO Sundar Pichai pede que toda a força de trabalho contribua com duas a quatro horas para ajudar a melhorar as respostas do bot. As instruções incentivam os funcionários a questionar o Bard sobre tópicos dos quais têm mais conhecimento.
“Experimente um tópico com o qual você esteja familiarizado”, diz o e-mail. “Um hobby que você goste. Um assunto no qual você é especialista. Algo que você estudou, lugares onde morou, um esporte que pratica ou segue”.
Se a IA fornecer uma resposta ruim, os funcionários podem então consertá-la, reescrevendo-a. A nova resposta vai para uma equipe interna focada na qualidade do modelo de linguagem, que deve implementá-la no aprendizado de máquina do bot.
Pichai também incentivou os funcionários a darem uma joinha ou não gostei para sinalizar as respostas mais e menos adequadas à equipe Bard.
Segundo o Google, o chatbot aprende melhor pelo exemplo. “Bard aprende melhor pelo exemplo, portanto, reservar um tempo para reescrever uma resposta cuidadosamente ajudará bastante a melhorar o modelo”, pontua o memorando.
O que não fazer
No e-mail, o CEO do Google também orienta que os funcionários mantenham em suas respostas um tom “neutro e sem opinião”. Outra regra é evitar respostas que possam descrever uma pessoa ou que possam “ensinar” o Bard a soar como se tivesse “experiências humanas”.
De modo geral, a big tech quer que o Bard forneça respostas úteis sem nenhum indício controverso. Outra orientação é que os funcionários não escrevam respostas com estereótipos baseados em cor ou gênero.
Ao final, Pichai instruiu os trabalhadores a sinalizar todas as respostas em que Bard oferece aconselhamento jurídico, médico ou financeiro. O motivo: essas são áreas em que o risco do bot fornecer informações incorretas é alto.
O que está por trás
Com a popularidade do ChatGPT e o lançamento do chatbot no Bing depois do investimento pesado da Microsoft na OpenAI, não é surpresa que o Google esteja buscando seu lugar ao sol com o Bard na onda dos modelos de linguagem movidos por IA.
Uma afirmação do presidente da Alphabet, John Hennessy, na conferência TechSurge, na segunda-feira (13), mostra que talvez o Google não estivesse 100% pronto para lançar Bard tão cedo.
“Acho que o Google hesitou em produzir isso porque não achava que estava realmente pronto para um produto ainda”, afirmou. “Mas, como é um veículo de demonstração, é uma grande peça de tecnologia”, completou.
Mas, mesmo com o avanço da concorrência, o Google parece agir com cautela. “Sei que este momento é desconfortavelmente emocionante. E isso é de se esperar: a tecnologia subjacente está evoluindo rapidamente com tanto potencial”, escreveu Pichai em seu memorando.
“A coisa mais importante que podemos fazer agora é focar na construção de um ótimo produto e desenvolvê-lo com responsabilidade”, completou o CEO. Em outro e-mail visto pela Insider, o líder de produto de Bard, Jack Krawczyk, afirma que a adição de respostas dos funcionários melhorou “dramaticamente” a qualidade da IA.
“Estamos entusiasmados com o fato de que o conhecimento coletivo dos Googlers sobre tópicos específicos pode ajudar a acelerar o treinamento do modelo de maneira poderosa”, escreveu Krawczyk.