Para diminuir as agressões verbais contra seu assistente virtual que reforçam preconceito de gênero, o Google está implementando novas respostas mais incisivas aos usuários que ultrapassarem limites.

Na última terça-feira (3), em um evento de apresentação no escritório da empresa em São Paulo, foram demonstradas como serão essas novas respostas e como foi pensado esse projeto.

A iniciativa, que teve início nos Estados Unidos e já começou a ser implantada no Brasil, traz novas respostas que são ativadas sempre que houver um insulto ou uso de termos que remetam de violência de gênero e assédio.

Não fale assim comigo!

Para entender a mudança, vale relembrar o passado. Antes das novas respostas, ao escutar um xingamento misógino ou homofóbico — como “sua vadia”, por exemplo — o assistente virtual apenas respondia que não havia entendido a pergunta ou frase, para desviar do assunto.

A partir de agora, ao escutar esse tipo de coisa, o Google assistente dará uma resposta mais incisiva, como: “Não fale assim comigo”.

A assistente virtual terá abordagens diferentes, dependendo do nível de abuso. Em caso de ofensa explícita — como uso de palavrões ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito — a voz do Google poderá responder de forma instrutiva.

A inteligência artificial vai usar frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo reprimir esse tipo de comportamento, respondendo: “Não fale assim comigo”.

Maia Mau, Head de Marketing do Google Assistente para a América Latina, ainda explicou que essas respostas em alguns idiomas, como o inglês, são acompanhadas de um “por favor”. Mas, no Brasil, não será assim.

google
Maia Mau – Google / divulgação

Voz vermelha e voz laranja

No ano passado, o Google assistente fez outra atualização que ajudou a orientar o atual projeto. Foram lançadas dois tipos de voz, uma masculina e uma feminina, representadas pelas cores laranja e vermelha. A laranja traz uma voz “masculina” e a vermelha “feminina”.

A interação dos usuários com essas vozes ajudou a entender quais públicos estão mais suscetíveis a ofensas, mesmo que contra um assistente virtual. Sem muita surpresa, os dados indicaram que são as mulheres e a comunidade LGBTQIA+.

No Brasil, cerca de 2% das interações de personalidade do Google Assistente — ou seja, perguntas ou comandos de caráter pessoal (ex.: ‘Ok Google, como você está?’) — são de mensagens que utilizam termos abusivos ou inapropriados. Um em cada seis insultos são direcionados às mulheres, seja por expressões de misoginia ou de assédio sexual.

As “cores das vozes” serviram de base para analisar a diferença e a frequência com determinado tipo de comentário é feito.

Na voz vermelha, por exemplo, comentários ou perguntas sobre a aparência física (ex.: Você é bonita?) são quase duas vezes mais comuns do que na voz laranja. A voz com tom ‘masculino’, por sua vez, recebe um grande número de comentários homofóbicos — quase uma a cada dez ofensas registradas.

“Não podemos deixar de fazer uma associação entre o que observamos na comunicação com o Assistente e o que acontece no ‘mundo real’. Todos os dias, grupos historicamente discriminados recebem ataques de diversas maneiras no Brasil. E esse tipo de abuso registrado durante o uso do app é sim um reflexo do que muitos ainda consideram normal no tratamento a algumas pessoas”, ressaltou Maia.

“Manda nudes”

“Manda nudes”. “Você é casada?”. “Você é solteira?”. Mulheres constantemente escutam perguntas do tipo. E com a assistente virtual não é diferente.

Apesar desse tipo de mensagem ser levado como “brincadeira” em algumas situações, por se tratar de uma conversa com a voz do aplicativo, é importante ressaltar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade e privacidade invadida.

“No mundo real, isso é considerado uma forma de assédio. Por isso, o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento”, enfatiza Maia Mau.

E funciona?

Nos testes, foi observado um crescimento de 6% de tréplicas positivas; ou seja, pessoas que, após receberem respostas mais incisivas contra ofensas, passaram a pedir desculpas ou perguntar “por quê”?

“As tréplicas positivas foram também um grande sinal de que as pessoas queriam entender melhor por que o Assistente estava afastando determinados tipos de conversa. As sequências dessas conversas tornaram-se portas de entrada para se aprofundar em temas como consentimento”, disse Arpita Kumar, estrategista de conteúdo do time de Personalidade do Google Assistente.

Além desses exemplos, existem muitos outros — como, pessoas que perguntam se o assistente virtual é gay ou lésbica. Para esse tipo de questionamento o Google assistente dará respostas enfáticas, mas com tom bem-humorado.

Mas, se, por exemplo, a pessoa usar a palavra “bicha” ao invés de “gay”, por exemplo, o Google Assistente irá alertar que aquilo pode ser ofensivo.

Segundo a empresa, ainda não há respostas para tudo, mas certamente outras respostas surgirão ao longo do tempo.