Investigação mostra que o Google faz um monte de ajustes, muitos manuais, em sua busca
O algoritmo de busca do Google é algo poderoso — pequenas mudanças podem influenciar empresas, influenciar suas decisões de compra e moldar as informações que vemos. O Google diz que não “usa curadoria humana para coletar ou organizar os resultados em uma página”, mas uma investigação do Wall Street Journal descobriu que a empresa interfere nos resultados de pesquisa mais do que gostaria de admitir.
Importante ressaltar que a reportagem do WSJ é tão detalhada quanto extensa. Ela abrange mais de 100 entrevistas, além de um teste independente do algoritmo do Google, em comparação com os rivais Bing e DuckDuckGo (você pode ler a metodologia do teste aqui).
A essência geral é que, nos últimos anos, o Google mudou de uma cultura “sem mãos humanas”, a melhor que o algoritmo sabe, para uma que assume um papel mais ativo na decisão de como as informações aparecem para os usuários. No geral, a reportagem constatou que o Google fez 3.200 alterações em seus algoritmos em 2018; à titulo de comparação, a empresa fez 2.400 alterações em 2017 e 500 em 2010, segundo a apuração do jornal norte-americano.
Entre as descobertas mais surpreendentes, está o fato de o Google mudar seu algoritmo para favorecer empresas maiores como Amazon e Facebook em vez de vendedores independentes menores. Em sua reportagem, o WSJ constatou que, em pelo menos um caso, também houve alterações referentes ao eBay, depois que um terço de seu tráfego despencou em 2014.
O Wall Street Journal também descobriu que o Google mantém blacklists para remover ou prevenir que certos sites sejam mostrados em resultados de busca, apesar de a empresa publicamente negar a existência de tais listas. Notavelmente, estas listas são separadas das exigidas por lei, como listas de abuso infantil ou violação de direitos autorais. Nessa linha, o Google também teria seus engenheiros criando algoritmos e listas para filtrar resultados “controversos” para tópicos como imigração ou aborto.
Além disso, a reportagem descobriu que o Google ajusta regularmente o que você vê em recursos como sugestões de preenchimento automático, “painéis de conhecimento” (aquelas caixas que ficam no lado direito de uma página de pesquisa), snippets em destaque e resultados de notícias. Dado que esses destaques selecionados não são considerados pesquisas orgânicas, segundo o relatório, eles não são mantidos no mesmo padrão e, portanto, são mais fáceis de editar pelo Google.
E, claro, o Google está pagando milhares de prestadores de serviço — não muito bem, como você pode imaginar — para avaliar a qualidade das classificações de algoritmos. Estes funcionários terceirizados são basicamente informados sobre o que o Google considera classificações de resultados “corretas” e instruídos a ajustar suas classificações de acordo. Um terceirizado entrevistado disse que o Google pagou US$ 13,50 por hora por cerca de 20 horas semanais e foi instruído a classificar itens relacionados à linha de prevenção nacional de suicídio dos EUA (uma espécie de CVV) como resultado número um em todas as buscas relacionadas ao tema.
Tudo isso é muito para analisar — cada decisão tomada tem um monte de implicações! No entanto, a controvérsia se resume ao fato de o Google se defender regularmente contra os reguladores, dizendo que “humanos não se intrometem em seu algoritmo sagrado”. Ao mesmo tempo, a empresa está sob crescente pressão para fazer algo sobre a disseminação de notícias falsas nos resultados de pesquisa.
Em um exemplo citado, as pesquisas do Google em 2017 por centros de dependência química frequentemente apareciam instalações com registros duvidosos. Após o lobby, os líderes do setor observaram que as pesquisas por “reabilitação” foram alteradas para mostrar o site da SAMHSA (Substance Abuse and Mental Health Services Administration) — uma linha direta administrada pelo Departamento de Saude e Serviços Humanos dos EUA.
Pode-se argumentar que, enquanto a intromissão nos resultados de pesquisa do Google pode ser extremamente perigosa — pense em ceder às pressões empresariais ou políticas para alterar os resultados que você obtém e, portanto, como você se informa sobre o mundo — há alguns casos em que é compreensível, como quando você faz alterações para que conteúdos sobre lesbianismo mostre menos resultados pornográficos ou quando removeram os resultados de sites que negam o holocausto. Parte do problema é a forma com o Google fala sob em quais circunstâncias interferirá nos resultados de pesquisa — geralmente, sob o raciocínio de que quanto mais transparente for o processo, mais seguro será o algoritmo de maus autores que tentariam “enganar o sistema”.
O que o Google diz
Por parte do Google, a empresa diz que leva a sério as conclusões da reportagem do Wall Street Journal. Sobre as “listas negras”, a empresa disse ao Gizmodo que sua negação pública se refere a uma pergunta específica sobre o assunto por razões políticas. Quanto a favorecer as grandes empresas em detrimento das pequenas, diz que os algoritmos de busca são projetados para aumentar os resultados “oficiais” e relevantes. A empresa também afirma que os terceirizados recebem diretrizes específicas, disponíveis ao público, para garantir dados consistentes.
“Temos sido muito transparentes em relação aos tópicos abordados neste artigo, como nossas diretrizes para avaliadores de resultados de pesquisa, nossas políticas para destaques selecionados especiais em pesquisas, como preenchimento automático e remoções legais válidas, nosso trabalho para combater as informações erradas por meio do Project Owl e o fato de que as alterações que fazemos na pesquisa visam beneficiar os usuários, não as relações comerciais”, disse um porta-voz do Google ao Gizmodo por e-mail.
“Este artigo contém vários episódios antigos e incompletos, muitos dos quais não apenas antecederam nossos processos e políticas atuais, mas também fornecem uma impressão muito imprecisa de como abordamos a criação e o aprimoramento da pesquisa. Adotamos uma abordagem responsável e baseada em princípios para fazer alterações, incluindo um rigoroso processo de avaliação antes de iniciar qualquer alteração — algo que começamos a implementar a mais de uma década. Ouvir os comentários do público é uma parte crítica para melhorar a pesquisa e continuamos a receber comentários”.