Tradução é um negócio difícil, que fica ainda mais difícil por um motivo: é preciso encontrar alguém que fale as duas línguas. Isso não é problema quando se precisa traduzir do Inglês para o Espanhol, mas não tanto quando a tradução é de Bengali para Tâmil, ou algo assim. O livro “In The Plex”, de Steven Levy, ilustra as origens, planos e intenções revolucionárias do Google para a sua máquina de tradução. Confira um trecho traduzido pelo Gizmodo Brasil.

Não foi coincidência que o homem que um dia seria o chefe da divisão de pesquisa do Google foi o coautor do livro Artificial Intelligence: A Modern Approach, o livro didático padrão no campo. Peter Norvig era responsável pela Divisão de Ciência Computacional nas instalações da NASA em Ames, não muito longe do Google. No fim do ano 2000, ficou claro para Norvig que as complicações da agência colocariam os seus programas em risco, então ele concluiu que era hora de uma mudança. Tendo assistido a uma palestra de Larry Page alguns meses antes, ele sentiu que a obsessão do Google por dados poderia ser uma oportunidade para ele. Enviou então um email para Page, que foi respondido rapidamente – o livro sobre inteligência artificial de Norvig era leitura obrigatória em um dos cursos de Page. Depois de chegar ao Google, Norvig rapidamente contratou uma pequena equipe e os colocou para trabalhar em projetos. Ele achou que seria um absurdo ter uma divisão separada no Google para tratar de coisas como “máquinas que aprendem” – a inteligência artificial deveria estar espalhada igualmente por toda a empresa.

Um dos itens no topo da lista de tarefas do Google era a tradução; alterar os bilhões de palavras que apareciam online para o idioma nativo de qualquer usuário no mundo. Em 2001, o Google.com já estava disponível em vinte e seis idiomas. Page e Brin [fundadores do Google] acreditavam que barreiras artificiais, como as de linguagem, não deveriam ficar no caminho das pessoas ao acesso à informação. Os seus pensamentos estavam alinhados com os do pioneiro em tradução automática, Warren Weaver, que disse, “quando eu olho para um artigo em russo, eu penso: isso na verdade está escrito em inglês, mas foi codificado em símbolos estranhos. Eu vou começar a decodificar”. O Google, nas mentes dos seus fundadores, decodificaria qualquer idioma no planeta. Já haviam tentativas no campo da tradução online, notavelmente um serviço chamado Babel Fish, que apareceu em 1995. O projeto próprio do Google, iniciado em 2001, tinha em seu cerne um sistema de tradução licenciado – basicamente o mesmo sistema usado pelo Yahoo e outros concorrentes. Mas o sistema era frequentemente tão incorreto que as palavras traduzidas pareciam ter sido selecionadas jogando dardos em um dicionário. Sergey Brin chamou atenção para o problema em uma reunião em 2004, quando mostrou a tradução do Google para um email de um fã da empresa na Coreia do Sul. Ele lia: “O sapato de peixe cru fatiado que deseja. Google coisa cebola verde!”

Na época em que Brin expressou a sua frustração com o email, o Google já havia identificado um alvo de contratação para liderar os esforços de tradução da empresa – de uma maneira que solidificasse o foco em inteligência artificial que Norvig identificou antes no Google. Franz Och teve seu doutorado em ciências da computação focado em “traduções automatizadas” na RWTH Aachen University, na Alemanha, de onde era nativo, e continuava seu trabalho na University of Southern California. Depois de dar uma palestra no Google em 2003, a empresa lhe ofereceu uma vaga. A maior preocupação de Och era o Google ser uma empresa de busca antes de qualquer coisa, com um mero interesse passageiro em tradução automática. Uma conversa com Larry Page dissolveu esse medo.

O Google, segundo Page, estava comprometido com a organização de toda a informação do mundo, e tradução era um componente necessário.

Och não estava seguro do quanto ele conseguiria fazer o sistema avançar – seria mesmo possível construir vinte pares de idiomas? (Em outras palavras, se o sistema tivesse vinte línguas, seria ele capaz de traduzir entre quaisquer dois idiomas entre eles?) Isso seria inédito. Page assegurou que o Google planejava investir pesadamente. “Eu disse ok”, disse Och, que entrou para o Google em Abril de 2004. “Nós agora temos 506 pares de idiomas, então acabou valendo a pena”.

Esforços anteriores no campo da tradução automática começavam com especialistas humanos que conheciam ambas as línguas e se envolveriam na transformação. Eles incorporariam as regras e estruturas de cada idioma para que pudessem fragmentar a entrada de dados de cada palavra em um idioma e saber como montar a sequência na segunda língua. “Isso consome muito tempo e é muito difícil, porque a linguagem natural é muito complexa e diversa, e com tantas nuances”, diz Och. Mas no final dos anos 80, alguns cientistas de computação da IBM bolaram uma nova abordagem, chamada tradução automática estatística, que foi adotada por Och. “A ideia principal é aprender com os dados”, explica ele. “Forneça ao computador grandes quantidades de texto em uma mesma língua, e ele deve entender por si mesmo quais são essas estruturas”. A ideia é alimentar o computador com quantidades gigantes de dados e deixá-lo lidar com a parte de pensar. Essencialmente, o sistema do Google criou um “modelo de linguagem” para cada idioma examinado pela equipe de Och. O próximo passo foi trabalhar com textos em diferentes línguas que já haviam sido traduzidos e deixar a máquina entender os algoritmos implícitos que ditam como um idioma se converte em outro. “Há algoritmos específicos que aprendem como palavras e frases se correspondem, que detectam nuances em texto e produzem traduções. O segredo é que quanto mais dados você tem, melhor será a qualidade do sistema”, diz Och.

Os dados mais importantes eram pares de documentos que haviam sido habilmente traduzidos de uma língua para outra. Antes da internet, a maior fonte de material para essas traduções eram coleções de papéis como documentos das Nações Unidas que haviam sido traduzidos para múltiplos idiomas. Mas a web produziu um vasto tesouro – e os índices do Google tornaram fácil para os engenheiros mineirar bilhões de documentos, desenterrando até mesmo os esforços mais obscuros de tradução de algum documento ou post de blog de uma língua para outra. Mesmo uma tradução amadora poderia fornecer algum grau de conhecimento, mas os algoritmos do Google conseguiam identificar quais eram as melhores traduções usando os mesmos princípios que identificavam quais websites eram mais importantes. “No Google”, diz Och, com pouca modéstia, “nós temos quantidades muito grandes de dados, e os recursos de computação correspondentes necessários para construir sistemas muito, muito, muito bons”.

Och começou com uma pequena equipe que usou a segunda metade de 2004 e o início de 2005 para construir os seus sistemas e algoritmos. Pelos anos seguintes, de fato, o Google lançou uma mini cruzada para atrair as melhores cabeças da área de aprendizado de máquinas, essencialmente cultivando o que se tornava uma fortaleza de Inteligência Artificial dentro da empresa. O papel oficial de Och era o de cientista no grupo de pesquisas do Google, mas o fato de que nenhum passo extra foi exigido para pular dos estudos para a implementação de produtos de fato é um indicativo da visão que o Google tinha sobre pesquisas.

Como Och e seus colegas sabiam que teriam acesso a uma quantidade de dados inédita, eles trabalharam do zero para construir um novo sistema de tradução. “Uma das coisas que fizemos foi construir modelos de idioma muito, muito, muito grandes, muito maiores do que quaisquer outros que já haviam sido criados na história da humanidade”. Então eles começaram a treinar o sistema. Para medir progressos, usaram um modelo estatístico que, dada uma série de palavras, tentaria prever a próxima palavra. A cada vez que eles dobravam a quantidade de dados de treinamento, ganhavam uma melhoria de .5% nas métricas que mediam o sucesso nos resultados. “Então nós dobramos algumas vezes”. Para conseguir uma tradução razoável, Och diria, você poderia alimentar o sistema com algo como um bilhão de palavras. Mas o Google não parou no um bilhão.

No meio de 2005, a equipe do Google estava pronta para participar do concurso anual de tradução automática patrocinado pelo Instituto Nacional de Padrões e Tecnologia. No início do evento, cada equipe participante recebia uma série de textos e alguns dias para que os seus computadores realizassem a a tradução, enquanto os computadores do governo rodavam avaliações computavam as pontuações. Por algum motivo, o Instituto não caracterizava o concurso como um em que um participante é coroado campeão, então Och foi cuidadoso para não declarar o Google um vencedor. Em vez disso, ele diz, “nossas pontuações foram melhores do que as pontuações de todos os outros”. Um dos pares de idiomas testados envolvia o idioma Árabe. “Nós não tínhamos nenhum falante de Árabe na equipe, mas fizemos a melhor tradução automática”.

Por não depender de falantes nativos, o Google estava livre para fornecer traduções para os mais obscuros pares de idiomas. “Você sempre vai conseguir traduzir Francês para Inglês, ou Inglês para Espanhol, mas onde mais você consegue traduzir Hindu para Dinamarquês, ou Finlandês para Norueguês?”

Um problema antigo na ciência da computação é o reconhecimento de fala – a capacidade dos computadores ouvirem e entenderem linguagem natural. O Google aplicou as técnicas de Och ao ensinar aos seus vastos clusters de computadores como dar algum sentido a coisas ditas por humanos. Eles configuraram um número de telefone, 1-800-GOOG-411, e ofereceram uma versão gratuita do que as empresas de telefonia costumavam chamar de auxílio à lista. Você diria o nome e a cidade do estabelecimento comercial para o qual queria ligar, e o Google daria o resultado e perguntaria se você gostaria de ser conectado.

Mas isso não era simplesmente bondade do Google. Ao prestar esse serviço, o Google aprendeu como as pessoas falam, e, já que podia saber se o resultado dado estava correto ou não, tinha também um feedback para dizer onde e no que errava. Assim como fizeram com o mecanismo de busca, o Google estava permitindo que os seus próprios usuários o ensinassem sobre o mundo.

“O que me convenceu a entrar para o Google foi a sua capacidade de processar informações em larga escala, particularmente o feedback recebido dos usuários”, diz Alfred Spector, que em 2008 entrou para a empresa como chefe da divisão de pesquisa. “Esse tipo de aprendizado de máquinas nunca havia acontecido da forma como aconteceu no Google”.

Com o passar dos anos, o Google evoluiu o que chamou de “um sistema prático de aprendizado por máquinas em larga escala”, apelidado de “Seti”. O nome veio de “Search for Extra Terrestrial Intelligence”, o sistema que varre o universo em busca de provas de vida fora da Terra. O sistema do Google também trabalha em escala universal enquanto busca por sinais no seu mundo espelhado. Os índices do Google humilham quase absurdamente os maiores conjuntos de dados usados em experimentos de aprendizado por máquinas. O esforço mais ambicioso registrado no Arquivo de Grandes Conjuntos de Dados Para Pesquisa e Experimentação com Mineração de Dados do UCI KDD é um conjunto de 4 milhões de instâncias usadas para detectar fraudes e intrusões. O sistema Seti de aprendizado do Google usa conjuntos de dados do tamanho de 100 bilhões de instâncias.

Larry Page e Sergey Brin, fundadores do Google

 

Os pesquisadores do Google admitiriam que trabalhar com um sistema de aprendizado deste tamanho os colocavam em território inexplorado. A melhoria constante do sistema de aprendizado flertava com as consequências postuladas pelo cientista e filósofo Raymond Kurzweil, que especulou sobre uma iminente “singularidade”, que viria quando um sistema de computação massivo evoluísse até se tornar inteligente. Larry Page era um seguidor entusiasta de Kurzweil e um contribuinte-chave da Singularity University, uma iniciativa educativa inspirada na obra de Kurzweil, que antecipava o dia em que a humanidade passaria o bastão da consciência para as nossas crias inorgânicas.

O que significa dizer que o Google “sabe” alguma coisa? Será que o sistema Seti do Google nos diz que, na busca por inteligência não-humana, nós não deveríamos estar procurando nas estrelas, mas sim nos milhões de servidores dos data centers do Google?

“Esta é uma pergunta muito profunda”, diz Spector. “Os humanos, na verdade, são grandes sacos de basicamente água, andando por aí com um monte de tubos e alguns neurônios e tudo mais. Mas nós somos bem informados. Agora olhe para o sistema de computação do Google. É um conjunto de muitas heurísticas, então ele sabe que ‘veículo’ é sinônimo de ‘automóvel’ e que isso em Francês é ‘voiture’, e sabe como é em Alemão e em todas as línguas. Ele sabe esse tipo de coisa. E aprendeu muitas outras com as coisas que as pessoas digitam”. Ele citou outras coisas que o Google sabe: por exemplo, o Google havia acabado de introduzir uma nova heurística que determinava, pelas suas buscas, se você poderia estar contemplando suicídio, caso em que ele retornaria informações sobre formas de ajuda. Neste caso, o motor do Google observa pistas previstas em suas observações do comportamento humano. Elas são formuladas no cérebro virtual do Google assim como neurônios são formados na nossa própria massa cinzenta. Spector prometeu que o Google aprenderia muito, muito mais nos próximos anos.

“Será que essas coisas evoluem para o nível que chamaríamos de conhecimento?”, ele pergunta, retoricamente. “Minha filha de dez anos acredita que sim. Ela acha que o Google sabe muito. Se você perguntar para qualquer um na sua classe na escola, eu acho que as crianças diriam que sim”.

O que pensa ele, Spector, um cientista?

“Acredito que não seria responsável da parte de um cientista responder esta pergunta, cientificamente”, diz ele. “O que eu acho, porém, é que, falando assim, por cima, o Google é bem informado. A pergunta é se nós construiremos uma inteligência de propósito geral, que só fica lá, observando, então desenvolve todas essas habilidades nela mesma, não importa o que sejam, desde diagnóstico médico até…” Spector pausa. “Isso ainda está muito distante”, diz ele. “Provavelmente não será feito durante a minha carreira no Google”. (Spector tinha 55 anos durante esta conversa, no início de 2010.)

“Eu acho que Larry adoraria ver isso acontecendo”, acrescenta.

De fato, Page já vinha pensando nessas coisas há algum tempo. Em 2004, eu perguntei a Page e Brin o que eles viam como o futuro das buscas do Google. “Ela será incluída nos cérebros das pessoas”, disse Page. “Quando você pensar sobre algo e não souber muito a respeito daquilo, você receberá informações automaticamente”.

“Verdade”, disse Brin. “No fim das contas eu vejo o Google como uma forma de melhorar o seu cérebro com o conhecimento do mundo. Atualmente você vai ao seu computador e digita uma frase, mas podemos imaginar que isso será mais fácil no futuro, que você terá aparelhos com os quais possa falar, ou que você possa ter computadores que prestem atenção ao que está acontecendo ao redor e sugiram informações úteis.” “Alguém te cumprimenta, e o seu relógio vai ao seu site”, disse Page. “Ou se você falou com essa pessoa há dois anos, isso é o que ela te disse”. Mais tarde nesta conversa, Page disse: “eventualmente, você terá um implante que, quando você pensar sobre um fato, ele já vai te dizer a resposta”.

Era uma visão fantástica, direto da ficção científica. Mas Page estava fazendo um progresso notável – exceto pelo implante. Quando questionado, no início de 2010, sobre qual seria o próximo passo para a busca, ele disse que o Google conhecerá as suas preferências e encontrará para você coisas que você não conhecia mas queria conhecer. Ou seja, mesmo que você não saiba o que está procurando, o Google vai te dizer.

O que Page não disse foi o quão longe o Google já estava nesse caminho. Ben Gomes, um dos rock stars originais das buscas, mostrou a um visitante algo no qual ele estava trabalhando, chamado “Busque-enquanto-digita”. Outros nomes internos para isso foram “psychic” e “Miss Cleo”, em referência à vidente da televisão. Como sugere o nome mais prosaico, este recurso permite que o sistema de busca comece a entregar resultados mesmo antes que você termine de digitar os termos de pesquisa. Ele começou a digitar “finger shoes” – o termo usado pelas pessoas para descrever o tipo de calçado frequentemente usado por Sergey Brin, uma espécie de chinelo de borracha com mangas individuais para cada dedo, assim como uma luva. A busca do Google, claro, com todos os sinônimos e o conhecimento adquirido na observação de bilhões de usuários, sabia sobre o que ele estava falando. Gomes não tinha nem terminado de digitar a segunda palavra antes que a página houvesse se preenchido com links – e anúncios! –, confiantemente pressupondo que ele procurava informações, e talvez uma oportunidade de compra, relacionadas à “Vibram Five Fingers, a alternativa ao pé descalço”. “É uma estranha conexão entre o seu cérebro e os resultados,” disse Gomes. (Em setembro de 2010, o Google introduziu este produto, chamando-o de Google Instant.)

“A busca vai ficar cada vez mais mágica”, diz a engenheira de buscas Johanna Wright. “Nós ficaremos tão melhores nisso que faremos coisas que as pessoas nem sequer imaginam”. Ela mencionou o exemplo uma demonstração que estava sendo distribuída. “Digamos que você digite ‘hambúrguer’. Hoje, o Google vai te mostrar receitas de hambúrguer. Mas nós vamos passar a mostrar menus e resenhas de lugares próximos onde você pode comer um hambúrguer, o que é ótimo para pessoas que moram em lugares com restaurantes próximos. Eu chamo este projeto de Blueberry Pancakes porque, se eu digitar isso, ele vai me contar sobre a casa de panquecas em Los Altos, e eu vou para lá. Este é mais um exemplo de para onde nós vamos – o Google vai continuar te entendendo cada vez melhor e solucionando cada vez mais e mais e mais das suas necessidades”.

Isso colocaria o Google atrás do volante em muitas decisões, pequenas e grandes, que as pessoas tomam no decorrer de um dia e das suas vidas. Lembre-se: mais de 70 por cento das buscas nos Estados Unidos são feitas no Google, e em alguns países essa porcentagem é maior. Isso representa muito poder para a empresa fundada por dois universitários há pouco mais de uma década. “De certa forma nós somos responsáveis pelas pessoas encontrarem o que precisam”, diz Udi Manber. “Sempre que elas não encontram, a culpa é nossa. É uma enorme responsabilidade. É como se fôssemos médicos, responsáveis pela vida”.

Talvez, conforme sugerido por Manber, independente do quão bem-intencionados sejam os gênios do Google, não seja necessariamente uma boa ideia que qualquer uma única entidade tenha a resposta, quer ela esteja diretamente ligada no nosso cérebro ou não.

“Pode te surpreender”, diz Udi Manber, “mas eu concordo completamente com isso. E isso me assusta pra caramba”.

“Do IN THE PLEX, por Steven Levy. Copyright (c) 2011 por Steven Levy. Publicado por Simon & Schuster, Inc. Republicado com permissão.”

Arte original: artista convidado Chris “Powerpig” McVeigh. Visite-o no Facebook.

Steven Levy é um redator sênior na revista Wired. Ele já foi editor sênior e redator-chefe de tecnologia na revista Newsweek. Já escreveu sobre tecnologia para uma ampla gama de publicações, incluindo Rolling Stone, The New Yorker e The New York Times.

O livro In The Plex: How Google Thinks, Works, and Shapes Our Lives está disponível na Amazon.com.