O Google I/O 2024 realizado na tarde desta terça-feira (14) foi bastante focado em inteligência artificial e, principalmente, nas possibilidades oferecidas pelo Gemini, a plataforma de IA própria da big tech — anteriormente conhecida como Bard AI.
Para ilustrar o quanto o evento foi focado em inteligência artificial, ao final da apresentação, o CEO Sundar Pichai compartilhou um dado de forma muito bem-humorada: o termo “Gemini” foi mencionado 121 vezes ao longo da apresentação que durou mais ou menos 1h40.
Quem acompanhou o lançamento desastrado do Bard AI, há pouco mais de um ano atrás, precisa admitir que, aparentemente, a divisão de IA do Google entrou nos trilhos e, atualmente, oferece uma concorrência um pouco mais desafiadora para os modelos superavançados da OpenAI.
Mas o que a gigante da tecnologia apresentou de mais interessante no evento?
Inteligência artificial na busca
Quando a empresa fez seus primeiros investimentos em ferramentas de inteligência artificial para uso diário, uma de suas principais promessas era transformar a maneira como os usuários interagem com seu mecanismo de busca e oferecer resultados de forma mais “interativa”.
Depois de apresentar a “experiência de pesquisa generativa”, o Google está dando um passo adiante com o novo “Overview AI”. Na prática, a gigante das buscas está oferecendo resultados com informações mais completas, além de compartilhar links úteis para que o usuário tenha acesso a mais informações confiável.
Além disso, há um resumo alimentado por IA que aparece no topo da página de resultados — algo que já aparece em algumas regiões do planeta –, o que pode ajudar os internautas a pouparem tempo em suas pesquisas e obterem acesso às informações desejadas de forma mais rápida.
No entanto, caso a ideia seja encontrar um restaurante para ter uma jantar romântico ou buscar opções de receitas para uma dieta saudável de uma semana, os usuários terão uma experiência mais completa e “personalizável”, com possibilidade de alterar alguns parâmetros listados no topo da página de pesquisa.
O Overview AI já está disponível, mas apenas para usuários nos Estados Unidos e, por enquanto, apenas em língua inglesa.
Ainda há possibilidade de utilizar vídeos gravados no Google Lens para realizar pesquisas. No palco do I/O 2024 uma das porta-vozes da empresa demonstrou o funcionamento da ferramenta em tempo real consultando informações sobre um toca-discos que não estava funcionando como o esperado.
Workspace
Agora o Google Workspace, graças às novas funcionalidades alimentadas por inteligência artificial, têm maior potencial de impulsionar a produtividade dos usuários que utilizam os apps para fins profissionais.
Durante o evento, a gigante da tecnologia revelou a possibilidade de conseguir os “melhores momentos” de uma reunião no Google Meet. Na prática, será possível revisar os tópicos mais importantes de uma videochamada longa, o que pode ser útil se o profissional tiver deixado passar algo importante em suas anotações.
No gerenciador de e-mail, a IA pode resumir o conteúdo de trocas de e-mails com muitas respostas, que podem acabar sendo um pouco difíceis de visualizar já que a interface da plataforma não é tão amigável nestes casos. Está é mais uma função que pode ajudar os usuários a ganhar um pouco mais de tempo.
Por enquanto, a funcionalidade chegará em breve, mas será limitada. Nem todos os usuários terão acesso imediato às novas ferramentas do Workspace, mas seria interessante se a empresa liberasse estes novos recursos para todos os usuários, ainda que com algumas limitações.
Inteligência artificial no Android
Em janeiro, o Giz Brasil foi convidado para conhecer em primeira mão uma das principais novidades do Google para este ano, o “circule para pesquisar”. O recurso incorporado ao sistema Android permite a realização de pesquisas com maior praticidade sem exigir a abertura do navegador.
Enquanto assiste a um vídeo do YouTube, por exemplo, o usuário pode ativar a funcionalidade pressionando o “botão home” e desenhar um círculo, contornar o simplesmente rabiscar um par de sapatos que aparece no conteúdo para obter mais informações sobre o modelo e descobrir onde comprar um igual.
Agora a função está ganhando algumas melhorias, sendo capaz de interpretar melhor o conteúdo da tela e “prever” potenciais dúvidas dos usuários para entregar melhores resultados.
Outra ferramenta bastante interessante que chegará junto com o Android 15 é que o modelo de IA incorporado ao dispositivo, o Gemini Nano, será capaz de ouvir chamadas em tempo real e alertar o usuário caso detecte alguma ação suspeita que configure uma tentativa de golpe.
Projeto Astra
O Google também apresentou pela primeira vez uma prévia do ambicioso projeto Astra, que na prática eleva o Lens para um nível completamente novo. A ferramenta é um assistente de IA capaz de entender interações em um nível mais profundo e oferecer respostas de áudio em tempo real.
Em uma demonstração exibida durante o I/O 2024, o Google revelou um de seus funcionários mostrando o escritório com a câmera de um celular e fazendo perguntas sobre o ambiente, que rapidamente eram compreendidas e respondidas em voz alta.
O IA foi capaz de identificar objetos na sala, localizar um par de óculos perdido apenas e identificar a área em que o prédio estava localizado, a região de King’s Cross, localizada no centro de Londres, Inglaterra, após o usuário apontar a câmera para a janela.
Parte da demonstração foi realizada utilizando um óculos, mas não ficou claro se a empresa está tentando reviver o Google Glass. O Projeto Astra ainda não tem data para chegar aos usuários.