Supostos vídeos de demonstração do Pixel 4 vazaram nos últimos dias mostrando um “novo Google Assistente”. Aparentemente, interagir com o assistente virtual se tornará algo mais direto, como mostra o 9to5 Google. Em outra reportagem, o blog que diz que a empresa está trabalhando numa função para ativar o Assistente assim que você levantar o celular.

A companhia chegou a demonstrar algumas prévias da nova versão do assistente durante o evento Google I/O em maio. Desde estão, eles detalharam os controles via gesto batizados de “Motion Sense“. O material vazado, que você pode conferir aqui, é a primeira oportunidade de ver a novidade em ação.

Sobre o recurso de levantar o celular para falar, é assim que o blog explica:

Depois de levantar o seu celular, perguntar algo ou falar algum comando irá iniciar o Assistente. Sua fala deve vir imediatamente depois de levantar o aparelho ou o Google irá ignorá-la.

Não que iniciar o Google Assistente seja difícil do jeito que é hoje; assim como outros assistentes pessoais, basta dizer “Hey Google”. Pode me chamar de preguiçosa, mas a conveniência de pegar o meu celular e ter o assistente já aberto me agrada, especialmente levando em conta que esse passo é necessário para ativar as novas “Conversações Continuadas“.

Como foi mostrado durante o Google I/O, as Conversações Continuadas fazem com que a interação com o programa soe mais como uma conversa e menos com ordens a um robô do Google (mesmo que seja isso, basicamente).

De acordo com o 9to5 Google, a companhia ainda está trabalhando nessa funcionalidade de “levante o celular para conversar”, então não dá para saber se isso estará disponível já no lançamento.

Também não há nada oficial sobre essas demonstrações que foram vazadas; entramos em contato com a empresa e iremos atualizar o post se tivermos respostas. Apesar disso, vazamentos sobre o Pixel 4 é o que não faltam.

Quanto ao Motion Sense, um dos vídeos do 9to5 Google mostra usuários atendendo ligações, trocando de música e desligando o alarme só passando a mão por cima da tela. Tudo isso são funcionalidade que o Google já confirmou que virão para o Assistente, o que dá às demonstrações um pouco mais de credibilidade. O recurso funciona graças ao Project Soli, tecnologia em que a empresa vem trabalhando desde 2015 e que usa sensores para rastrear movimentos.

Outros vídeos de demonstração destacam como o novo Assistente pode controlar aplicativos e lembrar-se do contexto das mensagens para que as suas respostas sejam enviadas para a pessoa certa, sem que você precise especificar durante a interação. E a interface é muito mais colorida, o que parece bacana.

Embora todas essas atualizações do Assistente possam ser engenhosas, elas não conseguem são o suficiente para nos distrair de uma característica controversa que o Google pretende usar no Pixel 4 para colar na Apple: desbloqueio facial. O problema está menos no recurso e si e mais em como a companhia supostamente está coletando dados para desenvolvê-lo: se aproveitando de populações vulneráveis para coletar rostos para seu banco de dados.

[9to5 Google]