_Google

O smartphone modular Ara, do Google, enfim chegará a desenvolvedores

O Google detalhou no I/O alguns de seus projetos mais ambiciosos: o smartphone modular Ara, um tecido sensível ao toque e um sistema de controle via radares

A conferência Google I/O está chegando ao fim, e hoje a empresa apresentou novidades do seu laboratório de pesquisas avançadas chamado ATAP. Assim, temos alguns detalhes sobre o projeto de smartphone modular Ara, além de um tecido sensível ao toque e um pequeno sistema de radares para smartwatches.

>>> Google confirma que os apps de Android estão a caminho do Chrome OS
>>> Android N no Google I/O: realidade virtual, Wear e um novo nome

Project Ara a caminho dos desenvolvedores

O projeto de smartphone modular do Google não é novo e, para falar a verdade, seu desenvolvimento está atrasado em relação ao que a empresa prometeu no passado. Mas ele deu as caras no Google I/O 2016 e parece estar mais próximo de se tornar realidade.

A grande novidade é que o Project Ara vai começar a ser enviado para desenvolvedores em breve – o Google está prometendo entregar as primeiras unidades de teste durante o quarto trimestre. Para os consumidores finais, a previsão é de um lançamento em 2017.

Além disso, o que há de novo no dispositivo modular? Durante o I/O, a equipe de desenvolvimento do Ara demonstrou alguns dos seus módulos em ação, como uma câmera que pode ser trocada sem precisar reiniciar o smartphone. Para remover alguma das suas partes, basta entrar nas configurações do dispositivo e selecionar o que quer desconectar. Ou então fale “Ok Google, remova a câmera” e pronto.

Um pequeno vídeo demonstra como o Google espera que ele seja em ação:

Atualmente, o Google diz que mais de 30 dos seus funcionários já usam o Ara como dispositivo principal. Os modelos enviados a desenvolvedores, no entanto, não devem ser completamente personalizáveis: módulos como CPU, bateria e tela não devem ser removíveis na primeira versão. Os módulos são interconectados através de uma rede avançada “Unipro”, uma padronização para facilitar a conexão e desconexão das partes do aparelho pelos usuários.

Desenvolvedores interessados em contribuir com módulos para o aparelho podem se cadastrar no site da ATAP para o Ara e esperar para receber o aparelho nos próximos meses.

Projeto Jacquard

As jaquetas do futuro também serão inteligentes, no que depender do Google. O projeto Jacquard, também desenvolvido nos laboratórios ATAP, já tem até um forte parceiro interessados em transformar o sonho em realidade: a Levi’s.

O Jacquard é um tecido sensível ao toque que se conecta ao seu smartphone via Bluetooth. A parceria com a Levi’s deu origem a uma jaqueta: nela, você pode tocar a manga, por exemplo, para aceitar ou recusar uma chamada, ou para trocar a música que está tocando.

A jaqueta começará a ser testada no segundo semestre e a previsão é que chegue às lojas no primeiro semestre do ano que vem. E não se preocupe em sujar a sua roupa: ela pode ser lavada na máquina de lavar sem que seu funcionamento seja prejudicado – basta remover as partes com chips e pronto.

Projeto Soli

Por fim, o Google falou um pouco mais sobre o projeto Soli, que usa um sistema de radares para controlar dispositivos por gestos. É exatamente assim: mexa seus dedos no ar próximo a um smartwatch, por exemplo, e faça a face do relógio girar loucamente, entre outras coisas.

Também desenvolvido pelo laboratório ATAP, o Soli usa pequenos chips de radares incorporados a dispositivos para detectar seus dedos quando eles se aproximam do dispositivo, e, assim, oferece um novo método de entrada para esses aparelhos.

Radares normalmente são feitos para detectar objetos grandes metálicos a grandes distâncias, então o trabalho feito pelo pessoal do ATAP não foi dos mais simples: eles precisaram encontrar uma maneira dele detectar movimentos pequenos e próximos. Eles usaram um algoritmo bem complexo que, entre outras coisas, transforma sinal espacial em temporal para que computadores consigam entender melhor o que está acontecendo.

Controlar com gestos no ar inicialmente parece uma boa ideia, mas é difícil fazer com que isso seja simples para o usuário. Sem nenhum tipo de feedback do que você está fazendo, como saber que de fato os controles estão funcionando? A chave aqui é usar gestos que as pessoas já conhecem, e, mais do que isso, usar as mãos do usuário para que eles sintam melhor o que estão fazendo.

Você pode, por exemplo, tocar o dedão em outro dedo, simulando o aperto de um botão, para pressionar alguma coisa. Também pode deslizar seu dedão por outro dedo, simulando um movimento de deslize para aumentar ou diminuir o volume. E juntar dois dedos e fazer movimento de torção no ar. O fato de você conseguir sentir fisicamente seus dedos é o que faz o controle no Soli ser facilmente assimilado pelo usuário, já que, ao mesmo tempo, ele consegue ver na tela a resposta aos movimentos.

O Soli está sendo testado em alguns dispositivos, como um smartwatch LG Watch Urbane e um alto-falante da JBL e ainda está bem longe de se tornar realidade. Mas pode ser que, no futuro, apenas a proximidade com um dispositivo garanta que você consiga interagir com eles através de gestos.

[The Verge 1, 2, 3 – Google 1, 2, 3]

Sair da versão mobile