_Componentes

Universitários adaptam chip do Google para dar ao seu computador o sentido de tato

O chip foi desenvolvido pelo grupo ATAP, do Google, e utiliza um radar para detectar movimentos discretos da mão e dos dedos.

O Project Soli, anunciado na conferência Google I/O de 2015, é um pequeno chip que utiliza um radar para detectar movimentos discretos da mão e dos dedos. Ele foi projetado como uma forma diferente de se interagir com dispositivos móveis, mas estudantes da Universidade de St. Andrews (Reino Unido) encontraram uma maneira de usá-lo para dar tato a dispositivos eletrônicos.

Tecnologia da Microsoft permite interagir com a tela do smartphone sem tocar nela
Engenheiro quer melhorar tecnologias touch para acabar com toques não desejados

O chip, desenvolvido pelo ATAP – Grupo de Projetos e Tecnologias Avançadas do Google – usa o mesmo tipo de radar empregado por aeroportos para acompanhar aviões que chegam e partem.

À medida que ondas de rádio saltam da sua mão de volta para o chip do Project Soli, ele detecta sinais únicos que podem ser usados para decifrar até mesmo o mais ínfimo dos movimentos.

Mas estudantes de ciência da computação em St. Andrews – incluindo Hui-Shyong Yeo, Gergely Flamich, Patrick Schrempf, David Harris-Birtill e Aaron Quigley – descobriram que diferentes materiais também produzem sinais únicos, e através do aprendizado de máquina, um computador pode determinar o que o chip do Project Soli está tocando.

Cobre, madeira, bandeja de plástico, copo vazio, e copo com água

O projeto, chamado RadarCat, vai além de descobrir o material do qual um objeto é feito – metal, plástico ou madeira, por exemplo. Na demonstração em vídeo, vemos o software identificar corretamente um copo vazio, e também reconhecer quando esse mesmo copo está sendo preenchido com água.

Ele nem sempre consegue fazer uma previsão precisa quando confrontado com um novo material, mas o uso do aprendizado de máquina significa que ele pode melhorar ao longo do tempo por meio de interações futuras.

O hardware do Project Soli não é pequeno o suficiente para caber dentro de um smartphone por enquanto, mas existem aplicações úteis para o RadarCat em sua forma atual.

Por exemplo, em vez de depender apenas de câmeras de alta velocidade para classificar resíduos em um local de reciclagem, as máquinas poderiam sentir o objeto para determinar do que ele é feito, e como ele deve ser encaminhado.

O potencial desta tecnologia para melhorar a forma como os robôs interagem com o mundo também é muito empolgante. Eles poderiam saber imediatamente quando estão tocando pele humana, e assim precisam ser mais suaves para evitar lesões. Ou, se eles pegarem um objeto de metal que é provavelmente pesado, eles já se preparariam ao tentar levantá-lo.

A tecnologia RadarCat será demonstrada este mês na conferência 2016 ACM Symposium on User Interface Software and Technology, em Tóquio.

[University of St Andrews HCI Research Group]

Sair da versão mobile