As touchscreens são com certeza uma tecnologia impressionante, mas a maioria delas ainda estão limitadas a saber apenas onde foram tocadas. Então pesquisadores da Universidade Carnegie Mellon esperam melhorá-las com um novo sistema que diz exatamente o que tocou a tela.

Desenvolvido pelos candidatos a Ph.D. Chris Harrison e Julia Schwartz, com seu professor Scott Hudson do Instituto de Interação Humano-Computador da universidade, o sistema TapSense usa um microfone preso à tela, que pode ser usado para diferenciar exatamente o que interagiu com a tela. Em vez de apenas toques, o sistema é capaz de distinguir entre toques com a ponta do dedo, com a unha ou até com o nó (articulação) dos dedos. Então além de detectar os gestos, o software consegue “ouvir” qual parte do dedo foi usada, e agir de acordo. O nó dos dedos poderia ser usado para abrir menus de contexto, enquanto apps de desenho poderiam mudar de pincel quando o usuário tocasse a tela com a unha.

Infelizmente, no momento o sistema TapSense depende de um microfone externo para funcionar – os microfones embutidos em smartphones são otimizados para captar vozes, não ruídos sutis de um toque do dedo. Mas o sistema poderia ser facilmente implementado em um smartphone, adicionando-se um microfone a mais. E além de toques de diferentes partes dos dedos, o TapSense também poderia diferenciar entre diferentes tipos de canetas stylus, permitindo respostas diferentes a canetas diferentes. [TapSense via Carnegie Mellon via Gizmag]