Telas que conseguem entender o seu humor. Chips implantados no nosso cérebro. Mais do que apenas tecnologia vestível; tecnologia que está em todas as coisas que vestimos. Quase uma história de ficção científica. Mas é a visão da Intel para a vida real. Eis o RealSense.
O RealSense não é nenhum equipamento tecnológico específico, e sim o nome dado pela Intel a um grupo de avanços em hardware e software em computação de percepção que vai nos levar a um futuro como em Minority Report. O primeiro produto desse grupo é uma câmera 3D que permite que você interaja com seus dispositivos de forma que só era possível até hoje em filmes.
As possibilidades, na visão da Intel, são próximas a ilimitadas. Ela é capaz de capturar e compartilhar imagens, é claro, mas também consegue dizer qual o seu humor com base na sua expressão facial e postura. Ela consegue entender seus comandos de linguagem natural, diferentemente dos assistentes que usamos hoje, como a Siri. Mas a grande sacada é que ela já consegue fazer mais agora do que o que você é capaz de imaginar.
Entre os truques funcionais da câmera está a capacidade de tirar fotos em 3D, mas, mais importante ainda, um entendimento profundo o bastante para diferenciar objetos. Isso significa, em um exemplo simples, colocar efeitos diferentes no primeiro plano e no plano de fundo. Mas, muito além disso, isso pode impactar diretamente na forma como interagimos com computadores, smartphones e tablets.
Para ajudar a chegar no futuro que vislumbra, a Intel fechou uma parceria com a 3DSystems, uma empresa bastante avançada na tecnologia de impressão 3D.
O Skype também entrou no jogo, mas de maneira menos impressionante; você consegue isolar um rosto e trocar a imagem de fundo para qualquer coisa que quiser. É um efeito de tela verde, mas longe de ser perfeito. Mas ei, é um potencial.
Controles por gestos causam uma impressão melhor; movimentos simples de pinça e de segurar, ondas e empurrões. É suave, especialmente para uma demonstração, e colocar este tipo de controle em uma câmera é uma solução muito mais prática do que um Leap Motion.
E não é apenas limitado a desktop – ou às mãos. A câmera consegue rastrear seu rosto conforme você navega pelo Google Street View, seguindo seus olhos e cabeça para entender para onde você quer olhar.
Também presente: o sistema de reconhecimento de voz Dragon Naturally Speaking, que aparentemente foi refinado, mas ainda deu umas engasgadas durante a apresentação.
Um jogo que transforma sua mão em uma mão de um deus também não parecia pronto para a apresentação. Um jogo de pinball e um simulador de voo – ambos com mouse ou joystick – pareciam um pouco melhores. E então você lembra que, mesmo que ainda esteja um pouco cru, era impossível imaginar algo semelhante a isso anos atrás.
E para as crianças? Tem coisa para as crianças sim! Jogos animados controlados por gestos, ambientes de percepção de profundidade, tudo isso acessível para crianças pequenas. O que faz sentido – quando eles crescerem, a ideia é que a forma padrão de interação seja essa.
O futuro é um pouco bobo também; um desenvolvedor mostrou um app de música baseado em gestos que não parecia fazer nada além de ser um brinquedo de percussão. Mas tudo bem, mesmo isso parecia bem divertido:
O principal aqui, independentemente de como funciona em prática ou em uma demonstração, está claro: são pedaços da próxima geração de interação de visão, toque e som. Juntar tudo isso em uma única interface é que será a parte mais difícil.