O Kinect ficou ainda mais esperto em ler a linguagem de sinais
Interpretar linguagens de sinais era algo previsto para o Kinect há tempos, desde que isso apareceu como um recurso em algumas patentes. Um tempo atrás, ele conseguia ler dois gestos bem exagerados feitos com os braços. Mas ele melhorou. Não, sério: ele melhorou muito.
Um projeto conjunto entre a Microsoft Research da Ásia e o Instituto de Tecnologia Computacional (China) possibilitou que o aparelho lesse cada gesto da Linguagem Americana de Sinais e o traduzisse para o inglês ou qualquer outro idioma.
E não é preciso que seja um por vez; o software desenvolvido pela equipe faz com que o Kinect interprete frases completas, na medida em que um gesto sucede outro em velocidade natural. É bem impressionante.
O potencial de gesticular para a TV sem dúvida abre oportunidades para pessoas fãs de tecnologia e com deficiência auditiva, mas mostra também como o Kinect consegue ir longe. E com a fidelidade ainda maior do novo Kinect, é provável que coisas ainda mais incríveis surjam num futuro próximo – desde que você não se incomode em ter, na sala de estar, um olho robótico que enxerga bem até demais. [Inside Microsoft Research via Polygon]