Computadores conseguem perceber expressão de dor muito melhor que humanos

Pesquisadores dizem que computadores conseguem identificar em 85% das vezes a diferença entre a dor real e a dor simulada a partir da expressão facial de uma pessoa. Um estudo feito por pesquisadores da Universidade da Califórnia San Diego e da Universidade de Toronto dizem que robôs são bem melhores que nós, pobres humanos, para […]

Pesquisadores dizem que computadores conseguem identificar em 85% das vezes a diferença entre a dor real e a dor simulada a partir da expressão facial de uma pessoa.

Um estudo feito por pesquisadores da Universidade da Califórnia San Diego e da Universidade de Toronto dizem que robôs são bem melhores que nós, pobres humanos, para isso: nós conseguimos diferenciar em 55% das vezes. Já os computadores acertam muito mais quando dizem que tal pessoa está só fingindo sentir dor.

“Em espécies altamente sociais como humanos, rostos evoluíram para contar informações ricas, incluindo expressões de emoção e dor”, diz um dos autores, Kang Lee. “E, devido à forma como nosso cérebro funciona, pessoas podem simular emoções que não estão experienciando – e assim conseguir enganar outras pessoas. O computador é bem melhor ao perceber as diferenças sutis em movimentos faciais voluntários e involuntários.”

E isso não vale apenas para dores, e sim para qualquer expressão de emoção. Um sorriso falso pode ser percebido por um computador com muito mais facilidade – ele poderia dizer que uma pessoa, apesar de sorrir, no fundo não está sentindo aquilo naquele momento.

Segundo Marian Bartlett, especialista em visão computacional e aprendizado de máquinas da Universidade da Califórnia, esta é uma das primeiras vezes que os computadores se saem melhores que humanos em processos perceptivos. Eles já conseguem nos vencer em xadrez, mas sofrem ao identificar objetos visuais. Agora, no entanto, já chegaram a um ponto em que ao menos em um processo perceptivo eles são melhores que nós.

Os pesquisadores esperam que a tecnologia de detecção de pequenas nuances em expressão facial sirva para o desenvolvimento de aplicações que percebam o que as pessoas estejam realmente sentindo. Essas aplicações poderiam, por exemplo, lembrar que você talvez esteja irritado demais com algo pequeno – é melhor pensar melhor antes de tomar alguma atitude.

Quem sabe, no futuro, um juiz de futebol com um Google Glass consiga perceber que um jogador não está contundido – ele está apenas rolando no chão para fazer o tempo passar e prejudicar o time adversário que tenta fazer um gol. Cara, isso seria bom demais. [Wired, TechCrunch]

Imagem por Kang Lee e Marian Bartlett. Na foto da esquerda, ela está fingindo sentir dor, nas outras duas não.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas