Empresas aderem a IA sem base científica para monitorar emoções de funcionários
A IA (inteligência artificial) já pode ser usada para diversas coisas, inclusive para prever transtornos como ansiedade e depressão. Mas agora, startups ao redor do mundo acreditam que é possível usar a EAI — sigla para inteligência artificial emocional –, para captar movimentos faciais sutis e detectar sentimentos. Mas há um problema: ela não tem comprovação científica.
Atualmente, o software já começou a ser utilizado no ambiente de trabalho e, de acordo com desenvolvedores, pode diferenciar emoções como felicidade, confusão e raiva, mesmo que a própria pessoa não as reconheça ou disfarce. Algumas empresas já usam ela no desenvolvimento de produtos ou para avaliar propagandas, por exemplo. No entanto, outras a utilizam para monitorar o emocional dos funcionários.
Em 2021, uma reportagem do The Guardian relatou pela primeira vez o sistema de reconhecimento de emoções por IA da empresa chinesa Taigusys. O recurso consegue gerar relatórios sobre indivíduos e recomendá-los para “apoio emocional” caso excedam os marcadores recomendados para “emoções negativas”.
A matéria também revelou que a tecnologia era usada em 300 prisões e centros de detenção no país, ajudando a manter os prisioneiros “mais dóceis”. Mais de 30 empresas, incluindo multinacionais como a Huawei (que já desenvolveu diversas tecnologias de vigilância baseadas em etnia), estavam entre as clientes da marca, apesar de não ser claro se adquiriram o sistema e para quê.
Em 2014, a plataforma de recrutamento norte-americana HireVue começou a usar a análise facial em seu processo seletivo de candidatos, segundo o Washington Post. A ideia era combater preconceitos e identificar habilidades interpessoais, capacidade cognitiva, traços psicológicos e inteligência emocional. Mas, após críticas, interrompeu o uso em 2021, continuando com o monitoramento de fala e comportamento.
Mas quais sãos problemas do uso da IA de emoções no trabalho?
Enquanto ativistas alertam para a violação do direito humano à privacidade, o professor Desmond Ong, da Escola de Computação da Universidade Nacional de Cingapura, disse ao Business Insider que o software poderia ajudar a “identificar situações perigosas de vida ou morte, como pilotos e maquinistas cansados, embriagados ou com problemas mentais”. Por outro lado, Ong explica que o recurso também poderia penalizar injustamente ou otimizar desumanamente o desempenho dos funcionários.
Além disso, não é certo se a EAI funciona. Afinal, a interpretação de expressões faciais está, em grande parte, relacionada à pesquisa do psicólogo norte-americano Paul Ekman. O pesquisador diz que expressões universais resultam nas emoções humanas fundamentais (medo, raiva, alegria, tristeza, nojo e surpresa) e transcendem as diferenças culturais. Entretanto, não há consenso entre os cientistas sobre o tema.
Por fim, estudos da Universidade de Michigan revelaram que funcionários muitas vezes não sabem que suas empresas usam a tecnologia no trabalho. Isso porque, devido à ausência de legislação sobre inteligência artificial em muitos países, como os EUA, não há exigência de que os empregadores os informem.