Apple anuncia os novos recursos IA do próximo iOS 17
Nesta semana a Apple revelou que vai implementar recursos de acessibilidade orientados por inteligência artificial no iOS 17. O principal objetivo da gigante de Cupertino é melhorar a experiência de usuários portadores de deficiências cognitivas, visuais, auditivas, mobilidade ou na fala com seu sistema operacional mobile.
As novidades foram apresentadas em um texto publicado no blog da empresa da maçã, que além de detalhar como funcionam alguns dos novos recursos, destacam uma preocupação em impactar positivamente todos os usuários.
“Essas atualizações se baseiam em avanços em hardware e software, incluem aprendizado de máquina no dispositivo para garantir a privacidade do usuário e expandem o compromisso de longa data da Apple de fabricar produtos para todos”
O Point And Speak combina câmera, sensor LiDAR e aprendizado de máquina para ler descrições presentes em objetos no ambiente em voz alta. O recurso é integrado ao aplicativo Magnifier e para funcionar necessita apenas que o usuário aponte o dedo para um objeto, como um botão, por exemplo, que receberá uma descrição em voz alta de sua função.
A empresa também desenvolveu uma versão redesenhada de aplicativos nativos, como Fotos, Câmera ou Música, para diminuir a demanda cognitiva e torná-los mais simples de utilizar no dia a dia.
Uma das novidades de IA que chegará no iOS 17 é a ferramenta que converte textos em áudio sintetizada para auxiliar pessoas com deficiência na fala durante chamadas. De acordo com a Apple, a funcionalidade pode auxiliar pessoas que estão perdendo a capacidade de fala a se conectar com suas famílias.
“A Apple trabalha em estreita colaboração com grupos comunitários que representam um amplo espectro de usuários com deficiência para desenvolver recursos de acessibilidade que tenham impacto real na vida das pessoas”