A Apple sempre se comprometeu em destacar a acessibilidade de seus produtos. E nesta quarta-feira (19), a companhia reforçou essa meta ao anunciar diversos recursos futuros que certamente farão uma grande diferença na forma como as pessoas com algum tipo de deficiência — motora, visual, auditiva ou cognitiva — poderão interagir com os dispositivos da empresa.
Embora a maioria das funções estejam programadas só para o segundo semestre no iOS 15, algumas novidades já estão disponíveis. Entre elas a possibilidade de usar linguagem de sinais ao entrar em contato online com o Apple Care e o Retail Customer Care — ambos serviços de suporte aos produtos da empresa. A função se chama SignTime, e por enquanto tem interpretes da linguagem de sinais nos idiomas inglês americano, inglês britânico e francês.
Um dos novos recursos para o Apple Watch é o Assistive Touch, que, por meio de gestos de controle de movimento, permite que usuários com mobilidade limitada ou diferenças nos membros superiores utilizem o relógio inteligente com apenas uma mão através de gestos de apertar ou beliscar. A função faz uso do giroscópio e acelerômetros integrados no smartwatch, bem como o sensor óptico de frequência cardíaca e o aprendizado de máquina, para interpretar como os músculos e tendões estão se movendo.
Para usuários com alguma deficiência na audição, a Apple está adicionando suporte para aparelhos auditivos bidirecionais por meio do programa de dispositivos da categoria com o selo “Made for iPhone”. Os novos produtos possuem microfones que permitem que os surdos ou pessoas com dificuldades de audição tenham conversas no celular e no FaceTime com as mãos livres.
A empresa também está trazendo audiogramas para fones de ouvido, em uma configuração que permite amplificar sons suaves ou ajustar frequências para melhor atender às necessidades auditivas de um indivíduo. Os usuários podem personalizar suas configurações com base nos resultados de seus testes de audição mais recentes, que podem ser importados de audiogramas em papel e PDFs. Também será possível reproduzir sons de fundo para ajudar a mascarar ruídos indesejados no ambiente.
Usuários cegos ou com baixa visão ganharam novidades no recurso VoiceOver, que agora inclui mais informações de imagens. Utilizando essa função, os donos de iPhone poderão analisar detalhes de uma foto de um recibo como se fosse uma tabela (ou seja, por linha ou coluna, ou nome do cabeçalho). O VoiceOver também fornecerá descrições mais detalhadas das fotos, como onde a pessoa está localizada e quais outros objetos podem estar no enquadramento.
Alguns outros recursos previstos para este ano incluem a capacidade de substituir botões físicos por sons de boca para pessoas que não falam ou que possuam mobilidade limitada. Os Memojis — emojis personalizados para usuários de iPhone — terão novas opções de customização, incluindo tubos de oxigênio e implantes auditivos.
Por fim, o iPadOS também ganhará muitas dessas novidades previstas para o iOS. Isso inclui suporte para dispositivos de rastreamento ocular de terceiros, para controlar um iPad apenas com os movimentos dos olhos.