Apple anuncia nuevas funciones de accesibilidad para usuarios de iPhone y iPad

Apple está trayendo nuevas características de accesibilidad hasta iPads y iPhones, diseñados para satisfacer una amplia gama de necesidades de los usuarios. Estos incluyen la capacidad de controlar su dispositivo con tecnología de seguimiento ocular, crear atajos personalizados usando su voz, experimentar música con un motor háptico y más. La compañía dio a conocer los anuncios antes del Día Mundial de Concientización sobre la Accesibilidad el jueves.

Apple ya admitía el seguimiento ocular en iOS y iPadOS, pero requería el uso de dispositivos de seguimiento ocular adicionales. Esta es la primera vez que Apple introduce la capacidad de controlar un iPad y un iPhone sin necesidad de hardware o accesorios adicionales. La nueva opción de seguimiento ocular incorporada permite a las personas usar la cámara frontal para navegar por las aplicaciones. Aprovecha la IA para comprender qué está mirando el usuario y qué gesto quiere realizar, como deslizar el dedo y tocar. También está el Control de permanencia, una función que puede detectar cuando la mirada de una persona se detiene en un elemento, indicando que quiere seleccionarlo.

“Atajos vocales”, otra nueva característica útil, mejora los controles basados ​​en voz de Apple. Permite a las personas asignar diferentes sonidos o palabras para iniciar atajos y completar tareas. Por ejemplo, Siri iniciará una aplicación, incluso después de que el usuario diga algo tan simple como “¡Ah!” La compañía también desarrolló “Listen for ATipic Speech”, que utiliza el aprendizaje automático para reconocer patrones de habla únicos y está diseñado para usuarios con afecciones que afectan el habla, incluida la parálisis cerebral, la esclerosis lateral amiotrófica (ELA) y los accidentes cerebrovasculares, entre otras.

Otras mejoras en el habla que Apple ha realizado en el pasado incluyen “Personal Voice”, que se lanzó el año pasado para brindar a los usuarios una voz automatizada que suena igual que ellos.

Para las personas sordas o con problemas de audición, “Music Haptics” es una nueva función que permite a los usuarios experimentar millones de canciones en Apple Music a través de una serie de toques, texturas y vibraciones. También estará disponible como API, por lo que los desarrolladores de aplicaciones de música pronto podrán ofrecer a los usuarios una forma nueva y accesible de experimentar el audio.

Apple también anunció una nueva función para ayudar con el mareo en los automóviles. En lugar de mirar contenido estacionario, que puede causar mareos, los usuarios pueden activar la configuración “Señales de movimiento del vehículo”. Esta característica coloca puntos animados en los bordes de la pantalla que se balancean y se mueven en la dirección del movimiento.

CarPlay también recibirá una actualización, que incluye una función de “Control por voz”; “Filtros de color”, que ofrece a los usuarios daltónicos texto más grande y en negrita; y “Reconocimiento de sonido” para notificar a los usuarios sordos o con problemas de audición cuando hay bocinas y sirenas.

Apple también reveló una función de accesibilidad que llegará a visionOS, que permitirá subtítulos en vivo durante las llamadas FaceTime.

Fuente