Por J. D. Biersdorfer | Poco a poco se han vuelto más útiles para las personas con una gama de capacidades físicas, gracias a herramientas como los lectores de pantalla y los tamaños ajustables de texto.
Las funciones de accesibilidad de Apple y Google incluidas en su software móvil pueden ayudar a personas con todos los tipos de capacidades a aprovechar más sus dispositivos
Con el reciente lanzamiento de los softwares iOS 16 de Apple y Android 13 de Google, se han introducido o mejorado incluso más funciones de accesibilidad, entre ellas herramientas mejoradas de transcripción en vivo y aplicaciones que usan inteligencia artificial para identificar objetos. Por ejemplo, si así lo configuras, tu teléfono puede enviarte una alerta visual cuando un bebé está llorando o una alerta de sonido cuando te estás acercando a una puerta.
Y muchas herramientas de accesibilidad, viejas y nuevas, le facilitan más el uso del teléfono a todo el mundo. A continuación, una guía.
Primeros pasos
En un teléfono con iOS o Android, abre la aplicación de Configuración y selecciona Accesibilidad para encontrar todas las herramientas y funciones disponibles. Tómate el tiempo de explorar y experimentar.
Para referencias completas, los sitios web de Apple y Google han dedicado secciones de Accesibilidad, pero ten en cuenta que tus funciones exactas variarán según tu versión del software y el modelo del teléfono.
Un parlante inteligente de Google
Navegación alternativa
Arrastrar con el dedo o dar golpecitos con ellos para navegar las funciones de un teléfono no es para todo el mundo, pero iOS y Android ofrecen varias maneras con las cuales moverse por las pantallas y los menús, entre ellas atajos de toques rápidos y gestos para realizar tareas.
Estos controles (como las herramientas de Assistive Touch de Apple y su función de Toque posterior, la cual completa acciones asignadas cuando le das golpecitos a la parte posterior del teléfono) están en la configuración de Tocar de iOS.
Los atajos de accesibilidad en Android ofrecen opciones similares. Una manera de tener acceso a ellas es abriendo el icono principal de Configuración, seleccionar Sistema, luego Gestos y Navegación del sistema.
Ambas plataformas admiten la navegación por medio de dispositivos adaptativos de terceros como controles de Bluetooth o con el uso de la cámara para reconocer expresiones faciales asignadas a acciones, como mirar a la izquierda para deslizar hacia la izquierda. Estos dispositivos y acciones pueden ser configuradas en los ajustes:
Control por botón y Seguimiento de la cabeza en iOS, o
las aplicaciones Botón de cámara y Project Activate para Android.
Apple y Google brindan varias herramientas para quienes no pueden ver la pantalla. El software iOS de Apple ofrece la función VoiceOver y Android tiene una herramienta similar llamada TalkBack, la cual tiene descripciones de audio de lo que está en tu pantalla (como tu nivel de batería) mientras mueves el dedo encima de ella.
Si enciendes la opción Control por voz de iOS o Voice Access de Android, puedes controlar el teléfono con comandos hablados. Si activas el ajuste Contenido leído de iOS o Seleccionar para pronunciar de Android, el teléfono lee en voz alta qué hay en la pantalla… y puede ser útil para realizar correcciones con base en un audio.
No olvides algunos de los métodos clásicos de interacción manos libres con tu teléfono. Siri de Apple y el Asistente de Google pueden abrir aplicaciones y realizar acciones con comandos hablados. Además, la función Dictado (en la configuración Teclado de iOS) y la función Dictado por voz de Google te permiten escribir texto hablando.
Asistencia visual
En sus ajustes de Accesibilidad, iOS y Android incluyen atajos para centrarse en secciones de la pantalla del teléfono. No obstante, si por lo general te gusta un texto más grande y en negritas, así como otros ajustes en la pantalla, abre el icono de Configuración, elige Accesibilidad y selecciona Pantalla y tamaño de texto. En Android, ve a Configuración, luego a Accesibilidad y elige Texto y pantalla.
La aplicación Magnifier, una lupa digital de Apple para agrandar objetos en la vista de la cámara, ha sido mejorada en iOS 16. Las nuevas funciones de la aplicación están diseñadas para ayudar a la gente ciega o con poca visión a usar sus iPhone a fin de detectar puertas y gente cercana, así como a identificar y describir objetos y entornos.
Los resultados de Magnifier son en voz alta o se muestran en una fuente grande en la pantalla del iPhone. La detección de puertas y personas utiliza el escáner LiDAR (las siglas en inglés de “detección y medición de la luz”) en el dispositivo para calcular distancias y requiere un iPhone 12 o posterior.
Para configurar tus preferencias, abre la aplicación Magnifier y selecciona el icono Configuración en la esquina inferior izquierda; si no puedes encontrar la aplicación en tu teléfono, se descarga de forma gratuita en la App Store. Magnifier es tan solo una de las muchas herramientas de visión en iOS y el sitio de la empresa tiene una guía para configurar la aplicación en el iPhone o el iPad.
La aplicación de visión asistida Lookout (una descarga gratuita en la Play Store) que actualizó hace poco Google puede identificar monedas, texto, etiquetas de alimentos, objetos y más. Google introdujo Lookout en 2018 y funciona en Android 6 y versiones posteriores.
Ayudas auditivas
Ambas plataformas ofrecen controles para amplificar la voz a tu alrededor por medio de tus audífonos. En iOS, ve a la sección Audio/visuales para las Adaptaciones de audífonos. En Android, visita la configuración de Amplificador de sonido.
Con la actualización iOS 16, Apple incluye la configuración de Subtítulos en vivo, una función de transcripción en tiempo real que convierte el diálogo audible a tu alrededor en texto en la pantalla. La caja de herramientas de Accesibilidad en Android incluye la configuración de Subtitulado instantáneo que en automático subtitula videos, podcast, videollamadas y otros medios de audio que se reproduzcan en tu teléfono.
La aplicación gratuita de Google Transcripción instantánea para Android convierte las voces cercanas a texto en la pantalla y también puede ofrecer alertas visuales cuando el teléfono reconoce sonidos como el timbre de la puerta o los detectores de humo. La herramienta Reconocimiento de sonidos en la sección Audición en la configuración de Accesibilidad del iPhone hace lo mismo. Y busca los ajustes para notificaciones multisensoriales en tu teléfono, como las alertas con ledes o las alertas vibratorias, para que no te pierdas de nada.
Fuente: The New York Times
No hay comentarios:
Publicar un comentario