Meta ha incorporado una función de accesibilidad a sus gafas inteligentes Ray-Ban Meta que aportará descripciones con más detalle de lo que está viendo el usuario, mientras sigue explorando las capacidades de interacción persona-ordenador para ofrecer nuevas formas de comunicación.
El asistente Meta AI podrá proporcionar respuestas detalladas en las gafas Ray-Ban Meta según lo que tenga delante, siempre que el usuario lo solicite, con el objetivo de ser “especialmente útiles para la comunidad ciega y con baja visión”.
La compañía tecnológica ha anunciado que esta nueva función estará disponible para todos los usuarios de Estados Unidos y Canadá en las próximas semanas, y se ampliará a otros mercados próximamente, según ha comunicado la empresa en su página web.
Asimismo, Meta también ha añadido una función denominada ‘Llama a un voluntario’, creada en colaboración con Be My Eyes, y conectará a personas ciegas o con baja visión con una red de voluntarios en tiempo real para ayudarles en lo que estén haciendo, tal y como ha recogido la compañía, que también ha informado que se lanzará a final de mes para todos los países que tienen soporte para Meta AI.
Estas funciones se añaden a las ya incorporadas por la compañía liderada por Mark Zuckerberg a las gafas inteligentes, que ya cuentan con las opciones de capturar y compartir fotos, enviar mensajes de texto o de voz, hacer llamadas telefónicas, realizar videollamadas, escuchar música, traducir voz en tiempo real e interactuar con Meta AI para obtener ayuda.
Funciones de accesibilidad adicionales
Meta también está explorando las capacidades de interacción persona-ordenador para personas con diversas capacidades físicas, incluyendo aquellas con parálisis o temblor en las manos, con la finalidad de desarrollar pulseras de electromiografía de superficie para interacciones móviles con sistemas informáticos. Estas pulseras ya se han utilizado en Orion, su prototipo de gafas de realidad aumentada.
En el metaverso, Meta ha incorporado al sistema de los visores Quest, las llamadas Meta Horizon y la plataforma Horizon Worlds los subtítulos en tiempo real y la voz en directo. La primera función convierte en texto lo que dicen las personas, para que pueda leerse a medida que se reproduce. La segunda, por su parte, convierte el texto en audio sintético.