Esta herramienta creada y ofrecida por Google utiliza inteligencia artificial para escanear sus alrededores y describirlos a sus usuarios
Un estimado de 1,3 mil millones de personas en el mundo viven con algún tipo de discapacidad visual. De ellos, unos 36 millones son ciegos. Ante esta situación, Google lanzó una nueva app llamada “Lookout”, que utiliza inteligencia artificial para identificar los objetos y alrededores que ve la cámara de un celular, para luego describirlos en voz alta. De esta forma, la inteligencia artificial sigue sumando nuevos roles en mejorar nuestra calidad de vida, como lo hizo cuando comenzó a manejar nuestros automóviles, o también para ayudar a detectar células cancerígenas en nuestros cuerpos.
El Ingeniero de accesibilidad de Google y product manager, Patrick Clary, dijo que la aplicación fue diseñada para trabajar en situaciones donde la gente podría típicamente tener que pedir ayuda a terceros, como por ejemplo, para aprender a manejarse en lugares desconocidos por primera vez. También se pensó para ayudar a leer textos y documentos, o completar rutinas diarias como cocinar, limpiar o ir de compras. Una aclaración importante es que ni bien se abre la app para comenzar a usarla, no es necesario volver a presionar ningún botón, ya que la idea es justamente poder tener las manos libres para realizar todo tipo de actividades.
La app toma prestada tecnología previamente adoptada en Google Lens, un sistema que le permite a sus usuarios realizar búsquedas y acciones en base a lo que está viendo la cámara del celular. En el caso de “Lookout”, que si bien recientemente fue liberada a los consumidores, fue presentada en el Google I/O del año pasado -el evento donde los desarrolladores de Google presentan al público sus proyectos-, cuenta con tres modos diseñados para diferentes situaciones específicas.
En primer lugar, el modo “exploración”, que es útil para navegar un nuevo ambiente. Para ello, Google sugiere en una entrada en su propio blog, que la gente con una incapacidad visual severa, podría optar por utilizar sus teléfonos colgados del cuello, quizá en forma apaisada, o sino en los bolsillos de sus camisas. De esa forma, el modo “exploración” puede proveerlos de actualizaciones constantes sobre sus alrededores mientras navegan por territorios desconocidos.
En segundo lugar, está el modo “compras”, que es útil para escanear códigos de barra o tickets. Una persona con discapacidad visual podría utilizarlo si no está segura si el valor a pagar en un ticket es de $100 o $200, por ejemplo.
En tercer lugar, se encuentra el modo “lectura rápida”, que se utiliza para apuntar el teléfono a un texto y leerlo en voz alta. Sirve tanto para leer carteles por la vía pública, como para un texto en una pantalla o impreso en papel.
Si bien Google aclara en la entrada de su blog que esta herramienta no siempre será 100% exacta, incluso en su estado actual, la misma tiene un gran potencial para mejorar dramáticamente la calidad de vida de personas con discapacidades visuales.
Un gran aspecto a mejorar es que actualmente “Lookout” se encuentra únicamente disponible en Estados Unidos, en idioma inglés y solo en dispositivos Pixel -los celulares fabricados y comercializados por Google-. Aunque la empresa, como bien explica en su blog, ya se encuentra trabajando para extenderla a otros territorios, en más idiomas y compatible con otros dispositivos.