La revolución tecnológica entraña riesgos pero posibilita un sinfín de beneficios cuando se pone al servicio de las personas. Es lo que ha conseguido un equipo de investigadores de Shanghai, China, al desarrollar un dispositivo para ayudar en la navegación a personas ciegas o con problemas de visión, a través de un sistema que usa algoritmos de inteligencia artificial (IA) para estudiar el entorno y enviar señales al usuario cuando se acerca a un obstáculo.
«Presentamos un sistema de tecnología ponible (wearable) multimodal centrado en el usuario que mejora la usabilidad mediante la combinación de innovaciones de software y hardware», explican los creadores en un artículo publicado en Nature Machine Intelligence.
Los sistemas electrónicos portátiles de asistencia visual ofrecen una alternativa prometedora a los tratamientos médicos y a las prótesis ya que convierten la información visual del entorno en otras señales sensoriales para ayudar en las tareas cotidianas. Sin embargo, los sistemas actuales son difíciles de utilizar, lo que ha dificultado su adopción generalizada.
Para tratar de ofrecer una solución que universalizase su acceso, Leilei Gu y su equipo diseñaron una tecnología ponible de asistencia visual que proporciona indicaciones mediante comandos de voz.
Para ello, desarrollaron un algoritmo de inteligencia artificial que procesa el vídeo de una cámara, incorporada en unas gafas que llevan los usuarios, para determinar una ruta libre de obstáculos. A través de unos auriculares de conducción ósea, se envían señales y órdenes auditivas sobre el entorno que tiene delante, dejando los oídos libres para escuchar otros sonidos importantes del ambiente.
Para complementar el dispositivo, los científicos crearon una especie de pieles artificiales elásticas para las muñecas, que envían señales de vibración al usuario para guiar la dirección del movimiento y evitar objetos laterales.
Este wearable se probó con robots humanoides y participantes ciegos y con baja visión en entornos virtuales y reales, y se observaron mejoras significativas en sus tareas de navegación, como su capacidad para evitar obstáculos al atravesar un laberinto y alcanzar y agarrar un objeto.
Vías alternativas
Los resultados sugieren que la integración de los sentidos visual, auditivo y háptico puede mejorar la usabilidad y funcionalidad de los sistemas de asistencia visual. «Esta investigación abre el camino para sistemas de asistencia fáciles de usar y ofrece vías alternativas para mejorar la calidad de vida de las personas con discapacidad visual», subrayan los autores del estudio, que apuntan que la investigación futura debería centrarse en seguir perfeccionando el sistema.
Si bien esta investigación sugiere que una combinación de tecnologías no invasivas puede ayudar a conseguir una navegación más eficiente y proporcionar un mayor grado de independencia y confianza a los usuarios, es preciso destacar que se ha realizado en muy pocos sujetos y en entornos limitados y muy controlados. Además, la mayoría de los sistemas de reconocimiento de objetos basados en técnicas de aprendizaje profundo como el que utilizan los autores, pueden verse afectados por las condiciones de iluminación.
Por otro lado, es necesario tener en cuenta que las personas ciegas o con discapacidad visual pueden mostrarse reacias a utilizar múltiples dispositivos de asistencia para la orientación y movilidad. «No solo hay que considerar la funcionalidad, sino también su usabilidad y aceptabilidad social», señalan.
«Hay que mejorar la precisión y fiabilidad de estos sistemas de ayuda a la movilidad, desarrollar interfaces más intuitivas y reducir el tamaño de los dispositivos», concluye uno de los investigadores.