Icono del sitio INVDES

Así son las gafas inteligentes que ayudan a las personas ciegas a ‘ver’ a través del sonido

Este nuevo dispositivo ha sido desarrollado inspirándose en la ecolocalización, la forma que tienen los murciélagos de detectar el entorno

La tecnología tiene una relación muy estrecha con la biología y, sobre todo, con la resolución de las afecciones más habituales que sufrimos las personas en nuestro día a día. Una de las más dramáticas es la ceguera, una discapacidad que afecta a millones de personas en todo el mundo, unas 70.000 sólo en España. Un nuevo avance inspirado en los murciélagos podría ser una auténtica revolución para las personas invidentes o con problemas de visión.

Investigadores de la Universidad Tecnológica de Sydney, en Australia, han conseguido desarrollar unas gafas inteligentes capaces de transformar la información visual en representaciones sonoras únicas. La forma que estas gafas tienen de funcionar está inspirada en la ecolocalización de los murciélagos.

El concepto en el que se basa estas gafas sigue el mismo patrón que el de la ecolocalización animal. Y es que la información visual que recibe el dispositivo se traspasa a representaciones auditivas, que permiten a las personas ciegas o que tienen problemas en la vista moverse de forma mucho más segura.

Unas gafas inspiradas en murciélagos

¿Qué es la ecolocalización? Esta capacidad que ostenta una sorprendente variedad de animales, desde los murciélagos hasta los delfines, permite reconocer el entorno en el que se encuentran mediante la emisión de sonidos. Estos sonidos rebotan en el entorno y producen un eco que los animales se encargan de interpretar.

En el caso concreto de los murciélagos, suelen aprovechar el eco producido en las cuevas. Los sonidos que emiten los propios animales rebotan en las múltiples superficies dentro de una cueva, y el eco vuelve a ellos, dándoles una valiosa información de cómo se distribuye el entorno. Tanto es así, que el dispositivo sonar se basa en este mismo principio.

Los investigadores de la Universidad Tecnológica de Sydney han adaptado este concepto al uso de señales hápticas, táctiles o de retroalimentación visual. Estas gafas, bautizadas como “Dispositivo de Audio Foveado” o FAD, hacen uso del bautizado como ‘toque acústico’ para devolver señales sonoras al usuario.

Según Ching-Teng Ling, uno de los autores principales del estudio, le han dado casi de forma literal la vuelta al concepto de las gafas inteligentes convencionales. Estas, a según Ling, “suelen usar la visión por computación y otra información sensorial para traducir el entorno del usuario en una voz sintetizada por ordenador”.

En este caso, la “tecnología táctil acústica sonifica los objetos, creando representaciones sonoras únicas cuando entran en el campo de visión del dispositivo”. Es decir, que son las gafas las que crean dichas representaciones cuando la información visual entra dentro de su campo de visión. Ling pone de ejemplo “el sonido del susurro de las hojas”, que puede “representar una planta”. Un zumbido, por otra parte, “puede representar un teléfono móvil”.

Las FAD están compuestas por unas gafas de realidad aumentada, unidas a un teléfono Android, más concretamente un OPPO Find X Pro. La entrada de audio y la salida de seguimiento de cámara/cabeza de las gafas corrió a cargo del motor de videojuegos Unity Game Engine. Todo esto permite a las FAD convertir objetos que entren en el campo de visión del dispositivo en ‘iconos’ de sonido fácilmente distinguibles.

El estudio, publicado en la revista PLOS One, involucró una serie de pruebas en adultos. En total, se probaron las FAD en hasta 14 participantes, siete con los ojos vendados y otros siete afectados o bien por ceguera o con problemas de baja visión. El estudio se dividió en varias etapas, con una dedicada a entrenamiento basada en una tarea muy concreta: usar el FAD para escanear y sonificar elementos presentes sobre una mesa.

Otra etapa consistió en el uso del FAD de pie, caminando por una habitación con artículos desordenados. En este caso se usaron hasta cuatro elementos; un cuenco, un libro, una taza y una botella. Los resultados fueron todo un éxito; las gafas mejoraban significativamente la capacidad de las personas con problemas de visión para reconocer y alcanzar objetos sin demasiado esfuerzo.

El autor principal del estudio deja claro que esta retroalimentación auditiva permite a los usuarios “identificar y alcanzar objetos con una precisión notable”, indicando que el “tacto acústico tiene el potencial de ofrecer un método portátil y eficaz de aumento sensorial para la comunidad con discapacidad visual”.

De esta forma, y con más desarrollo, la tecnología táctil acústica que aprovechan estas gafas podría traducirse en un dispositivo de asistencia a la visión tremendamente útil, ayudando a las personas afectadas por un problema de vista a comprender mejor su entorno para moverse por él sin ayuda y con menos riesgo.

Fuente: elespanol.com

Salir de la versión móvil