CienciaDestacada

¿Cómo la lengua puede ayudar a ‘ver’ a personas con discapacidades visuales?

La lengua humana tiene una capacidad sensorial poco estudiada. Pero eso está a punto de cambiar gracias a las recientes investigaciones. En ellas, los científicos empezaron a explorar las capacidades sensoriales de la lengua para asistir a personas con discapacidades visuales.

Uno de esos nuevos estudios desarrolló una interfaz para ayudar a personas con discapacidad visual a navegar e incluso hacer ejercicio.

Este estudio forma parte del campo conocido como ‘sustitución sensorial’, una rama interdisciplinaria que combina psicología, neurociencia, informática e ingeniería para desarrollar ‘dispositivos de sustitución sensorial’. A estos dispositivos se los conoce como SSD.

Los SSD convierten la información sensorial de un sentido a otro. En el caso de personas con capacidades visuales, el dispositivo las ayudará a convertir la información visual en sonido o experiencia táctil.

Dispositivos que ayudan a personas con discapacidades visuales

Los dispositivos que usan la lengua humana para ayudar a personas con discapacidades visuales existen desde hace varias décadas.

Por ejemplo, en 1998, BrainPort diseñó una tecnología que convierte la transmisión de video de una cámara en patrones móviles de estimulación eléctrica en la superficie de la lengua.

El dispositivo en forma de lengueta posee 400 electrodos diminutos, cada uno de los cuales corresponde a un píxel de la transmisión de video de una cámara.

Esta tecnología se empleó por mucho tiempo para ayudar a personas que fueron víctimas de accidentes cerebrovasculares a mantener el equilibrio.

Luego, en 2015, esa misma tecnología fue aprobada para el uso en personas con discapacidades visuales.

Otra alternativa viene de la mano de un psicólogo, Mike Posner, quien desarrolló el mecanismo en la década del 80 para medir la atención visual.

Nos referimos al paradigma Posner Cueing, que está basado en estímulos visuales que pueden guiar la atención de las personas.

Este paradigma tiene en cuenta la atención intermodal, es decir, las cosas que aparecen en un sentido pueden influir en otros sentidos.

Por ejemplo, si escuchamos el zumbido de una abeja que se acerca a nuestro oído, nuestra atención se dirigirá inmediatamente hacia ese lado del cuerpo. Entonces, el cerebro podrá asignar una acción para esquivar o aplastar a esa molesta abeja.

Recurrir a la lengua

El nuevo estudio toma como base el paradigma Posner Cueing, pero con algunas variaciones.

Los autores de este estudio probaron la capacidad del cerebro para asignar atención táctil en la superficie de la lengua de la misma manera que las manos u otros modos de atención.

Estos investigadores necesitaban entender si ‘ver’ con la lengua es lo mismo que ver con los ojos. Descubrieron que, a pesar de la increíble sensibilidad de la lengua, los procesos de atención son un poco limitados en comparación con los otros sentidos.

Además, encontraron que los procesos de atención en la lengua pueden verse influenciados por el sonido.

Al probar el BrainPort, los investigadores comprobaron que, por ejemplo, al escuchar un sonido a la izquierda, se puede identificar más fácilmente la información en el lado izquierdo de la lengua.

Los investigadores creen que el uso del BrainPort puede ser demasiado estimulante, pero esto se podría mejorar por medio de una interfaz auditiva.

Con algunos ajustes, esta tecnología podría convertirse en un instrumento confiable para ayudar a las personas ciegas, sordas o ciegas a navegar o comunicarse de manera más eficiente.

Fuente: tekcrispy.com