Crean interfaces neuronales que permiten controlar dispositivos e implantes con el pensamiento

Un nuevo marco científico y tecnológico mejora la interacción entre cerebro y máquina y abre la puerta a sistemas más precisos, adaptativos y personalizados

Aplicando la teoría de juegos, un nuevo estudio ha logrado un importante avance en el desarrollo de interfaces neuronales que permiten controlar dispositivos electrónicos de uso cotidiano e implantes médicos utilizando el pensamiento.

Investigadores de la Universidad de Washington, en Estados Unidos, han desarrollado un enfoque innovador para interfaces neuronales que aprenden junto al usuario. La propuesta podría mejorar el control de dispositivos, prótesis e implantes a través del pensamiento y marcar un avance decisivo en neurotecnología aplicada a la rehabilitación y la asistencia.

Según una nota de prensa, en lugar de «obligar» al usuario a adaptarse al dispositivo, el nuevo esquema propone que ambos aprendan juntos. La investigación, publicada en la revista Nature Machine Intelligence, combina teoría de control y teoría de juegos para describir, predecir y orientar la interacción entre persona y máquina en estos sistemas.

Aprendizaje constante a partir de las interacciones

En teoría de juegos, el estudio matemático de las interacciones estratégicas entre tomadores de decisiones, se supone que cada parte va «aprendiendo» con la interacción permanente. En este caso, tanto el usuario humano como la interfaz neuronal ajustan continuamente sus estrategias, aprendiendo uno del otro para mejorar el rendimiento con el tiempo.

La idea es que si una interfaz neuronal traduce señales biológicas en órdenes para un cursor, una prótesis o un implante, tanto el usuario como el algoritmo de decodificación cambien con el tiempo, adaptándose mutuamente. Para poner a prueba el modelo, los investigadores construyeron una plataforma especializada con 14 participantes.

En el experimento, los voluntarios controlaban un cursor en una pantalla mediante la actividad muscular del antebrazo, mientras un decodificador adaptativo ajustaba su comportamiento en tiempo real. El sistema permitió medir cómo cambian el usuario y el algoritmo cuando ambos reciben retroalimentación continua.

Interfaces centradas en el ser humano

Según el nuevo estudio, esa interacción mostró que las modificaciones del decodificador pueden influir en la forma en que aprende la persona, y que esas trayectorias pueden predecirse con herramientas de teoría de juegos. El aporte clave está en la posibilidad de diseñar interfaces centradas en el ser humano y no solo en la eficiencia del dispositivo.

Fuente: levante-emv.com

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *