Una nueva interfaz cerebro-computadora ayuda a un paciente con esclerosis a hablar de nuevo
Investigadores estadounidenses desarrollan un dispositivo que puede convertir señales cerebrales en voz de alta precisión. Esta tecnología puede ayudar a pacientes con esclerosis lateral amiotrófica (ELA) a recuperar el habla
Existe una enfermedad incurable llamada “esclerosis lateral amiotrófica” (ELA o ALS, por sus siglas en inglés) en la que las neuronas motoras pierden gradualmente su función, lo que eventualmente hace imposible mover la mayoría de los músculos del cuerpo. A medida que avanza el padecimiento, los músculos necesarios para el habla dejan de funcionar y la conversación se vuelve extremadamente difícil.
Los individuos con estas graves dificultades en el habla suelen denominarse “pacientes disfásicos”, pues les cuesta encontrar las palabras adecuadas e hilar frases de manera correcta para expresarse. Como medio de restaurar su voz física, la Dra. Jacqueline M. Bourg, profesora de neurología, y Dave Brandman, neurocirujano de la Universidad de California en Davis, EE UU, han desarrollado una interfaz cerebro-computadora (BCI, por su siglas en inglés) que analiza las señales eléctricas enviadas desde el cerebro cuando un paciente intenta hablar en tiempo real y las convierte en oraciones. Al generar esto como una voz sintética que reproduce la voz real del paciente, la persona puede expresar con precisión las palabras que pretendía.
“Queremos que los pacientes que no pueden hablar debido a enfermedades incurables puedan comunicarse con sus seres queridos”, describe Brandman.
Identificar vocabulario a partir de patrones de actividad cerebral
Los investigadores construyeron un dispositivo que puede detectar actividad cerebral específica mediante la implantación de una micromatriz de 256 electrodos para estimular la corteza en el lóbulo frontal izquierdo, el área del cerebro responsable del habla. Este sistema registra las señales eléctricas que el cerebro envía a los músculos necesarios para el habla y, al convertir estos patrones de actividad en fonemas, identifica el vocabulario que el hablante está intentando pronunciar.
En el pasado se han desarrollado BCI que intentan producir expresiones utilizando un método similar, pero tenían el inconveniente de generar con frecuencia vocabulario no deseado. Además, el análisis preciso de las señales cerebrales requiere aprendizaje automático que utilice grandes cantidades de datos, y el problema sigue siendo que se necesita mucho tiempo para generar voz real.
En julio de 2023, Brandman realizó un ensayo clínico de 32 semanas con Casey Harrell, un paciente con ELA que perdió la capacidad de comunicarse verbalmente. A lo largo de un total de 248 horas de conversaciones cara a cara y por videollamada utilizando la BCI, el equipo de investigación continuó recopilando datos sobre la precisión del habla en 84 ocasiones. Los resultados mostraron que tomó 30 minutos poder decir 50 palabras con un 99.6% de precisión. Después de otras 1.4 horas, produjo con éxito 125,000 palabras con una precisión del 90.2%. Después de eso, los datos se recopilaron continuamente y, al final, la precisión se mantuvo en el 97.5%.
“En el momento en que la BCI reprodujo con precisión las palabras de Harell por primera vez, todos, incluido él, se conmovieron tanto que lloró”, recuerda el codesarrollador Sergei Stavisky. El propio Harell también describe el dolor de no poder hablar como “una sensación de estar atrapado” y utiliza sus propias palabras para transmitir la alegría de sentirse nuevamente conectado con la sociedad.
Si estas tecnologías continúan desarrollándose, puede llegar un futuro en el que todos los pacientes con trastornos graves del habla, no solo los que padecen ELA, podrán volver a comunicarse utilizando su propia voz.
Fuente: es.wired.com