Cienciaslider

Una interfaz permite saber cómo procesan los primates las palabras

Investigadores de la Universidad de Brown ha usado una interfaz cerebro-computadora para reconstruir palabras en inglés a partir de señales neuronales registradas en el cerebro de primates no humanos.

La investigación, publicada en la revista Nature Communications Biology, puede ser un paso hacia el desarrollo de implantes cerebrales que pueden ayudar a las personas con pérdida auditiva, dicen los investigadores.

«Lo que hemos hecho es registrar los patrones complejos de excitación neural en la corteza auditiva secundaria asociada con las palabras específicas de audición de los primates», dijo Arto Nurmikko, profesor de la Escuela de Ingeniería de Brown, investigador asociado en el Instituto Carney para el Cerebro de Brown y autor principal del estudio. «Luego usamos esos datos neuronales para reconstruir el sonido de esas palabras con alta fidelidad».

«El objetivo general es comprender mejor cómo se procesa el sonido en el cerebro de los primates», agregó Nurmikko, «que en última instancia podría conducir a nuevos tipos de prótesis neuronales».

Los sistemas cerebrales involucrados en el procesamiento inicial del sonido son similares en humanos y primates no humanos. El primer nivel de procesamiento, que ocurre en lo que se llama corteza auditiva primaria, clasifica los sonidos de acuerdo con atributos como tono o tono. La señal luego se mueve a la corteza auditiva secundaria, donde se procesa más.

Cuando alguien está escuchando palabras habladas, por ejemplo, aquí es donde los sonidos se clasifican por fonemas, las características más simples que nos permiten distinguir una palabra de otra. Después de eso, la información se envía a otras partes del cerebro para el procesamiento que permite la comprensión humana del habla.

Pero debido a que el procesamiento temprano del sonido es similar en humanos y primates no humanos, aprender cómo procesan los primates las palabras que escuchan es útil, aunque probablemente no entiendan lo que esas palabras significan.

Para el estudio, dos implantes del tamaño de un guisante con conjuntos de microelectrodos de 96 canales registraron la actividad de las neuronas mientras los macacos rhesus escuchaban grabaciones de palabras individuales en inglés y llamadas de macacos. En este caso, los macacos escucharon palabras bastante simples de una o dos sílabas: «árbol», «bueno», «norte», «grillo» y «programa».

Los investigadores procesaron las grabaciones neuronales utilizando algoritmos informáticos desarrollados específicamente para reconocer patrones neuronales asociados con palabras particulares. A partir de ahí, los datos neuronales podrían traducirse nuevamente al habla generada por computadora.

Finalmente, el equipo usó varias métricas para evaluar qué tan cerca el discurso reconstruido coincidía con la palabra hablada original que escuchó el macaco. La investigación mostró que los datos neuronales grabados producían reconstrucciones de alta fidelidad que eran claras para un oyente humano.

El uso de arreglos multielectrodo para registrar información auditiva tan compleja fue el primero, dicen los investigadores.

«Anteriormente, el trabajo había reunido datos de la corteza auditiva secundaria con electrodos individuales, pero hasta donde sabemos, esta es la primera grabación multielectrodo de esta parte del cerebro», dijo Nurmikko. «Básicamente, tenemos cerca de 200 publicaciones de escucha microscópicas que pueden brindarnos la riqueza y la mayor resolución de datos que se requiere».

Uno de los objetivos del estudio, para el cual el estudiante de doctorado Jihun Lee dirigió los experimentos, fue probar si algún algoritmo de modelo de decodificación en particular funcionó mejor que otros. La investigación, en colaboración con Wilson Truccolo, un experto en neurociencia computacional, mostró que las redes neuronales recurrentes (RNN), un tipo de algoritmo de aprendizaje automático que se usa a menudo en la traducción computarizada de idiomas, produjeron las reconstrucciones de mayor fidelidad. Los RNN superaron sustancialmente a los algoritmos más tradicionales que han demostrado ser efectivos en la decodificación de datos neuronales de otras partes del cerebro.

Christopher Heelan, investigador asociado de Brown y coautor principal del estudio, cree que el éxito de los RNN proviene de su flexibilidad, que es importante para decodificar información auditiva compleja.

«Los algoritmos más tradicionales utilizados para la decodificación neural hacen suposiciones sólidas sobre cómo el cerebro codifica la información, y eso limita la capacidad de esos algoritmos para modelar los datos neuronales», dijo Heelan, quien desarrolló el kit de herramientas computacionales para el estudio. «Las redes neuronales hacen suposiciones más débiles y tienen más parámetros que les permiten aprender relaciones complicadas entre los datos neuronales y la tarea experimental».

En última instancia, esperan los investigadores, este tipo de investigación podría ayudar a desarrollar implantes neuronales que podrían ayudar a restaurar la audición de las personas.

Fuente. europapress.es