Un nuevo kit de herramientas traduce datos de neuroimagen a formatos audiovisuales
Ya es posible explorar datos complejos de neuroimagen mediante su traducción a un formato audiovisual (un vídeo acompañado de una banda sonora musical) para ayudar a interpretar lo que sucede en el cerebro al realizar determinadas conductas. David Thibodeaux y su equipo de la Universidad de Columbia (Estados Unidos) presentan esta técnica en la revista ‘Plos One’.
Los avances tecnológicos recientes han hecho posible registrar en tiempo real múltiples componentes de la actividad del cerebro despierto. Los científicos ahora pueden observar, por ejemplo, qué sucede en el cerebro de un ratón cuando realiza comportamientos específicos o recibe un determinado estímulo. Sin embargo, este tipo de investigaciones produce grandes cantidades de datos que pueden resultar difíciles de explorar intuitivamente para obtener información sobre los mecanismos biológicos detrás de los patrones de actividad cerebral.
Investigaciones anteriores han demostrado que algunos datos de imágenes cerebrales pueden traducirse en representaciones audibles. A partir de estos enfoques, Thibodeaux y sus investigadores colaboradores desarrollaron un conjunto de herramientas flexible que permite traducir diferentes tipos de datos de imágenes cerebrales (y las grabaciones de vídeo que las acompañan del comportamiento de los animales de laboratorio) en representaciones audiovisuales.
Luego, los investigadores demostraron la nueva técnica en tres entornos experimentales diferentes, mostrando cómo se pueden preparar representaciones audiovisuales con datos de varios enfoques de imágenes cerebrales, incluido el mapeo óptico de campo amplio 2D (WFOM) y la microscopía de excitación plana alineada confocalmente barrida en 3D (SCAPE).
El conjunto de herramientas se aplicó a datos de WFOM recopilados previamente que detectaron tanto la actividad neuronal como los cambios en el flujo sanguíneo cerebral en ratones que realizaban diferentes comportamientos, como correr o asearse. Los datos neuronales estaban representados por sonidos de piano que golpeaban al mismo tiempo que picos en la actividad cerebral, donde el volumen de cada nota indicaba la magnitud de la actividad y su tono indicaba la ubicación en el cerebro donde se producía la actividad.
Mientras tanto, los datos del flujo sanguíneo estuvieron representados por sonidos de violín. Los sonidos del piano y el violín, tocados en tiempo real, demuestran la relación acoplada entre la actividad neuronal y el flujo sanguíneo. Visto junto con un vídeo del ratón, el espectador puede discernir qué patrones de actividad cerebral correspondían a diferentes comportamientos.
Los autores señalan que su conjunto de herramientas no sustituye al análisis cuantitativo de datos de neuroimagen. No obstante, podría ayudar a los científicos a detectar grandes conjuntos de datos en busca de patrones que de otro modo podrían haber pasado desapercibidos y que merecen un análisis más detallado.
Fuente: infosalus.com