Encuentran las zonas del cerebro que crean las imágenes panorámicas

Si se le pide a alguien que visualice su casa de la infancia, es probable que pueda representar no sólo en la casa que vivía, sino también los edificios de al lado y del otro lado de la calle. Neurocientíficas del MIT (Massachusetts Institute of Technology, Boston, EU) han identificado dos regiones del cerebro que están implicadas en la creación de estas memorias panorámicas.

Estas regiones del cerebro nos ayudan a fusionar vistas fugaces de nuestro entorno en un panorama sin fisuras, de 360 grados, dicen los investigadores.

“Nuestra comprensión del entorno está en gran parte formada por nuestro recuerdo de lo que está fuera de la vista”, dice Caroline Robertson, post-doctoranda del Instituto McGovern del MIT para la Investigación del Cerebro, en MIT News. “Lo que buscábamos eran centros de conexiones del cerebro en los que los recuerdos del entorno se integran con nuestro campo de visión actual.”

Robertson es el autor principal del estudio, que aparece en la revista Current Biology. Nancy Kanwisher, profesora de Ciencias Cognitivas y del Cerebro y miembro del Instituto McGovern, es la autora principal del artículo.

Recuerdos

Cuando miramos una escena, la información visual fluye de nuestras retinas hacia el cerebro, que tiene regiones que son responsables de procesar diferentes elementos de lo que vemos, como las caras o los objetos.

El equipo del MIT sospechaba que las áreas involucradas en las escenas de procesamiento -el área del lugar occipital (OPA), el complejo retroesplenial (RSC) y el área del lugar del parahipocampo (PPA)- también podrían estar implicadas en la generación de memorias panorámicas de un lugar, como una esquina de la calle.

Si esto fuera cierto, cuando viéramos dos imágenes de casas que sabemos que estaban en la misma calle, evocarían patrones similares de actividad en estas regiones especializadas del cerebro. Dos casas de diferentes calles no inducirían patrones similares.

“Nuestra hipótesis es que a medida que empezamos a construir la memoria del entorno que nos rodea, habría ciertas regiones del cerebro donde la representación de una imagen individual empezaría a solaparse con las representaciones de otras vistas de la misma escena”, dice Robertson.

Realidad virtual

Los investigadores exploraron esta hipótesis utilizando auriculares inmersivos de realidad virtual, lo que les permitió mostrar a la gente muchas escenas panorámicas diferentes. En este estudio, los investigadores mostraron a los participantes 40 imágenes de esquinas de las calles del barrio de Beacon Hill, en Boston.

Las imágenes se presentaron en dos formas: La mitad del tiempo, los participantes vieron un tramo de 100 grados de una escena de 360 grados, pero la otra mitad de las veces, vieron dos tramos discontinuos de una escena de 360 grados.

Después de mostrar a los participantes estos entornos panorámicos, los investigadores les mostraron 40 pares de imágenes y preguntaron si procedían de la misma esquina de la calle. Los participantes eran mucho más capaces de determinar si los pares venían de la misma esquina si habían visto las dos escenas vinculadas en la imagen de 100 grados que si las habían visto no enlazadas.

Los escáneres cerebrales revelaron que cuando los participantes veían dos imágenes que sabían que estaban vinculadas, los patrones de respuesta en las regiones RSC y OPA fueron similares. Sin embargo, este no fue el caso para los pares de imágenes que los participantes no habían visto como vinculados. Esto sugiere que RSC y OPA, pero no PPA, están involucrados en la construcción de memorias panorámicas de nuestro entorno, dicen los investigadores.

Fuente: MIT News