Un equipo de investigación desmenuza los instintos musicales con IA

Se sabe que la música, a menudo denominada el lenguaje universal, es un componente común en todas las culturas. ¿Podría el “instinto musical” ser algo compartido hasta cierto punto, a pesar de las grandes diferencias ambientales entre las culturas?

Un equipo de investigadores del KAIST dirigido por el profesor Hawoong Jung del Departamento de Física ha utilizado un modelo de red neuronal artificial para identificar el principio por el cual los instintos musicales surgen del cerebro humano sin un aprendizaje especial.

La investigación, realizada por el primer autor, el Dr. Gwangsu Kim del Departamento de Física de KAIST (afiliación actual: Departamento de Ciencias Cerebrales y Cognitivas del MIT) y el Dr. Dong-Kyum Kim (afiliación actual: IBS) se publica en Nature Communications bajo el título “Aparición espontánea de detectores de música rudimentarios en redes neuronales profundas”.

Anteriormente, los investigadores han intentado identificar las similitudes y diferencias entre la música que existe en diversas culturas, y han intentado comprender el origen de la universalidad. Un artículo publicado en Science en 2019 reveló que la música se produce en todas las culturas etnográficamente distintas y que se utilizan formas similares de ritmos y melodías. Los neurocientíficos también han aprendido que una parte específica del cerebro humano , la corteza auditiva , es responsable de procesar la información musical.

El equipo del profesor Jung utilizó un modelo de red neuronal artificial para demostrar que las funciones cognitivas de la música se forman espontáneamente como resultado del procesamiento de información auditiva recibida de la naturaleza, sin que se le enseñe música. El equipo de investigación utilizó AudioSet, una colección a gran escala de datos de sonido proporcionada por Google, y enseñó a la red neuronal artificial a aprender los distintos sonidos.

Curiosamente, el equipo de investigación descubrió que ciertas neuronas dentro del modelo de red responderían selectivamente a la música. En otras palabras, observaron la generación espontánea de neuronas que reaccionaban mínimamente a otros sonidos como los de los animales, la naturaleza o las máquinas, pero mostraban altos niveles de respuesta a diversas formas de música, tanto instrumental como vocal.

Las neuronas en el modelo de red neuronal artificial mostraron comportamientos reactivos similares a los de la corteza auditiva de un cerebro real. Por ejemplo, las neuronas artificiales respondían menos al sonido de la música que se recortaba en intervalos cortos y se reorganizaba. Esto indica que las neuronas selectivas de música generadas espontáneamente codifican la estructura temporal de la música. Esta propiedad no se limitó a un género musical específico, sino que surgió en 25 géneros diferentes, incluidos clásico, pop, rock, jazz y electrónica.

Además, se descubrió que la supresión de la actividad de las neuronas selectivas de la música impedía en gran medida la precisión cognitiva de otros sonidos naturales. Es decir, la función neuronal que procesa la información musical ayuda a procesar otros sonidos, y esa ” habilidad musical ” puede ser un instinto formado como resultado de una adaptación evolutiva adquirida para procesar mejor los sonidos de la naturaleza.

El profesor Jung, que asesoró la investigación, dijo: “Los resultados de nuestro estudio implican que la presión evolutiva ha contribuido a formar la base universal para procesar la información musical en varias culturas”. En cuanto a la importancia de la investigación, explicó: “Esperamos que este modelo construido artificialmente con musicalidad similar a la humana se convierta en un modelo original para diversas aplicaciones, incluida la generación de música con IA, la terapia musical y la investigación en cognición musical”.

También comentó sus limitaciones y agregó: “Sin embargo, esta investigación no toma en consideración el proceso de desarrollo que sigue al aprendizaje de la música , y debe tenerse en cuenta que este es un estudio sobre los fundamentos del procesamiento de información musical en el desarrollo temprano”.

Fuente: medicalxpress.com