Icono del sitio INVDES

Logran que una inteligencia artificial reconozca el efecto de la música en los oyentes

La música, más que cualquier otro arte, es una mezcla hermosa de ciencia y emoción. Sigue una serie de patrones en buena parte matemáticos, para despertar sentimientos en las personas que la escuchan. Las máquinas experimentales que componen música se centran en estos patrones matemáticos para lograr ritmos coherentes y arquitecturas melódicas que no resulten disonantes, pero dan poca importancia a la respuesta emocional de su audiencia. Un equipo de investigación internacional integrado por científicos de la Universidad de Osaka en Japón, la Universidad Metropolitana de Tokio en el mismo país, IMEC en Bélgica y la empresa Crimson Technology, ha dado a conocer un nuevo sistema de aprendizaje automático que detecta el estado emocional de sus oyentes para producir nuevas canciones que provoquen nuevos sentimientos.

 El concepto de aprendizaje automático consiste en que, en vez de programárselo todo a un ordenador o a un robot, se intenta lograr que estas máquinas sean capaces de aprender por su cuenta, a partir de sus éxitos y fracasos al intentar realizar una tarea que nadie les ha enseñado a hacer, y, si es el caso, buscando información, examinándola e integrando los nuevos conocimientos a lo que ya saben.

La mayoría de las piezas musicales compuestas por máquinas son el fruto de un sistema de composición automático que está preprogramado con un repertorio concreto de canciones a modo de ejemplos pero que solo puede componer otras similares.

El equipo de Masayuki Numao, de la Universidad de Osaka en Japón, se propuso mejorar la experiencia interactiva mediante la incorporación a la máquina del estado emocional del usuario. En las pruebas realizadas con el nuevo sistema, unos voluntarios escuchaban la música mientras llevaban un casco (llamado Brain Music EEG) equipado con unos auriculares inalámbricos y con sensores para captar las ondas cerebrales. Estos sensores recogían lecturas de electroencefalograma, que el sistema de inteligencia artificial usaba para decidir las características de la música que componía y ejecutaba.

Numao y sus colegas preprogramaron al sistema con canciones de ejemplo, pero al hacer que las ondas cerebrales del oyente se añadieran al proceso de composición de nueva música, el funcionamiento del sistema se volvió mucho más flexible, adaptándose, en cierto modo, a los gustos del oyente. Comprobaron que los usuarios se sentían más atraídos por la música cuando el sistema podía detectar sus patrones cerebrales.

Fuente: noticiasdelaciencia.com

 

Salir de la versión móvil