Tomando como inspiración los sorpresivos ruidos de la vida cotidiana que se pueden infiltrar en una videollamada, tres investigadores que vivieron juntos durante el confinamiento por la pandemia se propusieron crear mejores auriculares para estas situaciones.
Con la capacidad de mejorar la voz del orador y reducir el ruido de fondo, fueron presentados los primeros»ClearBuds», un ejemplar de auriculares que utiliza un sistema de micrófono novedoso, al incorporar aprendizaje automático en tiempo real, con el apoyo de un teléfono inteligente.
Cancelación de ruido en auriculares, gracias a la inteligencia artificial
El coautor principal de la investigación detrás del desarrollo de ClearBuds, Maruchi Kim, describió estos auriculares destacando dos aspectos clave sobre ellos. “Primero, los ClearBuds usan una matriz de micrófono dual. Los micrófonos en cada auricular crean dos flujos de audio sincronizados que brindan información y nos permiten separar espacialmente los sonidos que provienen de diferentes direcciones con una resolución más alta. En segundo lugar, la red neuronal liviana mejora aún más la voz del hablante”, detalló el estudiante de doctorado en la Escuela Allen de Ciencias e Ingeniería Informática de la Universidad de Washington, Estados Unidos.
Aunque en la actualidad, la mayoría de los auriculares comercialmente disponibles también tienen incorporados micrófonos en cada auricular, solo un auricular envía activamente audio a un teléfono a la vez. Con ClearBuds, en cambio, cada auricular envía un flujo de audio al teléfono. Los investigadores diseñaron protocolos de red Bluetooth para permitir que estas transmisiones se sincronicen con una diferencia de 70 microsegundos entre sí.
El trabajo pesado recae sobre un algoritmo de red neuronal, que se ejecuta en un móvil para procesar las transmisiones de audio. Al procesar el audio entrante, el sistema primero suprime cualquier sonido que no sea de voz, para luego aislar y mejorar cualquier frecuencia que provenga al mismo tiempo desde ambos auriculares: la voz del hablante, para ser más preciso.
«Debido a que la voz del hablante está cerca y aproximadamente equidistante de los dos auriculares, la red neuronal se puede entrenar para enfocarse solo en su habla y eliminar los sonidos de fondo, incluidas otras voces», comentó el coautor principal Ishan Chatterjee, estudiante de doctorado en la Escuela Allen. “Este método es bastante similar a cómo funcionan tus propios oídos. Usan la diferencia de tiempo entre los sonidos que llegan a sus oídos izquierdo y derecho para determinar de qué dirección proviene un sonido”, agregó.
“Es extraordinario si se considera el hecho de que nuestra red neuronal tiene que ejecutarse en menos de 20 milisegundos en un iPhone que tiene una fracción de la potencia informática en comparación con una gran tarjeta gráfica comercial, que normalmente se usa para ejecutar redes neuronales”, expresó el coautor Vivek Jayaram, también estudiante de doctorado en la Escuela Allen. “Ese es parte del desafío que tuvimos que abordar en este documento: ¿Cómo tomamos una red neuronal tradicional y reducimos su tamaño mientras preservamos la calidad de la salida?”.
Los auriculares desarrollados por este equipo fueron probados, además de ambientes de oficina o teletrabajo, en espacios públicos y ruidosos. Tras estos ensayos, ClearBuds fueron los ejemplares que presentaron un mejor rendimiento, en comparación con otros auriculares comerciales, incluidos los Apple AirPods Pro. Sin embargo, a pesar de sus cualidades técnicas, entre las que destaca el logro de una mayor relación señal-distorsión en todas las pruebas, un requisito fundamental para su eficiente funcionamiento es el uso de ambos auriculares a la vez.
El equipo detrás de este proyecto continúa explorando nuevas posibilidades de aprovechamiento para esta tecnología, mientras a la vez, buscan potenciar ClearBuds, actualizando el algoritmo para obtener una mayor eficiencia.
Fuente: wwwhatsnew.com