Ingenieros chinos y estadounidenses crearon un prototipo de auriculares inalámbricos que se pueden controlar usando gestos, tocando o deslizando los dedos sobre la piel en el área inferior del oído. Para el reconocimiento de gestos, usaron datos generados por un micrófono, por lo que esta característica se puede añadir a los auriculares actuales mediante actualizaciones de software, señalaron los autores de un artículo presentado en el marco de la conferencia CHI 2020.
En el campo de la interacción humano-computadora, existe un apartado en el que los investigadores proponen usar el cuerpo humano como superficie sensorial. Por ejemplo, en N+1 ya escribimos de relojes inteligentes que reconocen el tacto en la piel y también existen gafas inteligentes que reconocen el tacto en la nariz. No obstante, aunque estos avances parecen bastante convenientes, no van más allá del laboratorio, ya que requieren la instalación de sensores separados en los dispositivos.
Xin Yi de la Universidad de Tsinghua, junto con sus colegas, decidió crear un método para reconocer los gestos de la piel basados en el hardware que ya se usa en la práctica: micrófonos en auriculares inalámbricos. Para ello, emplearon los audífonos de la serie Samsung Gear IconX, conectados a través de Bluetooth a una computadora portátil para el procesamiento de datos.
Inicialmente, los autores crearon 27 gestos, que involucraban diferentes áreas de la piel en los oídos y tipos de interacciones con ella, por ejemplo, tocar y mantener quieto un dedo. Después de una pequeña investigación sobre voluntarios, redujeron la lista a ocho: seis toques simples y dobles, así como también pasar un dedo por el auricular y detrás de la oreja. Los desarrolladores escogieron los movimientos con criterios como “convenientes” y “socialmente aceptables” de acuerdo a opinión de los voluntarios, y también su capacidad de ser reconocidos por el espectrograma.
Los desarrolladores probaron la precisión del algoritmo en 18 usuarios entrenando a los auriculares con los datos generados en distintos ensayos. Los resultados mostraron que la precisión de la clasificación de los gestos fue del 95,3%. Al mismo tiempo, la validación cruzada dejando uno afuera (en la que los datos de un voluntario se eliminan del conjunto de datos intercaladamente, verificando el funcionamiento del algoritmo con datos desconocidos) mostró una precisión del 82.1%. Sin embargo, los desarrolladores señalan que en un escenario real, en el que se le pide al usuario que demuestre los cinco gestos antes de comenzar a trabajar, la precisión aumentría al 90.1%.
Las aplicaciones de este avance estarían en controlar música, llamadas y notificaciones.
Fuente: nmas1.org