Esta inteligencia artificial creada por el MIT puede verte (y saber qué estás haciendo) desde el otro lado de la pared
Hace tiempo que los sistemas de inteligencia artificial pueden usar la visión artificial para detectar la presencia de humanos en una habitación, e incluso identificar qué están haciendo o que sentimiento expresan, con solo analizar su postura y patrones de movimiento.
Pero ¿y si la habitación está en total oscuridad? O peor ¿y si la persona no está en la misma habitación, sino en la contigua? Pues ahora eso no supone ningún impedimento para la IA: tan sólo ha de buscar una fuente de datos diferente y seguir analizando patrones. Y esa nueva fuente de datos son las señales de radio en las frecuencias WiFi.
Y eso se lo debemos a un equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT que recientemente ha publicado un ‘paper’ que muestra el modo en que dichas señales pueden ser analizadas por redes neuronales para permitirnos ‘ver’ en ausencia de luz.
“Nuestro modelo utiliza como datos de entrada la señales de radiofrecuencia, genera esqueletos humanos en 3D a partir de las mismas y es capaz de reconocer las acciones e interacciones de varias personas a lo largo del tiempo”.
Ese paso intermedio de convertir las señales de radio en esqueletos 3D (como los mostrados en la imagen que encabeza el artículo) resulta clave para el éxito de este sistema, al permitir que el modelo no sólo aprenda a partir de los datasets basados en radiofrecuencia, sino que también sea capaz de aplicar todos los datos recopilados hasta la fecha basados en la captura con visión computerizada.
De hecho, los investigadores empezaron grabando simultáneamente imágenes con luz visible y basadas en ondas de radio, con el objetivo de sincronizarlas y que la red neuronal se entrenara también simultáneamente con ambas: así podría establecer correlaciones entre los datos mostrados por una y otra. La introducción de los esqueletos 3D tuvo lugar cuando detectaron que al sistema le costaba aprender a diferenciar a una persona de su entorno circundante.
¿Facilitando la vigilancia?
Según explica Tianhong Li, uno de los coautores del ‘paper’, este modelo, bautizado como ‘RF-Action’, tiene “numerosas aplicaciones potenciales” en el campo de los hogares inteligentes y de la comprensión del comportamiento humano:
“Por ejemplo, detectar comportamientos anormales en los ancianos (para detectar si se caen dentro de su casa), monitorizar que los pacientes tomen sus medicamentos de manera adecuada o controlar a distancia dispositivos domésticos inteligentes mediante gestos”.
En cuanto a la privacidad, todavía no hay que preocuparse por la posibilidad de que alguien nos someta a reconocimiento facial desde la casa de al lado, pues la baja resolución de las imágenes conseguidas no permite apreciar los rasgos faciales. Sin embargo, sí deberíamos temer una posible integración futura con la tecnología de reconocimiento postural desarrollada por los chinos.
Pero Li reconoce que aún les queda mucho trabajo por delante: hasta ahora, RF-Action sólo se ha probado usando una única pared y dentro de un rango de detección de 1-11 metros:
“La señal de radiofrecuencia se debilitará progresivamente según añadamos paredes, por lo que puede ser difícil conservar un equilibrio adecuado señal / ruido si añadimos demasiadas paredes”.
Fuente: xataka.com