Este “camuflaje” de IA puede impedir que te identifiquen con un software de detección facial [VIDEO]

El alcance de la detección facial que se utilizará para la vigilancia a gran escala no ha hecho más que empezar a hacerse realidad.

En septiembre de este año, Moscú conectó su red de CCTV a un sistema de reconocimiento facial. Nueva York planea extender la detección facial a través de puentes y túneles. La base de datos de reconocimiento facial de Londres ha sido criticada por ir “mucho más allá de los propósitos de vigilancia y seguridad”, y China está llevando todo esto a un nuevo nivel de vigilancia estatal total.

Pero la invención del barco también condujo a la invención de la piratería. Se han puesto en marcha varios proyectos que muestran cómo estos sistemas de detección pueden ser falsificados, eludidos o secuestrados. Lo último es una esta investigación a cerca de un sistema de visión computarizada de la Universidad de Illinois, que usa el camuflaje para engañar la detección de objetos de redes neuronales.

Este método se basa en “ejemplos adversariales”; una forma de atacar un sistema de aprendizaje por máquina con datos ligeramente modificados -a menudo imperceptibles para un humano- que son lo suficientemente diferentes como para que el sistema los clasifique erróneamente. En su trabajo, Jiajun Lu, Hussein Sibai y Evan Fabry explican que “si existen ejemplos contradictorios que podrían engañar a un detector, podrían ser utilizados para (por ejemplo) crear maliciosamente peligros de seguridad en carreteras pobladas de vehículos inteligentes”.

Para demostrarlo, el equipo creó “tres señales de stop adversarias”, diseñadas para bloquear el tipo de detección de objetos utilizados por los automóviles autónomos. Cuando estas imágenes distorsionadas se imprimieron y se pegaron en las señales de stop reales, sólo el ejemplo más extremo no fue detectado por el sistema de detección de objetos.

Los investigadores tuvieron mejor suerte en la detección facial de suplantación de identidad, usando una máscara del estilo de Google DeepDream para distorsionar las características de un sujeto. Este ataque digital implicó la superposición del camuflaje sobre una pieza de vídeo preexistente, como el artículo describe:”Aplicamos nuestro método de ataque a un conjunto de vídeos de entrenamiento para generar una perturbación adversarial de condición de vista cruzada, y aplicamos esa perturbación en esta secuencia de prueba para generar la secuencia atacada”.

Debido a que el camuflaje involucra entrenar al sistema atacante en un vídeo específico, presumiblemente sería usado para filmar imágenes para hacer que ciertas personas sean indetectables – en lugar de bloquear a una persona en tiempo real. Sin embargo, otros han estado investigando este último. El año pasado, los investigadores de la Universidad Carnegie Mellon lograron crear monturas para gafas de reconocimiento facial.

Esas gafas coloridas pueden ser imperceptibles para la vigilancia de detección facial, pero están lejos de ser invisibles para todos los demás en una habitación.

Fuente: alphr.es