Un ordenador aprende a imitar nuestros prejuicios al valorar una cara

Hace mucho que los psicólogos sociales saben que los humanos hacemos un juicio muy rápido nada más ver el aspecto de otra persona y, en particular, su cara. Con estas valoraciones, tratamos de determinar si la persona que acabamos de conocer es de fiar, inteligente o dominante, sociable o graciosa y así sucesivamente.

Estas decisiones pueden ser acertadas o no, y aunque no son para nada objetivas, sí son regulares. Dada la misma cara bajo las mismas circunstancias, la gente tiende a juzgarla de la misma manera.

Y eso suscita una interesante posibilidad. Los rápidos avances en la visión de máquinas y el reconocimiento facial han facilitado que los ordenadores reconozcan un amplio abanico de expresiones faciales humanas y hasta califiquen las caras en función de su atractivo. Entonces, ¿sería posible que una máquina viese una cara y se llevara la misma primera impresión que los humanos?

Hoy recibimos una especie de respuesta gracias al trabajo del investigador de la Universidad de Notre Dame (EEUU) Mel McCurrie y varios compañeros. El equipo ha entrenado un algoritmo de aprendizaje de máquinas para que decida si una cara le parece de confianza o dominante, tal y como lo hacen los humanos.

Su método es sencillo. El primer paso en cualquier proceso de aprendizaje de máquinas consiste en crear un conjunto de datos del que el algoritmo pueda aprender. Eso significa que hace falta un conjunto de imágenes de caras etiquetadas con las impresiones que han dado a la gente: de confianza, dominante, inteligente y así sucesivamente.

El equipo de McCurrie creó este conjunto de datos con una página web llamada TestMyBrain.org, una especie de proyecto de ciencia cuidadana que mide varios atributos psicológicas de las personas que la visitan. La página es uno de los sitios más populares de pruebas cerebrales con más de 1,6 millones de participantes.

El equipo pidió a los participantes que evaluaran 6.300 imágenes de caras en blanco y negro. Cada cara fue evaluada por 32 personas distintas en cuestión de fiabilidad y dominancia y por 15 personas para evaluar el coeficiente intelectual y la edad.

Una característica interesante es que no existe ninguna respuesta objetiva. La prueba simplemente graba la opinión del evaluador. Por supuesto, es posible medir el coeficiente intelectual y la edad y averiguar la precisión de la gente al intentar adivinar estos valores. Pero esto no le interesa al equipo de McCurrie. Sólo quieren medir el abanico de las impresiones de la gente y después entrenar una máquina para generar los mismos resultados.

Con estos datos en la mano, el equipo empleó 6.000 de estas imágenes para entrenar su algoritmo de aprendizaje automático. Utilizaron otras 200 imágenes para afinar los parámetros de visión de máquinas. Todo esto sirve para que la máquina aprenda a juzgar las caras de la misma manera que los humanos.

El equipo de McCurrie se guardó las últimas 100 imágenes para probar el algoritmo. En otras palabras, para averiguar si llega a las mismas conclusiones que los humanos.

Los resultados son interesantes. Por supuesto, la máquina reproduce el mismo comportamiento que aprendió de los humanos. Cuando se le presentaba una cara, daba más o menos los mismos valores de confianza, dominancia, edad y coeficiente intelectual que los humanos.

Y el equipo de McCurrie ha descubierto cómo lo hace. Por ejemplo, saben qué partes de la cara utiliza la máquina para pasar juicio.

Para averiguarlo, cubrió diferentes partes de una cara y después pidió a la máquina que las evaluara. Si el resultado variaba mucho frente al valor humano, entendieron que la cara era significativa de algún modo. De esta manera, pudieron saber de qué partes de la cara depende más la máquina al pasar juicio.

Curiosamente, resultan ser parecidas a las partes de la cara que usan los humanos. Los psicólogos sociales saben que los humanos tienden a mirar la boca cuando evalúan la confianza y que un ceño bajo a menudo es asociado con la dominancia.

Y estas son exactamente las áreas que aprende el algoritmo de visión de máquinas a mirar de los datos de entrenamiento. La investigación de McCurrie detalla: “Estas observaciones indican que nuestros modelos han aprendido a mirar las mismas cosas que los humanos, replicando así la manera en la que juzgamos atributos de alto nivel entre nosotros”.

Eso da paso a varias aplicaciones interesantes. El equipo de McCurrie lo aplicó primero a las artes dramáticas. Emplearon la máquina para evaluar la confianza de Edward Snowden y Julian Assange a partir de fotos de sus caras. Y luego la pusieron a hacer la misma evaluación de los actores que los han representado en dos películas recientes: Joseph Gordon-Levitt y Benedict Cumberbatch, respectivamente.

En efecto, esto predice cómo un público podría evaluar la similitud entre un actor y la persona que él o ella retrata.

Los resultados son claros. Resulta que la máquina evalúa de forma muy parecida a los actores y a los personajes a los que interpretan. Y todos ellos le resultan de poca confianza, por ejemplo. La investigación continúa: “Nuestros modelos producen predicciones increíblemente similares entre los sujetos y sus actores, lo que confirma la precisión de su representación en las películas”.

Pero el equipo va aún más lejos. Aplica el algoritmo de visión de máquinas a cada fotograma de una película, lo que permite averiguar cómo cambia una evaluación con el paso del tiempo. Esto proporciona permite medir cómo las percepciones de la gente pueden cambiar con el tiempo. Y es algo que podría ser utilizado en las investigaciones, las ventas, las campañas políticas y así sucesivamente.

El trabajo también sugiere futuras ideas a explorar. Una posibilidad sería probar cómo cambian las primeras impresiones entre distintos grupos culturales o demográficos.

Todo esto nos permite empezar a descubrir los factores que contribuyen a nuestros prejuicios, que a menudo dependen de sutiles pistas sociales. También podría permitir que los robots los predigan y los repliquen.

Y lo que es más interesante, ¿pueden este tipo de investigaciones influir el comportamiento humano? Si alguien descubriera que su cara parece poco fiable, ¿cómo reaccionaría? ¿Sería posible aprender cómo cambiar esta percepción, tal vez al modificar las expresiones faciales? ¡Interesante trabajo!

Fuente: technologyreview.es