Los algoritmos se estancan en el pasado: el reconocimiento facial todavía tiene tendencias racistas
A día de hoy, centenares de compañías y numerosos gobiernos desarrollan programas de inteligencia artificial para facilitar diversas tareas o automatizarlas por completo. Esta tecnología nos sorprende con nuevos avances y usos inesperados casi diariamente, y es difícil imaginar un futuro que no use la inteligencia artificial como elemento clave.
Pero toda tecnología tiene problemas propios, y la inteligencia artificial no es una excepción. Ante el uso de inteligencia artificial se plantean una serie de cuestiones morales, como el riesgo que presentan para la población civil los drones militares operados mediante inteligencia artificial, o los problemas que puede causar una IA que aprende patrones inadecuados de comportamiento.
Aunque esta tecnología se usa cada vez más en tareas del día a día, queda claro que aún nos queda un largo camino por recorrer. Ahora, un estudio llevado a cabo en EEUU ha demostrado que los programas de reconocimiento facial que funcionan mediante inteligencia artificial tienen tendencias racistas, lo cual puede llevar a graves problemas de seguridad.
El estudio ha sido realizado por el Instituto Nacional de Estándares y Tecnología o NIST, organismo perteneciente al Gobierno de EEUU, y ha analizado centenares de algoritmos de reconocimiento facial desarrollados por diferentes compañías, incluyendo varios pertenecientes a Intel y Microsoft.
Y los resultados son espectacularmente malos: más de doscientos de estos algoritmos discriminan de modo obvio contra personas de color. El principal problema encontrado en la mayoría de ellos es que los algoritmos identifican incorrectamente a personas de minorías raciales.
Uno de los investigadores tras este estudio, Patrick Grother, señala que en comparación con personas blancas, una persona de color tiene cien veces más probabilidades de ser identificada de modo incorrecto por programas con inteligencia artificial. Este comportamiento por parte de las IAs afectaba particularmente a personas negras, asiáticas y nativo americanas.
Los errores de identificación pueden parecer inocuos, pero pueden tener consecuencias graves para quienes los sufren. Por ejemplo, si uno de estos programas se implementa en un aeropuerto o una frontera, puede provocar que personas de color tengan problemas para pasar los controles de seguridad, o incluso pasen por interrogatorios o sean arrestados.
Otro ejemplo resaltado por el estudio es el de una IA usada por el FBI para identificar a personas comparándolas con las imágenes disponibles en su base de datos de fotos policiales de sospechosos. En este caso particular, las mujeres negras sufrían muchos más errores de identificación que otras personas, lo cual podría causarles problemas legales si nadie verifica adecuadamente los resultados obtenidos por el algoritmo.
Es innegable que esto presenta una serie de implicaciones respecto a la viabilidad de usar reconocimiento facial basado en inteligencia artificial. Debido a los problemas indicados y a preocupaciones respecto a la privacidad, diversas ciudades de EEUU prohíben el uso de reconocimiento facial incluso para el desbloqueo de móviles, como es el caso de San Francisco y Oakland.
Es razonable cuestionar por qué un programa informático que en teoría debería ser imparcial acaba siendo discriminatorio. Y la respuesta resulta quizá obvia: si quienes desarrollan el programa no son imparciales con las minorías, esto puede verse reflejado en el algoritmo. La información proporcionada al software para que la IA pueda aprender a desarrollar sus funciones adecuadamente resulta a menudo sesgada. Intencionalmente o no, se tienden a integrar más datos de hombres blancos que de minorías, lo cual afecta a los resultados obtenidos posteriormente.
El estudio del NIST refleja precisamente que aquellos algoritmos de reconocimiento facial desarrollados en China tienen menos problemas a la hora de identificar a personas asiáticas, lo cual demuestra que el problema tiene solución.
No es la primera vez que vemos cómo estos algoritmos fallan debido al tipo de información que se les facilita, y a la falta de diversidad de la misma. Un caso llamativo fue el de la IA que Amazon estaba desarrollando en 2014 para automatizar el proceso de selección de candidatos para puestos de empleo. Amazon había hecho que su sistema de inteligencia artificial buscase nuevos candidatos basándose en los datos de personas que habían trabajado para la compañía en los últimos diez años.
Dado que la mayoría de estos empleados eran hombres, la IA decidió descartar la mayoría de currículums pertenecientes a mujeres. Estrictamente hablando, el algoritmo hizo justo lo que le habían enseñado a hacer: buscar personas con perfiles similares a los de quienes ya trabajaban en la empresa. Pero esto provocó una discriminación en base a género suficientemente grave como para que Amazon cancelase todo el proyecto.
Si hay algo que podemos sacar en claro de todo esto es que la diversidad y el control de la información es un elemento clave en el proceso de aprendizaje de cualquier inteligencia artificial. Los algoritmos aprenden de nuestros propios errores, y a la vista de los resultados del estudio, es obvio que tenemos todavía un largo camino por recorrer. Pero la solución está al alcance de nuestra mano si tomamos las medidas adecuadas.
Fuente: computerhoy.com