Política cyti

Cuidado con la detección de engaños basada en IA, advierte la comunidad científica

La inteligencia artificial pronto podría ayudar a identificar mentiras y engaños. Sin embargo, un equipo de investigación de las universidades de Marburg y Würzburg advierte contra su uso prematuro.

Oh, si fuera tan fácil como con Pinocho. Era fácil darse cuenta cuando decía una mentira: su nariz crecía un poco más cada vez. En realidad, es mucho más difícil reconocer mentiras y es comprensible que los científicos ya estén intentando desde hace mucho tiempo desarrollar métodos válidos para detectar el engaño.

Ahora se han puesto muchas esperanzas en la inteligencia artificial (IA) para lograr este objetivo, por ejemplo en el intento de identificar a los viajeros con intenciones criminales en las fronteras de la UE de Hungría, Grecia y Lituania.

Una valiosa herramienta para la investigación básica

Investigadores de las universidades de Marburg y Würzburg advierten contra el uso prematuro de la IA para detectar mentiras. En su opinión, la tecnología es una herramienta potencialmente valiosa para que la investigación básica obtenga una mejor comprensión de los mecanismos psicológicos que subyacen al engaño. Sin embargo, se muestran más que escépticos sobre su aplicación en contextos de la vida real.

Kristina Suchotzki y Matthias Gamer son los responsables del estudio , que ahora se publica en la revista Trends in Cognitive Sciences . Kristina Suchotzki es profesora de la Universidad de Marburg; su investigación se centra en las mentiras y cómo detectarlas. Matthias Gamer es profesor de la Universidad de Würzburg. Una de sus principales áreas de investigación es el diagnóstico de credibilidad.

Tres problemas centrales para un uso aplicado

Suchotzki y Gamer identifican en su publicación tres problemas principales en la investigación actual sobre la detección de engaños basada en IA: la falta de explicabilidad y transparencia de los algoritmos probados, el riesgo de resultados sesgados y déficits en la base teórica. La razón es clara: “Lamentablemente, los enfoques actuales se han centrado principalmente en los aspectos técnicos, en detrimento de una base metodológica y teórica sólida”, escriben.

En su artículo, explican que muchos algoritmos de IA adolecen de una “falta de explicabilidad y transparencia”. A menudo no está claro cómo llega el algoritmo a su resultado. En algunas aplicaciones de IA, llega un momento en el que ni siquiera los desarrolladores pueden entender claramente cómo se llega a un juicio. Esto hace imposible evaluar críticamente las decisiones y discutir las razones de las clasificaciones incorrectas.

Otro problema que describen es la aparición de “sesgos” en el proceso de toma de decisiones. La esperanza original era que las máquinas pudieran superar los prejuicios humanos como los estereotipos o los prejuicios. En realidad, sin embargo, esta suposición a menudo falla debido a una selección incorrecta de las variables que los humanos introducen en el modelo, así como al pequeño tamaño y la falta de representatividad de los datos utilizados. Sin mencionar el hecho de que los datos utilizados para crear tales sistemas a menudo ya están sesgados.

El tercer problema es fundamental: “El uso de la inteligencia artificial en la detección de mentiras se basa en el supuesto de que es posible identificar una señal válida o una combinación de señales únicas para el engaño”, explica Suchotzki. Sin embargo, ni siquiera décadas de investigación han podido identificar señales tan únicas. Tampoco existe ninguna teoría que pueda predecir de manera convincente su existencia.

Alta susceptibilidad a errores en exámenes masivos

Sin embargo, Suchotzki y Gamer no quieren desaconsejar trabajar en la detección de engaños basada en IA. En última instancia, es una cuestión empírica si esta tecnología tiene el potencial de ofrecer resultados suficientemente válidos. Sin embargo, en su opinión, se deben cumplir varias condiciones antes de considerar su uso en la vida real.

“Recomendamos encarecidamente que los responsables de la toma de decisiones comprueben cuidadosamente si se han cumplido los estándares básicos de calidad en el desarrollo de los algoritmos”, afirman. Los requisitos previos incluyen experimentos de laboratorio controlados, conjuntos de datos grandes y diversos sin sesgos sistemáticos y la validación de algoritmos y su precisión en un conjunto de datos grande e independiente.

El objetivo debe ser evitar falsos positivos innecesarios, es decir, casos en los que el algoritmo cree erróneamente que ha detectado una mentira. Existe una gran diferencia entre el uso de la IA como herramienta de control masivo, por ejemplo en aeropuertos, y el uso de la IA para incidentes específicos, como el interrogatorio de un sospechoso en un caso penal.

“Las aplicaciones de detección masiva implican a menudo evaluaciones muy desestructuradas y sin control. Esto aumenta drásticamente el número de resultados falsos positivos”, explica Gamer.

Advertencia a los políticos

Por último, los dos investigadores aconsejan que la detección de engaños basada en IA sólo debería utilizarse en situaciones muy estructuradas y controladas. Aunque no hay indicadores claros de mentiras, es posible minimizar el número de explicaciones alternativas en tales situaciones. Esto aumenta la probabilidad de que las diferencias en el comportamiento o en el contenido de las declaraciones puedan atribuirse a un intento de engañar.

Suchotzki y Gamer complementan sus recomendaciones con una advertencia a los políticos: “La historia nos enseña lo que sucede si no cumplimos con estrictos estándares de investigación antes de que se introduzcan en la vida real métodos para detectar el engaño “.

El ejemplo del polígrafo muestra muy claramente lo difícil que es deshacerse de tales métodos, incluso si posteriormente se acumulan pruebas de su baja validez y la discriminación sistemática contra sospechosos inocentes.

Fuente: techxplore.com