Nuevo algoritmo combate las ‘fake news’ y ‘desenmascara’ a mentirosos

Investigadores de la Universidad de Dartmouth (Estados Unidos) han desarrollado un nuevo enfoque para detectar la intención de un orador de inducir a error a su audiencia. Así, a través de un algoritmo, pueden detectar si una persona ha dado una información errónea a propósito para obtener algún tipo de beneficio, o si por el contrario ha cometido un error involuntario.

En su trabajo, publicado en la revista ‘Journal of Experimental & Theoretical Artificial Intelligence’, los investigadores postulan que mientras que una historia real puede ser manipulada en varias formas engañosas, es la intención, más que el contenido de la comunicación, la que determina si la comunicación es engañosa o no. Por ejemplo, el orador puede estar mal informado o hacer una suposición errónea, lo que significa que cometió un error involuntario pero no intentó engañar.

“La intención de engañar a los oyentes a propósito representa una amenaza mucho mayor que los errores involuntarios. Hasta donde sabemos, nuestro algoritmo es el único método que detecta el engaño y al mismo tiempo discrimina los actos maliciosos de los benignos”, explica Eugene Santos Jr, coautor y profesor de ingeniería en la Escuela de Ingeniería Thayer de Dartmouth.

Los investigadores desarrollaron un enfoque único y un algoritmo que puede diferenciar el engaño de todas las comunicaciones honestas. El estudio utilizó datos de una encuesta de 2009 de 100 participantes sobre sus opiniones acerca de temas controvertidos, así como un conjunto de datos de 2011 de 800 revisiones reales y 400 ficticias de los mismos 20 hoteles.

Santos cree que este marco podría desarrollarse más para ayudar a los lectores a distinguir y examinar de cerca la intención de las ‘noticias falsas’, permitiendo al lector determinar si se utiliza un argumento razonable y lógico o si la opinión juega un papel importante. En estudios adicionales, el investigador espera examinar el efecto dominó de la desinformación, incluyendo su impacto.

Utilizaron la película ‘Ocean’s Eleven’

En el estudio, los investigadores utilizan la película ‘Ocean’s Eleven’ para ilustrar cómo se puede usar su técnica. En el film, un grupo de ladrones irrumpen en la bóveda de un banco mientras revelan simultáneamente al propietario que está siendo robado para negociar. Los ladrones proporcionan al propietario información falsa, es decir, que solo se quedarán con la mitad del dinero si el propietario no llama a la policía. Sin embargo, los ladrones esperan que el dueño llame a la policía, así que se disfrazan de policías para robar todo el contenido de la bóveda.

Así, los espectadores se dan cuenta de la intención de los ladrones (robar todo el dinero) y de cómo entra en conflicto con lo que le dicen al propietario (que solo se llevarán la mitad). Esto ilustra cómo los ladrones fueron capaces de engañar al dueño y anticipar sus acciones debido al hecho de que los ladrones y el dueño tenían información diferente y, por lo tanto, percibían la escena de distinto modo.

“La gente espera que las cosas funcionen de una determinada manera, al igual que los ladrones sabían que el dueño llamaría a la policía cuando se enterara de que le estaban robando. Así que, en este escenario, los ladrones usaron ese conocimiento para convencer al dueño de que llegara a una cierta conclusión y siguiera el camino de las expectativas. Forzaron su intento de engaño para que el dueño llegara a las conclusiones que los ladrones deseaban”, detalla el investigador.

Los comportamientos verbales y no verbales, como las expresiones faciales, se utilizan a menudo para determinar si alguien está mintiendo, pero los autores de este trabajo señalan que esos indicios no siempre son fiables. “Los modelos basados en la intención del razonamiento son más confiables que los cambios verbales, y por lo tanto son mejores para distinguir las mentiras intencionales de otros tipos de distorsión de la información”, concluye la coautora, Deqing Li.

Fuente: infosalus.com

¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!