Cazadores de fake news contra el analfabetismo digital
Un equipo del CSIC desarrolla una herramienta para detectar los bulos científicos y enseñar cómo identificarlos
El 54% de los españoles considera que no sabe diferenciar las noticias falsas, o fake news, según datos de Trust Project, un informe impulsado por varios medios de comunicación nacionales. Ya en 2018, la consultora Gartner predijo que en 2022 la mayoría de países occidentales consumirán más información falsa que noticias reales.
Además, la pandemia de SARS-Cov-2 no ha hecho más que agravar la situación, pues, según la Sociedad Española de Médicos Generales y de Familia, el 90% de los especialistas han atendido a pacientes preocupados por datos que habían extraído de fake news en internet o redes sociales. A diario, los ciudadanos fueron bombardeados con informaciones falsas que les hacían creer innecesarias las medidas sanitarias o cuestionaban la efectividad, naturaleza y objetivo de la vacuna. El fenómeno de la desinformación en el ámbito sanitario fue tal que la Organización Mundial de la Salud lo calificó como infodemia.
La pandemia fue un caldo de cultivo perfecto para el aumento de los bulos surgidos de eso que los científicos llevan años denunciando: la ciencia falsa. “Las noticias falsas disfrazadas de ciencia se han usado para intentar sabotear la agenda social y para hacer dudar a la ciudadanía sobre una información que ha sido complicada y cambiante”, expone Sara Degli-Esposti, investigadora científica en el Instituto de Filosofía (IFS) del CSIC y coordinadora científica de Tresca, un proyecto europeo enmarcado en el programa Horizonte 2020 que utilizará la ciencia de datos para mejorar la comunicación científica y a cazar fake news. “Los que fomentan la desinformación a menudo se basan en argumentos de autoridad falaces, se inventan estudios no avalados por la comunidad científica o se identifican como científicos o divulgadores y cuentan el discurso que les conviene”, advierte la investigadora, que indica que ha habido quienes han difundido información científica manipulada a través, sobre todo, de las redes sociales.
El equipo de Degli-Esposti ha preguntado a más de siete mil personas de todas las edades en siete países de la Unión Europea (Francia, Alemania, Italia, España, Polonia, Hungría y los Países Bajos) si creen que las redes sociales pueden ser peligrosas o dañinas para sus usuarios. El resultado fue contundente: la mayoría de las personas creen que las redes sociales no son un lugar seguro.
Esta desconfianza es resultado de la pérdida de control sobre la información que en ellas se comparte. “Al final, las redes pueden cambiar nuestra forma de percibir el mundo”, explica, “Los bulos en redes pueden estar dirigidos a confirmar cierta percepción del mundo, es lo que se llama sesgo de auto-confirmación”. Sobre todo, en ambientes de polarización política, como el que se está viviendo en los últimos años en gran parte de países occidentales, los bulos científicos se convierten en asuntos ideológicos. Y la mejor herramienta para acabar con esto, creen los investigadores, pasa por la educación de la ciudadanía, de los usuarios de las nuevas tecnologías.
En los últimos años han surgido equipos de periodistas especializados en desmontar bulos científicos. Son los denominados factcheckers, o verificadores, como por ejemplo el proyecto Maldita Ciencia. “Los periodistas que trabajan confirmando informaciones son muy buenos, pero son limitados y la capacidad de reproducción de las fake news es enorme”, señala David Arroyo, experto en criptografía del CSIC y especializado en ciberseguridad.
“Las campañas de desinformación son muy rápidas y no da tiempo a reaccionar”, añade. Para esquivar este problema, desde Tresca trabajan para desarrollar una herramienta digital denominada Misinformation Widget, con la que pretenden ayudar a los periodistas y verificadores de noticias a cazar de manera más eficaz los bulos. Además, quieren enseñar a los usuarios a detectarlos. “Queremos contribuir a la alfabetización digital”, indica Arroyo.
Algoritmos contra la desinformación
Degli-Esposti remarca la diferencia entre los términos mis- y dis-information, una distinción que no existe en castellano. “La desinformación es intencional, se trata de campañas creadas por ciertos sectores políticos, sociales o económicos buscando un fin concreto”, explica la investigadora.
Sin embargo, la eficacia de estas campañas depende de la presencia de noticias infundadas o de noticias engañosas con un fondo de verdad presentes en la opinión pública. Esto sería la mis-información. “La misinformation no tiene un componente de intencionalidad, sino que está relacionada con la confusión de los usuarios, en definitiva, con el analfabetismo digital. Esto genera vulnerabilidades en la opinión pública, que pueden ser aprovechadas por parte de agentes con malas intenciones”, aclara Degli-Esposti.
Arroyo pone como ejemplo a su madre. “Ella es la usuaria media, si se cree una noticia falsa, significa que otra mucha gente lo hará”, expone el investigador, que explica que la desinformación intencionada se nutre del desconocimiento generalizado. “Basta con que una persona bienintencionada crea una información falsa y la comparta de manera inocente con sus allegados para que la mis-información evolucione a desinformación”, indica Arroyo.
De esta forma, con herramientas como Misinformation Widget los investigadores quieren facilitar la labor de los periodistas utilizando el procesamiento de conjuntos de datos y el aprendizaje automático, con el fin de detectar una campaña de desinformación de forma más rápida. Sin embargo, lo necesario es que los usuarios adquieran las habilidades para detectar las fake news.
La investigación de Tresca muestra que con la educación adecuada los usuarios podrán usar mejor las tecnologías digitales. “La alfabetización digital es clave para acabar con las campañas de desinformación”, opinan ambos investigadores. Pero, ¿cómo pueden los modelos de aprendizaje automático ayudar a combatir esta pandemia informativa?
Lo primero, señala Arroyo, es integrar las distintas fuentes de información. “Las introducimos en el sistema, las procesamos y extraemos información, que más tarde nos servirá para crear etiquetas”, explica. “Nos fijamos en temas, autores, protagonistas de las noticias, el tipo de escritura, muy importante para detectar el clickbait, y la forma en la que esta información se comparte en redes sociales”. Fundamentalmente se centran en Twitter, por su accesibilidad. Arroyo y su equipo observan qué perfiles están más involucrados en campañas de difusión de fake news y la relación entre diferentes cuentas que difunden bulos de un determinado sesgo ideológico.
Parte del proceso de análisis de los textos informativos es manual, porque requiere conocimiento experto. Aquí es donde entra la parte humanística del equipo, que colabora mano a mano con la parte técnica. “Los programadores rara vez tienen suficientes nociones de historia, geopolítica o, incluso de lingüística, por lo que la parte del equipo experta en humanidades aplica sus conocimientos”, explica Degli-Esposti, que recalca la necesidad de equipos interdisciplinares como el de Tresca para que el etiquetado y la información que se le enseña al sistema de inteligencia artificial no contenga graves sesgos.
“En la investigación en big data y ciencia de datos crece la necesidad de complementar el análisis cualitativo y cuantitativo de un fenómeno y valorar los sesgos de humanos y algoritmos. La calidad del etiquetado de las bases de datos usadas para entrenar modelos de inteligencia artificial es fundamental para garantizar la fiabilidad de los resultados”, advierte Degli-Esposti.
Su nueva herramienta permite que el usuario se haga su propio mapa mental, primero, para entender cómo funciona la difusión de información falsa y, segundo, para comprender su propia forma de pensar y finalmente descubrir por qué anteriormente tomaba como verdaderas ciertas fake news.
“Lo que pretendemos es apoyar a los periodistas y enseñar a los usuarios una pauta adecuada de uso de tecnología digital para poder analizar en primera persona el grado de fiabilidad”, expone Arroyo. “Es una línea de investigación en la que seguimos trabajando. Nosotros creemos que una metodología y un conjunto de herramientas es más efectivo que decirle a la gente qué noticia es la que tiene que creer”, concluye Arroyo.
Fuente: csic.es