Política cyti

Cómo un equipo de científicos usó YouTube para evitar que millones de personas caigan en la desinformación

Desde la pandemia de Covid-19 hasta la guerra en Ucrania, la desinformación abunda en todo el mundo. Se han diseñado muchas herramientas para ayudar a las personas a detectar información errónea. El problema con la mayoría de ellos es lo difícil que es entregarlos a escala.

Pero es posible que hayamos encontrado una solución. En nuestro nuevo estudio, diseñamos y probamos cinco videos breves que «prevencen» a los espectadores para vacunarlos de las técnicas engañosas y manipuladoras que a menudo se usan en línea para engañar a las personas.

Nuestro estudio es el más grande de su tipo y el primero en probar este tipo de intervención en YouTube. A cinco millones de personas se les mostraron los videos, de los cuales un millón los vio.

Descubrimos que estos videos no solo ayudan a las personas a detectar información errónea en experimentos controlados, sino también en el mundo real. Ver uno de nuestros videos a través de un anuncio de YouTube aumentó la capacidad de los usuarios de YouTube para reconocer información errónea.

Desacreditar (o verificar) la información errónea tiene varios problemas. A menudo es difícil establecer cuál es la verdad. Las verificaciones de datos tampoco suelen llegar a las personas que tienen más probabilidades de creer en la información errónea, y lograr que las personas acepten las verificaciones de hechos puede ser un desafío, especialmente si las personas tienen una fuerte identidad política.

Los estudios muestran que la publicación de verificaciones de hechos en línea no revierte completamente los efectos de la desinformación, un fenómeno conocido como el efecto de influencia continua. Hasta ahora, los investigadores se han esforzado por encontrar una solución que pueda llegar rápidamente a millones de personas.

La gran idea

La teoría de la inoculación es la noción de que puedes forjar una resistencia psicológica contra los intentos de manipularte, al igual que una vacuna médica es una versión debilitada de un patógeno que incita a tu sistema inmunológico a crear anticuerpos. Las intervenciones de prebunking se basan principalmente en esta teoría.

La mayoría de los modelos se centran en contrarrestar ejemplos individuales de información errónea, como publicaciones sobre el cambio climático. Sin embargo, en los últimos años, los investigadores, incluidos nosotros mismos, han explorado formas de inocular a las personas contra las técnicas y los tropos que subyacen en gran parte de la información errónea que vemos en línea.

Dichas técnicas incluyen el uso de lenguaje emotivo para provocar indignación y miedo, o convertir a personas y grupos en chivos expiatorios por un problema sobre el que tienen poco o ningún control.

Los investigadores creen que la teoría de la inoculación es el futuro para desacreditar información falsa en línea (Foto: Getty)

Los juegos en línea como Cranky Uncle y Bad News estuvieron entre los primeros intentos de probar este método de prebunking.

Hay varias ventajas de este enfoque. No tiene que actuar como árbitro de la verdad, ya que no tiene que verificar las afirmaciones específicas que ve en línea.

Le permite eludir debates emotivos sobre la credibilidad de las fuentes de noticias. Y quizás lo más importante, no necesita saber qué información errónea se volverá viral a continuación.

Un enfoque escalable

Pero no todos tienen el tiempo o la motivación para jugar, por lo que colaboramos con Jigsaw (la unidad de investigación de Google) en una solución para llegar a más personas. Nuestro equipo desarrolló cinco videos de prebunking, cada uno con una duración de menos de dos minutos, cuyo objetivo es inmunizar a los espectadores contra una técnica de manipulación diferente o una falacia lógica. Como parte del proyecto, lanzamos un sitio web donde las personas pueden ver y descargar estos videos.

Primero probamos su impacto en el laboratorio. Realizamos seis experimentos (con alrededor de 6400 participantes en total) en los que las personas vieron uno de nuestros videos o un video de control no relacionado sobre quemaduras por congelación. Luego, dentro de las 24 horas posteriores a la visualización del video, se les pidió que evaluaran una serie de ejemplos de contenido de redes sociales (no publicados) que hacían o no uso de técnicas de desinformación. Descubrimos que las personas que vieron nuestros videos de prebunking eran sustancialmente menos propensas a la manipulación que los participantes de control.

Pero los hallazgos de los estudios de laboratorio no se traducen necesariamente al mundo real, por lo que también realizamos un estudio de campo en YouTube, el segundo sitio web más visitado del mundo, para probar la efectividad de las intervenciones de video.

Para este estudio, nos enfocamos en usuarios de YouTube de EE. UU. mayores de 18 años que previamente habían visto contenido político en la plataforma. Ejecutamos una campaña publicitaria con dos de nuestros videos y se los mostramos a aproximadamente un millón de usuarios de YouTube. A continuación, usamos la herramienta de interacción BrandLift de YouTube para pedirles a las personas que vieron un video preliminar que respondieran una pregunta de opción múltiple.

La pregunta evaluó su capacidad para identificar una técnica de manipulación en un titular de noticias. También tuvimos un grupo de control, que respondió la misma pregunta de la encuesta pero no vio el video de prebunking. Descubrimos que el grupo de prebunking fue entre un 5 y un 10 % mejor que el grupo de control para identificar correctamente la información errónea, lo que demuestra que este enfoque mejora la resiliencia, incluso en un entorno de distracción como YouTube.

Nuestros videos costarían menos de 4 peniques por visualización de video, lo que cubriría las tarifas de publicidad de YouTube. Como resultado de este estudio, Google lanzará una campaña publicitaria con videos similares en septiembre de 2022. Esta campaña se realizará en Polonia y la República Checa para contrarrestar la desinformación sobre los refugiados en el contexto de la guerra entre Rusia y Ucrania.

Cuando intenta desarrollar resiliencia, es útil evitar ser demasiado directo al decirle a la gente qué creer, porque eso podría desencadenar algo llamado reactancia psicológica. La reactancia significa que las personas sienten que su libertad para tomar decisiones está siendo amenazada, lo que hace que se obstinen y rechacen nueva información. La teoría de la inoculación faculta a las personas a tomar sus propias decisiones sobre qué creer.

A veces, la difusión de teorías de conspiración e información falsa en línea puede ser abrumadora. Pero nuestro estudio ha demostrado que es posible cambiar el rumbo. Cuanto más trabajen las plataformas de redes sociales junto con científicos independientes para diseñar, probar e implementar soluciones escalables basadas en evidencia, mayores serán nuestras posibilidades de hacer que la sociedad sea inmune a la avalancha de información errónea.

Este artículo ha sido reeditado de The Conversation.

Fuente: zonadeprensard.com