La mitad de los tuiteros que lanzan bulos sobre el coronavirus son bots
Además de promover teorías de la conspiración y tratamientos falsos, estas cuentas piden la reactivación de la economía en EE. UU. y el cese del confinamiento. También emplean estrategias para apuntar contra grupos de riesgo como los inmigrantes y las minorías y apoyan a usuarios reales a fomentar el odio
La directora del Centro para la Democracia Informada y la Ciberseguridad Social de la Universidad Carnegie Mellon (EE. UU.), Kathleen M. Carley, y su equipo llevan años analizando bots y campañas de influencia. Aseguran que durante los procesos electorales, desastres naturales y otros acontecimientos politizados, el nivel de participación de bots en las conversaciones sociales ronda entre el 10 % y el 20 %, aseguran.
Pero en un nuevo estudio, han descubierto que los bots pueden representar entre el 45 % y el 60 % de las cuentas de Twitter que hablan de coronavirus (COVID-19). Muchas de esas cuentas se crearon en febrero y desde entonces han difundido y amplificado información falsa y bulos, incluidos falsos consejos médicos, teorías de la conspiración sobre el origen del virus y esfuerzos para poner fin a las órdenes de quedarse en casa y reactivar Estados Unidos.
Estos bots siguen las bien conocidas estrategias de campañas coordinadas de influencia, y funcionan: desde el inicio de la crisis, los investigadores han observado una mayor polarización del debate en Twitter sobre este tema.
Hay varios factores que podrían explicar este aumento. La naturaleza global de la pandemia significa que hay un mayor número de partes interesadas en capitalizar la crisis para cumplir con sus agendas políticas. La desinformación también fluye de forma más coordinada, con un mayor número de empresas disponibles para ser contratadas con el objetivo de crear tales campañas de influencia.
Pero el volumen de cuentas no es lo único que preocupa a Carley. Sus patrones de comportamiento también se han vuelto más sofisticados. Los bots tienen conexiones más profundas con otras cuentas, lo que les ayuda a difundir sus mensajes ampliamente. También emplean más estrategias para apuntar contra grupos de riesgo como los inmigrantes y las minorías y ayudan a las cuentas reales que participan en los discursos de odio a formar grupos online.
Para realizar su análisis más reciente, los investigadores estudiaron más de 200 millones de tuits sobre el coronavirus desde enero. Utilizaron técnicas de análisis de redes y el aprendizaje automático para identificar qué cuentas estaban difundiendo desinformación y cuáles probablemente eran bots o cíborgs (cuentas administradas conjuntamente por bots y seres humanos).
El sistema busca 16 diferentes maniobras que las cuentas manipuladoras suelen realizar. Entre estas estrategias figuran las de «servir de puente» (bridging en inglés) entre dos grupos (conectar dos comunidades online), «respaldar» (backing en inglés) a un individuo (seguir una cuenta para aumentar el nivel de influencia percibida de una persona) y «bombardeo» (nuking en inglés) a un grupo (acciones que llevan a desmontar una comunidad online).
A través del análisis, los investigadores identificaron más de 100 tipos de información falsa relacionada con la COVID-19 y descubrieron que los bots no solo ganaban tracción y acumulaban seguidores, sino que representaban el 82 % de los 50 principales retuiteos más influyentes y el 62 % de los 1.000. La influencia de cada cuenta se calculó para reflejar el número de seguidores que alcanzó, así como el número de seguidores que lograron sus seguidores.
Los investigadores también han empezado a analizar Facebook, Reddit y YouTube para comprender cómo se propagan las noticias falsas entre estas plataformas. Su trabajo aún está en las primeras etapas, pero ya ha revelado algunos patrones inesperados. Por un lado, han encontrado que muchos bulos provienen de sitios web o blogs convencionales antes de ser recogidos y amplificados en las redes sociales. Los diferentes tipos de historias también tienen distintos modelos de procedencia. Las afirmaciones de que el virus es un arma biológica, por ejemplo, principalmente provienen de los llamados sitios de «noticias negras», páginas de noticias falsas diseñadas para difundir desinformación, que se suelen gestionar fuera de Estados Unidos. En cambio, la retórica de «reactivar América» proviene principalmente de los blogs y páginas de Facebook administradas en Estados Unidos.
El estudio también revela que los usuarios responden a dicho contenido de maneras muy distintas en función de la plataforma. En Reddit, por ejemplo, los moderadores suelen desmentir y prohibir las noticias falsas. Cuando una campaña coordinada en torno a la reapertura de América apareció en Facebook, los usuarios de Reddit empezaron a debatir sobre ese fenómeno y a contrarrestar esos mensajes. «Decían: ‘No crean nada de eso. No se puede confiar en Facebook'», afirma Carley.
Lamentablemente, no hay soluciones fáciles para este problema. Prohibir o eliminar cuentas no funciona, ya que se pueden crear muchas más por cada una que se elimine. Prohibir las cuentas que difunden información errónea tampoco resolverá nada. «Mucha desinformación ocurre a través de insinuaciones o declaraciones ilógicas, y son difíciles de descubrir», asegura.
Considera que los investigadores, las empresas y los gobiernos deben coordinarse mejor para elaborar políticas y prácticas efectivas para resolver este problema. Y añade: «Creo que necesitamos algún grupo de supervisión general. Porque ningún grupo es capaz de hacerlo por sí solo».
Fuente: technologyreviews.es