«He visto videos de canibalismo»: las consecuencias de examinar el contenido más tenebroso de internet

En esta era de autoedición digital, en las que la gente puede producir y publicar su propio contenido, hay muchas cosas horribles que claramente infringen las pautas de gusto y decencia de los sitios web.

Un creciente ejército de moderadores tiene la difícil tarea de examinarlo todo, a veces a un costo considerable para su salud mental.

ADVERTENCIA: este artículo puede herir tu sensibilidad.

Shawn Speagle trabajó como moderador de contenido en línea durante 6 meses en 2018… y la experiencia lo marcó.

Crueldad al desnudo

«Uno de los primeros videos que recuerdo haber visto fue cuando dos adolescentes agarraron una iguana por la cola y la estrellaron contra el pavimento mientras una tercera persona los filmaba.

«La iguana gritaba y los niños simplemente no pararon hasta que la iguana quedó aplastada en el piso».

Shawn había sido empleado por una compañía llamada Cognizant en Florida que tenía un contrato con Facebook. Habla de una manera lenta y considerada, aún tratando de procesar lo que tuvo que vivir.

«He visto a gente ponerle fuegos artificiales en la boca de un perro y cerrársela con cinta adhesiva. He visto videos de canibalismo, he visto videos de propaganda de terrorismo», continúa.

Al escuchar a Shawn hablar, queda claro por qué la moderación a menudo se ha descrito como el peor trabajo en tecnología.

Contenido perturbador

La mayoría de nosotros, los usuarios de internet, probablemente nunca pensamos en esos moderadores, sin embargo, hay cientos de miles de ellos en todo el mundo que ayudan a las empresas a eliminar contenido perturbador, desde videos de suicidio y asesinato hasta teorías de conspiración y discursos de odio.

Y ahora algunos están saliendo de las sombras para contar sus historias.

Shawn decidió hablar, a pesar de haber firmado un acuerdo de confidencialidad, una práctica estándar en la industria.

Esos acuerdos también están destinados a evitar que los contratistas compartan la información personal de los usuarios de Facebook con el mundo exterior, en un momento de intenso escrutinio sobre la privacidad de los datos.

Pero Shawn cree que las políticas de moderación de Facebook deberían discutirse abiertamente, porque el personal termina viendo contenido perturbador que a menudo queda sin modificarse en la plataforma.

Humanos y animales

Como amante de los animales, estaba angustiado porque el contenido de los animales «en su mayor parte, nunca se aceleró de ninguna manera», lo que significa que nunca fue remitido para su eliminación.

Para los humanos, las reglas eran un poco diferentes, pero también más complicadas.

El resultado más común era marcarlo como «perturbador» y dejarlo en la plataforma.

Shawn le explicó a la BBC que, de acuerdo con la política de Facebook, ver las entrañas corporales, en un contexto que no fuera médico, provocaría la eliminación del video.

Pero le queda difícil recordar cualquier otro ejemplo que resultara en la eliminación de contenido.

Daños y perjuicios

El estrés del trabajo llevó a comer en exceso y al aumento de peso, dice Shawn.

«Sentí que era un zombie en mi asiento. Realmente te afecta porque no tengo ese síndrome de transeúnte, así que no me siento bien solo viendo ese sufrimiento y no contribuyendo de ninguna manera para evitarlo».

Tampoco pudo obtener el apoyo psicológico adecuado.

La única vez que trató de hablar con el psicólogo de turno, «me dijo sencillamente ‘no sé cómo ayudarlos'», cuenta Shawn.

A pesar de todo esto, dice que persistió durante 6 meses, sin quejarse, porque pensó que aunque trabajaba a través de un subcontratista, «Facebook empezaría a comportarse como es debido».

La persona a cargo

El vicepresidente de Facebook, Arun Chandra, fue contratado especialmente para enfocarse en las condiciones de trabajo de los 30.000 moderadores de la plataforma de redes sociales, que son empleados en gran parte por subcontratistas en EE.UU., India y Filipinas.

Chandra dice que ha visitado más de 15 sitios en todo el mundo y que siempre habla directamente con los moderadores.

Niega que haya un «problema a gran escala» y subraya que sus subcontratistas, como Cognizant y Accenture, por ejemplo, son «compañías globales de buena reputación». Facebook presentará auditorías formales a finales de este año, aseguró.

También confirmó que el contrato de Cognizant sigue vigente después de una investigación.

Pero Shawn Speagle cree que se podría hacer mucho más para mejorar las condiciones de trabajo.

«El lugar era absolutamente asqueroso», alega. «Solo había un baño en todo el edificio y éramos 800 empleados».

Los trabajadores a menudo eran jóvenes, inexpertos y mal pagados, asegura.

La BBC se acercó a Cognizant para conseguir su comentario, pero aún no ha respondido.

Chandra dijo además que un psicólogo está ahora disponible en todos los sitios de los subcontratistas durante todos los turnos y que el pago se ha incrementado, pero solo para los moderadores con sede en los EE.UU.

Humanos redundantes

Sarah Roberts, profesora de la Universidad de California, Los Ángeles (UCLA), ha pasado años investigando el mundo de la moderación en internet para su libro recientemente publicado, «Behind the Screen» (Tras la pantalla).

Ella cree que los sitios web y los gigantes de las redes sociales han asumido que la automatización, la inteligencia artificial y el aprendizaje automático harán que la necesidad de moderación de contenido humano sea redundante.

«Creo que Silicon Valley le está dando prioridad a la computación sobre todas las demás cosas», dice.

«Entonces, si puede mantenerse una fuerza laboral a bajo costo y tratada como prescindible, hasta el momento en que la computación se pueda incorporar por completo, entonces mucho mejor».

Roberts piensa que la dificultad para las compañías de redes sociales es que han «creado una base global de usuarios fundamentada en la noción de que todos deberíamos poder hacer y decir, compartir y mostrar lo que nuestro corazón desee en todo momento».

Cambiar esa cultura desde adentro sería una «tarea difícil», por lo que podría ser necesaria una legislación más estricta. Pero es más probable que esto venga de países de la Unión Europea en lugar de Estados Unidos.

Mientras continúa este debate, personas reales, como Shawn Speagle, viven con las consecuencias de examinar la inmundicia de internet.

Habiendo sido diagnosticado con terrores nocturnos, toma varios medicamentos, tiene miedo de conducir después de ver tantos videos de accidentes automovilísticos y se asusta con cualquier ruido fuerte.

«Observar esas cosas 8 horas al día, 5 días a la semana es algo que incluso los veteranos y ex militares no pueden soportar», concluye.

Fuente: BBC