La tecnología para generar desnudos deepfake es cada vez más oscura y peligrosa

Los deepfakes sexuales siguen haciéndose más sofisticados, capaces, fáciles de acceder y peligrosos para millones de mujeres que sufren abusos con esta tecnología

Abre el sitio web de un generador de deepfakes explícitos y te encontrarás con un menú de horrores. Con apenas un par de clics, te ofrece la posibilidad de convertir una simple foto en un videoclip explícito de ocho segundos, insertando a mujeres en situaciones sexuales gráficas de aspecto realista. «Transforma cualquier foto en una versión desnuda con nuestra avanzada tecnología de IA», reza el texto de la página web.

Las posibilidades de abuso son amplias

Entre las 65 plantillas de video del sitio web hay una serie de vídeos de «desvestido» en los que las mujeres representadas se quitan la ropa, pero también hay escenas de video explícitas denominadas «máquina sexual de garganta profunda» y varios videos de «semen». Generar cada vídeo cuesta una pequeña cantidad; añadir audio generado por IA cuesta más.

El sitio web, que WIRED no nombra para limitar su exposición, incluye advertencias que dicen que la gente solo debe subir fotos que tengan consentimiento para transformar con IA. No está claro si existen controles reales para hacer cumplir esta norma.

Grok, el chatbot creado por las empresas de Elon Musk, fue utilizado para crear miles de imágenes no consentidas, industrializando y normalizando aún más el proceso de acoso sexual digital. Pero esto es solo lo más visible, y ni mucho menos lo más explícito. Durante años, ha ido creciendo un ecosistema de deepfakes, compuesto por docenas de sitios web, bots y aplicaciones, que facilita más que nunca la automatización del abuso sexual basado en imágenes, incluida la creación de material de abuso sexual infantil (CSAM). Este ecosistema de «nudificación», y el daño que causa a mujeres y niñas, es probablemente más sofisticado de lo que mucha gente entiende.

La sofisticación del abuso

«Ya no se trata de una tira sintética muy burda», afirma Henry Ajder, experto en deepfakes que ha seguido la pista de esta tecnología durante más de media década. «Estamos hablando de un grado mucho mayor de realismo de lo que verdaderamente se genera, pero también de una gama mucho más amplia de funcionalidades». Combinados, es probable que los servicios ganen millones de dólares al año. «Es una lacra social y una de las peores y más oscuras partes de esta revolución de la IA y de los medios sintéticos que estamos viendo», asegura.

En el último año, WIRED ha rastreado cómo múltiples servicios explícitos de deepfake han introducido nuevas funcionalidades y se han expandido rápidamente para ofrecer la creación de videos dañinos. Los modelos de imagen a video suelen necesitar ahora apenas una foto para generar un clip corto. Una revisión de WIRED de más de 50 sitios web de deepfakes, que probablemente reciben millones de visitas al mes, muestra que casi todos ellos ofrecen ahora generación de video explícito de alta calidad y a menudo enumeran docenas de escenarios sexuales en los que se puede representar a las mujeres.

Mientras tanto, en Telegram, docenas de canales y bots de deepfakes sexuales han lanzado regularmente nuevas funciones y actualizaciones de software, como diferentes poses y posturas sexuales. Por ejemplo, en junio del año pasado, un servicio de deepfakes promocionó un «modo sexual», anunciándolo junto al mensaje: «Prueba diferentes ropas, tus poses favoritas, edad y otros ajustes». Otro publicó que pronto llegarían «más estilos» de imágenes y videos, y que los usuarios podrían «crear exactamente lo que imaginan con sus propias descripciones» mediante indicaciones personalizadas a los sistemas de IA.

«No es solamente: ‘Quieres desnudar a alguien’. Es como: ‘Aquí tienes todas estas versiones de fantasía’. Son las distintas poses. Son las diferentes posturas sexuales», denuncia el analista independiente Santiago Lakatos, que junto con el medio de comunicación Indicator ha investigado cómo los servicios de «nudificación» utilizan a menudo la infraestructura de las grandes empresas tecnológicas y probablemente han ganado mucho dinero en el proceso. «Hay versiones en las que puedes hacer que alguien [parezca] embarazada», manifiesta Lakatos.

Una revisión de WIRED descubrió que más de 1.4 millones de cuentas estaban registradas en 39 bots y canales de creación de deepfakes en Telegram. Después de que WIRED preguntara a Telegram por estos servicios, la empresa eliminó al menos 32 de las herramientas de deepfake. «La pornografía no consentida (incluidos los deepfakes y las herramientas utilizadas para crearlos) está estrictamente prohibida por los términos de servicio de Telegram», declara un portavoz de Telegram, que añade que elimina contenidos cuando los detecta y que el año pasado eliminó 44 millones de contenidos que infringían sus políticas.

Lakatos explica que, en los últimos años, varios sitios web de deepfake más grandes han consolidado su posición en el mercado y ahora ofrecen API a otras personas que crean generadores de imágenes y videos no consentidos, lo que permite la proliferación de más servicios. «Se están consolidando mediante la compra de otros sitios web o aplicaciones de nudificación. Están añadiendo funciones que les permiten convertirse en proveedores de infraestructuras».

No es un fenómeno nuevo

Los llamados deepfakes sexuales surgieron por primera vez hacia finales de 2017 y, en ese momento, requerían que un usuario tuviera conocimientos técnicos para crear imágenes o videos sexuales. Los avances generalizados en los sistemas de IA generativa de los últimos tres años, incluida la disponibilidad de sofisticados generadores de fotos y videos de código abierto, han permitido que la tecnología sea más accesible, más realista y más fácil de usar.

Se han creado vídeos deepfake generales de políticos y de conflictos en todo el mundo para difundir desinformación. Sin embargo, los deepfakes sexuales han creado continuamente un daño generalizado a mujeres y niñas. Al mismo tiempo, las leyes para proteger a las personas han tardado en aplicarse o no se han introducido en absoluto.

«Este ecosistema se basa en modelos de código abierto», aclara Stephen Casper, investigador que trabaja en salvaguardias y gobernanza de la IA en el Instituto Tecnológico de Massachusetts, que ha documentado el aumento del abuso de videos deepfake y su papel en la generación de imágenes íntimas no consentidas. «A menudo se trata de un modelo de código abierto que se ha utilizado para desarrollar una aplicación que luego utiliza un usuario», destaca Casper.

Las víctimas de las imágenes íntimas no consentidas (NCII, por sus siglas en inglés), incluidos los deepfakes y otros medios compartidos de forma no consentida, son casi siempre mujeres. Las imágenes falsas y los videos no consentidos causan enormes daños, como acoso, humillación y sentimiento de «deshumanización». En los últimos años se han utilizado deepfakes explícitos para abusar de políticos, famosos y personas influyentes en las redes sociales. Pero también han sido utilizados por hombres para acosar a colegas y amigos, y por chicos en las escuelas para crear imágenes íntimas no consentidas de sus compañeros de clase.

Deshumanización

«Normalmente, las víctimas o las personas que se ven afectadas por esto son mujeres y niños u otros tipos de minorías sexuales o de género», resalta Pani Farvid, profesor asociado de psicología aplicada y fundador de The SexTech Lab en The New School. «Nosotros, como sociedad global, no nos tomamos en serio la violencia contra las mujeres, venga de la forma que venga».

«Hay una gama de estos comportamientos diferentes donde algunos [perpetradores] son más oportunistas y no ven el daño que están creando, y se basa en cómo también se presenta una herramienta de IA», indica Farvid, y agrega que algunos servicios de acompañamiento de IA pueden dirigirse a las personas con servicios de género. «Para otros, esto se debe a que están en anillos de abuso o anillos de abuso infantil, o son personas que ya están participando en otras formas de violencia, violencia de género o violencia sexual».

Un estudio australiano, dirigido por el investigador Asher Flynn, entrevistó a 25 creadores y víctimas de abuso por deepfake. El estudio concluyó que un trío de factores: herramientas de deepfake cada vez más fáciles de usar, la normalización de la creación de imágenes sexuales no consentidas y la minimización de los daños, podría influir en la prevención y la respuesta a este problema aún creciente. A diferencia de la difusión pública generalizada de las imágenes sexuales no consentidas creadas con Grok en X, es más probable que los deepfakes explícitos se compartan en privado con las víctimas o sus amigos y familiares, según el estudio. «Simplemente utilizaba los grupos personales de WhatsApp», contó un agresor a los investigadores. «Y algunos de estos grupos tenían hasta 50 personas».

La investigación académica encontró cuatro motivaciones principales para el abuso de deepfake: de los 10 perpetradores que entrevistaron, ocho se identificaron como hombres. Entre ellas estaban la extorsión sexual, causar daño a otros, obtener refuerzo o vinculación de sus compañeros y la curiosidad por las herramientas y lo que podían hacer con ellas.

Varios expertos con los que habló WIRED afirmaron que muchas de las comunidades que desarrollan herramientas de deepfake tienen una actitud «arrogante» o despreocupada ante los daños que causan. «Existe una tendencia a cierta banalidad en el uso de esta herramienta para crear NCII o incluso para acceder a NCII que resulta preocupante», comenta Bruna Martins dos Santos, responsable de políticas y defensa de Witness, un grupo de derechos humanos.

Para algunos abusadores que crean deepfakes, la tecnología tiene que ver con el poder y el control. «Solo quieres ver lo que es posible», esgrimió un agresor a Flynn y a otros investigadores que participaron en el estudio. «Entonces sientes una especie de euforia divina al ver que eres capaz de crear algo así».

Fuente: es.wired.com

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *