‘Claudia’ vende sus fotos íntimas, pero ella no existe: son creadas por inteligencia artificial
Los rápidos avances de los generadores de imágenes permiten a cualquier usuario crear imágenes de personas ficticias que parecen increíblemente reales. Estas herramientas están cambiando la forma de hacer y consumir pornografía
La foto muestra el rostro de una joven de pelo largo y oscuro y sonrisa suave que dice “sentirse guapa hoy :)”. Y en Reddit -donde Claudia, que así se llama, se ofrece a vender fotos de desnudos a cualquiera que le envíe un mensaje privado- es bastante popular: “Joder, eres preciosa”, decía un usuario
Pero Claudia es falsa: un conjunto de fotos sorprendentemente convincentes creadas por herramientas de imagen de inteligencia artificial, posiblemente para sacar dinero a compradores desprevenidos, según dos investigadores de medios sintéticos.
Los rápidos avances de los generadores de imágenes de inteligencia artificial, como Midjourney y Stable Diffusion, han acaparado la atención mundial en las últimas semanas por sus ingeniosas obras de arte e impresionantes falsificaciones de ex presidentes y papas.
Pero el caso de Claudia deja entrever el lado más explícito de la tecnología: al permitir a cualquiera crear imágenes de personas falsas que parecen increíblemente reales, estas herramientas están cambiando la forma de hacer y consumir porno.
Durante años, las nuevas tecnologías han sido pioneras a través del porno, y las herramientas de imagen por IA no han roto ese patrón. Actualmente hay miles de cuentas registradas en foros de debate y salas de chat dedicadas a la creación y el perfeccionamiento de personas sintéticas, la mayoría de las cuales se parecen a niñas y mujeres, un rápido cambio que podría poner patas arriba una industria multimillonaria, socavar la demanda de modelos y actores del mundo real y alimentar preocupaciones más profundas sobre la cosificación y la explotación de la mujer.
Un administrador de sistemas de un hospital de la región central de EE.UU. -que, como los demás creadores y espectadores de porno con IA entrevistados para este reportaje, habló bajo condición de anonimato- dijo que ha estado utilizando herramientas de difusión estable para crear fotos fetichistas de mujeres adultas en pañales, y que los avances en la calidad de la imagen han hecho que su falsedad no importe.
“No creo que a la persona media que ve estas cosas le importe”, afirma. “No espero que la persona que veo en Internet sea la que dice ser. No voy a conocer a esa persona en la vida real… Al fin y al cabo, si no son reales, ¿a quién le importa?”.
La cuenta de Claudia no respondió a las peticiones de comentarios, por lo que es imposible confirmar cómo se hicieron las fotos o cuánto dinero se recaudó con el engaño de hace meses.
Sin embargo, según los investigadores, las fotos presentaban varias características claras de falsedad, como detalles extraños en el fondo y un lunar en el cuello que desaparecía entre una pose y otra. “En realidad, eran bastante fáciles de crear”, dijo un programador de IA.
Los investigadores identificaron varios perfiles en línea de mujeres que creen que son avatares falsos basándose en los artefactos reveladores que algunos generadores de imágenes de IA dejan tras de sí. A través de perfiles en Instagram, Reddit, Twitter y OnlyFans, las cuentas compartían imágenes de mujeres en distintos estados de desnudez e indicaban a los espectadores que debían pagar o suscribirse si querían ver más.
Las presuntas cuentas falsas no respondieron a las preguntas. Y como la mayoría de las imágenes generadas por IA no llevan marca de agua ni huella digital alguna en el momento de su creación, puede resultar difícil para cualquier espectador confirmar si son reales o no.
Una cuenta publicó los vídeos de un actor porno aficionado de Puerto Rico junto con imágenes editadas que mostraban el rostro de la mujer sobre el cuerpo de otra persona. Ni la cuenta falsa ni la real respondieron a las peticiones de comentarios.
Cientos de cuentas en línea siguieron y comentaron las cuentas porno falsas, dejando comentarios que sugerían que creían que las mujeres eran reales.
“Me siento un poco engañado”, dijo el usuario de Reddit “legalbeagle1966″ después de que un periodista del Washington Post le dijera que Claudia era probablemente un fraude. Una semana antes, había comentado en su foto que parecía “bastante sexy y perfecta”.
Muchas de las imágenes falsas más recientes se basan en programas de inteligencia artificial, conocidos como modelos de difusión, que permiten a cualquiera teclear una breve retahíla de palabras y crear una foto falsa de forma gratuita. A continuación, las imágenes pueden editarse aún más para hacerlas más convincentes, incluso para tapar fallos y perfeccionar su calidad.
Las herramientas son incluso más fáciles de usar que el software de “deepfake” que alimentó las preocupaciones sobre las imágenes de IA en 2017. Mientras que los deepfakes utilizaban técnicas de IA de aprendizaje profundo para editar vídeos existentes, los modelos de difusión generan fotos completamente nuevas siguiendo los patrones encontrados en los miles de millones de imágenes que han analizado anteriormente.
Pero la nueva clase de imágenes plantea muchas de las mismas preocupaciones, incluida la posibilidad de que se utilicen para suplantar a mujeres reales. En algunos foros, los usuarios hablan de cómo utilizar modelos de difusión y otras técnicas basadas en la IA, como el “inpainting”, para superponer los rostros de mujeres reales a los cuerpos de las imitaciones generadas por la IA.
“Para humillar y expulsar a las mujeres de la esfera pública, ni siquiera necesitan parecerse exactamente a ellas. Se basan en el efecto de choque”, afirma Sam Gregory, director ejecutivo de Witness, un grupo sin ánimo de lucro especializado en tecnología de vídeo y derechos humanos.
“Pero el paso a los modelos de difusión ha facilitado mucho la creación de volumen, varianza y personalización, y hacerlo en torno a personas conocidas. La calidad es simplemente mejor”, añadió. “La gente ya quiere inclinarse por creer algo que humilla, se burla o se dirige a alguien que le desagrada”.
Stability AI, la start-up londinense que está detrás de Stable Diffusion, prohíbe a la gente utilizarla para crear imágenes que una “persona razonable podría considerar obscenas, lascivas… [o] pornográficas”.
Pero como la empresa ha puesto la herramienta a disposición de todo el mundo para que la descargue en su ordenador, no tiene forma de impedir que alguien la utilice para hacer lo que quiera.
En algunos foros dedicados al uso de la herramienta para crear porno generado por IA se habla incluso de cómo puede utilizarse para crear imágenes sexualmente explícitas de mujeres sin su consentimiento. La gente también ha compartido guías sobre cómo utilizar la tecnología para editar imágenes reales, incluso para quitar la ropa a mujeres que fueron fotografiadas completamente vestidas.
Las imágenes han alimentado cierta inquietud en la industria del porno ante su nueva competencia tecnológica. Pero no todos creen que la industria tenga los días contados. Mark Spiegler, agente de actores porno como Asa Akira y Riley Reid, afirma que las estrellas de su sector son intérpretes con carisma, habilidad y atractivo con los que ninguna IA puede competir.
“No creo que se pueda aprender una personalidad de forma automática”, afirma en una entrevista. “Se puede replicar en cierto modo, pero sigue faltando esa chispa humana y esa espontaneidad”.
Zoey Sterling, estudiante de historia del arte y trabajadora sexual en Miami que vende fotos y vídeos explícitos en OnlyFans, dijo que no está preocupada.
“La gente que dice que la IA podría reemplazar a las trabajadoras del sexo son los mismos que actúan como si las trabajadoras del sexo no fueran seres humanos”, afirmó en una entrevista. “Les deseo la mejor de las suertes y espero que puedan averiguar qué significa ‘consentimiento’. Quizá puedan preguntárselo a la IA”.
Algunas cuentas de avatares femeninos dicen explícitamente a los espectadores que fueron creados con Stable Diffusion u otras herramientas de IA. Otras han sido un poco más sutiles: “Ailice”, un avatar con unos 10.000 seguidores en Instagram, se define a sí misma como “vida de IA, vibraciones reales”.
Pero otros, como Claudia, no dan ninguna indicación. La primera publicación de la cuenta en Reddit, en enero, fue un largo pasaje sexualmente explícito de lenguaje obsceno ante el que varios usuarios de Reddit expresaron su excitación: “Necesito una buena chica como tú en mi vida”, escribió uno. ZeroGPT, una herramienta para detectar texto generado por ordenador, dijo que estaba seguro en un 97% de que el pasaje había sido generado por una herramienta de lenguaje de IA como ChatGPT.
La cuenta publicó otros pasajes e imágenes explícitas, incluida una que mostraba a una mujer en ropa interior, y cualquiera que hiciera clic en el perfil podía ver que la cuenta se describía a sí misma como una mujer de 19 años que vendería imágenes privadas a compradores de pago.
No fue hasta la semana pasada, cuando Claudia publicó la foto “sintiéndose guapa hoy” en un foro de Reddit dedicado a “imágenes de rostros humanos”, cuando la gente empezó a sospechar que se trataba de una IA.
Algunos usuarios de Reddit afirmaron que la piel de Claudia parecía “demasiado suave, demasiado ‘perfecta’” y señalaron que la habitación blanca y sin rasgos en la que aparecía tenía una viga en el techo que desaparecía detrás de su cabeza pero no volvía a aparecer al otro lado. Un programador de inteligencia artificial que habló con The Post declaró que también había algunos indicios técnicos: el ancho de la foto, de 512 píxeles, es el tamaño de imagen por defecto de Stable Diffusion.
No todo el mundo se dio cuenta. El usuario de Reddit “Lanky_Grade_268″, que aseguró ser un limpiador de hoteles de 21 años en Argentina, había llamado a Claudia “hermosa y encantadora” y dijo que estaba desconcertado por la revelación de que podría ser falsa. “Da miedo porque será difícil distinguir entre una IA y una persona real”, escribió en un mensaje.
Pero el usuario de Reddit “Ryan5197″, que había dicho a Claudia que parecía “increíble”, estaba menos preocupado. “Mi opinión sobre la imagen no ha cambiado”, dijo. “Es un personaje bonito”.
Fuente: infobae.com