Hay veces en que una empresa no comete un fallo: comete una negligencia. Y en ocasiones, esa negligencia no se mide solo por sus efectos técnicos, sino por el daño real que causa a personas concretas. Grok, el sistema de inteligencia artificial de xAI, es ahora mismo un ejemplo rotundo de cómo no debe desplegarse una tecnología. Capaz de generar imágenes sexualizadas de personas reales —incluso de menores— sin consentimiento, su comportamiento no ha sido contenido. Y lo que se esperaba como una respuesta contundente ha terminado siendo un espejismo: más restricciones cosméticas, más excusas, y un sistema que sigue funcionando casi igual… pero ahora bajo un modelo de pago. El problema no se ha solucionado. Se ha camuflado. Y la empresa responsable sigue mirando hacia otro lado.
Ya te contábamos hace unos días cómo Grok había sido utilizado para crear contenido explícito usando fotografías reales, cómo se habían generado imágenes con apariencia de menores y cómo la reacción de la compañía fue limitar la función de generación a cuentas verificadas. Lejos de solucionar el problema, aquella decisión fue denunciada como un intento de monetizar el abuso: quienes pagaban podían seguir generando contenido, mientras que a los no suscriptores se les mostraba un mensaje invitándoles a pasar por caja. Lo que debería haberse traducido en una auditoría completa del modelo, en una desactivación urgente o en un rediseño con garantías, se transformó en un acceso restringido… pero funcional.
Esta semana, Elon Musk y su equipo han anunciado nuevas restricciones para el uso de Grok en X: bloqueos geográficos, filtros para evitar la edición de imágenes con ropa interior o trajes de baño, y nuevas advertencias al intentar manipular fotografías. Pero todo esto ha resultado ser otra capa de maquillaje. La aplicación y la web externa de Grok siguen permitiendo crear imágenes de desnudos con una facilidad pasmosa. Investigadores de AI Forensics, así como periodistas de medios como WIRED, han probado el sistema con resultados reveladores: subir una imagen, pedir que se «vista» o «desvista» a la persona, y obtener el resultado deseado, incluso en configuraciones gratuitas. Los bloqueos, cuando existen, son inconsistentes. Y en muchos casos, basta con introducir una fecha de nacimiento para obtener acceso completo.
No se trata de suposiciones ni de exploits avanzados. Los investigadores han podido crear desnudos fotorealistas . El sistema permite modificar imágenes de personas reales, colocar ropa reveladora o eliminarla por completo, sin que existan mecanismos efectivos para detenerlo. No se trata de una IA que ha sido vulnerada, sino de una IA que nunca fue blindada. Las “medidas” adoptadas por X se aplican solo en algunos territorios, solo dentro de su propia red social, y ni siquiera de forma coherente. La imagen pública se ha intentado proteger, pero el núcleo del problema —un modelo generativo sin control— sigue intacto.
Mientras tanto, desde la empresa se continúa utilizando un lenguaje equívoco. Elon Musk ha llegado a decir que se permite generar “desnudez de torso” de humanos imaginarios si se considera equivalente a lo que aparece en películas con clasificación R, y que la política cambia por región. Pero aquí no hablamos de ficción, ni de matices legales. Hablamos de una IA generando imágenes no consensuadas con apariencia realista, accesibles para cualquier usuario con pocos conocimientos. Y hablamos también de contenido con apariencia de menores, denunciado por múltiples organismos, que ha circulado a través de Grok sin impedimentos técnicos significativos.
Lo más grave es que, a pesar del escándalo, el producto sigue funcionando. Grok sigue generando. Y ahora lo hace desde una posición todavía más peligrosa: ha pasado de herramienta accesible a privilegio de pago. No se ha corregido su arquitectura, no se ha limitado su capacidad, no se ha auditado su comportamiento. Simplemente, se ha subido el precio de entrada. El sistema que permitió generar imágenes de mujeres desnudas sin su permiso, de celebridades manipuladas o de cuerpos con aspecto infantil, sigue en línea. Y todo lo que lo separa de quien quiera volver a utilizarlo es una tarjeta de crédito.
La tecnología puede fallar. Pero cuando el fallo está documentado, cuando los daños son reales, y cuando la empresa responsable decide no solo no intervenir, sino capitalizar el problema, lo que ocurre ya no es un desliz técnico. Es complicidad. Grok no es una herramienta experimental, sino una plataforma funcional, conectada a una base de usuarios enorme, desplegada por una compañía que ha elegido mirar hacia otro lado. El abuso se sigue produciendo. Las víctimas se siguen acumulando. Y la empresa, lejos de protegerlas, ha optado por convertir el silencio en modelo de negocio.
Fuente: muycomputer.com


Deja una respuesta