Esta herramienta creada por el MIT evita que la inteligencia artificial edite fotografías
PhotoGuard modifica y distorsiona las imágenes para que la IA no pueda generar modificaciones realistas
Con las herramientas de inteligencia artificial que se han creado como DALL-E 2, Stable Diffusion, entre otras, tambíen surgieron malos usos para ellas como la generación de ediciones fotográficas no consentidas con la intención de crear contenido erótico o sexual para su difusión en internet.
Ante esta problemática, un conjunto de investigadores del Instituto Tecnológico de Massachusetts (MIT) crearon una herramienta que protege las imágenes de alteraciones. PhotoGuard,como se conoce a este sistema, crea una versión de las fotografías que tienen oculta una característica que genera una mala lectura de la inteligencia artificial y como consecuencia la edición deseada es parcial o completamente arruinada.
En lugar de presentar la edición final con las características deseadas por el atacante que busca crear una modificación no autorizada, el resultado final puede ser completamente diferente al pedido realizado por el “adversario” o resultar en una imagen gris en la que se destacan únicamente las características que se deseaba incluir en el resultado final de la edición.
Según el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, el objetivo del modelo no es el de evitar por completo que la edición de imágenes por medio de inteligencia artificial (esto sería imposible pues existen otros métodos), sino que se pretende aumentar el costo de las ediciones generadas con IA además de hacer que las modificaciones, cuyo atractivo es el realismo, pierdan esta característica.
“De esta manera las personas puede continuar compartiendo sus imágenes personales con una capa extra de seguridad contra la manipulación no deseada”, se indicó en el documento final de la investigación sobre PhotoGuard.
Así como una inteligencia artificial entiende una imagen por medio de sus pixeles para luego modificarla, PhotoGuard trabaja para que esto no sea posible. El objetivo del programa de protección es modificar algunos pixeles de forma que estos no puedan ser interpretados correctamente por una IA, por lo que cada vez que se intente cambiar la apariencia de la imagen, esta muestre versiones defectuosas. Básicamente se añade un filtro para evitar que la inteligencia artificial reconozca lo que está “viendo”.
Aunque en primera instancia este tipo de protección demostró ser útil y actuar de forma efectiva contra la edición de imágenes no deseada, los investigadores a cargo del proyecto de PhotoGuard consideran que su sistema aún tiene mucho por mejorar pues también ofrece versiones modificadas de las imágenes (con el estilo que desean los atacantes), pero con una calidad menor o con “ruido” en la imagen.
“Una de las limitaciones del proceso de inmunización (contra la edición por IA) es que la imagen se puede someter a nuevas transformaciones y técnicas de purificación del ruido”, aseguran los creadores de PhotoGuard. “Los actores maliciosos podrían intentar remover los efectos cortando la imagen, añadiendo filtros, rotándola, o por otros medios”, se lee en el documento de la investigación.
Por otro lado, los especialistas aceptan que aunque su método pueda ser exitoso en esta primera instancia de su trabajo, lo cierto es que podría no serlo en versiones posteriores de los modelos de inteligencia artificial que podrían introducirse en el mercado en el futuro.
“No garantizamos que este método sea efectivo en el futuro”, se indica. Sin embargo, también se ofrece una solución posible: que tanto las empresas creadoras de las inteligencias artificiales como las plataformas de publicación y el equipo de PhotoGuard compartan información que permitan ofrecer el servicio de inmunización a cualquier imagen y generar compatibilidad entre plataformas para garantizar la efectividad de la propuesta.
De hecho, uno de los problemas con los que se encuentra el equipo de trabajo es que no tienen una manera de ofrecer la inmunización de forma comercial y de modo que cualquier persona pueda aplicarla a sus imágenes.
Fuente: infobae.com