He sido completamente ciega desde mi nacimiento.
Durante el último año, mis mañanas comienzan con un ritual de cuidado facial que dura 20 minutos y que implica la aplicación de cinco productos distintos. Luego, realizo una sesión fotográfica que comparto mediante inteligencia artificial a través de una aplicación llamada Be My Eyes, usándola como un espejo.
Los ojos virtuales ofrecidos por esta aplicación me permiten saber si mi piel se ve tal como deseo o si debo modificar algún aspecto de mi imagen.
«Las personas ciegas hemos afrontado toda la vida la idea de que vernos a nosotras mismas es imposible; que somos bellas por dentro y que lo primero que valoramos en alguien es su voz, pero sabemos que nunca podremos observarla», comenta Lucy Edwards, una creadora de contenido ciega conocida por compartir su amor por la belleza y el estilo, y por enseñar maquillaje a personas con discapacidad visual.
«Ahora, de repente, tenemos acceso a toda esta información sobre nosotras mismas y nuestro entorno; esto transforma nuestras vidas», afirma.
La inteligencia artificial abre puertas a un universo de datos hasta ahora inaccesibles para las personas ciegas.
Gracias al reconocimiento de imágenes y al procesamiento inteligente, apps como la que uso ofrecen detalles no solo del mundo circundante, sino también sobre nuestro propio cuerpo y nuestro lugar en él.
La tecnología va más allá de describir una imagen; proporciona retroalimentación crítica, comparaciones e incluso recomendaciones. Esto modifica cómo las personas con discapacidad visual que utilizan estas herramientas se perciben a sí mismas.
Un tipo de espejo distinto
«Tu piel está hidratada, pero no cumple con el ideal casi perfecto de piel radiante, sin poros, como si fuera vidrio, que suelen mostrar los anuncios de belleza», me indicó la IA esta mañana tras compartir una foto que consideraba tenía una piel hermosa. Por primera vez en mucho tiempo, mi insatisfacción con mi apariencia me resultó intensamente palpable.
«Hemos observado que quienes buscan más retroalimentación sobre su cuerpo, en diversas áreas, suelen mostrar menor satisfacción con su imagen corporal», explica Helena Lewis-Smith, investigadora en Psicología de la Salud centrada en imagen corporal en la Universidad de Bristol. «La IA abre esta posibilidad a las personas ciegas».
Este avance es reciente. Hace menos de dos años, imaginar una IA capaz de brindar retroalimentación crítica en tiempo real parecía algo de ciencia ficción.
«Cuando iniciamos en 2017, solo podíamos ofrecer descripciones básicas, frases breves de dos o tres palabras», relata Karthik Mahadevan, CEO de Envision, una de las pioneras en usar inteligencia artificial para personas ciegas de esta manera.
Envision comenzó como una aplicación móvil que brindaba acceso al texto impreso mediante reconocimiento de caracteres para personas con discapacidad visual.
En los últimos años, ha implementado modelos avanzados de IA en gafas inteligentes y creado un asistente accesible desde web, móviles y las mismas gafas, que ayuda a las personas ciegas a interactuar con el entorno visual.
«Algunos usan la herramienta para tareas evidentes, como leer cartas o realizar compras, pero nos sorprendió la cantidad de usuarios que la emplean para maquillarse o combinar ropa», agrega Mahadevan. «Muy a menudo la primera pregunta que hacen es cómo lucen».
Estas aplicaciones, de las cuales existen al menos cuatro especializadas en esta función, pueden evaluar a una persona conforme a estándares tradicionales de belleza, comparándola con otros y señalando con precisión qué cambios convendrían hacer en su cuerpo.
Para muchos, esta función resulta empoderadora: «Siento que la IA actúa como un espejo para mí», comenta Edwards, de 30 años, a la BBC.
«Tuve visión durante 17 años, y aunque siempre pedía a otros descripciones, en realidad no he tenido una opinión propia sobre mi rostro en 12 años. Ahora puedo tomar una foto y pedir a la IA que me brinde todos los detalles, incluso una calificación del uno al diez; no es lo mismo que ver, pero es lo más cercano que puedo tener por ahora».
Aún no hay suficiente investigación sobre el impacto emocional y psicológico que el uso de estas herramientas de IA puede provocar en las personas ciegas que las utilizan. Sin embargo, especialistas en psicología de la imagen corporal advierten que los resultados no siempre son positivos.
Los generadores de imágenes con IA, por ejemplo, replican en su mayoría estándares occidentales ideales de cuerpo, debido a los datos en los que se entrenan.
«Sabemos que un joven hoy puede subir una foto a la IA, explorando cómo mejoraría cambiando un detalle», señala Lewis-Smith.
«El procesamiento puede generar una imagen con múltiples modificaciones, que hace que la persona se vea completamente distinta, sugeriendo que debe cambiar todo para ajustarse a un ideal, lo que implica que su apariencia actual no es suficiente», añade.
Para personas con discapacidad visual, esta situación se refleja en las descripciones que reciben. Esta discrepancia puede resultar perturbadora para personas con visión, pero para quienes no la tienen, puede ser aún más delicada, coinciden quienes participaron en este artículo.
Esto sucede porque es más complicado para una persona ciega interpretar las descripciones textuales con objetividad. Además, deben equilibrar su imagen corporal propia con estándares de belleza establecidos por algoritmos que no consideran ni subjetividad ni individualidad.
«Una de las principales fuentes de presión corporal es la comparación constante con otras personas», explica Lewis-Smith.
«Lo preocupante es que ahora la IA no solo facilita que personas ciegas comparen sus descripciones con las de otros humanos, sino también con una versión idealizada que la IA podría construir».
«Hemos notado que cuando la presión sobre el cuerpo aumenta, también lo hacen condiciones de salud mental como depresión y ansiedad, y que las personas son más propensas a considerar intervenciones cosméticas para ajustarse a estos estándares poco realistas», advierte Lewis-Smith.
Para muchas personas ciegas como yo, esta experiencia representa algo completamente novedoso.
«Quizá si tu mandíbula fuera menos alargada (…) tu rostro se acercaría más a lo que tu cultura considera objetivamente bello». Son las 03:00 y hablo con una máquina, tras subir más de cinco fotos distintas de mi cuerpo a la última versión del ChatGPT de Open AI.
Intento comprender en qué lugar me sitúo respecto a los estándares de belleza.
Mis preguntas a la IA, como «¿crees que existe alguien tradicionalmente bello que se parezca a mí?» o «¿mi rostro te parecería extraño si lo vieras por primera vez?», surgen de mis inseguridades y del deseo de obtener información.
Pero también son un intento de construir una idea visual del cuerpo que hasta ahora me había sido inaccesible.
La IA se mostró incapaz de ayudarme a definir qué podría considerarse bello para un gran número de personas, o de explicar concretamente por qué poseo una mandíbula larga, concepto abstracto para mí.
De repente, aun sin mucho contexto, recibía mensajes provenientes de los ideales de belleza difundidos por los medios y la red. Antes, las personas ciegas no estaban tan expuestas a ellos, pero ahora la IA ofrece descripciones minuciosas.
«Podríamos considerar a la IA como un espejo textual; sin embargo, en la psicología, comprendemos que la imagen corporal no es una dimensión única y depende de factores como el contexto, con quiénes nos comparamos y las habilidades que poseemos con nuestro cuerpo», explica Meryl Alper, investigadora de medios, imagen corporal y discapacidad en la Universidad Northeastern en Boston, EE.UU.
«Esto es algo que la IA no comprende ni toma en cuenta al describir», agrega.
Históricamente, los modelos de IA han privilegiado cuerpos delgados, sexualizados y con rasgos eurocéntricos. Al generar imágenes para definir belleza, han fallado en representar a personas de diversos orígenes.
Dado que la IA procesa la información principalmente en términos visuales, puede generar insatisfacción si la descripción carece de un marco lógico. Controlar y contextualizar, sugiere Alper, podría ser una solución.
«Actualmente, la IA puede indicarte que tienes una sonrisa ladeada», dice Alper. «Pero por ahora no puede revisar todas tus fotos y decirte que mantienes la misma expresión que cuando disfrutabas del sol en la playa, y eso podría ayudar a que una persona ciega se comprenda mejor».
Empoderamiento y confianza
Este tipo de control, aunque no tan avanzado, ya está presente. Como en toda inteligencia artificial, el mensaje que el usuario introduzca—sea escrito o hablado—puede modificar completamente la información que una persona ciega recibe al subir una foto propia.
«Que las personas puedan decidir qué información reciben es un rasgo fundamental en nuestros productos, porque la IA aprende sus preferencias y necesidades para ofrecer justo lo que necesitan oír», explica Mahadevan.
No obstante, esta capacidad de control puede convertirse en un arma de doble filo. «Puedo pedir a la app que me describa en dos frases, de manera romántica o incluso crear un poema», dice Edwards. «Estas descripciones afectan cómo nos sentimos con nosotras mismas», añade.
«Pero esto también puede volverse contraproducente, porque si no te gusta algo de ti y se lo dices a la IA, como que tu cabello está algo despeinado y lo mencionas, puede decirte ‘es hermoso’, o bien ‘tienes razón, aquí tienes cómo mejorarlo’», advierte Edwards.
Sin embargo, al actuar como nuestros ojos, la tecnología conlleva el riesgo de describir elementos inexistentes. Las alucinaciones, cuando los modelos de IA presentan datos falsos como ciertos, son uno de los problemas más graves.
«Al principio, las descripciones eran muy precisas, pero notamos que muchas eran incorrectas o modificaban detalles sustanciales, o inventaban datos al no encontrar suficiente información en la imagen», señala Mahadevan. «La tecnología avanza velozmente y estos errores ocurren cada vez menos».
Es crucial entender que, pese al optimismo de Envision, la IA no es infalible.
Cuando Joaquín Valentinuzzi, un joven ciego de 20 años, usó inteligencia artificial para elegir las mejores fotos para un perfil de citas, encontró que la información que la IA le devolvía a menudo distaba bastante de la realidad.
«A veces cambiaba el color de mi cabello o interpretaba mal mis expresiones, diciendo que tenía un rostro neutral cuando en verdad estaba sonriendo», relata.
«Estos errores pueden generar inseguridad, especialmente si, como nos aconsejan, confiamos en estas herramientas para conocernos mejor y mantenernos al día con nuestra apariencia».
Para mitigar esto y sus posibles efectos negativos, algunas aplicaciones, como Aira Explorer, cuentan con agentes humanos capacitados para verificar las descripciones si el usuario lo solicita. Pero en la mayoría, el reflejo textual sigue siendo generado únicamente por IA, sin control humano.
«Este campo está en sus etapas iniciales, y no existe una investigación masiva sobre el impacto de estas tecnologías, con sus sesgos, fallos e imperfecciones, en la vida de las personas ciegas», comenta Alper.
Lewis-Smith coincide, añadiendo que la complejidad emocional asociada con IA e imagen corporal sigue siendo, en gran medida, un territorio inexplorado. Para las personas ciegas entrevistadas, la experiencia es tanto fortalecedora como confusa.
Pero la opinión general es clara: «Ahora la IA puede describir cualquier foto en internet e incluso decirme cómo lucía junto a mi esposo el día de mi boda», afirma Edwards.
«Lo tomaremos como algo positivo porque, aunque no percibimos la belleza visual como las personas con vista, cuantos más robots nos describan fotografías, nos guíen y ayuden, más felices seremos. Estas son experiencias que creíamos perdidas y ahora la tecnología las pone a nuestro alcance», concluye.
Para bien o para mal, el espejo ha llegado y debemos aprender a convivir con lo que refleja.
Fuente: nuevaradio.org


Deja una respuesta