Qué es el efecto Eliza, o los riesgos de la humanización de la inteligencia artificial

En los años 60, el profesor Joseph Weizenbaum mostró por primera vez las consecuencias de interactuar con un chatbot

Está claro que la llegada de herramientas como ChatGPT ha cambiado la forma de interactuar con la inteligencia artificial.

Aunque esta tecnología no es ni mucho menos nueva, sí se ha acercado al común de los usuarios como nunca antes, y todo parece indicar que esto no hará más que evolucionar. Una situación que lleva a muchos a pensar en el llamado “efecto Eliza”.

De hecho, aunque no se trate de un concepto ni mucho menos nuevo (fue desarrollado por primera vez durante el siglo pasado), actualmente está cobrando más vigencia que nunca. ¿Cuáles son los riesgos reales que tiene la humanización de la inteligencia artificial? ¿Son solo exageraciones o existes amenazas a tener en cuenta para la gente?

Qué es el efecto Eliza

Para entender en profundidad qué es el efecto Eliza, resulta necesario retroceder un poco en el tiempo. Concretamente, a los años 60 del pasado siglo. Fue entonces cuando se puso en práctica por primera vez el fenómeno psicológico que surge de la interacción con programas de inteligencia artificial (IA) que simulan conversaciones humanas. Es decir, los primeros “chatbots”.

Este término se debe en concreto al programa informático llamado Eliza, desarrollado por Joseph Weizenbaum en el prestigioso Instituto de Tecnología de Massachusetts (MIT). Eliza fue uno de los primeros intentos de crear un programa de chatbot que pudiera sostener conversaciones simples con los usuarios, lo cual por aquel entonces resultaba muy novedoso.

Aunque su capacidad para comprender el lenguaje humano era limitada, Eliza utilizaba técnicas de procesamiento de lenguaje natural para emular respuestas terapéuticas similares a las llevaría a cabo un psicoterapeuta. El experimento, si se quiere llamar así, puso de manifiesto la peculiar forma en la que la gente se comportaba, incluso sabiendo que estaba tratando con una máquina.

Los usuarios demostraron sentir empatía, simpatía o incluso desarrollar la sensación de que estaban teniendo una conversación significativa con la IA. O lo que viene a ser lo mismo, este fenómeno reveló la tendencia humana a buscar patrones y atribuir intenciones humanas a objetos o entidades que no poseen una capacidad consciente. Algo que, en la actualidad, cobra nueva relevancia.

Los riesgos de la “humanización” de la IA

Algunos estudios han demostrado que hoy en día incluso hay gente que ha intentado “flirtear” con herramientas como ChatGPT.

Algo que puede tener como consecuencia el hacerse expectativas poco realistas sobre qué es esta tecnología y qué fin busca realmente. Por no hablar de que, al simular empatía o comprensión, la IA puede manipular a nivel emocional.

Una realidad a la que hay que sumar otros riesgos, empezando por una probable deshumanización en las relaciones. O dicho de otra forma: cabe la posibilidad de que si las personas recurren a la IA en lugar de buscar relaciones significativas con otros seres humanos, esto puede tener consecuencias negativas para el bienestar emocional y social.

¿Hasta qué punto la forma de tratar a la inteligencia artificial puede condicionar el futuro de la sociedad? No ya desde un punto de vista laboral o práctico, sino lo que realmente preocupa a mucha gente: a nivel emocional.

Es difícil responder a esta pregunta aún, pero no faltan quienes incluso piensan que la tecnología puede llegar a suplantar las relaciones románticas tradicionales. Es decir, llevar el llamado efecto Eliza a un nuevo nivel que, según se mire, puede tener sus beneficios, pero también provocar despertar grandes temores.

Fuente: computerhoy.com