¿Por qué los humanos somos tan susceptibles a ser engañados por la IA? La ciencia lo explica
Exploramos cómo funciona la inteligencia artificial para engañar a nuestra mente y qué mecanismos psicológicos entran en juego
Imaginemos que un día, durante una videoconferencia de trabajo, tu jefe te pide que transfieras una gran suma de dinero a un nuevo socio. Aunque este pedido parece extraño, confiás en la imagen y el tono familiar en la pantalla. Más tarde, descubrís la verdad: tu jefe nunca estuvo ahí. La figura era solo una imitación perfecta generada por inteligencia artificial.
Este caso, lejos de ser ficción, ocurrió realmente en Hong Kong y encendió las alarmas sobre el impacto de estas tecnologías en nuestra capacidad para distinguir entre lo real y lo artificial. Pero más allá de los riesgos, la situación plantea una pregunta interesante: ¿qué hace que los humanos seamos tan propensos a creer que hablamos con una persona cuando, en realidad, interactuamos con un programa? Esto es lo que dice la ciencia.
¿Por qué nos engañan tan fácil?
La sensación de estar hablando con una persona cuando interactuamos con un chatbot no es casualidad; es el resultado de una ingeniería sofisticada diseñada para imitar nuestro lenguaje y comportamiento. Programas como ChatGPT se entrenan con una enorme cantidad de texto, lo que le permite aprender patrones y estilos de conversación.
Pero acá hay algo de psicología también. Los humanos tenemos una tendencia natural a atribuir características humanas a objetos y entidades no humanas, como a un bosque o a los animales, por ejemplo. Esto se conoce como el efecto antropomórfico. Al ver que un bot puede mantener una conversación coherente y fluida, es fácil creer que detrás hay una mente pensante, que además tiene intención y emociones.
A lo largo de la historia, cuando los humanos entablamos una interacción con algo, tendemos a suponer que nuestra pareja tiene una mente con características similares a las nuestras.
La pregunta ahora es: ¿por qué creemos que estas máquinas piensan, sienten y comprenden?
Lenguaje y pensamiento
Un reciente artículo científico del Laboratorio de Idiomas de la Universidad de Australia Occidental, señala que los humanos incrementamos el efecto antropomórfico porque estamos confundiendo dos conceptos fundamentales: el lenguaje y el pensamiento.
Saber usar el lenguaje (hablar o escribir) no significa necesariamente tener pensamientos complejos. La IA es muy buena en lo primero, pero no en lo segundo. Lo que hacen es simular patrones lingüísticos basados en reglas y estadísticas, pueden generar oraciones gramaticalmente correctas y utilizar un vocabulario amplio. Sin embargo, son incapaces de utilizar el lenguaje de manera apropiada en diferentes contextos sociales y culturales
Pensemos en una conversación entre dos personas: Amigo: Estoy enloqueciendo por mi presentación de mañana. Respuesta humana: ¡No te preocupes! ¿Querés que te ayude a repasar? Respuesta de un chatbot: El estrés activa la respuesta de lucha o huida del cuerpo, aumentando la frecuencia cardíaca y los niveles de cortisol.
Aunque la respuesta del chatbot es correcta desde un punto de vista biológico, no responde a la necesidad emocional de apoyo de su interlocutor. Esto demuestra que, aunque los sistemas generativos pueden producir expresiones lingüísticas coherentes y similares a las que cualquier persona usaría, aún estamos lejos de crear máquinas que puedan pensar como los humanos.
Reglas de conversación que nos atraen
Otra de las claves para entender por qué los chatbots parecen tan humanos radica en su habilidad para imitar las rutinas conversacionales. Estas rutinas, que varían entre culturas, nos son familiares y están regidas por principios universales descritos por el filósofo del lenguaje Paul Grice en 1975:
- Calidad: ser veraz y no dar información falsa o infundada.
- Cantidad: brindar la cantidad justa de información, ni más ni menos.
- Relevancia: aportar datos relacionados con el tema de conversación.
- Estilo: ser claro, conciso y evitar la ambigüedad.
Asumimos que toda comunicación significativa sigue ciertas reglas, y damos por hecho que quien interactúa con nosotros también las respeta.
Por ejemplo, mentir funciona porque confiamos en que nuestro interlocutor dice la verdad. Del mismo modo, si alguien dice algo aparentemente irrelevante, intentamos encontrarle sentido, asumiendo que tiene un propósito.
Los chatbots destacan en cantidad y relevancia, ofreciendo respuestas claras y bien estructuradas. Sin embargo, su talón de Aquiles es la calidad: suelen “alucinar”, generando respuestas que, aunque convincentes, carecen de fundamento o evidencia. Paradójicamente, esta debilidad es compensada por nuestra propia naturaleza. Nuestra tendencia innata a buscar sentido y cooperar en la conversación, arraigada desde la infancia, nos lleva a aceptar y conectar incluso con respuestas que no siempre son veraces.
Fuente: meteored.com.ar