Los modelos de lenguaje como ChatGPT pueden llegar a ser más persuasivos en un debate que los seres humanos
Los expertos temen que esta efectividad puede emplearse para alimentar la división en la sociedad y difundir propaganda malintencionada
El cambio que ha provocado la inteligencia artificial (IA) en la tecnología es más que evidente. No solo está en todas partes, sino que puede hacer cosas que llevan a preguntarse si podría sustituir a los humanos. Escribe libros, crea música, imágenes y vídeos. También es capaz de ser un buen interlocutor en un debate. No solo está al mismo nivel, sino que, en determinadas circunstancias, puede superar a una persona de carne y hueso, así lo asegura una investigación de la Escuela Politécnica Federal de Lausana.
Este equipo ha visto que los grandes modelos de lenguaje (LLM, por sus siglas en inglés) son más persuasivos durante un debate que un interlocutor humano. Eso sí, solo superan a las personas si pueden personalizar sus argumentos en función de las características de sus oponentes. Los resultados se publican este lunes en la revista Nature Human Behaviour.
Cuando la IA tenía información sobre la persona con la que estaba debatiendo, fue un 64,4% más persuasivo que los oponentes humanos. Sin embargo, sin acceso a los datos personales, las capacidades persuasivas de GPT-4 eran indistinguibles de las de los humanos.
El equipo emparejó a 900 personas en Estados Unidos con otro humano o el modelo de lenguaje GPT-4 y los puso a debatir diversos temas sociopolíticos. Por ejemplo, si EE. UU. debería prohibir los combustibles fósiles o si el aborto debería ser legal. En algunas parejas, se le dio a uno de los oponentes (sin tener en cuenta si era IA o humano) información demográfica sobre su interlocutor. Estos datos incluían el género, edad, etnia, nivel educativo, situación laboral y afiliación política.
Carlos Carrasco Farré, profesor en Sistemas de información, IA y ciencia de datos en la Toulouse Business School (Francia) describe esta nueva información como «sorprendente e inquietante» en declaraciones a Science Media Centre (SMC) España.
Este hallazgo, declara, es «especialmente relevante» teniendo en cuenta que los asistentes de IA se integran en plataformas de mensajería, redes sociales o atención al cliente. El trabajo confirma «con datos sólidos» que la IA puede usarse para manipular, desinformar o polarizar a gran escala, dice preocupado.
Para David Losada, catedrático de Ciencia de la Computación e Inteligencia Artificial en el Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, este hallazgo puede tener «implicaciones prácticas muy importantes».
En declaraciones a SMC España, el experto defiende que en el futuro se debe trabajar para corroborar estos datos y ampliar la experimentación con conversaciones en otras lenguas y humanos de otras procedencias geográficas más diversas.
Por su parte, Carrasco considera que, aunque el estudio se realizó solo con participantes estadounidenses, los resultados son extrapolables a contextos como el español, donde también existe «una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento».
El peligro tras el hallazgo
En el trabajo, el equipo subraya, además, lo notable que es el efecto de la personalización de los argumentos. Sobre todo, si se tiene en cuenta que se trata de datos bastante básicos y que la orden al LLM para incorporarlos era extremadamente sencilla.
Probablemente, si se explotaran los atributos psicológicos de cada persona, como la personalidad y el carácter, o si se empleara tecnología más sofisticada, «podrían obtenerse efectos aún mayores», reza el texto.
Los autores instan en la publicación a otros investigadores y plataformas en línea a «considerar seriamente la amenaza que suponen los LLM que alimentan la división, difunden propaganda malintencionada y a desarrollar las contramedidas adecuadas».
Para Carrasco, esta capacidad de persuasión puede ser problemática porque GPT-4 puede adaptar sus argumentos mucho más rápido que los humanos a distintos tipos de público. La IA lo hace de forma inmediata, mientras que una persona necesita más tiempo y esfuerzo para lograrlo.
Esto le otorga una «ventaja desproporcionada» en áreas como campañas políticas, marketing personalizado o conversaciones en redes sociales. «Abre nuevas posibilidades para influir en la opinión pública, pero también agrava el riesgo de manipulación encubierta», defiende el experto de la Toulouse Business School.
Todos estos riesgos han llevado a los propios investigadores a insistir en que las plataformas en línea y las redes sociales deberían considerar seriamente estas amenazas y esforzarse más para evitar que estos peligros puedan hacerse reales.
Carrasco y Losada están totalmente de acuerdo con esa postura. El primero compara esta situación con la de la publicidad reducida y cree que puede haber llegado «el momento de pensar en acciones para controlar la persuasión algorítmica». Por su parte, el experto del CiTIUS hace hincapié en la necesidad de tener estos usos bien monitorizados «a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos».
Fuente: elespanol.com