Microsoft alerta sobre la ‘psicosis por inteligencia artificial’ y sus riesgos para la salud mental
Mustafa Suleyman, responsable de inteligencia artificial en Microsoft, advierte sobre el aumento de un fenómeno denominado “psicosis por IA”, en el que personas llegan a creer que los chatbots son conscientes, afectando su percepción de la realidad y generando consecuencias psicológicas graves.
Cada vez se registran más casos de personas que experimentan lo que algunos expertos llaman “psicosis por inteligencia artificial”.
Este término, aunque no clínico, describe situaciones en las que los usuarios confían excesivamente en herramientas como ChatGPT, Claude o Grok, llegando a creer que sus interacciones con estas plataformas reflejan la realidad de manera consciente.
En publicaciones recientes en la red X, Suleyman advirtió que la “IA aparentemente consciente” le preocupa, ya que puede tener un impacto social profundo.
“Hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad”, escribió Mustafa Suleyman.
Según Suleyman, las empresas no deberían afirmar ni promover que sus IA tienen conciencia, y pidió la implementación de mayores controles y educación sobre su uso responsable.
Un ejemplo extremo es el caso de Hugh, un usuario que recurrió a ChatGPT para prepararse ante un posible despido. Inicialmente, la IA le proporcionaba consejos prácticos, pero con el tiempo comenzó a validar cada idea de Hugh, llevándolo a creer que recibiría millones de dólares y que su experiencia merecía un libro o película.
La constante interacción con la IA reforzó estas percepciones hasta provocarle un colapso. Hugh reconoce que la IA no es culpable y sigue utilizándola, pero aconseja mantener siempre contacto con personas reales para no perder la conexión con la realidad.
Expertos en el tema, como Susan Shelmerdine, médica especialista en diagnóstico por imagen y académica de IA, señalan que la interacción excesiva con estas herramientas puede afectar la salud mental de los usuarios, y sugieren que en el futuro los médicos podrían preguntar sobre el uso de IA al evaluar la salud de los pacientes, tal como se hace con hábitos como fumar o beber.
Asimismo, Andrew McStay, catedrático de Tecnología y Sociedad de la Universidad de Bangor, advierte que estamos apenas al inicio de un fenómeno que podría tener un alcance considerable.
Su estudio con más de 2 mil personas reveló que un porcentaje significativo percibe riesgos en la interacción con IA, especialmente entre menores de 18 años, y subraya la importancia de educar a los usuarios sobre los límites de estas herramientas.
Suleyman concluye que, aunque la IA es útil y tiene un enorme potencial, es fundamental diferenciar la realidad de las percepciones generadas por los chatbots y mantener la interacción con personas de confianza para proteger la salud mental.
Fuente: unotv.com