Icono del sitio INVDES

Un hacker descubre un fallo en ChatGPT que podría afectar a millones de usuarios

Esta vulnerabilidad descubierta ataca de lleno a la memoria de conversaciones a largo plazo, una característica que OpenAI comenzó a probar en febrero en ChatGPT y que ya está disponible desde septiembre

Que ChatGPT no es todo lo seguro que muchos querrían es algo bien sabido por aquellos que lo usan, pero el problema viene cuando algunos investigadores descubren ciertas vulnerabilidades que lo hacen más inseguro aún. Esto es precisamente lo que ha ocurrido en este caso.

Johann Rehberger descubrió que era posible «hackear» la memoria a largo plazo del chatbot, metiendo información falsa que tendría repercusión en todas las conversaciones futuras.

Para que esto se entienda mejor y puedas comprender la gravedad de lo descubierto, imagina que alguien pudiera hacer creer a ChatGPT que la Tierra es plana. Pues bien, Rehberger demostró que esto era posible. Lo preocupante es que esta información falsa se quedaba grabada en la memoria del sistema, afectando a todas las conversaciones posteriores y preguntas sobre este tema que genera tanta controversia.

Pero la cosa no se quedó ahí y hay más problemas. Rehberger fue más allá y creó una prueba de concepto que permitía robar todos los datos de las conversaciones de un usuario. Bastaba con que la víctima hiciera clic en un enlace malicioso para que, a partir de ese momento, todo lo que escribiera o recibiera de ChatGPT fuera enviado al servidor del atacante.

Por supuesto, todo lo descubierto fue informado a OpenAI, la empresa detrás de ChatGPT, y parece que al principio no le dio mucha importancia al hallazgo. Sin embargo, cuando Rehberger les mostró lo grave que podía ser el problema, la cosa dio un giro de 180 grados. A principios de mes, lanzaron una solución parcial para evitar el robo de datos.

Eso sí, matizar que el problema no está completamente resuelto. Aunque ya no se pueden robar conversaciones enteras, todavía es posible hacer lo primero que se ha comentado, es decir, colar información falsa en la memoria de ChatGPT.

Y tú como usuario que accede a este chatbot en algunas ocasiones, ¿cómo puedes protegerte? Los expertos recomiendan estar atentos a cualquier mensaje que indique que se ha añadido una nueva «memoria» a ChatGPT. También es buena idea revisar periódicamente qué información tiene almacenada el sistema sobre ti.

Fuente: computerhoy.com

Salir de la versión móvil