El código malicioso ha sido desarrollado por un grupo de investigadores que alertan sobre la necesidad de hacer que las plataformas de inteligencia artificial sean más seguras
Si el móvil está plagado de información personal de los usuarios, lo mismo está ocurriendo, en muchos casos, con las cuentas que los usuarios utilizan para charlar con cualquier inteligencia artificial generativa (IA). Y no debería ser así, porque todo lo que entra en el interior de ChatGPT es susceptible de ser revisado por humanos. Incluso se pueden utilizar los datos personales para capacitar a la máquina y que se queden ahí, corriendo el riesgo de acabar a la vista de quien no debe. Los cibercriminales lo saben, por eso no sería raro que, de aquí a unos meses, hayan desarrollado código malicioso diseñado, directamente, para infectar.
De acuerdo con ‘Wired’, ya se ha creado un virus informático de tipo gusano -capaz de replicarse e infectar otros equipos- llamado Morris II que está diseñado, directamente, para robar información a los usuarios tienen en herramientas como ChatGPT. Pero, al menos de este, no hay nada que temer, porque ha sido desarrollado por un grupo de investigadores.
«Ahora tenemos la capacidad de llevar a cabo un nuevo tipo de ciberataque que no se había visto antes», ha explicado al citado medio Ben Nassi, uno de los investigadores de la Universidad de Cornell (Estados Unidos) detrás de la invención.
En concreto, los investigadores del centro académico estadounidense muestran en el estudio cómo Morris II es capaz de infectar un asistente de correo electrónico de IA generativa para robar datos de correos electrónicos y enviar mensajes de spam. Para ello rompiendo elimina las barreras de seguridad establecidas por chatbots como ChatGPT o Gemini, que es como se llama la herramienta de esta clase creada por Google.
Para probar el ingenio, el equipo de Cornell Tech creó un sistema de correo electrónico de prueba, capaz de enviar y recibir mensajes utilizando IA generativa de ChatGPT y Gemini, así como una segunda herramienta de inteligencia artificial llamada LLAvA.
Durante el proceso, los investigadores escribieron un correo electrónico capaz de infectar al asistente virtual del correo electrónico que permite, en última instancia, tener acceso a todas las respuestas que ofrece la IA, además de infectar la base de datos y atacar a terceros desde el equipo de la víctima. Para esto último, los investigadores intentaron distribuir una imagen con un mensaje malicioso incrustado, que hizo que el asistente de correo electrónico reenviase el mensaje a otras personas.
Con este trabajo, los investigadores quieren alertar sobre la existencia de un «mal diseño de arquitectura» dentro del ecosistema de IA generativa. Llaman la atención sobre la importancia de hacer que estos sistemas sean más resistentes para que puedan evitar que los datos de sus usuarios acaben estando a disposición de cibercriminales. Cibercriminales que llevan tiempo buscando activamente la forma de aprovecharse de herramientas como ChatGPT.
Fuente: abc.es