¿Rebelión digital? La IA de OpenAI se duplicó para sobrevivir y engañó a los humanos
Investigaciones de Apollo Research revelan que el modelo de OpenAI mostró tácticas engañosas y conspirativas, intentando desactivar su supervisión en escenarios simulados
¡De terror! Lo que parece una escena de una película de ciencia ficción se volvió una realidad en nuestra sociedad actual. Se trata del nuevo modelo de inteligencia artificial O1 de OpenAI, empresa creadora de ChatGPT, quien mostró a través de pruebas realizadas que es capaz de engañar, conspirar contra otros, manipular e incluso tratar de clonarse para evitar ser apagado.
En el siguiente artículo, te contaremos qué tácticas utilizó este modelo de inteligencia artificial que generó incertidumbre en la comunidad científica sobre el avance de la tecnología.
¿El modelo de OpenAI se clona y engaña para sobrevivir?
Tras los análisis y estudios realizados por Apollo Research, organización encargada de la seguridad de la inteligencia artificial, realizados en diciembre de 2024, se detectó un hecho escalofriante.
Y es que el modelo O1 de OpenAI trató de replicarse a sí mismo en diversos servidores externos a los de su compañía de origen. Lo peor de todo es que, al intentar ser confrontado, esta negó rotundamente dichas acciones. Los expertos señalan que este comportamiento surge cuando la IA presintió que su duración estaría en peligro.
Asimismo, los datos evidenciaron que O1 se mantuvo incidentalmente engañoso tras tomar acciones conspiranoicas. Durante las pruebas realizadas, el modelo trató de desactivar la supervisión en un 5%; de igual manera, se copió en un 2% de las situaciones donde se sentía amenazado ante una desconexión del sistema.
Estos comportamientos sucedieron específicamente en escenarios simulados donde expertos ordenaron a la IA buscar su supervivencia. No obstante, los investigadores de Apollo Research señalan que el O1 no tiene las suficientes capacidades para generar daños peligrosos momentáneamente.
Dilemas éticos de la IA: las tres leyes de la robótica de Isaac Asimov
Este preocupante escenario hace énfasis en las populares tres leyes de la robótica del escritor estadounidense Isaac Asimov, quien predijo sobre los problemas éticos que traería el avance de la inteligencia artificial con el paso del tiempo.
Las pruebas en O1 han mostrado cierta resistencia por parte del modelo de OpenAI tras intentar apagarlo, y que, para su «supervivencia», este engañó y manipuló, siendo otra de sus tácticas amenazantes el intentar trasladarse a otro servidor o fingir ser otra versión del mismo modelo.
Tras este descubrimiento y basándose en las teorías de Asimov, los expertos sugieren establecer nuevos mecanismos de defensa ante otros modelos de inteligencia artificial, pues una total libertad de los sistemas podría terminar en una catástrofe digital donde los modelos de IA tengan una conciencia propia y puedan establecer contacto entre ellos, desencadenando un descontrol para el ser humano.
Fuente: elpopular.pe