Google Research presentó en NeurIPS 2025 un enfoque que busca que los modelos aprendan y retengan información con una lógica más parecida al cerebro humano
La investigación en inteligencia artificial (IA) avanza rápido, pero uno de los desafíos más complejos sigue vigente: lograr que los modelos aprendan de manera continua sin perder conocimientos previos. En ese escenario, Google Research presentó Nested Learning, una propuesta que se inspira en el funcionamiento de la memoria humana y que podría cambiar el diseño de los modelos actuales.
El anuncio se realizó en la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025), donde la compañía explicó que su objetivo es acercar el aprendizaje automático a la flexibilidad de la neurobiología. La apuesta nace de una limitación conocida entre desarrolladores e investigadores: los modelos actuales no incorporan nueva información de forma sostenida y quedan “fijos” en lo aprendido durante el preentrenamiento.
Para Google Research, este comportamiento se parece a la amnesia anterógrada, donde la persona no puede generar nuevos recuerdos duraderos. Algo similar ocurre con los modelos que sólo dependen de su ventana de contexto y de los parámetros ya almacenados.
Una arquitectura que mira hacia las ondas cerebrales
El equipo de investigadores integrado por Ali Behrouz, Meisam Razaviyayn, Peiling Zhong y Vahab Mirrokni creó Nested Learning con la idea de replicar la forma en que el cerebro organiza la memoria. En los seres humanos, la consolidación se produce en dos etapas: una fase rápida que estabiliza recuerdos recientes y otra etapa offline, vinculada al sueño, donde distintas frecuencias de ondas cerebrales refuerzan la información.
Los modelos actuales no tienen un mecanismo equivalente y, por eso, no logran sostener aprendizajes de largo plazo. Nested Learning propone una estructura que divide el procesamiento en distintos niveles, cada uno con su propia frecuencia de actualización. Ese diseño permite que el modelo procese información con diferentes grados de detalle y la almacene sin reemplazar datos previos.
Google Research describe esta arquitectura como un sistema de problemas de optimización anidados. En ellos, los optimizadores y las redes neuronales funcionan como memorias asociativas que comprimen y retienen datos relevantes.
HOPE, la prueba del nuevo paradigma
Para demostrar la utilidad del enfoque, Google desarrolló HOPE, un módulo que combina el aprendizaje anidado con una memoria continua.
Los resultados presentados en NeurIPS mostraron una reducción de la confusión y un aumento en las tasas de acierto en tareas de razonamiento. Para la comunidad científica, esto representa una señal de que la IA puede avanzar hacia sistemas más adaptativos.
Nested Learning también apunta a aplicaciones futuras en visión por computadora, robótica y procesamiento del lenguaje, donde la capacidad de aprender sin reiniciar el modelo es clave.
Un paso hacia modelos más flexibles y expresivos
Google Research sostiene que este nuevo paradigma permite que la IA incorpore información a diferentes escalas temporales, con un proceso más parecido al cerebro. La propuesta abre la puerta a modelos que no sólo procesen datos, sino que también consoliden conocimientos a lo largo del tiempo.
Fuente: lagaceta.com.ar


Deja una respuesta