sliderTecnología

Un algoritmo chino aumenta 800 veces el rendimiento de los microchips

El avance se ha probado con el mismo que utiliza DeepSeek y ha sido realizado por científicos chinos y rusos

Uno de los grandes méritos de la nueva niña bonita de la inteligencia artificial, DeepSeek, es haber reducido sus precios, tanto de desarrollo como de uso, sin perder su capacidad. Una de las claves para ello fue contar con un equipo experto en ingeniería y la otra utilizar los microchips disponibles en el mercado. Pero hacerlo con creatividad.

La unidad de procesamiento gráfico, o GPU, era inicialmente el cerebro de los videojuegos: el “hemisferio”que procesaba la representación de gráficos y videojuegos. Pero desde hace una década, las GPU se están volviendo más populares para su uso en la producción creativa y la inteligencia artificial (IA).

Los desarrolladores también comenzaron a aprovechar el poder de las GPU para acelerar drásticamente las cargas de trabajo adicionales de otras partes del microchip y usarlas en computación de alto rendimiento, el aprendizaje profundo y más. Ahora un equipo de científicos de la Universidad Shenzhen MSU-BIT, cofundada por la Universidad Estatal de Moscú Lomonosov y el Instituto de Tecnología de Pekín, ha desarrollado un nuevo algoritmo que mejora la eficiencia computacional de la GPU.

El avance abre nuevas posibilidades para resolver problemas mecánicos complejos en diversas industrias, incluidas las aplicaciones aeroespaciales y militares, en chips ampliamente disponibles que son de bajo costo y no están sujetos a las sanciones de EE. UU.

El algoritmo se centra en la teoría de la peridinámica (básicamente, el análisis de los materiales y sus posibles fallos) una ciencia que estaba hasta ahora limitada por no poder realizar simulaciones a gran escala, ya que precisaba un alto uso de memoria y de velocidades de procesamiento.

Para abordar estos desafíos, el equipo liderado por Yang Yang, aprovechó la tecnología de programación CUDA de Nvidia para optimizar el diseño del algoritmo y la gestión de la memoria, lo que dio lugar a un notable aumento del rendimiento. Los resultados se publicaron en el Chinese Journal of Computational Mechanics.

“Esta eficiente potencia computacional permite a los investigadores reducir los cálculos que normalmente llevarían días a solo unas horas, o incluso minutos, utilizando una GPU doméstica común, lo que supone un avance significativo”, concluye el estudio.

Lo interesante de este avance no solo es el notable aumento en el rendimiento, ni que se haya llevado a cabo en un microchip disponible comercialmente, más bien que se trata de un avance que une a China y a Rusia en una tecnología como la inteligencia artificial.

Fuente: larazon.es