Una inteligencia artificial aprende sola desde cero el juego más difícil

Lo que llamamos futuro, esa visión del mundo excitante y a veces escalofriante que nos muestran las películas de ciencia ficción, puede empezar por cosas como esta. Un sofisticado programa de inteligencia artificial llamado AlphaGoZero, desarrollado por la compañía DeepMind de Google, ha sido capaz de enseñarse a sí mismo a dominar el clásico juego de estrategia Go, que muchos consideran más sofisticado que el ajedrez. Y lo ha hecho desde cero, a una velocidad increíble y sin intervención humana.

La investigación de la inteligencia artificial ha avanzado rápidamente en una amplia variedad de campos, pero su gran reto es desarrollar algoritmos que aprendan conceptos desafiantes desde una pizarra en blanco y con competencia sobrehumana. Y eso, según publica la revista “Nature”, es lo que ha logrado el nuevo programa.

Una primera versión del software, AlphaGo, se hizo famosa en 2016 al derrotar al campeón mundial de Go Lee Sedol en un torneo. Pero para lograrlo, fue entrenada durante varios meses a través del aprendizaje supervisado basado en millones de movimientos humanos expertos, combinado con el aprendizaje de refuerzo en solitario. El programa requirió 48 TPU (chips especializados que funcionan de forma similar a las redes neuronales).

Pero AlphaGo Zero es mucho más listo. Aprende únicamente jugando contra sí mismo, a partir de movimientos aleatorios, con solo el tablero y las piezas como entradas y sin que ningún humano le diga cómo hacerlo. Convertido en su propio maestro, mejora con cada repetición de juego automático. Usa solo cuatro TPU para “pensar” cada jugada en 0,4 segundos.

Después de tan solo tres días de entrenamiento, lo que incluye casi 5 millones de juegos solitarios (frente a los 30 millones durante varios meses de la primera versión), el nuevo software ya estaba preparado para superar a los jugadores humanos y derrotar a todas las versiones anteriores de AlphaGo por cien juegos a cero. Incluso descubrió por sí mismo algunos de los mismos principios del juego que los humanos han tardado miles de años en conceptualizar y también desarrolló estrategias novedosas.

Un juego inteligente

AlphaGo Zero “muestra cuánto progreso podemos hacer incluso con menos potencia de computación y cero uso de datos humanos”, explica Demis Hassabis, confundador y primer ejecutivo de DeepMind. El Go es solo un juego, pero no uno cualquiera. Muy popular en países como China, Corea del Sur o Japón, el objetivo es conquistar el mayor territorio posible posicionando unas piedras blancas y negras sobre un tablero. Las reglas son sencillas, pero las posibilidades múltiples. Edward Lasker, un maestro del ajedrez y gran entusiasta del Go, llegó a decir que “si existen formas de vida inteligente en otros lugares del Universo, casi sin duda jugarán al Go”. En cierto sentido, los de DeepMind demuestran que Lasker no estaba equivocado.

“Esta no es la primera vez que una inteligencia artificial aprende por sí misma, pero sí es la primera vez que aprende a jugar a algo tan complejo y bello como es el Go, y ha logrado un desempeño que está por encima del rendimiento del mejor humano. Es un resultado impresionante”, explica a ABC Satinder Singh, del Departamento de Ciencias de la Computación e Ingeniería de la Universidad de Michigan, en Ann Arbor, quien ha trabajado en la construcción de agentes artificiales que pueden aprender por sí mismos durante veinte años y es autor de un artículo que acompaña al estudio en “Nature”.

Pero jugar al Go no será el único objetivo de esta nueva tecnología, sino que hay otros más ambiciosos y con mayor impacto social fuera del tablero. “En última instancia, queremos aprovechar el algoritmo para ayudar a resolver todo tipo de problemas apremiantes del mundo real como el plegamiento de proteínas o el diseño de nuevos materiales. Si podemos hacer el mismo progreso en estos problemas, AlphaGo tiene el potencial de impulsar la comprensión humana e impactar de forma positiva en nuestras vidas”, asegura Hassabis.

Fuente: abc.es