El aprendizaje automático no creará máquinas más inteligentes que nosotros
“Para pensar como los humanos, ya estamos los humanos”. Así de categórico y distante se muestra el neurocientífico cognitivo Raúl Arrabales, director de Inteligencia Artificial en Psicobótica, cuando le preguntamos si falta mucho para lograr robots que razonen como nosotros. Lo mismo opina Alfonso Rodríguez-Patón, director del Grupo de Inteligencia Artificial de la Universidad Politécnica de Madrid: “Hemos conseguido que las máquinas actúen como si tuviesen inteligencia resolviendo tareas complejas, pero en realidad no entienden nada. Para que un sistema ‘piense’ faltan muchos años y antes debemos hacer ingeniería inversa de nuestro cerebro para saber cómo funciona y, a partir de ahí, inspirarnos para construir esas máquinas realmente inteligentes”.
El anhelo de que un robot se exprima las neuronas igual que un organismo vivo se enmarca en la llamada Strong AI, traducida al español como Rama Dura de la Inteligencia Artificial (IA) o IA Fuerte, que sostiene que una máquina puede llegar a ser igual o más inteligente y consciente que un humano. Este futurible tuvo su máximo apogeo en los años 50 del siglo pasado, pero las expectativas se desinflaron al ver que no se conseguía nada parecido. Así se llegó a un enfoque más pragmático, el de la Weak AI o IA Aplicada, una rama débil que defiende que podemos crear aplicaciones de inteligencia artificial que sobrepasan con creces a los humanos, pero sólo en tareas específicas. Este sería el caso, por ejemplo, de Deep Blue, Watson o AlphaGo.
Según Arrabales, aunque la IA Fuerte llegue a existir dentro de muchos años, “sus capacidades no serán las mismas que las de los humanos a no ser que hablemos de algo parecido a Blade Runner, donde se construyen mezclas de personas y máquinas que ya nos sitúan en un escenario cíborg, al estilo de lo que plantea Elon Musk con su proyecto Neuralink”. Sin embargo, la IA Aplicada sí está avanzando en los últimos años y no sólo se están consiguiendo máquinas que realizan tareas de forma autónoma, sino que además estamos cerca de lograr que hagan este trabajo específico de manera agradable y ajustada a las emociones de los humanos con los que interaccionan.
Cómo aprende una máquina
Para lograr esa empatía y esa capacidad para adaptarse a los cambios de su entorno, es necesario entrenar a los robots mediante un conjunto de técnicas conocidas como Machine Learning, cuya traducción idónea es “aprendizaje automático”, que a su vez puede ser supervisado y no supervisado. Ambas modalidades dependen de datos recabados a través de sensores que después son utilizados para realizar una determina acción. “Pero entre la recogida de datos y las acciones realizadas se sitúan, entre otros muchos procesos, los mecanismos de aprendizaje”, señala Arrabales. Por ejemplo, una máquina puede aprender que mostrar un determinado producto a un usuario concreto en una tienda online es bueno porque ese usuario acaba comprándolo. En este caso, ese robot se basa en algoritmos de aprendizaje automático supervisado que usan premios y sanciones para ajustar el comportamiento y realizar acciones cada vez más inteligentes. “Gracias al refuerzo a través de recompensas y castigos, hay algoritmos que han aprendido a jugar mejor que los humanos a un determinado juego y de manera similar se está entrenando a los coches autónomos para resolver situaciones no programadas a priori”, comenta Rodríguez-Patón.
Por lo que respecta a los algoritmos de aprendizaje automático no supervisados, descubren patrones “ocultos” en los datos, es decir, regularidades entre lo que en principio parece un universo caótico de datos, para sacar conclusiones, como por ejemplo clasificar los distintos tipos de clientes que tiene un banco.
Según apunta Arrabales, la principal ventaja del Machine Learning es que el robot se ajusta por sí mismo a los cambios del entorno, sin intervención del programador. Es decir, se codifican una única vez las reglas de aprendizaje y a partir de ahí el sistema se va adaptando de forma automática en función de los datos de entrada que recibe, en vez de tener que reprogramarlo a mano cada vez que dejan de servir las reglas fijas preprogramadas.
En todo este entramado, durante los últimos años ha cobrado protagonismo el Deep Learning, una subdisciplina del Machine Learning cuya particularidad reside en que utiliza unas técnicas de aprendizaje más parecidas a las de los sistemas biológicos. Así, con este método el procesamiento de los datos se lleva a cabo en diferentes etapas “ocultas o profundas” con el fin de ir descubriendo relaciones jerárquicas en las características de los estímulos percibidos. Estas técnicas se usan para procesar datos muy complejos y desestructurados como las imágenes, los vídeos y el lenguaje natural. Por ejemplo, el Deep Learning se emplea para que un móvil identifique objetos concretos en imágenes, para lo cual los algoritmos han de aprender primero a distinguir dichos objetos mediante la exposición a millones de ejemplos diferentes ya etiquetados.
¿Redes neuronales en un móvil?
Muchos de los avances más prometedores en inteligencia artificial de los últimos años se debe al uso de técnicas de Deep Learning y, en concreto, a algoritmos basados en Redes Neuronales Profundas (Deep Neural Networks). Precisamente, el nuevo Huawei Mate 10 integra el chipset Kirin 970, una unidad de procesamiento neuronal (NPU) embebida en el propio procesador de este smartphone. Según Arrabales, este tipo de redes de neuronas artificiales requieren de arquitecturas computacionales específicas para poder aprovechar su potencial. En otras palabras, no es factible ejecutar redes de este tipo en microprocesadores convencionales, así que contar en el terminal con un chipset que incluya arquitecturas de procesamiento neuronal “cambia las reglas del juego” y permite que el móvil tenga unas capacidades que antes eran impensables. Por ejemplo, al equipar un móvil con una NPU ya podemos pensar en tener visión artificial en tiempo real en la palma de la mano o que nuestro teléfono sepa identificar objetos y personas en las imágenes. Asimismo, contaremos con una capacidad mucho más avanzada de procesamiento del lenguaje oral y escrito.
En definitiva, nos encaminamos hacia terminales que podrán aprender mucho más del entorno que les rodea, contarán con “sentidos” y una percepción visual y auditiva más parecida a la humana, lo que les hará comportarse de forma mucho más inteligente, pero siempre aplicada a las necesidades concretas del usuario.
Fuente: El País