Política cyti

Las limitaciones de la Inteligencia Artificial

El asunto de la la inteligencia artificial es algo que, desde los años cincuenta del pasado siglo, aparece súbitamente de vez en cuando y luego entra en crisis.

Cada vez resurge o resucita envuelta o basada en un nuevo paradigma. Ahora es el caso de las redes neuronales de aprendizaje profundo que corren en computadores convencionales.

El modelo actual fue propuesto ya en los años ochenta del pasado siglo, pero entonces se carecía de suficiente poder de procesamiento. Ahora se han efectuado algunas mejoras, como la introducción aleatoriedad. A veces incluso se fuerza a dos redes a competir entre sí o a aprender una de la otra.

Estas redes consisten en varias capas de “neuronas” interconectadas entre sí. El estímulo externo se introduce en la primera capa en donde es procesada y la salida pasa a la segunda y así sucesivamente. A mas capas, más profundidad y mejor comportamiento, pero se exige mayor poder computacional. Estas neuronas pueden tener varios estados y sus conexiones con otras se pueden ver reforzadas o debilitadas en función de cierto aprendizaje.

Son entrenadas con estímulos específicos y producen ciertas salidas. Cuando la salida es correcta se refuerza ese comportamiento y al contrario si es incorrecta. Al final del periodo de entrenamiento la red neuronal debe de haber aprendido a realizar una tarea, como el reconocimiento de ciertas formas, una tarea que es casi imposible de realizar por programas convencionales. Pero funciona como una caja negra, no se sabe qué ocurre dentro, simplemente funcionan.

No están libre de pegas, pues, entre otras cosas, presentan problemas de sobreaprendizaje. En algún momento hay que dejar que la red deje de aprender o terminará haciendo mal su trabajo. La red neuronal de aprendizaje profundo se proporciona ya aprendida y no se suele dejar abierta para que siga aprendiendo. El ejemplo paradigmático es el de la conducción de vehículos. Si dejamos que aprenda, y el conductor habitual es un mal conductor o toma demasiados riesgos, al final la red neuronal le copiará creyendo que esa es la manera adecuada de conducir y terminará conduciendo igual de mal que su dueño. Y es que las redes neuronales no tienen criterio propio, no comprender o entienden. Como uno de los comentaristas de esta misma web dijo una vez, la IA significa a veces “Idiotez Ampliada”.

Pero hay que reconocer que la IA actual hace cosas muy bien. Un ejemplo es que estas redes juegan muy bien al go o al ajedrez, superando a los maestros. Los juegos son un buen campo de experimentación para empezar a usar cualquier IA, porque tienen reglas limitadas y pocos grados de libertad, por eso se suelen emplear. Otro ejemplo es el de la conducción de vehículos, que no lo hacen del todo mal. También encuentran exoplanetas entre los datos de tránsitos sobre estrellas. Quizás el mayor logro en la actualidad sea la predicción del plegamiento de proteínas a partir de la secuencia de aminoácidos. El sistema de IA de Alphabet Inc (la empresa que Google creó para evitar pleitos por monopolio) es en la actualidad imbatible en esta tarea del plegamiento de proteínas frente a otros programas, pero no acierta, ni mucho menos, siempre.

Ahora, un equipo de investigadores de UCLA ha publicado los resultados de las pruebas a las que han sometido a algunas de estas redes de aprendizaje profundo. La idea era testar los límites de estos sistemas. Los resultados no son nada halagüeños con estas IA y los investigadores sostienen que aún necesitan muchos años de desarrollo para que sean realmente eficientes. Skynet se hará esperar.

Las pruebas realizadas en cinco tipos de experimentos consistían en la identificación de objetos, pero en lugar de presentar los objetos tal cual, se camuflaban un poco. Así, por ejemplo, se presentaba una tetera con los hoyos de una pelota de golf, unos calcetines con forma de elefante o un camello con rayas de cebra. Estas tareas de reconocimiento pueden ser realizadas por cualquier humano sin problemas.

La red de aprendizaje profundo que usaron primero fue VGG-19, una de las mejores de visión artificial capaz de reconocer objetos y animales a partir de imágenes en color de ellos. VGG-19 sólo pudo reconocer bien los objetos presentados en 5 ocasiones de entre 40. Es decir, fracasó estrepitosamente.

“Las máquinas tenían severas limitaciones que necesitamos comprender”, dice Philip Kellman. Añade que están diciendo que hay que esperar y que no hay que ir tan rápidos en esto de la implantación de los sistemas de IA.

“Podemos engañar a estos sistemas de una manera muy fácil. Estos mecanismos de aprendizaje son mucho menos sofisticados que la mente humana”, añade Hongjing Lu, otro miembro del equipo de investigadores.

Para el caso del elefante el porcentaje de aciertos fue del 0%, mientras que para la tetera fue del 0,41%, pues su primera propuesta casi siempre era de que se trataba de una pelota de golf. El sistema de aprendizaje se veía engañado por la textura de la imágenes y no fijaba en la forma global, mientras que para la mente humana lo más importate es la forma, no los detalles.

En otro experimento mostraron figuras de cristal tanto a VGG-19, como a otra red neuronal denominada AlexNet y bajo el mismos sistema de aprendizaje y base de datos de imágenes. Ambas lo hicieron bastante mal.

En un tercer experimento se mostraba a ambos sistemas dibujos de imágenes en forma de contorno en negro sobre fondo blanco. La idea era ver lo buenos que eran a la hora de reconocer formas y no texturas. Los resultados también fueron desastrosos para ambos sistemas. No lograban distinguir una mariposa, un avión o un plátano.

En el cuarto experimento se mostró 40 imágenes a reconocer como siluetas en negro sobre fondo blanco. En este caso tuvieron más éxito, con un 50% de aciertos. Pero el éxito para cada caso en particular dependía de la red neuronal usada. Una tenía más éxito que la otra en varios casos, pero no había una ganadora global. Creen que este “éxito” relativo se debe a que las redes funcionan mejor cuando no hay “contornos internos”, bordes de la imagen observada que les confunden.

En el quinto experimento los investigadores alteraron las imágenes normales para formar un mosaico aleatorio y así hacer que fuera más difícil su reconocimiento, pero no tanto como para que fueran irreconocibles por humanos, primando así la textura. En este caso VGG-19 reconoció 5 de 6, por lo que se puede decir que en este caso sí tuvo éxito.

Además, para poder comparar los resultados obtenidos, los investigadores tomaron imágenes en silueta negras y se las mostraron a estudiantes voluntarios durante un segundo. Las reconocieron en un 92% de las ocasiones. Cuando esas misma imágenes se alteraban en forma de mosaico, entonces acertaban en un 23% de las ocasiones. Cuando se les daba más tiempo los porcentajes subían a un 97% y un 37% respectivamente.

Los humanos ven los objetos de forma completa, mientras que las IA sólo identifican fragmentos de esos objetos, no ven su forma completa.

Según afirman los investigadores, sus conclusiones se aplican de igual manera a otras redes de aprendizaje profundo.

No deja de ser curioso que este tipo de resultados resulten obvios para cualquier filósofo. Aunque es verdad que en este caso se usa el método científico.

Otros investigadores van más allá y afirman que la cuestión del aprendizaje en el que un algoritmo es capaz de extraer, o no, un patrón de un conjunto de datos limitado está ligada a una paradoja lógica que Kurt Gödel expuso en los años treinta del pasado siglo: la hipótesis del continuo. Esta hipótesis fue propuesta en su día por Cantor, pero permaneció sin resolver hasta la llegada de Gödel.

Según Gödel, el que haya o no infinitos conjuntos transfinitos entre el conjunto de los números naturales y el conjunto de los números reales es una cuestión indecidible al caer dentro del teorema de indecibilidad que el propio Gödel enunció. Simplemente no se puede decir si eso es falso o verdadero. Se elige un caso de ellos y se tiene una matemática distinta. Básicamente existen dos universos matemáticos paralelos correctos. Uno en el que la la hipótesis del continuo es correcta y otro en la que no.

Esto es generalizable para cualquier otra afirmación indecidible (hay muchas), por lo que hay muchos de estos “universos” matemáticos, todos ellos correctos y autoconsistentes. Los teoremas de incompletitud de Gödel supusieron el fin del sueño de Hilbert de una Matemática (¿platónica?) perfecta y constituyen uno de los mayores logros intelectuales del siglo XX. Siempre habrá enunciados que no se podrá demostrar si son verdaderos o falsos. Se pueden incorporar como axiomas (verdaderos) a uno de esos universos, lo que, a su vez, hará que aparezcan otras afirmaciones indecibles dentro de esos universos y así por siempre. Este resultado es algo que a algunos nos asombró sobre manera, cuando lo leímos hace ya más de 35 años.

Esta indecibilidad tiene también implicaciones en ciencias de la computación. Ya en su día, Alan Turing demostró que para determinadas clases de preguntas, como si un algoritmo se detendrá o no, no se puede garantizar que se alcance una respuesta en un número finito de pasos.

Los investigadores que se encontraron con este resultado de indecibilidad de la hipótesis del continuo aplicado al aprendizaje se muestran sorprendidos, pues no esperaban que este tipo de fenómeno apareciera en un problema supuestamente simple y lejano como un sistema de aprendizaje. Pero, obviamente, tiene implicaciones fundacionales tanto en Matemáticas como en Inteligencia Artificial. Básicamente impone un límite al conocimiento (otra vez).

Amir Yehudayoff (Instituto Tecnológico Israelí en Haifa) y su colaboradores llegaron a este resultado cuando estudiaban el aprendizaje y la compresión de datos, lo que les llevó la Teoría de Conjuntos y finalmente a la hipótesis del continuo. En este caso, el resultado no se aplica directamente a redes neuronales de aprendizaje profundo, sino que el aprendizaje que definen es más general y abstracto.

El resultado está construido sobre un sistema muy simple en el que un algoritmo tiene que responder con un sí o con un no a la pregunta de si una determinada imagen mostrada, dentro de un conjunto limitado de posibles objetos, corresponde a un gato, por ejemplo.

En su artículo muestran que si la hipótesis del continuo es cierta, entonces una muestra pequeña es suficiente para hacer una extrapolación. Pero si es falsa, ninguna muestra finita es suficientemente grande. De este modo, llegan a demostrar que el problema del aprendizaje (definido de una determinada manera) es equivalente a la hipótesis antes mencionada y, por tanto, el problema del aprendizaje está también en un estado tal que puede ser resuelto sólo mediante la elección de un universo axiomático concreto.

Fuente: laflecha.net