Los Investigadores escribenPolítica cyti

La inteligencia de algo artificial

Ricardo Pérez

Existe un campo de estudio con casi 90 años de vida que pretende abordar un problema nada trivial: construir algo que emule la inteligencia humana. Los esfuerzos para lograrlo se encaminan a construir ese algo o ciertas piezas que armen el complejo rompecabezas que es nuestra mente. Se podría decir que es un proceso de ingeniería inversa en el que a través del diseño de ciertos sistemas entendamos qué es la inteligencia y al final nos acerquemos al funcionamiento de la mente para responder preguntas que llevamos toda nuestra historia tratando de responder.

Cómo surgió lo que llamamos inteligencia artificial

El campo de estudio de la inteligencia artificial (IA) tiene muchas ramas que han surgido en el largo camino del desarrollo de sistemas que emulan la inteligencia humana, para resolver aspectos muy específicos. Este surgimiento no se puede ver entonces como una sucesión lineal y ordenada de temas pues en todo el mundo se han formado grupos de investigación que se han propuesto abordar el problema de la inteligencia artificial según lo que cada uno ellos considera más importante o fundamental. Actualmente hay grandes y rápidos avances en este campo, y para poder seguirlos es útil tener primero una visión general.

Hay quienes aseguran que las ciencias de la computación surgieron en 1931 cuando Kurt Gödel (matemático y filósofo nacido en lo que ahora es República Checa, 1906-1978) sentó las bases de esta disciplina con sus famosos “teoremas de incompletez” cuyas consecuencias resultan sorprendentes. Estos teoremas dicen que no se puede construir un sistema formal (matemático) que esté completo, es decir que siempre habrán cosas que no se puedan verificar.

Hay quienes aseguran que a partir de los teoremas de incompletez se puede concluir que no es posible construir una máquina capaz de hacer todo lo que la mente humana realiza, y que las computadoras tienen un sistema formal que les permite realizar una serie de operaciones de acuerdo con reglas establecidas que se pueden programar. Por esa razón cualquier modelo de la mente hecho con una computadora es un modelo mecanicista,  y en él habrán verdades que no se podrán concluir o demostrar. Por lo anterior se puede argumentar que una máquina no podría actuar por su cuenta.

Hay quienes afirman también que una máquina no podrá ser un modelo completo de la mente humana, y sólo será posible construir pedazos que emulen ciertos comportamientos de ella. Por otro lado, se afirma que para poder hacer un modelo de la mente humana con una máquina, ésta debería poder hacer inferencias de forma no deductiva (saltándose pasos lógicos) como lo hacemos los seres humanos, lo cual podría hacer posible darle la vuelta a las limitaciones que impone el teorema de Gödel.

Pocos años más tarde (1936) Alan Turing (matemático británico, 1912- 1954)  construyó  una  máquina  con  la  que  ayudó  a  comprender  las limitaciones que tiene la realización de cálculos, ya sea con máquinas analógicas o digitales, por ejemplo la máquina de Pascal para hacer operaciones aritméticas en forma mecánica mediante repeticiones. Y diez años después (1946) Konrad Zuse (ingeniero alemán, 1910-1995) desarrolló un programa conocido como Plankalkül para la computadora Z3 que él mismo había construido años atrás. Con este programa Zuse diseñó el primer juego de ajedrez por computadora, que se puede ver como uno de los primeros desarrollos de IA, debido a que el ajedrez es considerado una actividad en la que es necesario poseer inteligencia para desarrollarla (ver “¿Pueden pensar las máquinas?” en Cienciorama).

En 1950 Turing ideó una forma de probar si una máquina podía ser considerada inteligente, y por aquellos años muchos otros investigadores, principalmente estadounidenses, realizaron contribuciones. Entre ellas la propuesta en 1946 de Warren McCullog (neurólogo, 1898-1969) y Walter Pitts (lógico, 1923-1969) de simular el comportamiento de una neurona con un  sistema  lógico.  Posteriormente,  en  1958,  Frank  Rosenblatt (psicólogo, 1928-1971) propuso un dispositivo que consistía en una máquina que aprendiera por sí misma, formada por neuronas similares a las propuestas por McCullog y Pitts, al que llamó Perceptron. Otro de los sucesos determinantes para el desarrollo de la IA fue la conferencia celebrada en Dartmouth en 1956, donde Allen Nawell (matemático, 1927-1992), Herbert Simon (economista, 1916-2001) y Marvin Minsky (matemático, 1927-2016) adoptaron el término propuesto por John McCarthy (matemático, 1927-2011) para nombrar este campo como inteligencia artificial.

Desde la Conferencia de Dartmouth se comenzaron a formar grupos de investigación dedicados a construir sistemas artificiales que emularan capacidades mentales y físicas de los seres humanos, como por ejemplo mantener una conversación. De ahí surgieron varios campos de especialización entre los que destacan el uso de la IA para el manejo de grandes cantidades de información, el uso de redes neuronales para el reconocimiento de imágenes y patrones, la robótica que pretende construir robots capaces de realizar actividades humanas como caminar o comunicarse con nosotros, construir sistemas que tomen decisiones con información disponible, reconocimiento del habla y procesamiento de lenguaje que se utiliza para hacer máquinas traductoras.

Los problemas que aborda la IA

Después de la Conferencia de Dartmouth, se realizaron esfuerzos de diseñar y construir sistemas capaces de resolver problemas mediante procedimientos heurísticos. Por ejemplo, cuando deseamos solucionar algún problema, muchas veces diferenciamos la información que tenemos disponible y la que no, esquematizamos y simplificamos la situación que deseamos abordar, hacemos hipótesis o imaginamos una posible solución y la probamos. Ya en    la década de 1970 el método heurístico permitió encontrar aplicaciones para desarrollar sistemas que resolvieran problemas en campos como la medicina. Entre ellos el sistema DENDRAL que diagnosticaba enfermedades sanguíneas y el sistema MYCIN basado en el anterior, que permitía recetar a pacientes con algún padecimiento. También se desarrolló el sistema PROSPECTOR para ayudar a los geólogos en la exploración minera.

En la década de 1980 hubo otro cambio en los programas de investigación  en el campo de la IA y se priorizó el desarrollo de lenguajes de programación y la producción de sistemas de procesamiento simbólico. El procesamiento simbólico surge de suponer que la cognición se da a partir de la representación del entorno, por medio de un lenguaje que permite manipular mentalmente dicha representación, y de este modo es posible generar conocimiento acerca del mundo. Fue a partir de la necesidad de relacionar sistemas simbólicos como el lenguaje con el mundo, que se comenzó a prestar mayor atención a aspectos como el reconocimiento de patrones con el uso de redes neuronales; por ejemplo, para poder distinguir patrones como letras o números.

A finales de los 80 y principios de los 90, comenzó a surgir interés por la relación entre el cuerpo y el medioambiente para modular la inteligencia. Por esa razón se inició la exploración del uso de materiales nuevos para que los sistemas inteligentes pudieran interactuar con el entorno en tiempo real. Así fue como varios investigadores comenzaron a construir robots que emulaban a animales, conocidos como animats (ver “Quitándole lo artificial  a la Inteligencia Artificial” en Cienciorama), y hubo un acercamiento a la etología, la ciencia que estudia el comportamiento animal, y a la biología evolutiva y del desarrollo, la disciplina que estudia los procesos que se dan en el desarrollo y crecimiento de los organismos. Como ejemplo se pueden mencionar trabajos donde se inspiran en los cerebros de ratas para que un robot se pueda orientar o la construcción de robots inspirados en animales (ver “De seres vivos a cyborgs” en Cienciorama).

Una segunda corriente que tuvo lugar en la década de 1990 fue el de los sistemas multiagente, donde se estudia la interacción entre múltiples agentes, que pueden ser personas o sistemas con inteligencia artificial, para analizar cómo se organizan entre ellos y cooperan mutuamente, o bien tratar de entender cómo la interacción con los otros puede moldear la inteligencia individual. Esta vertiente desembocó en una colaboración entre diversos campos como la antropología y la sociología para incorporar la interacción social en el estudio de la IA. Lo anterior es necesario ya que se cree que la cooperación entre los seres humanos ha servido para moldear nuestra inteligencia, y los esfuerzos de la IA están encaminados a replicar la inteligencia humana.

En el nuevo siglo el desarrollo de la IA ha tenido grandes avances gracias a la inversión de grandes empresas, dado que las aplicaciones en este campo son prometedoras en diversos aspectos de nuestra vida cotidiana y  en sus ganancias económicas. Entre los nuevos desarrollos se encuentra la semiótica dinámica, que estudia el significado de los diferentes símbolos utilizados por los seres humanos para entender el mundo y comunicarse. Se estudia, por ejemplo, la forma en que los significados de los símbolos cambian en el tiempo y región, y también la capacidad de los seres humanos de construir y manejar símbolos. Esto es de gran importancia si se desea lograr que un sistema artificial logre comunicarse con nosotros del mismo modo que lo hacen las personas; por ejemplo si alguien escribe un poema, alguien más puede entender los significados que pueden tomar las palabras en sus metáforas.

La semiótica dinámica es de gran importancia porque da un giro al estudio del uso que los sistemas de inteligencia artificial hacen de los lenguajes humanos. La aportación de este enfoque radica en que los conceptos utilizados para representar el mundo se han dejado de considerar estáticos, pues es claro que no son fijos y cambian según el significado que las personas les dan, de modo que la lengua se puede considerar como un sistema adaptativo en cambio constante.

¿Para dónde va el barco?

La IA aún parece un tema sacado de la ciencia ficción, pero a diferencia    de los sus primeros años, ahora se cuenta con muchas aplicaciones que utilizamos, como los comandos de voz de nuestros teléfonos inteligentes, o también para el diagnóstico de enfermedades o en el procesamiento de grandes volúmenes de información, entre otros. Además se siguen desarrollando nuevas líneas de investigación como la robótica, con la idea de hacer robots con sensores que les permitan interactuar con el mundo (visión, tacto, reconocimiento de voz, etc.) y además que sea posible entrenarlos para que se comporten de formas previsibles.

Por otro lado, el desarrollo de sistemas colaborativos pretende posibilitar  la existencia de sistemas autónomos que puedan trabajar cooperativamente con otros y con seres humanos, con la idea de sortear las limitaciones de ambos en la resolución de problemas. Actualmente sobresale la técnica conocida como “aprendizaje profundo”, que consiste en el aprendizaje a partir de diversas formas de procesar y representar la información. Lo que tienen en común los métodos de aprendizaje profundo es el procesamiento múltiple de la información con la finalidad de obtener la mayor cantidad de conocimiento sobre algo; por ejemplo, cuando los humanos estamos ante algo desconocido tratamos de hacer representaciones que nos faciliten resolver en parte este desconocimiento; puede ser que hagamos representaciones gráficas en forma de texto, de matemática, etc., y elegimos aquellos métodos de representación que nos faciliten la tarea.

Para finalizar, es posible darse una idea de cómo se ha propagado la idea de desarrollar sistemas capaces de realizar actividades humanas, que además pueden generar diversos problemas sociales como por ejemplo utilizar robots para sustituir la mano de obra (ver “Yo robot tu desempleado,   la robotización del trabajo humano en el siglo XXI” en Cienciorama). Esta es  una realidad que ya se plantean países como China y representa un escenario económico mundial complejo que México no puede eludir. Es indispensable que nuestro país no quede fuera del desarrollo de las tecnologías derivadas de la IA, y por ejemplo podríamos tomar la apuesta que han hecho países como la India, Israel, Irlanda, China y Brasil para desarrollar su industria del software. Como dato curioso cabe mencionar que en Irlanda se realizó un gran esfuerzo institucional para encaminar a los jóvenes de preparatoria a las carreras relacionadas con las tecnologías de la información. Además, en todos los países antes mencionados se aumentó  el número de personas con estudios en este campo y se promovió la creación de empresas que desarrollaran software o dieran servicios técnicos en este rubro.

Referencias

  1. Lungarella, M., Lida, F., Bongard, J.y Pfeifer, R., 50 years of artificial intelligence. Essays dedicated to the 50th anniversary of artificial intelligence, Springer, Nueva York, 2007.
  2. Krebs, P. R,. Turing machines, computers and artificial intelligence, University of New South Wales,2002.
  3. Haugeland, J., Mind design II: philosophy, psychology, artificial intelligence, MIT press. EUA, 1997.
  4. Luker, P. A. y Rothermel, D. (1994), “The philosophy of artificial intelligence: a general studies course with particular benefits to computer science majors”, ACM SIGCSE Bulletin, 26(1), 41-45.
  5. Arora, A y Gambardella, A., From underdogs to tigers: The rise and growth of the software industry in Brazil, China, India, Ireland, and Israel, Oxford University Press on Demand, 2005.
  6. http://www.jcee.upc.edu/JCEE2002/Aldabas.pdf
  7. http://sisbib.unmsm.edu.pe/Bibvirtual/publicaciones/risi/2009_n2/v6n2/a03v6n2.pdf
  8. http://rspb.royalsocietypublishing.org/content/royprsb/279/1740/3027.full.pdf
  9. https://ai100.stanford.edu/sites/default/files/ai100report10032016fnl_singles.pdf
  10. http://dss.in.tum.de/14-research/research-projects/56-algorithmic-game-theory-and- computational-social-choice.html

Fuente. Cienciorama