Ahora hay robots que pueden simular humanidad: llegan a mentir
El ChatGPT y el DALL-E son dispositivos que sorprenden al interactuar con las personas. Hasta juegan on line
Para Claes de Graaff, Franz Broseph era como cualquier otro jugador de Diplomacy, el tradicional juego de mesa del que John F. Kennedy y Henry Kissinger eran adeptos, que combina la estrategia militar con la intriga política al recrear la Primera Guerra Mundial: los jugadores negocian con aliados, enemigos y todos los demás mientras planean cómo se moverán sus ejércitos por la Europa del siglo XX.
Cuando Franz Broseph se unió a un torneo online de 20 jugadores a fines de agosto del año pasado, sedujo a otros competidores, mintiéndoles y finalmente traicionándolos. Terminó en el primer lugar.
De Graaff, químico residente en Holanda, acabó quinto. Llevaba casi 10 años jugando al Diplomacy, tanto online como en torneos presenciales por todo el mundo. No se dio cuenta hasta varias semanas después de que había perdido contra una máquina. Franz Broseph era un bot.
“Me quedé atónito”, dice de Graaff, de 36 años. “Parecía tan auténtico, tan real. Podía leer mis mensajes, conversar conmigo y hacer planes beneficiosos para ambas partes que nos permitieran avanzar. También me mintió y me traicionó, como hacen a menudo los mejores jugadores.”
Construido por un equipo de investigadores en Inteligencia Artificial (IA) del gigante tecnológico Meta, el Instituto Tecnológico de Massachusetts y otras destacadas universidades, Franz Broseph forma parte de la nueva oleada de chatbots online que están llevando rápidamente a las máquinas a un nuevo territorio. Cuando uno chatea con estos bots, puede sentirse como si estuviera conversando con otra persona. En otras palabras, parece que las máquinas han superado una prueba de inteligencia.
Cuando uno chatea con estos bots, siente como si estuviera conversando con otra persona.
Durante más de 70 años, los informáticos han luchado por construir una tecnología que pudiera superar la prueba de Turing: el punto de inflexión tecnológico en el que los humanos ya no estamos seguros de si estamos conversando con una máquina o con una persona.
La prueba debe su nombre a Alan Turing, el famoso matemático, filósofo y descifrador de códigos británico, que la propuso en 1950. Creía que podría mostrar al mundo cuándo las máquinas alcanzarían por fin la verdadera inteligencia. El test de Turing es una medida subjetiva. Depende de si las personas que hacen las preguntas se sienten convencidas de que están hablando con otra persona cuando en realidad están hablando con un dispositivo.
Pero sean quienes sean los que formulan las preguntas, las máquinas pronto dejarán esta prueba en el pasado. Bots como Franz Broseph ya han superado la prueba en situaciones concretas, como negociar jugadas del Diplomacy o llamar a un restaurante para reservar mesa.
ChatGPT, un bot lanzado en noviembre por OpenAI, un laboratorio de San Francisco, deja a la gente con la sensación de estar chateando con otra persona, no con un bot. El laboratorio afirma que más de un millón de personas lo han utilizado.
Como ChatGPT puede escribir casi cualquier cosa, incluidos los trabajos de fin de curso, las universidades temen que se burle del trabajo en clase. Cuando algunas personas hablan con estos bots, incluso los describen como sensibles o conscientes, creyendo que las máquinas han desarrollado de algún modo una conciencia del mundo que los rodea.
Cuando algunas personas hablan con estos bots, incluso los describen como sensibles o conscientes.
En privado, OpenAI construyó un sistema, GPT-4, que es aún más potente que ChatGPT. Incluso puede generar imágenes además de palabras. Pero estos robots no son sensibles. No son conscientes. No son inteligentes, al menos como lo son los humanos.
Estos robots son bastante buenos en ciertos tipos de conversación, pero no pueden responder a lo inesperado tan bien como la mayoría de los humanos. A veces dicen tonterías y no pueden corregir sus errores. Aunque pueden igualar o incluso superar el rendimiento humano en algunos aspectos, no pueden hacerlo en otros. Al igual que otros sistemas similares, tienden a complementar a los trabajadores calificados más que a sustituirlos.
Parte del problema es que cuando un robot imita una conversación, puede parecer más inteligente de lo que realmente es. Cuando vemos un destello de comportamiento humano en una mascota o una máquina, tendemos a suponer que también se comporta como nosotros en otros aspectos, incluso cuando no es así. El test de Turing no tiene en cuenta que los humanos somos crédulos por naturaleza, que las palabras pueden engañarnos tan fácilmente haciéndonos creer algo que no es cierto.
“Estos sistemas pueden hacer muchas cosas útiles”, afirma Ilya Sutskever, científico jefe de OpenAI y uno de los investigadores de IA más importantes de la última década, refiriéndose a la nueva ola de chatbots. “Por otro lado, aún no están ahí. La gente cree que pueden hacer cosas que no pueden.”
A medida que las últimas tecnologías emergen de los laboratorios de investigación, ahora es obvio –si no lo era antes– que los científicos deben replantearse y remodelar su forma de seguir el progreso de la inteligencia artificial. El test de Turing no está a la altura.
El juego de la imitación
En 1950, Alan Turing publicó un artículo titulado Computing Machinery and Intelligence (Computadoras e Inteligencia). Quince años después de que sus ideas ayudaran a crear las primeras computadoras del planeta, propuso una forma de determinar si estas nuevas máquinas podían pensar.
Chatgopt es un sistema matemático inspirado en la red de neuronas del cerebro.
En aquella época, el mundo científico se esforzaba por comprender qué era una computadora. ¿Era un cerebro digital? ¿O era otra cosa?
Turing planteó una manera de responder a esta pregunta. Lo llamó el “juego de la imitación”. Consistía en dos conversaciones largas: una con una máquina y otra con un ser humano. Ambas conversaciones se llevarían a cabo a través de un chat de texto, de modo que la persona al otro lado no sabría inmediatamente con cuál estaba hablando. Si no podía distinguir entre los dos interlocutores a medida que avanzaba en las conversaciones, entonces se diría con razón que la máquina sabía pensar.
Cuando Turing propuso la prueba, las computadoras no podían chatear. Los científicos se comunicaban con estas máquinas del tamaño de una habitación introduciendo instrucciones matemáticas y textuales en tubos de vacío a través de máquinas de escribir, cintas magnéticas y tarjetas perforadas.
Pero a medida que pasaban los años y los investigadores creaban un nuevo campo al que llamaban Inteligencia Artificial –un esfuerzo concertado para construir máquinas que pudieran pensar al nivel de un ser humano–, muchos sostenían que el juego de imitación era el objetivo final.
“La gente no creaba sistemas para un diálogo fluido. Era demasiado difícil”, afirma Stuart Shieber, informático de Harvard especializado en lingüística computacional, incluido el test de Turing. “Pero era una aspiración.” A mediados de la década de 1960, las máquinas ya podían chatear a pequeña escala. E incluso entonces, engañaban a la gente haciéndole creer que eran más inteligentes de lo que realmente eran.
Ya en los ’60, las máquinas engañaban a la gente haciéndole creer que eran más inteligentes de lo que realmente eran.
Un investigador del MIT, Joseph Weizenbaum, construyó un psicoterapeuta automatizado llamado Eliza, que hacía poco más que repetir lo que decía un usuario en forma de pregunta. Pero algunos trataron a este bot como si fuera un terapeuta humano, descargando sus secretos y sentimientos.
Durante las décadas siguientes, los chatbots mejoraron a paso de tortuga. Lo mejor que podían hacer los investigadores era establecer una larga lista de reglas que definieran cómo debía comportarse un bot. Y por muchas reglas que escribieran, no eran suficientes. El alcance del lenguaje natural era grande.
Los nuevo bots ChatGPT es lo que los investigadores llaman una red neuronal, un sistema matemático inspirado en la red de neuronas del cerebro. Es la misma tecnología que traduce entre inglés y español en servicios como Google Translate e identifica a los peatones cuando los coches autónomos circulan por las calles de las ciudades.
Una red neuronal aprende habilidades analizando datos. Por ejemplo, al identificar patrones en miles de fotos de señales de stop, puede aprender a reconocer una señal de stop.
Hace cinco años, Google, OpenAI y otros laboratorios de IA empezaron a diseñar redes neuronales que analizaban enormes cantidades de texto digital, incluidos libros, noticias, artículos de Wikipedia y registros de chat en línea. Los investigadores los llaman “grandes modelos lingüísticos”. Al detectar miles de millones de patrones distintos en la forma en que la gente relaciona palabras, letras y símbolos, estos sistemas aprendieron a generar su propio texto.
Los robots cambiarán el mundo. Los investigadores saben cómo dotar a estos sistemas con habilidades.
Pueden crear tuits, blogs, poemas e incluso programas informáticos. Pueden mantener una conversación, al menos hasta cierto punto.
Y mientras lo hacen, pueden combinar a la perfección conceptos lejanos. Puedes pedirles que reescriban Rapsodia Bohemia, de Queen, para que trate de la vida de un investigador académico postdoctoral, y lo harán.
Seis meses antes de lanzar su chatbot, OpenAI presentó una herramienta llamada DALL-E. Un guiño tanto a WALL-E, la película de animación de 2008 sobre un robot autónomo, como a Salvador Dalí, el pintor surrealista, esta tecnología experimental permite crear imágenes digitales simplemente describiendo lo que se quiere ver.
DALL-E permite crear imágenes digitales simplemente describiendo lo que se quiere ver.
Se trata también de una red neuronal, construida de forma muy parecida a Franz Broseph o ChatGPT. La diferencia es que aprende tanto de imágenes como de texto. Analizando millones de imágenes digitales y los pies de foto que las describían, aprendió a reconocer los vínculos entre imágenes y palabras.
Es lo que se conoce como sistema multimodal. Google, OpenAI y otras organizaciones ya utilizan métodos similares para crear sistemas capaces de generar videos de personas y objetos. Las startups están construyendo bots que pueden navegar por aplicaciones de software y sitios web en nombre de un usuario.
Ciertamente, estos robots cambiarán el mundo. Pero le toca a usted desconfiar de lo que estos sistemas dicen y hacen, editar lo que le dan, abordar todo lo que ve online con escepticismo. Los investigadores saben cómo dotar a estos sistemas de una amplia gama de habilidades, pero aún no saben cómo darles razón o sentido común o sentido de la verdad. Eso aún depende de usted.
Fuente: clarin.com