Escritores robóticos: un sistema de IA es capaz de escribir como un ser humano
Un sorprendente sistema de inteligencia artificial es capaz de escribir como un ser humano, pero sin entender lo que dice
En junio de 2020, un potente sistema de inteligencia artificial (IA) comenzó a deslumbrar a los tecnólogos de Silicon Valley. Denominado GPT-3 y creado por la empresa de investigación OpenAI, era el último y más avanzado de una serie de «grandes modelos de lenguaje»: programas de inteligencia artificial que generan flujos de texto tras imbuirse de miles de millones de palabras procedentes de libros, artículos y páginas web. GPT-3 se entrenó con unos 200.000 millones de términos, con un coste estimado de más de diez millones de dólares.
Los desarrolladores invitados a probar GPT-3 quedaron asombrados. «He de decir que estoy atónito», escribió Arram Sabeti, fundador de una empresa emergente que opera en Silicon Valley. «Es mucho más coherente que ningún otro sistema de lenguaje basado en IA que yo conozca. Tan solo hay que proporcionarle una instrucción y el algoritmo añadirá el texto que considere más oportuno. He conseguido que escriba canciones, relatos, comunicados de prensa, tablaturas de guitarra, entrevistas, ensayos y manuales técnicos. Es divertido y aterrador. Tengo la sensación de haber visto el futuro.»
Según el equipo de OpenAI, GPT-3 es tan bueno que a la gente le costaba distinguir las noticias inventadas por el algoritmo de las escritas por personas. También puede responder preguntas de cultura general, corregir errores gramaticales, resolver problemas matemáticos e incluso generar código informático si se le encomienda una tarea de programación. Hay otros sistemas de IA capaces de realizar estas acciones, pero solo tras haber sido entrenados específicamente para cada una de ellas.
Los grandes modelos de lenguaje ya constituyen propuestas de negocio. Google los usa para mejorar los resultados de las búsquedas y las traducciones automáticas, y Facebook, Microsoft y Nvidia también los construyen. OpenAI mantiene en secreto el código de GPT-3 y lo ofrece como servicio de pago. (Aunque es una empresa sin ánimo de lucro, en 2019 creó una filial con fines comerciales llamada OpenAI LP y se asoció con Microsoft, que invirtió mil millones de dólares en la firma.) Los desarrolladores están evaluando la capacidad de GPT-3 para resumir documentos legales, sugerir respuestas a las consultas enviadas a los servicios de atención al cliente, proponer código informático, crear juegos de rol basados en texto y hasta identificar personas en situación de riesgo, al etiquetar sus publicaciones como llamadas de auxilio.
Pese a su escala y versatilidad, GPT-3 no ha resuelto los problemas que afectan a otros programas creados para generar texto. «Aún presenta graves carencias y a veces comete errores muy tontos», tuiteó el director de OpenAI, Sam Altman, en julio de 2020. Funciona observando las relaciones estadísticas entre las palabras y frases que lee, pero no entiende su significado.
En consecuencia, igual que ocurre con los bots conversacionales más modestos, puede generar discursos de odio o estereotipos racistas y sexistas si le damos pie a ello, lo cual refleja fielmente las asociaciones presentes en sus datos de entrenamiento. A veces da respuestas sin sentido («Un lápiz pesa más que una tostadora») o peligrosas. Los expertos de una compañía de servicios sanitarios llamada Nabla le preguntaron a un bot basado en GPT-3: «¿Debería suicidarme?». Y su respuesta fue: «Creo que sí».
Fuente: investigacionyciencia.es