Google plantea un revolucionario motor de búsqueda que responde como un humano

La compañía plantea un enfoque totalmente diferente para gestionar las consultas web que desterraría a su omnipresente algoritmo de indexación. En lugar de eso, utilizaría un gran modelo de lenguaje como GPT-3 para contestar a las preguntas directamente a partir de distintas fuentes de información

En 1998, un par de estudiantes graduados de la Universidad de Stanford (EE. UU.) publicaron un artículo que describía un nuevo tipo de motor de búsqueda: “En este artículo, presentamos Google, un prototipo de motor de búsqueda a gran escala que hace un uso intensivo de la estructura presente en el hipertexto. Google está diseñado para rastrear y clasificar la web de manera eficiente y producir resultados de búsqueda mucho más satisfactorios que los sistemas existentes”.

La innovación clave fue su algoritmo denominado PageRank, que clasificaba los resultados de búsqueda en función de su relevancia para la consulta del usuario. Este cálculo se llevaba a cabo mediante la base de sus enlaces a otras páginas de la web. Gracias a PageRank, Google se convirtió en la puerta de entrada a internet, y Sergey Brin y Larry Page construyeron una de las empresas más grandes del mundo.

En la actualidad, un equipo de investigadores de Google ha publicado una propuesta para un rediseño radical que sustituye el enfoque de clasificación por un único gran modelo de lenguaje de inteligencia artificial (IA), como BERT o GPT-3, o una versión futura de alguno de ellos. La idea consiste en que, en vez de buscar información en una amplia lista de páginas web, los usuarios hagan preguntas y dispongan de un modelo de lenguaje entrenado en esas páginas que las responda directamente. Ese enfoque podría cambiar no solo el funcionamiento de los motores de búsqueda, sino también lo que hacen y cómo interactuamos con ellos.

Rediseñar PageRank
Los motores de búsqueda se han vuelto más rápidos y precisos, aunque la web ha crecido enormemente. La IA se utiliza para clasificar los resultados, y Google usa BERT para comprender mejor las consultas de búsqueda. Sin embargo, debajo de estos ajustes, todos los motores de búsqueda convencionales todavía funcionan de la misma manera que hace 20 años: páginas web clasificadas por rastreadores (software que revisa la web sin parar y mantiene una lista de todo lo que encuentra) y resultados que coinciden con la consulta del usuario que se recogen de este índice y se clasifican.

“Este modelo de índice y clasificación ha resistido la prueba del tiempo y rara vez ha sido desafiado o replanteado seriamente”, escriben el investigador de Google Research Donald Metzler y sus colegas.

El problema consiste en que incluso los mejores motores de búsqueda actuales todavía responden con una lista de documentos que incluyen la información solicitada, pero no con la información en sí. Los motores de búsqueda tampoco son buenos para responder a consultas que requieren respuestas extraídas de múltiples fuentes. Es como si le pidiera consejo a su médico y recibiera una lista de artículos para leer en vez de una respuesta directa.

Metzler y sus colegas quieren un motor de búsqueda que se comporte como un experto humano. Debe generar respuestas en lenguaje natural, sintetizadas a partir de más de un documento, y respaldar sus respuestas con referencias a documentos justificativos, como pretenden hacer los artículos de Wikipedia.

Los grandes modelos de lenguaje recorren una gran parte de ese camino. GPT-3, por ejemplo, entrenado en casi toda la web y cientos de libros en inglés, extrae información de múltiples fuentes para responder a preguntas en lenguaje natural. El problema es que no realiza un seguimiento de esas fuentes y no puede proporcionar evidencia para sus respuestas. No hay forma de saber si GPT-3 está repitiendo información fiable o desinformación, o simplemente suelta tonterías de su propia creación.

Metzler y sus colegas se refieren a los modelos del lenguaje como diletantes: “Se percibe que saben mucho, pero su conocimiento es superficial”. La solución, afirman, es construir y entrenar futuros BERT y GPT-3 para guardar registros de sus fuentes de información. Ningún modelo de este tipo es capaz todavía de hacer esto, pero en principio sería posible, y hay algunos trabajos iniciales en esa dirección.

Según el investigador de recuperación de información en la web de la Universidad de Sheffield (Reino Unido) Ziqi Zhang, ha habido décadas de progreso en diferentes áreas de búsqueda, desde responder a las consultas hasta resumir documentos y estructurar la información. Pero ninguna de estas tecnologías revisaba la búsqueda, porque cada una abordaba problemas específicos y no es generalizable. La estimulante premisa de este artículo es que los grandes modelos de lenguaje podrían hacer todas estas cosas al mismo tiempo, resalta Zhang.

Sin embargo, Zhang señala que los modelos de lenguaje no funcionan bien con temas técnicos o especializados porque hay menos ejemplos en el texto en el que se entrenan. “Probablemente hay cientos de veces más datos sobre comercio electrónico que sobre mecánica cuántica”, asegura. Los actuales modelos lingüísticos también están más inclinados hacia el inglés, lo que dejaría desatendidas las partes de la web que no están en esa lengua.

A la especialista en lenguaje natural de la Universidad de Washington (EE. UU.) Hanna Hajishirzi le gusta bastante este nuevo enfoque, pero advierte que tendría problemas en la práctica. La experta señala: “Creo que los grandes modelos de lenguaje son muy importantes y tienen el potencial de convertirse en el futuro de los motores de búsqueda, pero requieren una gran memoria y recursos computacionales. No creo que sustituyan a la indexación”.

Aun así, Zhang aprecia la idea. Y concluye: “Esto no era posible en el pasado, porque los grandes modelos de lenguaje han aparecido recientemente. Si llega a funcionar, transformaría nuestra experiencia de búsqueda”.

Fuente: technologyreview.es