El objetivo con el que nació esta compañía fue asegurar que la inteligencia artificial sea segura y beneficiosa para toda la humanidad
No engaña a nadie; el sistema de «inteligencia artificial» de moda -bautizado como ChatGPT y desarrollado por la compañía estadounidense OpenAI- es capaz de explicar de una forma sencilla un ejercicio de computación cuántica y de llegar a conversar y hasta empatizar con el usuario, pero no sabe quién ha ganado el último Mundial de fútbol.
Y no engaña a nadie porque el propio sistema reconoce cuáles son sus limitaciones y hasta que puede generar información incorrecta, contenidos completamente sesgados y dañinos y que tiene un conocimiento muy limitado de todo lo que ha ocurrido en el mundo después de 2021.
No sabe quién ha ganado el Mundial de Catar, ni el tiempo que va a hacer hoy, ni quién ha ganado este año el Nobel de la Paz; pero sí quién lo ganó en 2009 y todos los argumentos que esgrimió el jurado para concedérselo aquel año a Barack Obama ; es capaz de ofrecer sugerencias realmente creativas para hacer un regalo; y de «conversar» con un usuario que le ha confesado que no se siente bien y de ofrecerle consejos para revertir esa situación.
¿Qué lo hace entonces diferente de otros sistemas de inteligencia artificial y de los ya populares asistentes virtuales? Josep Curto, experto en «inteligencia artificial» y minería de datos (big data) apunta entre sus principales fortalezas la capacidad de interactuar de una forma amigable y de mantener una conversación; «esa es la mejor manera de generar confianza entre los humanos y las máquinas».
Y ese fue precisamente el objetivo con el que nació esta compañía fundada por el multimillonario Elon Musk -después se desvinculó- y hoy respaldada por el gigante tecnológico Microsoft: asegurar que la inteligencia artificial sea segura y beneficiosa para toda la humanidad.
Coherencia y corrección gramatical
Autor de varios libros sobe esta temática y director del Máster de Inteligencia de Negocio y Big Data Analytics de la Universitat Oberta de Catalunya (UOC), Josep Curto cuestiona el propio concepto de «inteligencia artificial» porque a su juicio no existe; «sí los sistemas de aprendizaje automático (machine learning), muy sofisticados en su arquitectura e infraestructura, pero no realmente inteligentes».
Cita en ese punto el más sofisticado y evolucionado de los navegadores para guiar a un conductor y la capacidad que tiene de procesar muchísima información para trazar la mejor trayectoria y llevar a una persona a un punto y la utilidad de una herramienta de estas características, pero también que la decisión, ante una calle repentinamente cortada o un atasco, dependerá finalmente de la persona y de su inteligencia (humana).
En declaraciones a EFE, Josep Curto valora la capacidad de estos sistemas de hacer resúmenes, de hilvanar conversaciones, de redactar textos -y la coherencia y corrección gramatical con que lo hace ChatGPT-, de procesar en segundos millones de datos y hasta de crear partituras que después se transforman en música, pero está convencido de que no va a sustituir a los buscadores más populares y de que faltan muchos años para que las máquinas sustituyan de verdad a las personas.
Se ha viralizado y popularizado tanto el nuevo sistema que distribuye la compañía estadounidense OpenAI y el número de suscriptores de ese chat y usuarios que quieren serlo es tan elevado, que el propio sistema «falla» a menudo, se «cae» y es incapaz de absorber tanta demanda, ha observado el profesor de la UOC, y ha subrayado además que de momento es gratuito, aunque tiene detrás una infraestructura muy costosa y sofisticada «y en algún momento dirán que hay que monetizar».
«Este servicio siempre ha sido y siempre será gratuito», responde el chat de moda al ser preguntado por las previsiones que tiene la empresa de «monetizar» este servicio, pero al repetir la pregunta en términos muy similares contesta: «no puedo predecir cuándo el servicio dejará de ser gratis».
Sí se explaya dando un sinfín de consejos cuando el usuario le ha confesado que se siente mal y le ofrece «muchas formas de ayuda y sugerencias para que te sientas mejor», o sobre sus posibilidades de escribir un artículo periodístico, o sobre sus diferencias respecto a otros sistemas de inteligencia artificial.
El propio ChatGPT reconoce que cada sistema está diseñado para realizar tareas específicas, que la inteligencia artificial está en constante evolución y hay muchos avances y desarrollos en curso, y que «él» ha sido creado como un modelo de lenguaje para procesar y responder a preguntas y solicitudes de información de una manera «fluida y natural» porque su conocimiento se basa en un conjunto de fuentes muy amplio, que incluye millones de páginas web o de libros.
Y añade además, y ése es factor diferencial que lo hace «empático» y que lo humaniza: «espero haber sido de ayuda; si tienes alguna otra pregunta, no dudes en preguntar».
Los sesgos, siempre presentes
Para el profesor e investigador de la UOC Josep Curto, director de la empresa AthenaCore -que ayuda a organizaciones y empresas a adoptar la inteligencia artificial y la minería de datos- y fundador de la Asociación Española de Inteligencia Artificial Responsable, este, como otros sistemas, «dista mucho de ser el asistente virtual perfecto», pero es que a su juicio todos, -las empresas, los desarrolladores y los medios de comunicación- «estamos siendo muy exagerados con la inteligencia artificial».
Y pone el foco en la relevancia que tienen en este campo los sesgos (de género, de raza o de clase) que incorporan muchos de estos sistemas y que en muchas ocasiones se crean de una forma involuntaria y en la importancia y relevancia de detectarlos y eliminarlos.
«Porque un sistema basado en la inteligencia artificial puede interpretar tus gustos y recomendarte una película que no te guste; eso es irrelevante. Pero también puede decidir a quién concede un crédito, a quién envía a prisión, o diferenciar privilegios entre las personas; eso es relevante».
Fuente: heraldo.es