Cicese advierte sobre riesgos y beneficios de la IA
Depende de los humanos utilizarla ética y responsablemente, analizaron investigadores
Se ha popularizado una variedad de herramientas de Inteligencia Artificial Generativa que generan datos y crean contenido autónomos en tiempo real a partir de la instrucción humana y cada vez se vuelven más accesibles para la sociedad en general, por ello, investigadores del Cicese advirtieron sobre los beneficios y riesgos de este tipo de tecnología.
La Organización para la Cooperación y el Desarrollo Económicos define a la Inteligencia Artificial (IA) como sistemas basados en máquinas que pueden realizar predicciones, hacer recomendaciones o tomar decisiones que influyen en entornos reales o virtuales.
La División de Física Aplicada organizó el panel sobre el uso de la Inteligencia Artificial Generativa en el quehacer científico, con la participación de José Antonio García Macías y Edgar Chávez González, investigadores del Departamento de Ciencias de la Computación de este centro; Isabel López Hurtado, posdoctorante en psicología educativa visitante en el Cicese e Isabel Pérez Montfort, traductora y editora de textos científicos adscrita al Centro de Nanociencias y Nanotecnología de la UNAM.
Resistirse a las tecnologías es inútil
Los panelistas coincidieron que resistirse al uso de estas tecnologías es inútil; hay que reconocer los beneficios y potencialidades que el uso de la inteligencia artificial generativa puede tener en la academia, pero también los riesgos de daño y prejuicio por lo cual hay que actualizar códigos de ética e incidir en el análisis y el pensamiento crítico que orienten sus usos creativos.
«Entre los riesgos está la privacidad de datos, los sesgos, la equidad en el acceso a estas tecnologías y el plagio, entre otros. El chat GPT trabaja con base en probabilidades y ahora el problema más grande es el de la imputación», señaló Edgar Chávez González quien recordó la historia de un abogado estadounidense que utilizó ChatGPT sin contrastar la respuesta.
Durante el proceso judicial se reveló que la respuesta proporcionada por ChatGPT no estaba respaldada por la jurisprudencia actualizada, no reflejaba la interpretación jurídica vigente y por lo tanto la fundamentación carecía de base y no fue aceptada por el tribunal.
Grupos multidisciplinarios de trabajo
“Las instituciones deben formar grupos multidisciplinarios de trabajo, especialistas en ciencias computacionales, educación, filosofía, humanidades, para crear guías que orienten y normen el uso de la inteligencia artificial”, recomendó José Antonio García Macías.
Isabel López Hurtado coincidió al destacar que estas tecnologías representan un apoyo importante, pero hay que tener precaución, no sobre confiar en éstas.
“Siempre hay que tener un juicio crítico, las nuevas tecnologías representan una extensión de nuestros aprendizajes y una oportunidad para saber más”, consideró.
Fuente: elimparcial.com