sliderTecnología

La IA no debe ser considerada mejor que el ser humano: academicos UNAM

La inteligencia artificial (IA) es una herramienta que potencia, como toda tecnología, las capacidades humanas, por lo que no debe ser considerada mejor que el humano, sino un medio para hacer las cosas mejor y más rápido comentó el académico del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM, Luis Alberto Pineda Cortés.

Al participar en la primera sesión de la Onceava edición del Foro 20.20, de Fundación UNAM (FUNAM), recordó cuando en 1997 la máquina Deep Blue venció al ajedrecista Garry Kasparov algunos consideraron este hecho como una derrota para el humano, pero el resultado a largo plazo fue que “democratizó” el ajedrez y a que hoy en día los mejores del mundo practiquen sus estrategias de juego con simuladores artificiales.

El líder del proyecto Golem de la UNAM también rememoró que a partir del planteamiento de Alan Turing de que se podría crear una máquina que imitara el pensamiento humano, en la actualidad es posible ver que Estados Unidos y China son las naciones que más han comercializado e impulsado el desarrollo de IA.

Pineda Cortés agregó: Es así como podemos ver el futuro de la inteligencia artificial. Los grandes consorcios hoy en día nos venden estas tecnologías al aprovechar el imaginario colectivo.

Gobernanza de la IA

A su vez, el profesor de la Facultad de Química de la UNAM, Alejandro Pisanty Baruch, estimó que en la Universidad es posible construir un análisis racional de los distintos sistemas de IA que usa la sociedad, algo que no se ha planteado formalmente.

Este problema, detalló, se basa en la gobernanza de la inteligencia artificial (múltiples tipos de acuerdos), que al igual que ocurrió con internet construya las reglas del uso de esta tecnología, pero que para la mayoría es invisible y no lo nota hasta que falla.

Un ejemplo es lo que sucede con el phishing (técnica para engañar personas usuarias) o el malware (programa maligno), que, aunque siguen en internet, no son tan comunes gracias a acuerdos y establecimientos de acción con las empresas.

El autor de IGF and Cybersecurity enfatizó que la red funciona en lo que se conoce como “modelo de reloj de arena” para transmitir información, que tiene una serie de protocolos y acuerdos que implican la interoperabilidad (todas las plataformas puedan funcionar de manera similar), así como el principio del mejor esfuerzo, es decir, no hay un acuerdo de disponibilidad, sino que se hace lo mejor que se pueda con los recursos disponibles.

El experto en tecnologías de información narró que cuando internet salió de la academia y el entorno militar, se decidió que su gobernanza quedara sujeta a la nemotecnia de secuencias y números que hoy se llaman direcciones IP y que se transforman en nombres y dominios.

“Pánico moral” por la IA

Pisanty Baruch dijo además que cada nueva tecnología produce algo que se conoce como “pánico moral”, o sea reacciones ante la incertidumbre y se dice “paren todo”.

El más antiguo es el de Sócrates ante la aparición de la escritura. Ahora varios de los efectos a los algoritmos son claros, pero debemos subrayar que hay uno de inteligencia artificial detrás de cada clic que damos a lo que más nos gusta en Facebook, Netflix, Spotify, y no sólo en ChatGPT.

El investigador afirmó que recientemente la UNESCO determinó que para llegar a una gobernanza de la IA es necesario basarse en principios claros de acción y uso, en normas y estándares; que se haga ágil y experimentalista; además de que tenga un enfoque en facilitación y empoderamiento.

Para ello, aseguró, es necesario adaptar leyes e instrumentos existentes de gobernanza (por ejemplo, los de internet); tener mandatos de acceso a información y transparencia con enfoques basados en riesgos, derechos y responsabilidades.

Fuente: eleconomista.com.mx