Debemos construir una ética adecuada con y no contra la inteligencia artificial: Ramón Alvarado
Agregó que, para el futuro se tienen que considerar los errores en datos en temas financieros, de salud, de consumidor y de guerra
Desmitificar a la inteligencia artificial (IA), poner en perspectiva las preocupaciones que esta tecnología genera y la importancia de construir normas adecuadas para su uso, fueron los temas que abordó el experto Ramón Alvarado, al impartir la conferencia “Ética para un futuro con inteligencia artificial”, como parte del ciclo Miedos, mitos y verdades de la computación, coordinado por Carlos Coello Coello, miembro de El Colegio Nacional.
El profesor de Filosofía y Ética informática de la Universidad de Oregón expuso que el término inteligencia artificial ha significado muchas cosas en distintas épocas de la investigación. Recordó que el primer boom de esta tecnología surgió después de los años cuarenta del siglo pasado, cuando salieron las máquinas mecánicas; posteriormente, en la década de los sesenta, se comenzó a utilizar el término, cuando se tuvo la capacidad tecnológica para resolver problemas mecánicos, que solamente el humano había logrado resolver, como jugar ajedrez. “Hasta llegar a noviembre de 2022, cuando Open IA saca Chat GPT y todo el mundo sabe de la inteligencia artificial y se preocupa de ella, asó, se colocó en la psique cultural”.
“Lo que hizo Open IA con Chat GPT fueron dos cosas, primero, nos dio una tecnología generativa, es decir, extrae patrones, trayectorias y aprende; y segundo, puede darnos resultados: crear, generar resultados que no necesariamente están en los datos que nos dio”, enfatizó el especialista.
Agregó que, lo que más afectó la relación de las personas con esta tecnología, es que se trató de una nueva interfase con la que cualquier persona con lenguaje natural podía hablar y pedir un texto. “La inteligencia artificial es una hoja de cálculo multidimensional, una herramienta de análisis y un grupo de métodos de estadística computacional; y la IA extractiva analiza, categoriza y agrupa datos de nuestro comportamiento, nuestra salud o movimientos, para encontrar probabilidades con las que predice cosas”.
En cualquier caso, “el término ‘inteligencia artificial’ parece haber llegado para quedarse, y puede resultar más fácil limpiar la frase que prescindir de ella. Con el tiempo, se volverá lo suficientemente idiomática como para que ya no sea el blanco de la retórica barata”, enfatizó el profesor. Señaló que el concepto es más complejo ahora, porque las máquinas que se han inventado en los últimos 20 años son muy poderosas, resuelven problemas difíciles y procesan información compleja.
Con relación a la inteligencia artificial generativa, Ramón Alvarado explicó que es una tecnología basada en métodos extractivos, es decir, relacionados con las redes neuronales, para generar patrones similares, lo que se conoce como GPT. “La máquina no sabe qué es una imagen, no comprende las acciones que le solicita, sólo trabaja a partir de los valores de las matemáticas. Algunas de las limitaciones que tiene la IA es que realiza alucinaciones versus desviaciones estadísticas, porque toma los patrones que tiene más próximos al resultado, aunque no tenga lógica”.
“Son máquinas de estadísticas, aprenden de una manera específica, pueden hacer muchas cosas, pero tienen sus limitaciones. Por ejemplo, un Tesla chocó con un tractor y lo volteó. Chocó, porque no tuvo suficientes datos del tractor para identificarlo como un peligro. No tenía millones de fotos para identificarlo como lo hace con otros objetos. Tendemos a sobreestimar las disrupciones inmediatas de la tecnología y a subestimar sus efectos a largo plazo”, aseguró el investigador.
Recordó que los filósofos se han preocupado por la tecnología desde toda la historia de la humanidad, “hemos tenido problemas éticos con temas como la escritura que tiene más de dos mil años, porque pensábamos que iba a destruir la memoria, como la prensa hace 300 años, el internet hace 30 y Google hace 20. Pero lo que realmente debería preocuparnos dentro de la ética de la IA es la opacidad, debido a que muchos de estos algoritmos no los comprendemos, y el sesgo algorítmico, es decir, la adquisición de los prejuicios de sus creadores”.
Pero algo más profundo que el sesgo, es la monocultura algorítmica, “que nos lleva a aceptar que estamos recreando lo que existía antes de una manera en la que no podemos escapar”. Otras de las preocupaciones de esta tecnología, es la nueva idea de una ética de gobierno y política para el siglo XXI, “en la que tomamos en cuenta el tiempo y no solamente la propiedad privada, así como las relaciones interpersonales y el movimiento de éstas”.
La monocultura algorítmica va en muchas direcciones, por ejemplo, “tenemos el compromiso de la equidad y la diversidad, tanto que nos metemos en problemas. Porque si pedimos una fotografía de un ingeniero, casi siempre será blanco y sonriente. Esta noción de la monocultura la estamos propagando con nuestros mismos valores éticos. Ese es un problema ético profundo, más que el sesgo y la discriminación”.
En palabras del especialista, para el futuro, se tienen que considerar los errores en datos en temas financieros, de salud, de consumidor y de guerra. Estos temas sufrirán alucinaciones de la misma manera que sucede con las imágenes, pero que no se ven a simple vista, es un problema ético profundo. Con relación a la ética de gobernancia, “el problema ético es que los algoritmos nos están robando la capacidad de ser autónomos, incluso, están robando nuestro tiempo, a través de las distracciones que nos quitan la atención”.
El filósofo subrayó que, todavía no hay una ética para el siglo XXI. Pero es importante preguntarnos ¿dónde y cuándo queremos a la inteligencia artificial en nuestro tiempo y en nuestras vidas? “Debemos entender a la inteligencia artificial como una tecnología epistémica, y debemos construir una ética adecuada con y no contra la Inteligencia Artificial, más allá del error y el daño”.
Fuente: El Colegio Nacional