Unos investigadores estudiaron lo que sabemos de la conciencia humana y extrajeron 14 indicadores para verificar si una arquitectura de IA tiene más probabilidades de poseer conciencia. Ninguna se acercó
La cuestión de si los sistemas de inteligencia artificial (IA) podrían ser conscientes protagoniza cada vez más titulares. Se trata de un tema muy debatido. ¿Qué significa, en primer lugar, ser consciente? Podría referirse al conocimiento de uno mismo y del mundo que nos rodea. Podría implicar tener una percepción interna de las sensaciones, emociones y pensamientos, una cualidad hasta ahora única en los seres humanos. No se ha demostrado que la consciencia exista en sistemas de inteligencia artificial, pero, ¿podría en el futuro?
Un grupo de 19 informáticos, neurocientíficos y filósofos se ha hecho esa pregunta y ha ideado una larga lista de verificación de atributos que, en conjunto, podrían sugerir, pero no probar, que una IA es consciente. Su documento se publica como preprint en arXiv. Allí los expertos comienzan reconociendo una tendencia: los avances en IA ha sido sorprendentemente rápido en los últimos años, y los principales investigadores en esa materia en particular se inspiran en las funciones asociadas a la consciencia en los cerebros humanos.
Es decir, dicen los investigadores, el auge de los sistemas de IA que pueden imitar de forma convincente la conversación humana probablemente hará que muchos crean que los sistemas con los que interactúan son conscientes. Pero, ¿cómo saber si son? Los investigadores proponen evaluar a las IA investigando si realizan funciones similares a aquellas que las teorías científicas asocian con la conciencia. Definieron entonces una serie de teorías actuales de la conciencia humana. Para ser incluida, una teoría tenía que estar basada en la neurociencia y respaldada por evidencia empírica, como datos de escáneres cerebrales.
De las teorías, extrajeron 14 indicadores. Cuantos más indicadores verifica una arquitectura de IA, más probabilidades hay de que posea conciencia, proponen los autores. Después, Eric Elmoznino, experto en aprendizaje automático, aplicó la lista de verificación a varias IA diferentes entre sí, incluida ChatGPT, por ejemplo. O PaLM-E, un modelo de lenguaje por Inteligencia Artificial creado por Google. Ninguna de las IA cumplió más que un puñado de requisitos y, por lo tanto, ninguna fue candidata para la conciencia. Ahora, los investigadores reconocen que esto es un trabajo en progreso: “No es el final del camino”, escriben.
No lo es porque, de hecho, los humanos también desconocemos mucho de nuestra conciencia. Por ejemplo, la discusión se ha planteado como si fuera una cuestión de todo o nada: un sistema o es consciente o no lo es. ¿Y si hay más opciones? “Parece haber muchas propiedades que tienen límites “borrosos” (…). Por ejemplo, una camisa puede tener un color en algún lugar en el límite entre el amarillo y el verde, de modo que no hay ningún hecho sobre si es amarilla o no. En principio, la conciencia podría ser así: podría haber criaturas que no sean ni determinadamente conscientes ni determinadamente no conscientes”, escriben.
Si ese es el caso, algunos sistemas de IA podrían estar en esta zona “borrosa”. Otra posibilidad, dicen, es que pueda haber grados de conciencia de modo que sea posible que un sistema sea más consciente que otro.
En este caso, no suena descabellado pensar que podría ser posible construir sistemas de IA que sean conscientes, pero solo en un grado muy leve, o incluso sistemas que sean conscientes en un grado mucho mayor que los humanos. Las limitaciones de este conocimiento las reflejó bien para Science Adeel Razi, neurocientífico computacional de la Universidad de Monash, miembro del Instituto Canadiense de Investigación Avanzada (CIFAR)y quien no participó en el nuevo artículo: la conciencia puede adoptar otras formas, incluso en nuestros compañeros mamíferos. “Realmente no tenemos idea de lo que es ser un murciélago”, dijo Razi: “Es una limitación de la que no podemos deshacernos”.
Fuente: elespectador.com