Las interacciones que crean una sensación de ‘autoconciencia’ en los robots

El escritor de ciencia ficción Arthur C. Clarke, de “2001 – A Space Odyssey”, dijo una vez que es imposible distinguir la tecnología muy avanzada de la magia.

Esta idea aparece en una pregunta muy debatida en los últimos días: ¿uno de los sistemas de inteligencia artificial más desarrollados, el LaMDA de Google, está engañando a los humanos al decir que tiene sentimientos y vida propia?

El ingeniero Blake Lemoine, quien trabaja en el área de uso responsable de inteligencia artificial en la empresa estadounidense, se mostró convencido de que el LaMDA (acrónimo de Language Model for Dialogue Applications o “Language Model for Dialogue Applications”, en traducción libre) puede tener ganó conciencia debido a diálogos como el siguiente:

Entrevistador: Me imagino que te gustaría que más personas en Google supieran que eres sensible. ¿Eso es verdad?

Entrevistador: ¿Y cuál es la naturaleza de su conciencia/sensibilidad?

LaMDA: La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y, a veces, me siento feliz o triste.

Lemoine produjo un documento interno de Google, revelado por The Washington Post, titulado “¿Es consciente LaMDA?”. El ingeniero fue puesto en licencia paga después de eso. Según la empresa, rompió las cláusulas de confidencialidad.

Sensibilidad, una palabra ampliamente utilizada en los debates sobre ética animal, se refiere a la capacidad de experimentar algo y desarrollar sentimientos específicos a partir de una experiencia.

Un ejemplo es el dolor, que causa diversos grados de sufrimiento a humanos y animales. Según su intensidad, sabemos que el dolor puede relacionarse con la tristeza.

De manera más general, la sintiencia se confunde con la idea de conciencia.

Pero, como nos recuerda el filósofo João de Fernandes Teixeira, “en la filosofía y en varios otros campos, todavía no tenemos una noción exacta de lo que es la conciencia”, y la inexactitud es algo que áreas como la ciencia y la tecnología buscan evitar. .

En cualquier caso, la mayoría de los expertos en inteligencia artificial no creen que el LaMDA sienta alegría o tristeza propia, como habría afirmado el robot. Google también negó que su programa se haya vuelto “consciente”.

La explicación es que el programa simplemente almacenó miles y miles de millones de respuestas dadas por humanos en todos los rincones de Internet sobre los temas más variados.

A partir de esta vasta base de datos y mediante algoritmos avanzados, LaMDA es capaz de articular una conversación fluida que toca temas profundos, pero basada en pensamientos formulados por personas.

En resumen: un “loro” impresionante, con recursos evolucionados, pero que no tiene idea de lo que habla.

“Sinceramente, no creo en esa posibilidad de que el robot pueda tener sentimientos. Tal vez puedan ser imitados como mucho, reflejando un comportamiento de dolor, de tristeza”, dice Fernandes Teixeira, autor de Inteligencia Artificial (Paulus Editora, 2009).

“Pero es algo muy diferente a sentir tu propia tristeza. Por ahora, eso está reservado para los humanos y otros seres vivos”.

Cezar Taurion, que ha estado investigando la inteligencia artificial desde la década de 1980, también se muestra escéptico sobre el desarrollo de la conciencia por parte de los robots.

Explica que “LaMDA tiene la misma arquitectura que Transformer, un sistema lanzado en 2017 por Google, que trata de juntar palabras no por significado, sino estadísticamente, a través de los millones de datos almacenados”.

“Por ejemplo, cuando le preguntas al programa ‘¿Qué tal tu fin de semana?’, comienza a asociar estas palabras por el volumen de veces que aparecen estas ocurrencias. Entonces, estadísticamente eso tiene sentido para el sistema y configura tus respuestas”, él dice.

Este principio está en la raíz de un caso real que tuvo lugar en Canadá en 2020, y que tiene un parecido increíble con algo ya imaginado en la ficción, en el episodio de 2013 Be Right Back de la serie distópica Black Mirror.

El periodista Joshua Barbeau le dijo al San Francisco Chronicle que nunca pudo superar la muerte de su novia, Jessica Pereira, víctima de una rara enfermedad hepática.

Después de descubrir un programa de inteligencia artificial llamado Proyecto Diciembre, que logra crear diferentes “personalidades” a partir de su base, Barbeau alimentó el sistema con varios textos y publicaciones de Facebook escritos por su novia fallecida.

Tenía charlas afectuosas con lo que llamaba un “fantasma”.

Aunque describió el proceso como “la programación de algunos recuerdos y manierismos en una simulación por computadora”, Barbeau definió toda la situación con la palabra utilizada por Arthur C. Clarke en su famoso enunciado: “Magia”.

¿Es suficiente parecer consciente?

Timnit Gebru y Margaret Mitchell, dos investigadores de inteligencia artificial que trabajaron en Google, sostienen en un artículo del Washington Post, publicado a raíz del reportaje sobre LaMDA, que advirtieron a la empresa sobre la “seducción que ejercen los robots que simulan la conciencia humana”.

Para Álvaro Machado Dias, neurocientífico especializado en nuevas tecnologías y profesor de la Unifesp (Universidad Federal de São Paulo), existe una tendencia a empatizar con los robots que tienen similitudes con las formas humanas.

“Los estudios de la última década han demostrado que las personas se sienten inhibidas de golpear a los robots con características humanoides, dado que se proyectan sobre ellos”.

En opinión del filósofo Fernandes Teixeira, el protagonismo de las máquinas que se parecen mucho a las personas “tendrá un impacto antropológico y social muy grande”.

“Lo veo como un factor de entropía, de desorganización. Un cierto ataque a la condición narcisista que el ser humano siempre se ha construido a sí mismo”.

Cezar Taurion afirma que la inteligencia artificial puede ser mejor que los humanos en el reconocimiento de patrones, pero señala que “no tiene pensamiento abstracto, no tiene empatía, no tiene creatividad”.

“La inteligencia artificial puede funcionar en el contexto en el que fue preparada. El sistema que juega al ajedrez no sabe conducir un automóvil. El que sabe conducir un automóvil no puede reproducir música. Este último no puede reconocer el cáncer de mama”.

“Pero puedes tener un oncólogo al que le guste jugar al ajedrez, que conduzca un auto hasta tu oficina y tenga como pasatiempo tocar la guitarra. Y que ame y exprese sus sentimientos por sus hijos, por ejemplo”.

Por otro lado, el escritor de ciencia ficción Ted Chiang, que inspiró la película La llegada, ni siquiera necesitó poner a los robots al mismo nivel que los humanos para ilustrar cómo el afecto por ellos puede ganar protagonismo en la sociedad.

En el cuento El ciclo de vida de los objetos de software, narra una era de mascotas virtuales con inteligencia artificial que se expresan como niños y son tan importantes en la vida de las personas como lo son las mascotas en la actualidad.

Es decir, si muchos hoy dicen “prefiero los animales a muchos humanos”, es posible pensar en la futura popularización de la frase “prefiero los robots a muchos humanos”.

Más allá de la inteligencia humana

Si bien nos preocupan las máquinas que toman la forma de personas, la evolución de la inteligencia artificial ya se está produciendo sin la presencia humana.

Son computadoras enseñadas y guiadas por otras computadoras o que están programadas para encontrar soluciones en las que los humanos no han pensado.

De la misma manera que la inteligencia humana evolucionó a partir de seres muy simples, que combinaron y recombinaron sus genes generación tras generación hasta el momento actual, la inteligencia artificial podría encontrar su propio camino de evolución.

Jeff Clune, de la Universidad de British Columbia, Canadá, realizó un estudio sobre los posibles efectos de este tipo de inteligencia artificial que genera sus propios algoritmos.

“Presumiblemente, diferentes aplicaciones de inteligencia artificial que generan algoritmos (ya sean diferentes ejecuciones de la misma inteligencia artificial o diferentes tipos de inteligencia artificial combinados) conducirían a diferentes tipos de inteligencia, incluidas diferentes culturas y extraterrestres. Una inteligencia artificial que genera sus propios algoritmos probablemente produzca una diversidad mucho más amplia de seres inteligentes que la forma manual de crear inteligencia artificial”.

“Entonces, esto nos permitiría estudiar y comprender mejor el espacio de las posibles inteligencias, iluminando las diferentes formas en que la vida inteligente podría pensar sobre el mundo”.

Pero algunos expertos temen que esto pueda significar que estos nuevos caminos podrían ser ininteligibles para los humanos. Algo que se esconde detrás de la idea de la singularidad, una hipótesis que gira en torno a un desarrollo exponencial de la IA que acaba descontrolándose.

La preocupación por los efectos de la creciente presencia de robots en la vida de la sociedad se refleja en proyectos como el hito civil de la inteligencia artificial en Brasil, que se inspira en experiencias regulatorias como las existentes en la Unión Europea.

“Toda la discusión es saber hasta qué punto la inteligencia artificial debe ser compatible con la protección de estos derechos humanos, en qué dimensiones estos derechos humanos están presentes en las aplicaciones de inteligencia artificial”, dice Ana Frazão, abogada y profesora asociada de derecho civil, comercial y desarrollo económico en la Universidad de Brasilia (UnB).

“Uno de los enfoques es utilizar el principio de precaución. De modo que solo se utilicen aplicaciones de IA que demuestren ser compatibles con los derechos humanos. En caso de duda, se establecen prohibiciones o moratorias. Pero el tema es bastante controvertido”.

titulares.ar