Inteligencia artificial: qué decisiones queremos dejar a las máquinas
Vincent Müller, ético y filósofo de la inteligencia artificial (IA), pide un debate social. Los trabajadores de sectores creativos temen por su existencia. Pero, ¿quién debe regular el uso de la inteligencia artificial?
El mundo reacciona con asombro, pero también con preocupación por la rapidez y la perfección de los sistemas de inteligencia artificial (IA). «¡Los sistemas de IA socavan el valor del pensamiento y el trabajo creativo humano!», advierte Robert Exner, fundador de la agencia de creación de textos «Fundwort» en Hannover.
Bajo el lema «IA pero de manera justa», 15 organizaciones del sector creativo alemán publicaron un documento sobre inteligencia artificial, donde reclaman la protección de sus obras contra el uso no autorizado. Según el documento coiniciado por Exner, la Ley de Derechos de Autor debe fortalecerse con urgencia para que los trabajadores de sectores creativos puedan continuar cosechando los frutos de su trabajo.
La IA necesita material de entrenamiento
De hecho, los sistemas de IA basados en algoritmos no pueden producir textos, imágenes o música sin material adecuado. «Para proporcionar los datos necesarios a los sistemas de aprendizaje, los desarrolladores utilizan nuestro trabajo sin consentimiento y sin remuneración», explica Exner a DW. «¡Esta mentalidad de autoservicio a nuestra costa es inaceptable!», lamenta.
El filósofo Vincent Müller está de acuerdo, al menos en principio. Müller investiga en la Universidad de Erlangen-Núremberg, en la aún joven disciplina de «Filosofía y ética de la inteligencia artificial». «Por supuesto, estos son datos para los que se aplica el derecho de autor», dice Müller. Los sistemas de IA no reproducirían simplemente los datos. Más bien, aprendieron algo que luego podrían usar en la próxima producción. Pero, ¿quién tiene entonces los derechos de autor sobre el nuevo producto? «Si se crea algo nuevo a partir de cosas que se obtuvieron gratuitamente, que tienen un valor económico», dice Müller, «¡entonces, eso es un problema social!».
«Un problema social»: no hay normas para la IA
El mayor problema es probablemente la falta de normas. El Consejo Cultural Alemán, la organización paraguas de las asociaciones culturales alemanas, advirtió recientemente al respecto. Ahora, los sectores creativos también exigen protección de la propiedad intelectual en el ámbito digital, leyes efectivas sobre derechos de autor y protección de datos. «Esperamos que los políticos», dice Exner desde Hannover, «apoyen a los alrededor de 1,8 millones de personas que trabajan en las industrias culturales y creativas alemanas».
Aunque no sea visible para todos, la inteligencia artificial hace mucho tiempo que llegó a nuestra vida cotidiana. «El factor decisivo es quién se beneficia de la IA», dice Müller «y si este beneficio para la sociedad en su conjunto es más bien negativo o positivo». En otras palabras, si se protegen los derechos de todos los involucrados.
En opinión de Müller, el uso de la inteligencia artificial conducirá a una ruptura cultural en un futuro previsible. «La ruptura cultural será que los sistemas automatizados tomarán decisiones” y «tendremos que pensar qué decisiones queremos dejar a los sistemas de máquinas y dónde queremos usar los sistemas de máquinas como sistemas auxiliares», advierte.
La UE establece el primer marco legal
Casi todo el mundo está de acuerdo en que difícilmente funcionará sin leyes. Vincent Müller también lo cree. La Comisión de la UE propuso regular los sistemas automatizados de toma de decisiones, que requerirían aprobación para aplicaciones de «alto riesgo». Así, por ejemplo, el uso en tiempo real de sistemas biométricos para identificar personas en espacios públicos debería permitirse en algunas excepciones, como en la lucha contra el terrorismo.
La preocupación por los posibles riesgos de la IA también la perciben los desarrolladores e inversores. Conocidos expertos del sector, como Elon Musk, han propuesto realizar una pausa de seis meses para lograr un conjunto de normas para la nueva tecnología, según una misiva publicada por la organización benéfica Future of Life: «Los potentes sistemas de IA solo deberían desarrollarse cuando estemos seguros de que sus efectos son positivos y sus riesgos claros», dicen.
Estas tecnologías están ahora tan avanzadas que ni siquiera los desarrolladores pueden ya comprender o controlar sus programas de manera efectiva, asegura la misiva. Como resultado, los canales de información podrían inundarse con propaganda y hechos falsos. Por esta razón, todos los desarrolladores que trabajen en inteligencia artificial de próxima generación deben cesar su labor de manera verificable. Si esto no sucede de inmediato, los Estados tendrían que imponer una moratoria, proponen desde Future of Life.
Fuente: dw.com