DestacadaTecnología

Miles de científicos contra los robots asesinos

En 2017, un año antes de morir, el físico Stephen Hawking advirtió: “Aunque sabemos que la inteligencia artificial tiene el potencial para ser el mayor acierto, o el peor error, de la humanidad, no se están investigando seriamente sus implicaciones”.

Una de las pocas organizaciones que lo hace es el Instituto del Futuro de la Humanidad, de la Universidad de Oxford, que publicó esta semana una carta firmada por 2.400 científicos que declararon que no participarán en la manufactura de robots que puedan identificar y atacar personas sin supervisión humana. Para muchos, darle a una máquina el poder de decidir quién vive o muere es cruzar una línea moral.

La petición, firmada por científicos, como Elon Musk, director de Space X, y Demis Hassabis, de Google DeepMind, pretende disuadir a empresas militares y ejércitos nacionales de construir o adquirir sistemas letales autónomos, conocidos como LAWS, por sus siglas en inglés.

Ante la ausencia de leyes y regulaciones que estigmaticen el uso de estas armas, la carta pretende que se incorporen a las constituciones de los países y a la ley internacional humanitaria.

Además, 150 compañías que trabajan con inteligencia artificial (IA) adhirieron a la iniciativa presentada ayer en la Conferencia Internacional de IA en Estocolmo (Suecia).

Pero ningún país o cuerpo militar adhirió, a pesar de que las fuerzas militares son las que mejor han adoptado la IA. La aplican para volar sobre territorio hostil, patrullar tierras enemigas, etc.

De acuerdo con la revista Technology Review, parece inevitable que la IA se utilizará cada vez más, desde la recopilación y el análisis de datos privados hasta el desarrollo de sistemas autónomos sofisticados. El lunes, por ejemplo, el secretario de Defensa del Reino Unido, Gavin Williamson, anunció un plan para un nuevo avión caza, la Tempestad, que podrá volar sin piloto, reportó The Guardian.

Los compromisos son varios: “No podemos detener a una persona que construye IA, pero sí podemos controlar que no estén en el mercado”, dijo al diario británico el profesor de ciencia y tecnología de la Universidad del Sur de Gales, Toby Walsh.

Los investigadores que publican sus hallazgos, en vista de que no pueden controlar el efecto de sus avances, se comprometieron a vigilar las consecuencias de sus tecnologías.

“No hay límites a lo que podemos lograr en el campo de la IA. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se reordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos”, concluyó Hawking en su carta. No hay duda de que se debe dar el debate sobre la IA a la par que avanza esta tecnología.

Fuente: elespectador.com