Icono del sitio INVDES

Ex empleada de Google advierte sobre la IA en armas: «Lo que están viendo son posibles atrocidades»

Ex empleada de Google advierte sobre la IA en armas: "Lo que están viendo son posibles atrocidades"

«Asesinatos ilegales», «cosas calamitosas» y «accidentes a gran escala» fueron algunas de las expresiones de la ex ingeniera de software de Google, Laura Nolan, con las que advirtió este fin de semana sobre el desarrollo de una nueva generación de armas autónomas y llamó a su prohibición.

En entrevista con The Guardian, la profesional que renunció en 2018 a la empresa como protesta a un proyecto que buscaba mejorar «drásticamente» la tecnología en aviones no tripulados de Estados Unidos, en el que fue designada, manifestó que los proyectos de armas autónomas —»killer robots» o «robots asesinos»— debiesen ser prohibidos por el mismo tipo de tratado internacional que limita las armas químicas.

«La probabilidad de un desastre es proporcional a cuántas de estas máquinas estarán en un área particular a la vez. Lo que están viendo son posibles atrocidades y asesinatos ilegales incluso bajos las leyes de la guerra, especialmente si se implementan cientos o miles de estas máquinas», dijo Loran al medio inglés, detallando que a diferencia de los drones controlados por equipos militares, los robots asesinos tienen el potencial dehacer «cosas calamitosas para las que no fueron programados originalmente».

«Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada. Es por eso que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos», añadió la científica de la Trinity College de Dublín, que trabajó por más de seis años para el gigante tecnológico en Irlanda y que hoy en día forma parte de la campaña StopKillerRobots creada en 2012 por distintas organizaciones no gubernamentales.

Preocupada éticamente

En 2017 Cohen fue reclutada por Google para trabajar en Maven, «un programa piloto para tratar de encontrar formas de acelerar la aplicación militar de la tecnología más reciente en el campo de la inteligencia artificial». Un proyecto del cual la compañía se desvinculó luego de que en abril de 2018 más de 3.000 de sus empleados firmaran una petición en protesta.

«Aunque no participé directamente en acelerar el reconocimiento del metraje de video, me di cuenta de que todavía era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas sean atacadas y asesinadas por el ejército de Estados Unidos en lugares como Afganistán», contó la ingeniera al respecto.

Es por esta experiencia que Nolan ha predicho que las armas autónomas que se están desarrollando representan un riesgo mucho mayor para la raza humana que los drones a control remoto. «Podrían tener un escenario en que las armas autónomas que se han enviado para hacer un trabajo confronten señales de radar inesperadas(…); podría haber un clima que no se incluyó en su software o se toparon con un grupo de hombres armados que parecen ser enemigos insurgentes pero que, en verdad, están fuera con armas buscando caza», ejemplificó.

Y puntualiza más adelante: «No estoy diciendo que los sistemas guiados por misiles o los sistemas de defensa antimisiles deberían estar prohibidos. Después de todo, están bajo el control humano completo y, en última instancia, alguien es responsable. Sin embargo, estas armas autónomas son un cambio ético y tecnológico en la guerra. Muy pocas personas están hablando de esto, pero si no tenemos cuidado con una o más de estas armas, estos robots asesinos, podrían iniciar accidentalmente una guerra repentina, destruir una estación de energía nuclear y causar atrocidades masivas».

Fuente: emol.com

Salir de la versión móvil