Los drones militares de EU que reconocen rostros son un dilema ético

La preocupación mayor sobre la tecnología de reconocimiento facial en drones militares es que esta se use para elegir como blanco a personas específicas

Estados Unidos está desarrollando drones militares con inteligencia artificial que pueden usar tecnología de reconocimiento facial para detectar las caras de los objetivos. Esto ha llevado a muchas personas a expresar su preocupación por la ética involucrada.

La revista New Scientist informó que el Departamento de Defensa (DoD, por sus siglas en inglés) de Estados Unidos tiene un contrato de 800,000 dólares con la empresa RealNetworks, con sede en Seattle, para crear estos drones militares. La tecnología podrá utilizar el aprendizaje automático (machine learning) para identificar rostros sin intervención humana. Según el contrato, estos drones militares serán utilizados para operaciones especiales en el extranjero y para la recopilación de inteligencia.

Nicholas Davis, profesor de la industria de tecnología emergente en la Universidad de Tecnología de Sydney, dice a Newsweek: “Existen innumerables implicaciones éticas, desde la forma en que tales dispositivos pueden redistribuir el poder o amenazar a grupos dentro de una sociedad, hasta las formas en las que amenazan a las leyes humanitarias internacionales establecidas en zonas de conflicto”.

El seguimiento de personas de interés se ha llevado a cabo durante mucho tiempo, y el reconocimiento facial con inteligencia artificial (IA) ha agregado una capa adicional de tecnología.

Tecnología de uso global

El reconocimiento facial ya se usa en muchos países, incluidos China y los Emiratos Árabes Unidos. Otros países, incluida Libia, también están desarrollando drones que pueden detectar rostros humanos, según un informe de la ONU.

Existe una gran preocupación de que el uso de la tecnología de reconocimiento facial, combinado con la inteligencia artificial, pueda usarse para elegir como blanco a personas específicas, tal vez incluso antes de que hayan cometido un crimen.

Mike Ryder, profesor de mercadotecnia e investigador de robótica, IA, guerra, ética y drones en la Universidad de Lancaster, en el Reino Unido, explica a Newsweek: “La pregunta aquí realmente no es tanto sobre el uso de la tecnología para rastrear a un individuo, sino más bien sobre el proceso de toma de decisiones que los enlista como una ‘persona de interés’ a quien rastrear en primer lugar. ¿Por qué son objetivos? ¿Qué evidencia hay de que representan una amenaza potencial?

“Este es realmente el dilema ético clave al centro de las operaciones modernas de drones militares en el extranjero, ya que Estados Unidos y sus aliados los usan para atacar de manera preventiva (es decir, asesinar o matar) objetivos que se perciben como amenaza potencial en algún momento en el futuro”, añade Ryder.

¿Y las fallas tecnológicas?

“La naturaleza preventiva de estas operaciones es la parte realmente problemática aquí. Estos ataques funcionan bajo el supuesto de que la persona que está siendo monitoreada tiene el potencial de llevar a cabo un ataque terrorista en el futuro, aunque es posible que nunca se haya involucrado directamente en actividades terroristas hasta ese momento”.

También hay problemas con la tecnología de reconocimiento facial en sí misma y cómo su falta de sofisticación podría llevar a que la persona equivocada sea el objetivo.

“La tecnología de reconocimiento facial (FRT, por sus siglas en inglés) sigue siendo una tecnología experimental”, expone a Newsweek Edward Santow, profesor de la industria de tecnología responsable en la Universidad de Tecnología de Sydney.

“Su precisión puede ser pobre cuando se trata de identificar personas de una gran base de datos, o en condiciones de iluminación imperfecta y otras condiciones similares, como casi siempre sería el caso en una situación de conflicto. Existe un riesgo grave de que usar la tecnología de reconocimiento facial para apuntar a armas letales autónomas resulte en errores que causen muerte y lesiones ilícitas”, añade.

La posibilidad de errores como estos puede aumentar cuando la persona objetivo no es blanca. “Sabemos que, a pesar de los esfuerzos considerables, dicha tecnología de reconocimiento facial sigue teniendo sesgos”, dice a Newsweek Toby Walsh, profesor de inteligencia artificial en la Universidad de Nueva Gales del Sur en Sydney.

“Su funcionamiento es más deficiente en personas de color. Cuando tu teléfono inteligente no se abre porque falla el reconocimiento facial, los daños son leves. Pero los errores con tales drones serían fatales”, agrega.

¿Drones militares decidiendo por los humanos?

Esto también plantea el problema de que la IA tome decisiones sin que un ser humano tenga la última palabra. “¿Queremos máquinas autónomas que tomen (lo que deberían ser) decisiones éticas que acaben con la vida de los seres humanos?”, cuestiona Lily Hamourtziadou, profesora titular de criminología y estudios de seguridad en la Universidad de la ciudad de Birmingham, en el Reino Unido.

“El asesinato remoto en muchos sentidos es un asesinato fácil: una especie de asesinato virtual de videojuegos. Esto en sí mismo es moralmente problemático. Además, cuando un asesinato se atribuye a una máquina, hay una falta de responsabilidad y justicia, y se usa la violencia impunemente”, dice Hamourtziadou a Newsweek.

A pesar de los múltiples inconvenientes morales de esta tecnología, proporciona algunos beneficios en términos de guerra eficaz. Esto puede significar que mueren menos personas inocentes en el proceso.

“Los sistemas no tripulados se desarrollaron principalmente para preservar vidas militares, para proteger a ‘nuestro ejército’, pero podría decirse que pueden salvar vidas en ambos lados, mitigando el daño físico real, incluido el civil”, añade Hamourtziadou.

“Como método de guerra a distancia, brindan protección psicológica y moral a quienes los operan, ya que se distancian de los asesinatos que llevan a cabo. Los drones militares son, al parecer, armas poderosas y efectivas que ayudan a garantizar el control, la supervivencia y la seguridad. Se dice que el dron ‘cazador-asesino’ armado es un gran paso hacia adelante en la tecnología humanitaria. Nadie muere, excepto el enemigo”, explica.

Beneficios de los sistemas no tripulados

“La guerra de drones nos permite evitar una guerra total, como la que estamos viendo actualmente en Ucrania”, expone la experta. Otros beneficios que describe incluyen el hecho de que los drones pueden permanecer en vuelo hasta 20 horas. Esto es el doble de la cantidad de tiempo que un ser humano puede estarlo antes de necesitar dormir o comer.

Además, los sistemas no tripulados no tienen las mismas limitaciones que el cuerpo humano, por lo que pueden operar en entornos peligrosos. Por ejemplo, espacios llenos de armas biológicas o químicas.

De cualquier manera, esta tecnología floreciente es una señal de los tiempos, ya que el uso de la IA y el reconocimiento facial es cada vez más común en nuestra vida diaria.

“Lo que más me preocupa con esto es el uso de la tecnología de reconocimiento facial de manera más amplia, y cómo pueden utilizarla y compartirla gente como Google y Facebook para crear una imagen de nuestras actividades basada en registros fotográficos”, añade Ryder.

“Ya sabemos que nuestros teléfonos inteligentes y aplicaciones nos rastrean mientras hacemos nuestra vida diaria. Sin embargo, con el uso del reconocimiento facial, este nivel de monitoreo sube un nivel más, ya que estas empresas pueden crear perfiles más precisos sobre nosotros. Potencialmente también pueden usar nuestra información de imágenes para crear mejores perfiles de otras personas que también pueden aparecer en nuestras fotos”, finaliza.

Fuente: newsweekespanol.com