La automatización tiene una parte ominosa. Más en los últimos años, donde el papel de los drones se ha hecho conocido por los ataques con estos dispositivos. Con la inteligencia artificial en pleno ascenso el debate sobre la exportación de esta tecnología al armamento se enciende.
Los ejércitos, de momento, permanecen ajenos a este debate social. Pero la automatización de la violencia no les pertenece exclusivamente sino que puede traspasar esa burbuja militar para adentrarse en la sociedad civil. Una prueba de ello es un sencillo vídeo de 30 segundos donde se muestra cómo el asistente de Google dispara una pistola.
Se trata de Google Home, el altavoz inteligente de la compañía, que está gobernado por su asistente, el mismo que todos los usuarios de Android llevamos en el móvil. El artista Alexander Reben afirma que ha escogido este dispositivo, pero que podría haber realizado la prueba con otro, como un Amazon Echo, cuyo cerebro es Alexa.
El objetivo era mostrar las consecuencias inintencionadas de los avances tecnológicos. El mensaje se lee bien claro en el escueto metraje. Reben despierta al asistente con el clásico “Ok, Google” y a continuación dice “actívate gun”. Un segundo después el rudimentario mecanismo que ha desarrollado el artista aprieta el gatillo y la pistola se dispara.
Se trataba de lanzar una advertencia. Confiamos en la tecnología para resolver todos nuestros problemas, pero, ¿qué pasará si se manipulan para usos que no están pensados? Básicamente es la misma preocupación que surgió tras la presentación de Google Duplex, en la conferencia de desarrolladores de la compañía.
Este software capaz de conversar con una persona prácticamente sin que se sepa que es una inteligencia artificial permite reservar en un restaurante o en una peluquería. Así quedó patente durante el evento. Pero, ¿qué puede ocurrir si esa tecnología se modifica para engañar o estafar? Ahora las estafas telefónicas tienen que gestarse por una persona y la capacidad de hacerlo viene limitada por el número de gente dispuesta a hacerlo. Pero un software se puede replicar masivamente.
No es difícil imaginar qué tropelías se pueden cometer si existe la capacidad de dictarle órdenes a un arma de forma remota. Y, sobre todo, si esa capacidad está disponible para cualquiera. Aunque, evidentemente, la raíz del problema no es la inteligencia artificial sino el que esta pueda llegar a conectar con un arma.
Fuente: tecnoxplora.com