Desarrolladores firman acuerdo para “no crear armas con inteligencia artificial”
Desarrolladores firman acuerdo para “no crear armas con inteligencia artificial”
Líderes del mundo de la tecnología, entre ellos Elon Musk y cofundadores de Google DeepMind, acaban de firmar un documento que promete no desarrollar “armas letales autónomas”. Esta publicación es el movimiento más reciente de una coalición global de investigadores y ejecutivos que ha decidido luchar contra la propagación de este tipo de tecnología.
Esta promesa advierte que los sistemas de armas que utilizan Inteligencia Artificial para seleccionar y atacar objetivos sin intervención humana presentan una amenaza moral y pragmática: la decisión de tomar una vida humana nunca debería de depender de una máquina, mientras que, al mismo tiempo, la venta de estas armas sería extremadamente peligroso para países e individuos.
La promesa fue publicada esta mañana, durante la Conferencia Conjunta Internacional de Inteligencia Artificial en Estocolmo, Suecia, organizada por el Instituto del Futuro de la Vida, un organismo que busca “mitigar el riesgo existencial” de la humanidad: cabe destacar que esta organización ha realizado documentos similares, dirigidos a las Naciones Unidas, para que estos organismos cambien los lineamientos alrededor de este nuevo tipo de tecnología.
Entre las personas que firmaron este documento, podemos encontrar a Jaan Tallinn,fundador de Skype, investigadores del campo de la Inteligencia Artificial, como Stuart Russell, Yoshua Bengio y Jürgen Schmidhuber, así como al antes mencionado Elon Musk y los tres cofundadores de Google DeepMind, Shane Legg, Mustafa Suleyman y Demis Hassabis.
Hasta ahora, los intentos de controlar la creación de armas autónomas ha resultado ser poco efectivo: las personas a favor de este cambio han sugerido que estas armas deberían de recibir ciertas restricciones, como armas químicas y minas de tierra. Sin embargo, también es un poco difícil determinar qué define a un sistema autónomo, por lo que estas definiciones necesitan de un poco de exactitud.
En una declaración realizada a The Verge, Paul Scharre, analista militar que ha escrito constantemente sobre el futuro de la guerra y el rol de la Inteligencia Artificial en ella, mencionó que esta promesa probablemente no tenga mucha influencia sobre las políticas internacionales: actualmente, el analista cree que es necesario obtener más información para que investigadores de Inteligencia Artificial puedan explicar a los líderes de los organismos internacionales pertinentes las razones por las que las armas autónomas requieren de restricciones y reglas específicas.
Fuente: Qore.com