Día 31/08/2015 - 02.36h
Temas relacionados
- Terminator (obras)
- Inteligencia Artificial (obras)
- Robots (obras)
- ONU (instituciones)
Los LAWS seleccionan y alcanzan letalmente sus objetivos sin intervención humana: serán la tercera revolución en el arte de la guerra
Sayonara, baby. España no tendrá su propio robot asesino, su propio «Terminator», su propia Arma Autónoma Letal, como se llama técnicamente. Porque, por mucho que pueda sonar a ciencia ficción, el Gobierno ya tiene una posición oficial al respecto: «Las Fuerzas Armadas españolas no disponen, ni tienen previsto desarrollar, ningún sistema de arma letal totalmente autónomo o que esté basado en la llamada Inteligencia Artificial». Y no, tampoco se «está financiado ningún proyecto de investigación» en este campo.
Esto no es una película. Ya hay quien ha calificado los Sistemas de Armas Autónomas Letales (LAWS, por sus siglas en inglés) como la tercera revolución en el arte de la guerra, después de la pólvora y las armas nucleares. El objetivo: crear robots que seleccionen y alcancen letalmente sus objetivos sin intervención humana alguna. Todavía no se han desplegado, pero serían un escalón más en los sistemas con los que ya cuentan países como Estados Unidos, con el x47-B —un avión que puede aterrizar y despegar solo—; Corea del Sur con el Samsung SGR-1 —un robot que patrulla la frontera con Corea del Norte—; o Israel con la «Cúpula de Hierro». Sin embargo, en estos casos la decisión de disparar recae en una persona. Y ahí está la diferencia. En los LAWS la decisión la toman los robots.
El Gobierno «comparte la preocupación» por el desarrollo de estas armas robóticas, según su respuesta del pasado mayo a una pregunta escrita en el Senado, tanto porque puedan funcionar y matar autónomamente, como por sus consecuencias en el respeto de los Derechos Humanos y del Derecho Internacional Humanitario. «Se apoya la necesidad de establecer un marco jurídico general e internacional con objeto de impedir una eventual carrera de armamentos o su posible adquisición por actores no estatales», declaraba por escrito.
«Los Kalashnikovs del mañana»
La tecnología ha llegado a un punto en el que el despliegue de este tipo de sistemas sería posible dentro de pocos años. Ni siquiera habría que esperar décadas, según dice el científico Stuart Russell en Nature. Y según va pasando el tiempo, son más quienes piden que se prohíba su desarrollo, como desde la plataforma Stop Killer Robots, el Comité Internacional para el Control de Armas Robóticas (ICRAC) o Human Rights Watch. Stephen Hawking, Elon Musk, Steve Wozniak, Jaan Tallinn o Frank Wilczek, por su parte, son algunas de las 20.000 personalidades que han firmado una carta abierta pidiendo su prohibición. «Las armas autónomas de hoy se convertirán en los Kalashnikovs del mañana», dicen. Esto no es una película.
Para ellos, la pregunta clave es si la humanidad quiere involucrarse en una carrera mundial de armas basadas en la Inteligencia Artificial (IA) o evitar que esta se inicie. «Si alguna potencia militar sigue adelante con el desarrollo de armas de IA, será prácticamente inevitable que esa carrera armamentística se produzca».
Por su parte, quienes defienden el desarrollo de los LAWS, destacan que aportarían una mayor protección; multiplicarían la fuerza empleada; evitarían muertes innecesarias y minimizarían el tiempo de reacción respecto al de los seres humanos. Además, un robot nunca actuará por pánico, venganza u odio racial, dicen. Pero como explicaban Cesáreo Gutiérrez y María José Cervell en la Revista del Instituto Español de Estudios Estratégicos, esto no implica que las máquinas vayan a ser más objetivas en sus acciones. El ejemplo, decían los expertos, está en el vuelo 655 de Iran Air que fue derribado por un buque de guerra estadounidense en 1988: el sistema AEGIS con el que estaba dotado identificó un avión como un F-14 iraní. Pese a las dudas de la tripulación, finalmente se confió en la máquina y murieron 290 civiles.
Gutiérrez y Cervell creen que son las «ventajas militares y el menor costo económico y político, los factores que explican por qué son cuantiosos los recursos que algunos Estados dedican a la investigación de las Armas Autónomas». Los dos investigadores se muestran pesimistas, calificando de «poco realista» esperar que los Estados vayan a renunciar a estos sistemas. La última Convención sobre Armas Convencionales (CCW) de la ONU, celebrada en abril, acabó sin conclusiones.
Mientras, desde Stop Killer Robots siguen albergando esperanzas: «Tras dos años [de conversaciones], es el momento de alcanzar un alcanzar un avance sustantivo». El próximo mes de noviembre la ONU tendrá que decidir si inicia un proceso formal de negociación para establecer una nueva prohibición global. Esto no es una película.
No hay comentarios:
Publicar un comentario