Son los LAWS, Armas Autónomas Letales: primero disparan... y luego ni preguntan

A los robots asesinos que parecen no importar a la ONU ya no hay quien los pare

El desarrollo de la tecnología para construirlos alarma a los defensores de los derechos humanos

A los robots asesinos que parecen no importar a la ONU ya no hay quien los pare
Un 'Terminator' pd

Son los llamados LAWS, Armas Autónomas Letales. No tienen conciencia y, desde luego, no les guía el odio ni la venganza. Son, por tanto, los soldados perfectos que no se dejan ofuscar por sensaciones que pueden enturbiar ni poner en peligro sus misiones de guerra.

Rastrean y seleccionan así sus propios objetivos para matarlos, o ejercen violencia contra ellos sin un control humano significativo: robots asesinos listos para matar.

ALARMA

Solo existen de momento en la ciencia ficción, pero el desarrollo de la tecnología para construirlos alarma a los defensores de los derechos humanos.

«La tecnología avanza muy rápido en esa dirección. Estados Unidos, Reino Unido, Israel, Rusia, China y Corea del Sur han desarrollado o desplegado precursores de estas armas»,

explica Bonnie Docherty, investigadora especialista en armamento de Human Rights Watch (HRW).

Docherty es la autora principal de un informe reciente de esa organización y la Universidad de Harvard en el que se pide la prohibición del desarrollo, producción y uso de estas armas letales autónomas.

«Aunque los expertos no se ponen de acuerdo en pronosticar cuándo estas armas podían materializarse, sí coinciden en que su desarrollo es factible y probable si no se dan los pasos necesarios para detenerlo»,

comentó la investigadora.

La tesis detrás de esta urgencia es que la prohibición debe llegar antes de que los gobiernos hayan invertido tanto en tecnología para desarrollar estas armas como para no querer dar marcha atrás.

«Si el desarrollo no se detiene lo antes posible, existe además el riesgo de que versiones preliminares se usen de manera prematura o caigan en manos de grupos armados sin respeto a la ley»,

argumentó Docherty.

Tecnología autónoma

«La comunidad internacional ya consideró importante en el pasado prohibir ciertos tipos de armas de manera preventiva. En 1995 la ONU prohibió las armas que producen ceguera antes de que se comenzaran a usar»,

añadió.

A diferencia de los polémicos ‘drones’-aviones no tripulados-, los robots asesinos no precisan de la intervención humana: pueden seleccionar y atacar objetivos de manera autónoma.

«Estos dos tipos de armas despiertan distintos temores. Pero el uso de los ‘drones’ demuestra que los ejércitos cada vez confían más en la tecnología autónoma».

DEBATE MORAL

Uno de los aspectos más controvertidos de las armas autónomas es el debate sobre la moralidad de permitir que una máquina tome la decisión de matar a una persona.

Incluso si el militar supiera que uno de los robots asesinos está a punto de matar a un civil, no podría hacer nada para impedirlo.

Del mismo modo, en el caso de un corte en las comunicaciones, el militar no sabría qué está haciendo la máquina ni, por consiguiente, podría evitar algún tipo de actuación indebida.

«En la mayoría de los casos, ni el programador ni el fabricante ni el comandante ni el operador podrían tener responsabilidad legal por los actos indebidos de la máquina. Sería injusto y legalmente imposible responsabilizar al comandante si un arma completamente autónoma comete un acto ilegal e imprevisto que él no ha tenido manera de impedir o prever».

En 2013 la ONU urgió a los Estados a aplicar moratorias nacionales que detengan el ensayo, producción, montaje, transferencia, adquisición, despliegue y empleo de robots asesinos.

Reunión de la ONU

Durante el mes de abril de 2015 se reunieron en Ginebra expertos y representantes de 70 países miembros de la ONU para debatir sobre los límites legales y éticos de las armas autónomas.

«Buscamos simplemente un poco más de claridad sobre qué son estas máquinas y cómo debemos enmarcarlas y/o delimitarlas»,

explicó el diplomático alemán Michael Biontino, presidente de la reunión.

«Por ahora estamos muy lejos de incluso saber cómo son estas máquinas, qué forma tienen, cómo serán. De hecho, creo entender que estamos lejos de que existan porque es muy difícil programar una máquina que tome tantas decisiones por si sola»,

añadió.

‘PROTOTIPOS’

Mientras tanto, las grandes potencias avanzan en la automatización de sus aparatos militares: Reino Unido desarrolla el «Taranis», un dron semiautónomo capaz de desarrollar misiones de larga distancia; Israel sigue perfeccionando su «cúpula de hierro», un sistema que detecta e intercepta misiles por sí mismo; Corea del Sur utiliza desde hace años un robot de Samsung en la frontera con Corea del Norte que registra movimientos humanos y es capaz de lanzar ataques; el dron supersónico de EE.UU. X47B crea su propia ruta y sabe aterrizar y despegar sin intervención humana.

Y Rusia celebró el 70 aniversario de la victoria en la Segunda Guerra Mundial con un desfile en el que el protagonista fue el T-14 Armata, un tanque cuya torreta se cargará y disparará sin intervención humana.

SIN CONCLUSIONES

La reunión de Ginebra acabó sin conclusiones. La mayoría de los países entienden 

Solo cinco países -Pakistán, Egipto, Cuba, Ecuador y el Vaticano- fueron favorables a una prohibición de los robots asesinos.

La mayoría de los países optaron por seguir las conversaciones en otoño para encontrar una regulación de estas máquinas.

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Lo más leído