Expertos de la ONU debaten sobre el futuro de los "robots asesinos"

Se trata de buscar un marco que regule su utilización a nivel internacional

A debate la legalidad y moralidad de permitir que una máquina mate personas

internacional

| 13.04.2015 - Actualizado: 22:36 h
REDACCIÓN

La Encuesta de Telemadrid

¿Para combatir la corrupción te muestras a favor de la eliminación de los billetes de 500 euros?
¿Para combatir la corrupción te muestras a favor de la eliminación de los billetes de 500 euros?
Si
96.7%
No
3.3%

Desde hoy y durante los próximos cinco días, la ONU va a debatir en Ginebra sobre el futuro de los conocidos como robots asesinos. Son armas, autónomas, capaces de seleccionar objetivos.

Expertos en robótica de 52 países y 13 ongs se reunirán a partir del lunes 13 de abril en la sede de la ONU en Ginebra para debatir las características y los límites de las Armas Letales con Autonomía Propia (LAWS, en su acrónimo inglés).

Su objetivo debatir sobre los límites legales y éticos de los Sistemas de Armas Autónomos Legales, conocidos como "robots asesinos".

Estos equipos -que supuestamente aún no se han desarrollado, pero cuya tecnología para lograrlo sí- podrían tener la capacidad de dilucidar de forma autónoma y sin ninguna intervención humana si es preciso o no matar a una persona.

Para ello deben tener la capacidad de evaluar si el objetivo es civil o militar, si es un soldado "amigo" o "enemigo", y si es proporcional o adecuado acabar con su vida.

Esta capacidad y el hecho de que exista en la realidad, entraña dudas éticas y legales y es por ello que representantes de sesenta estados miembros de la ONU, bajo el auspicio de la Convención sobre Ciertas Armas Convencionales, han convocado un reunión de expertos para debatir sobre el tema.

Es la segunda convocatoria de este tipo y no se espera que de ésta surja ninguna decisión, ni compromiso, sino "simplemente un poco más de claridad sobre qué son estas máquinas y cómo debemos enmarcarlas y/o delimitarlas", explicó en rueda de prensa el diplomático alemán Michael Biontino, presidente de la reunión.

"Por ahora estamos muy lejos de incluso saber como son estas máquinas, qué forma tienen, como serán. De hecho, creo entender que estamos lejos de que existan porque es muy difícil programar una máquina que tome tantas decisiones por si sola", agregó Biontino.

¿QUIÉN ASUMIRÍA LA RESPONSABILIDAD?

Durante esta semana habrá diversos foros y mesas redondas en donde una treintena de expertos -con distintos puntos de vista- expondrán su conocimiento sobre el alcance de estos sistemas.

La idea es tener cuanta más información posible sobre la tecnología, cómo se podrá usar y controlar y, sobre todo, bajo que legislación recaerá.

"Por ahora hay amplio consenso en que la Ley Humanitaria Internacional se aplicaría, pero la duda es si hay que legislar específicamente para ellos o no", explicó el diplomático.

Algunos países y, especialmente, las ONGs y activistas de derechos humanos, abogan porque se cree un protocolo específico que delimite el uso o directamente prohíba estos sistemas, tal y como ocurre con las armas químicas, cuya producción, almacenamiento y uso está prohibida.

"El problema es que para prohibir hay que conocer, y por ahora, no conocemos suficientemente cómo estos sistemas funcionarán. Establecer una definición ahora sería prematuro", confesó Biontino.

Uno de los aspectos claves es el de la responsabilidad. Quién asumirá la responsabilidad por la acción de estos sistemas. El segundo tema esencial es el aspecto ético y moral de dejar que una máquina tome la decisión de acabar con la vida de un ser humano.

Durante esta semana, el diplomático tratará de aglutinar las posiciones mayoritarias y al final del encuentro redactará a título personal un informe incluyéndolas que debería servir de base para más discusión o eventual toma de decisiones, algo que, a su entender no ocurrirá a corto plazo, porque hay muchos países que aún no tienen una opinión formada al respecto.