jueves, 28 de agosto de 2014

Robots asesinos a sólo un paso. Debe ser prohibidos, dice un alto funcionario de la ONU

+



















Un alto funcionario de la ONU dice que los robots de guerra que pueden matar sin control humano deberían ser prohibidas.
Por Ben Farmer , Corresponsal de Defensa de The Telegraph.

Robots asesinos programados para abrir fuego sin control humano en el campo de batalla. Las potencias militares deben ponerse de acuerdo para prohibirlos, ha dicho un alto funcionario de las Naciones Unidas.

Angela Kane, el alto representante de la ONU para el desarme, dijo que los gobiernos deberían estar más abiertos sobre los programas que desarrollan tecnología y que favorecer una prohibición preventiva antes que sea demasiado tarde.

Ella dijo que "Cualquier arma de guerra es terrible, y si se puede usar ésta sin intervención humana, creo que es aún peor. Se agrava el problema y deshumaniza de alguna manera."

Se convierte en una guerra sin rostro, y creo que eso es realmente terrible y yo pienso que debería prohibirse. La decisión está realmente en manos de los estados que tienen la capacidad para desarrollarlas ".

Kane dijo que hay "una gran preocupación" por la posibilidad de los planes de desarrollo de "robots asesinos"  que cometerían crímenes de guerra en batalla.

Hubo, a propósito,  una gran resistencia por parte de las grandes potencias militares para discutir el tema.

El año pasado, Alistair Burt, conservador, dijo que si bien la tecnología tenía potencialmente implicaciones "terribles", Gran Bretaña "se reserva el derecho" a desarrollarla para proteger a sus tropas.

Kane dijo: "Hay una gran preocupación por la creciente automatización globalizada. Basta con pensar en los coches de auto-conducción que oímos se están probando en las carreteras. De tal forma que eso es apenas un pequeño paso para el desarrollo de armas que van a ser desarrolladas para ser activadas sin intervención humana. La guerra, en general, se está convirtiendo cada vez más en una acción automatizada. "

También dijo que  "La preocupación se refiere específicamente a las armas que tienen la capacidad de seleccionar y atacar objetivos sin intervención humana. ¿Quién tiene la responsabilidad y a quién se le tendría que pedir? Esto es realmente un gran problema en términos de cómo vamos sobre este ".

Las Naciones Unidas celebró su primera reunión sobre la amenaza de "armas letales autónomas" a principios de este año. Otra cumbre está prevista para el otoño.

 Preocupa que este tipo de armas en muchos países subdesarrollo, puedan utilizarse en su territorio, como aviones tripulados por control remoto se han utilizado en los últimos años.

"Personalmente, creo que no puede ser un arma que deban ser usadas sin la intervención humana. Yo no creo que nunca debiera haber un arma, , que no esté manejada y donde la responsabilidad esté claramente establecida sobre quién la dirige o la ha iniciarlo. No creo en  armas que pudieran ser controlados sólo por robots ".

Los militares están haciendo un uso creciente de robots, máquinas de desactivación de bombas, de aviones no tripulados armados dirigidos por control remoto, la realización de ataques con misiles. Israel ha experimentado con robots para el control de fronteras y EE.UU.  lo ha probado en Irak y Afganistán. Pero un experto en robots militares, dijo que todas las máquinas actuales 'son controladas y dirigidas por seres humanos, que toman la decisión final.

Huw Williams,  Editor de opinión de Unmanned Systems at IHS Jane’s International Defence, dijo que no sabía de ningún programa para haga robots asesinos e incluso las máquinas más avanzadas tenían poca capacidad de actuar por su cuenta.

Él dijo que "La autonomía en este momento es bastante limitada. Se establecen los parámetros de la tarea, se dan puntos de paso y se indica donde ir y qué hacer x, y y z. A continuación, el equipo decide: '¿Cómo puedo sacar de x a y a z de la manera más eficiente y hacer las cosas?' Pero en términos de verdadero pensamiento, la autonomía real, todavía no. "

Si bien es teóricamente posible que un robot podría tener sensores y disparar cuando se detecta algo, dijo, tomando el control humano, habría grandes desventajas para los comandantes.

Él dijo: "En primer lugar hay una pérdida real de control sobre el campo de batalla para los comandantes. En segundo lugar, si se comete un error hay un problema real con la rendición de cuentas ".