Skip to main content

Los “Robots de Combate” deben ser excluidos de toda vigilancia policial

Las armas completamente autónomas amenazan los derechos tanto en tiempos de paz como de guerra

(Ginebra) – Las armas completamente autónomas, también conocidas como “robots de combate”, supondrían una amenaza contra los derechos humanos fundamentales, independientemente de si son usadas en tiempos de guerra o como herramienta en manos de los agentes del orden, dijo Human Rights Watch en un informe publicado hoy, en la víspera de la primera reunión multilateral sobre el tema en las Naciones Unidas.

El informe de 26 páginas, “Shaking the Foundations: The Human Rights Implications of Killer Robots” (“Sacudiendo los fundamentos: Las implicaciones de derechos humanos de los robots de combate”), es el primer informe que evalúa en profundidad los riesgos que plantean estas armas durante operaciones policiales, expandiendo así el debate más allá del campo de batalla. Human Rights Watch concluyó que las armas completamente autónomas pondrían en entredicho los derechos y principios del derecho internacional tan fundamentales como el derecho a la vida, el derecho a la ayuda y el principio de la dignidad.

“Tanto en la vigilancia policial, así como en la guerra, el juicio humano es de vital importancia en cualquier decisión de utilizar un arma letal”, dijo Steve Goose, director de la división de armas de Human Rights Watch. “Los gobiernos deben rechazar las armas totalmente autónomas para cualquier propósito y prohibirlas preventivamente ahora, antes de que sea demasiado tarde”.

El debate internacional sobre las armas totalmente autónomas se ha centrado anteriormente en su posible papel en los conflictos armados y cuestiones sobre si serían capaces de cumplir con el derecho internacional humanitario, también conocido como las leyes de la guerra. Human Rights Watch, en el nuevo informe, analiza el impacto potencial de las armas completamente autónomas según la legislación de derechos humanos, que es vinculante tanto en tiempos de paz como de conflicto armado.

Los países deben adoptar una prohibición internacional preventiva en contra de estas armas, que podrían identificar y disparar contra blancos sin una intervención humana significativa, señaló Human Rights Watch. Los países están tratando de lograr una autonomía en las armas cada vez mayor y ya existen precursores.

La publicación del informe, coeditado con la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, coincide con la primera reunión multilateral sobre estas armas. Se espera que muchos de los 117 países que se han sumado a la Convención sobre Armas Convencionales asistan a la reunión de expertos sobre sistemas de armas letales autónomas que se celebrará en las Naciones Unidas en Ginebra, del 13 al 16 de mayo de 2014. Los miembros de la convención acordaron en su reunión anual de noviembre de 2013 que empezarían a abordar este tema en 2014.

Human Rights Watch cree que el acuerdo para trabajar en el tema concerniente a este tipo de armas durante el foro de la Convención sobre Armas Convencionales podría conducir a una nueva legislación internacional que prohíba las armas totalmente autónomas. La convención prohibió preventivamente las armas láser cegadoras en 1995.

Human Rights Watch es un miembro fundador y coordinador de la Campaña contra los Robots de Combate. Esta coalición de 51 organizaciones no gubernamentales en dos docenas de países pide la prohibición preventiva del desarrollo, producción y uso de armas totalmente autónomas.

Human Rights Watch publicó su primer informe sobre el tema,“Losing Humanity: The Case Against Killer Robots” (Perder la humanidad: razones para rechazar el uso de robots de combate), en noviembre de 2012. En abril de 2013, Christof Heyns, el relator especial sobre las ejecuciones extrajudiciales, sumarias o arbitrarias de la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, emitió un informe citando un amplio abanico de objeciones a las armas, e instó a todos los países a que adoptaran una moratoria nacional y abrieran un debate internacional sobre la forma de abordarlas.

Las armas totalmente autónomas podrían ser propensas a matar a gente de forma ilegal porque no pueden ser programadas para manejar cada situación, concluyó Human Rights Watch. De acuerdo con expertos en robótica, hay pocas posibilidades de que estas armas puedan poseer cualidades humanas, como el juicio, que facilitan el cumplimiento del derecho a la vida en situaciones imprevistas.

Las armas totalmente autónomas también socavarían la dignidad humana, señaló Human Rights Watch. Estas máquinas inanimadas no podrían comprender ni respetar el valor de la vida pero sí tendrían la facultad de determinar cuándo acabar con ella.

Existen serias dudas sobre si podría haber responsabilidad significativa por las acciones de un arma totalmente autónoma. Habría obstáculos legales y prácticos para encontrar a cualquier persona –funcionario superior, programador o fabricante— responsable de las acciones de un robot. Tanto el derecho penal como el civil no están adaptados para esta función, concluyó Human Rights Watch.

“La brecha de la rendición de cuentas debilitaría la disuasión para violaciones futuras”, dijo Bonnie Docherty, investigadora principal de la división de Armas de Human Rights Watch y profesora de la Clínica de la Universidad de Harvard, así como autora del informe. “Sería muy difícil para las familias obtener compensación o remedio por el homicidio ilegítimo de un familiar por una máquina de este tipo”.

El impacto en los derechos humanos de los robots de combate agrava una serie de otros problemas legales, éticos y científicos sobre estas armas, incluyendo una potencial carrera armamentística, la perspectiva de la proliferación y preguntas sobre su capacidad para proteger a los civiles de manera adecuada en el campo de batalla o la calle, concluyó Human Rights Watch.

Your tax deductible gift can help stop human rights violations and save lives around the world.

Las más vistas