The next generation of weapons in military arsenals could be "killer robots," machines that would select and destroy specific targets without further human intervention. But if a robot broke the law, who would be held responsible? Would the programmer, manufacturer, military commander, or robot end up in court?

© 2015 Russell Christian for Human Rights Watch

(Ginebra) – Programadores, fabricantes y personal militar podrían eximirse de toda responsabilidad penal por las muertes y lesiones ilegítimas causadas por las armas completamente autónomas, también conocidas como “robots asesinos”, dijo Human Rights Watch en un informe publicado hoy. El documento fue publicado en vísperas de una reunión multilateral sobre el tema en Naciones Unidas en Ginebra.

El informe de 38 páginas, Mind the Gap: The Lack of Accountability for Killer Robots (“¡Cuidado con la brecha!: La falta de rendición de cuentas de los robots de combate”), detalla importantes obstáculos para la asignación de responsabilidad personal por las acciones de las armas completamente autónomas tanto bajo el derecho civil como penal. También profundiza en las consecuencias de no asignar responsabilidad legal. El informe está publicado conjuntamente por Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard.

“El vacío en la rendición de cuentas significa que no hay disuasión para futuros delitos, ni reparación para las víctimas, ni ninguna condenación social del responsable”, señaló Bonnie Docherty, investigadora principal de la división de Armas de Human Rights Watch y autora principal del informe. “Los numerosos obstáculos a la justicia que afrontan las potenciales víctimas demuestran por qué necesitamos con urgencia una prohibición de las armas completamente autónomas”.

Los robots asesinos significarían un paso más allá de los drones existentes, ya que permitirían seleccionar y atacar objetivos sin un control humano significativo. Aunque no existan todavía, la rápida evolución de la tecnología en esa dirección ha llamado la atención internacional y causado preocupación.

Human Rights Watch es miembro fundador y coordinador de la Campaign to Stop Killer Robots (Campaña contra los robots asesinos). Esta coalición internacional de más de 50 organizaciones no gubernamentales pide la prohibición preventiva del desarrollo, producción y uso de las armas totalmente autónomas.

El informe será distribuido, en Ginebra, durante una reunión internacional de alto perfil de las Naciones Unidas sobre “los sistemas de armas letales autónomas”, del 13 al 17 de abril de 2015. Se espera que muchos de los 120 países que se han adherido a la Convención sobre Armas Convencionales asistan a la reunión de expertos sobre el tema, que continuará las deliberaciones que se iniciaron en una primera reunión en mayo de 2014.

Human Rights Watch cree que el acuerdo para trabajar en el asunto concerniente a esta clase de armas durante el foro de la Convención sobre Armas Convencionales podría conducir a una nueva legislación internacional que prohíba las armas totalmente autónomas. La convención prohibió de manera preventiva las armas láser cegadoras en 1995.

Una preocupación clave relacionada con los robots asesinos es que serían proclives a causar bajas civiles en violación del derecho internacional humanitario (también conocido como las leyes de la guerra) y la legislación internacional de derechos humanos. La falta del control humano significativo que caracteriza este tipo de armas dificultaría asignar una responsabilidad penal por cualquier acción ilegítima.

Los comandantes u operadores militares podrían ser declarados culpables en caso de utilizar de manera intencionada un arma totalmente autónoma para cometer un crimen, aseguró Human Rights Watch. Sin embargo, es probable que eludieran la justicia en situaciones más comunes en las que no pudieran predecir el ataque ilegal de un robot autónomo y/o fueran incapaces de detenerlo.

“Un arma totalmente autónoma podría cometer actos que ascenderían al nivel de crímenes de guerra si fueran llevados a cabo por una persona, pero las víctimas vieron como nadie fue castigado por estos crímenes”, aseguró Docherty, que también es profesora de la Clínica de la Facultad de Derecho de Harvard. “Referirse a estos actos como ‘accidentes’ o ‘fallas’ trivializaría el daño mortal que podrían causar”.

Los obstáculos a la rendición de cuentas serían igualmente difíciles de superar bajo el derecho civil, dijo Human Rights Watch. La responsabilidad civil sería prácticamente imposible, al menos en Estados Unidos, debido a la inmunidad otorgada por la ley a los militares y sus contratistas, y los obstáculos probatorios en los casos de demandas por responsabilidad de productos. Muchos otros países tienen sistemas similares de inmunidad soberana.

Incluso en caso de tener éxito, una demanda civil tendría una eficacia limitada como herramienta para la rendición de cuentas. El enfoque principal de las sanciones civiles es compensar a las víctimas, no el castigo. Mientras que las indemnizaciones económicas pueden asistir a las víctimas, no son un sustituto para la responsabilidad penal en términos de disuasión, justicia retributiva y estigma moral.

Un sistema en el que las víctimas pudieran recibir una compensación sin demostrarse la culpa legal tampoco lograría una rendición de cuentas significativa, y la mayoría de los gobiernos serían reacios a adoptar un sistema de este tipo, dijo Human Rights Watch.

La brecha en la rendición de cuentas es solo una de una serie de preocupaciones planteadas por las armas completamente autónomas. En otras publicaciones, Human Rights Watch hizo referencia a los desafíos a los que las armas se enfrentarían para cumplir con la ley humanitaria internacional y el derecho internacional de los derechos humanos. También ha mostrado sus preocupaciones sobre una potencial carrera armamentística, la perspectiva de la proliferación y la pregunta sobre si es ético que las máquinas tomen decisiones de vida o muerte en el campo de batalla.

“La brecha de la rendición de cuentas refuerza el argumento legal, moral y tecnológico contra las armas completamente autónomas e impulsa el llamado a una prohibición preventiva”, dijo Docherty.