La creciente oposición a las armas totalmente autónomas desde varios sectores de la sociedad muestra cómo la conciencia pública apoya la prohibición de todo sistemas de armas que carezcan de un control humano significativo.

Atender la llamada

Un imperativo moral y legal prohibir los robots asesinos

La creciente oposición a las armas totalmente autónomas desde varios sectores de la sociedad muestra cómo la conciencia pública apoya la prohibición de todo sistemas de armas que carezcan de un control humano significativo.  © 2018 Russell Christian/Human Rights Watch

Resumen

En los casos que no previstos en este Protocolo u otros acuerdos internacionales, civiles y combatientes permanecen bajo la protección y la autoridad del derecho internacional, derivado de la costumbre establecida, de los principios de la humanidad y de los dictados de conciencia pública.

— Cláusula Martens, como se indica en el Protocolo Adicional 1977 de los Convenios de Ginebra

Las armas completamente autónomas son algunas de las tecnologías militares en desarrollo más alarmantes en la actualidad. Por esta razón, hay una necesidad urgente para que los Estados, expertos y el púbico en general, examinen estas armas bajo la Cláusula Martens, la única provisión de derecho internacional humanitario que establece una línea base para la protección de los civiles y los combatientes, dado que no existe ningún tratado específico sobre este tema. Este reporte muestra cómo las armas completamente autónomas, que tienen la capacidad de seleccionar y atacar blancos sin control humano, infringen la Cláusula Martens, los principios de la humanidad y los dictados de conciencia pública. Para cumplir con la Cláusula Martens, los Estados deberían adoptar una prohibición preventiva del desarrollo, producción y uso de las armas.

El rápido desarrollo de la tecnología autónoma y la inteligencia artificial (IA) implica que las armas completamente autónomas, podrían convertirse en una realidad en el futuro. Además, los llamados “robots asesinos” y los sistemas letales de armas completamente autónomas levantan una gran cantidad de preocupaciones morales, legales, de responsabilidad, operacionales, técnicas y de seguridad. Estas armas han sido sujeto de debate internacional desde 2013. En ese año, fue lanzada una coalición de sociedad civil, la Campaña contra los Robots Asesinos, y empezó a presionar a los Estados para discutir sobre las armas. Luego de que se realizarán tres reuniones informales de expertos, los Estados parte la Convención sobre Ciertas Armas Convencionales (CCAC), iniciaron charlas formales sobre el tema en 2017. En agosto de 2018, aproximadamente 80 Estados serán convocados nuevamente para la próxima reunión del Grupo de Expertos Gubernamentales de la CCAC.

A medida que los Estados parte de la CCAC evalúan las armas completamente autónomas y el camino a seguir, la Cláusula Martens debería ser un elemento central en las discusiones. La cláusula, que es una característica común del derecho internacional humanitario y de los tratados de desarme, declara que en ausencia de un acuerdo internacional, la costumbre establecida, los principios de la humanidad y los dictados de conciencia pública deberían proveer protección para civiles y combatientes. La cláusula aplica a las armas completamente autónomas porque no son abordadas específicamente por el derecho internacional. Los expertos difieren sobre la significancia legal precisa de la Cláusula Martens, específicamente, sobre si refiere al derecho consuetudinario, equivale a una fuente independiente del derecho o sirve como una herramienta de interpretación. Mínimamente, sin embargo, la Cláusula Martens provee factores claves para que los Estados consideren mientras evalúan una tecnología de armas emergente, incluyendo armas completamente autónomas. Crea una norma moral para juzgar dichas armas.

Los Principios de la Humanidad

Debido a su falta de emoción y juicio legal y ético, las armas completamente autónomas se enfrentarían a obstáculos significativos para cumplir con los principios de la humanidad. Esos principios requieren el trato humano de los demás, el respeto por la vida humana y la dignidad humana. Los seres humanos están motivados a tratarse entre sí humanamente, porque sienten compasión y empatía por sus semejantes. El juicio legal y ético proporciona a las personas los medios para minimizar el daño; les permite tomar decisiones consideradas basadas en la comprensión de un contexto particular. Como máquinas, las armas completamente autónomas no serían seres sensibles capaces de sentir compasión. En lugar de ejercer un juicio, tales sistemas de armas basarían sus acciones en algoritmos preprogramados, que no funcionan bien en situaciones complejas e impredecibles.

Mostrar respeto por la vida humana implica minimizar la matanza. El juicio ético y legal ayuda a los seres humanos a sopesar diferentes factores, para evitar la pérdida arbitraria e injustificada de vidas en conflictos armados. Sería difícil recrear ese juicio, desarrollado tanto en la historia de la humanidad como en la vida individual, en armas completamente autónomas, y no se podrían preprogramar para enfrentar todos los escenarios posibles de acuerdo con las normas legales y éticas aceptadas. Además, la mayoría de los humanos poseen una resistencia innata a la matanza, que se basa en su comprensión del impacto de la pérdida de vidas, que las armas completamente autónomas, como máquinas inanimadas, no podrían compartir.

Incluso si las armas completamente autónomas pudieran proteger adecuadamente la vida humana, serían incapaces de respetar la dignidad humana. A diferencia de los seres humanos, estos robots serían incapaces de apreciar plenamente el valor de una vida y el significado de su pérdida. Tomarían decisiones de vida o muerte basadas en algoritmos, reduciendo sus objetivos humanos a objetos. Las armas completamente autónomas violarían así los principios de la humanidad en todos los frentes.

Los dictados de la conciencia pública

El aumento de la indignación ante un panorama de armas completamente autónomas, sugiere que esta nueva tecnología también va en contra de la segunda parte de la Cláusula Martens, los dictados de la conciencia pública. Estos dictados consisten en pautas morales basadas en el conocimiento de lo que es correcto e incorrecto. Pueden determinarse a través de las opiniones del público y de los gobiernos.

Muchos individuos, expertos y gobiernos se han opuesto enérgicamente al desarrollo de armas completamente autónomas. Múltiples encuestas de opinión pública han registrado oposición a estas armas. Los expertos, que han examinado el tema con mayor profundidad, han emitido cartas abiertas y declaraciones que reflejan conciencia, incluso mejor que las encuestas. Las organizaciones internacionales y las organizaciones no gubernamentales (ONG), junto con los líderes en materia de desarme y derechos humanos, paz y religión, ciencia y tecnología, y la industria, se han visto obligados, en particular por razones morales, a pedir la prohibición de armas completamente autónomas. Han condenado estas armas como "inconcebibles", "aborrecibles (...) a lo sagrado de la vida", "imprudentes" y "poco éticas".

Los gobiernos han incluido el cumplimiento de la Cláusula Martens y las deficiencias morales, entre sus principales preocupaciones en relación a las armas completamente autónomas. A partir de julio de 2018, 26 estados apoyaron una prohibición preventiva y más de 100 Estados habían pedido un instrumento legalmente vinculante para abordar las preocupaciones planteadas por los sistemas de armas autónomos letales. Casi todos los partidos estatales de la CCAC que hablaron en su última reunión en abril de 2018, destacaron la necesidad de mantener el control humano sobre el uso de la fuerza. El consenso emergente para preservar un control humano significativo, que es efectivamente equivalente a una prohibición de armas que carecen de tal control, muestra que la conciencia pública está fuertemente en contra de las armas completamente autónomas.

La necesidad de un Tratado de Prohibición Preventiva

Una evaluación de las armas completamente autónomas bajo la Cláusula Martens subraya la necesidad de una nueva ley, que sea específica y fuerte. Las regulaciones que permitieran la existencia de armas completamente autónomas no serían suficientes. Por ejemplo, limitar el uso a ciertos lugares no evitaría el riesgo de proliferación para los actores con poco respeto por el trato o la vida humana, ni garantizaría el respeto por la dignidad de los civiles o combatientes. Además, la conciencia pública revela un amplio apoyo a la prohibición de las armas completamente autónomas, o su equivalente, un requisito para el control humano significativo. Para garantizar el cumplimiento de los principios de la humanidad y los dictados de la conciencia pública, los Estados deben, por lo tanto, prohibir de manera preventiva el desarrollo, la producción y el uso de armas completamente autónomas.

Recomendaciones

Para evitar los riesgos legales, morales y de otra índole que plantean las armas completamente autónomas y la pérdida del control humano significativo sobre la selección y el compromiso de los objetivos, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Escuela de Derecho de Harvard (IHRC) recomiendan:

A los Estados parte de la CCAC

  • Adoptar, en su reunión anual en noviembre de 2018, un mandato para negociar un nuevo protocolo que prohíba los sistemas de armas autónomos, o sistemas de armas letales autónomas, con miras a concluir las negociaciones para fines de 2019.
  • Utilizar la reunión del Grupo de Expertos Gubernamentales de agosto de 2018 para presentar posiciones nacionales claras y llegar a un acuerdo sobre la necesidad de adoptar un mandato de negociación, en la reunión anual de noviembre.
  • Desarrollar posiciones nacionales y adoptar prohibiciones nacionales, como pilares clave para lograr la prohibición internacional.
  • Expresar su oposición a las armas completamente autónomas, incluso en los términos legales y morales reflejados en la Cláusula Martens, para desarrollar aún más la conciencia pública existente.

A expertos en el sector privado

  • Oponerse a la eliminación del control humano significativo de los sistemas de armas y al uso de la fuerza.
  • Expresar públicamente su apoyo explícito al llamado a prohibir las armas completamente autónomas, incluso en los términos morales y legales reflejados en la Cláusula Martens, e instar a los gobiernos a comenzar a negociar nuevas leyes internacionales.
  • Comprometerse a no diseñar o desarrollar IA para su uso en la creación de armas completamente autónomas, a través de códigos de conducta, declaraciones de principios y otras medidas que aseguren que el sector privado no avance en el desarrollo, producción o uso de armas completamente autónomas.

I. Antecedentes de las armas completamente autónomas

Las armas completamente autónomas serían capaces de seleccionar y atacar objetivos sin un control humano significativo. Representan un paso inaceptable, más allá de los drones armados existentes, porque un humano no tomaría la decisión final sobre el uso de la fuerza en ataques individuales. Las armas completamente autónomas, también conocidas como sistemas letales de armas autónomas y "robots asesinos" aún no existen, pero están en desarrollo y las inversiones militares en tecnología autónoma están aumentando a un ritmo alarmante.

Los riesgos de las armas completamente autónomas superan sus supuestos beneficios. Los defensores destacan que la nueva tecnología podría salvar la vida de los soldados, procesar datos y operar a velocidades más altas que los sistemas tradicionales, además de ser inmunes al miedo y la ira, evitando así víctimas civiles. Sin embargo, plantean una gran cantidad de preocupaciones, muchas de las cuales Human Rights Watch ha destacado en publicaciones anteriores. Primero, delegar las decisiones de vida o muerte a las máquinas cruza una línea roja moral. En segundo lugar, las armas completamente autónomas se enfrentarían a desafíos importantes que incumplen con el derecho internacional humanitario. En tercer lugar, crearían un vacío de responsabilidad porque sería difícil responsabilizar a una persona por los daños imprevistos causados por un robot autónomo. Cuarto, las armas completamente autónomas serían vulnerables a la falsificación y a la piratería. En quinto lugar, estas armas podrían amenazar la seguridad mundial porque podrían conducir a una carrera de armamentos, proliferar en actores con poco respeto por el derecho internacional y bajar el umbral a la guerra.[1]

Este informe se enfoca en otra preocupación, que abarca la ley y la moralidad, es decir, la probabilidad de que armas completamente autónomas contravengan la Cláusula Martens. Esta disposición del derecho internacional humanitario requiere que los Estados tomen en cuenta los principios de la humanidad y los dictados de la conciencia pública, al examinar la tecnología de las armas emergentes. Una característica común en los convenios de Ginebra y los tratados de desarme, la cláusula representa una obligación legal de los Estados de considerar cuestiones morales.

La gran cantidad de problemas que presentan las armas completamente autónomas, incluidas los de la Cláusula Martens, exigen medidas urgentes. Algunos Estados han propuesto un enfoque de esperar y ver, dado que no está claro qué tecnología podría ser desarrollada. Sin embargo, las apuestas involucradas apuntan a la necesidad de un enfoque de precaución. La incertidumbre científica no debe interponerse en el camino de la acción para prevenir lo que algunos científicos han denominado “la tercera revolución en la guerra, después de la pólvora y las armas nucleares”.[2] Los países deberían adoptar una prohibición preventiva sobre el desarrollo, la producción y el uso de sistemas completamente autónomos.

II. Historia de la Cláusula Martens

Si bien la cláusula de Martens se originó en un compromiso diplomático, ha servido para fines humanitarios. Afirma que, en ausencia de una ley de tratados específicos, las costumbres establecidas, los principios de la humanidad y los dictados de la conciencia pública brindan protección a los civiles y combatientes. Desde su introducción, la Cláusula Martens se ha convertido en una característica común de los instrumentos fundamentales del derecho internacional humanitario. La cláusula también aparece en numerosos tratados de desarme. Las protecciones que proporciona la Cláusula Martens y el reconocimiento legal que ha recibido destacan su valor para examinar los sistemas de armas emergentes que podrían causar daños humanitarios en el campo de batalla y más allá.

Orígenes de la Cláusula Martens

La Cláusula Martens apareció por primera vez en el preámbulo del Convención de La Haya de 1899, que contiene el Reglamento sobre las leyes y las costumbres de la guerra terrestre. En esa iteración, la cláusula de Martens establece:

Hasta que se emita un código más completo de las leyes de la guerra, las Altas Partes Contratantes consideran correcto declarar que, en los casos que no están incluidos en el Reglamento adoptado por ellas, las poblaciones y los beligerantes permanecen bajo la protección y el imperio de los principios del derecho internacional, como resultan de los usos establecidos entre las naciones civilizadas, de las leyes de la humanidad y de los requisitos de la conciencia pública.[3]

Por lo tanto, la cláusula proporciona un nivel básico de protección para civiles y combatientes cuando no existe una ley específica.

El diplomático y jurista ruso, Fyodor Fyodorovich Martens, propuso la Cláusula Martens como una forma de romper el estancamiento de las negociaciones en la Conferencia de la Paz de La Haya de 1899, que se había convocado para adoptar reglas que restringieran la guerra, redujeran el gasto en armas y promovieran la paz.[4] Las grandes potencias y las potencias menores no estaban de acuerdo sobre la cantidad de autoridad que podían ejercer las fuerzas de ocupación sobre la población local. Las grandes potencias insistieron en la creación de un nuevo tratado que aclarara los derechos y obligaciones de las fuerzas de ocupación, mientras que las potencias menores se opusieron a la codificación de las disposiciones de una declaración política anterior, que creían que no protegía adecuadamente a los civiles. La Cláusula Martens otorgó a los combatientes, frente a la ocupación extranjera, la opción de argumentar que si las disposiciones específicas del tratado no los defendían, tenían derecho al menos, a la protección que ofrecen los principios del derecho internacional derivados de la costumbre, “las leyes de la humanidad” y “los requisitos de la conciencia pública”.[5]

Uso moderno de la Cláusula Martens

En los casi 120 años transcurridos desde la adopción del Convenio de La Haya de 1899, la Cláusula Martens se ha aplicado de manera más amplia y se ha convertido en un elemento básico de los esfuerzos para extender la protección humanitaria durante los conflictos armados. Buscando reducir el impacto de las hostilidades, numerosos instrumentos del derecho internacional humanitario y el derecho de desarme han incorporado la disposición.

Convenios de Ginebra y Protocolo Adicional I

Al redactar los Convenios de Ginebra de 1949, los pilares del derecho internacional humanitario,[6] los negociadores querían garantizar que ciertas protecciones continuaran, en caso de que un Estado parte decidiera retirarse de cualquiera de los tratados. Los cuatro Convenios de Ginebra contienen la Cláusula Martens en sus artículos sobre denuncias, que abordan las implicancias de que un Estado deje los tratados.[7] En su comentario autoritario sobre las convenciones, el Comité Internacional de la Cruz Roja (CICR), el árbitro del derecho internacional humanitario, explica:

Si una Alta Parte Contratante tuviera que denunciar uno de los Convenios de Ginebra, continuaría estando obligada no solo por otros tratados de los que sigue siendo Parte, sino también por otras normas de derecho internacional, como el derecho consuetudinario. Por lo tanto, un acuerdo en contrario, que sugiere un vacío legal luego de la denuncia de un convenio, es imposible.[8]

El Protocolo adicional I, que fue adoptado en 1977, amplía las protecciones otorgadas a los civiles por el Cuarto Convenio de Ginebra.[9] El protocolo contiene la versión moderna de la Cláusula Martens y la versión utilizada en este informe:

En los casos no cubiertos por este Protocolo o por otros acuerdos internacionales, los civiles y los combatientes permanecen bajo la protección y autoridad de los principios del derecho internacional derivados de las costumbres establecidas, los principios de la humanidad y los dictados de la conciencia pública.[10]

Al incorporar este lenguaje en su artículo sobre “Principios generales y ámbito de aplicación” en lugar de limitarlo a una disposición sobre denuncia, el Protocolo adicional I extiende la aplicación de la Cláusula Martens. Según el comentario del CICR:

Hubo dos razones por las que se consideró útil incluir esta cláusula nuevamente en el Protocolo. Primero (...) no es posible que ninguna codificación esté completa en un momento dado; por lo tanto, la Cláusula Martens previene la suposición de que cualquier cosa que no esté explícitamente prohibida por los tratados relevantes esté, por lo tanto, permitida. En segundo lugar, debe verse como un factor dinámico que proclama la aplicabilidad de los principios mencionados, independientemente de los desarrollos posteriores de tipos de situación o tecnología.[11]

La Cláusula Martens, por lo tanto, cubre los vacíos existentes en la legislación y promueve la protección de los civiles frente a nuevas situaciones o tecnologías.

Tratados de desarme

Desde 1925, la mayoría de los tratados que contienen prohibiciones de armas también incluyen la Cláusula Martens.[12] Se refiere a la cláusula de varias formas en los preámbulos del Protocolo de Gas de Ginebra de 1925,[13] la Convención sobre las Armas Biológicas de 1972,[14] Convención sobre Armas Convencionales de 1980,[15] Convención sobre la prohibición de minas antipersonales de 1997,[16] Convención sobre Municiones en Racimo de 2008[17] y el Tratado sobre la Prohibición de las Armas Nucleares de 2017.[18] Aunque un preámbulo no establece reglas vinculantes, puede informar la interpretación de un tratado y se suele utilizar para incorporar, por referencia, el contexto de la ley ya existente. La inclusión de la Cláusula Martens indica que si las disposiciones operativas de un tratado presentan vacíos, deben llenarse con las costumbres establecidas, los principios de humanidad y los dictados de la conciencia pública. Al incorporar la Cláusula Martens en esta línea de tratados de desarme, los Estados han reafirmado su importancia para el derecho internacional humanitario en general y para el derecho de armas en particular.

El uso generalizado de la Cláusula Martens la hace relevante para las discusiones actuales sobre armas completamente autónomas. La cláusula proporciona una norma para garantizar que los civiles y los combatientes reciban al menos las protecciones mínimas de tales armas problemáticas. Además, la mayoría de las discusiones diplomáticas sobre armas completamente autónomas han tenido lugar bajo los auspicios de la CCAC, que incluye la Cláusula Martens en su preámbulo. Por lo tanto, una evaluación de armas completamente autónomas bajo la Cláusula Martens debería jugar un papel clave en las deliberaciones sobre un nuevo protocolo de la CCAC. 

III. Aplicabilidad y significado de la Cláusula Martens

La Cláusula Martens se aplica en ausencia de una ley específica sobre un tema. Los expertos no están de acuerdo con su importancia legal, pero como mínimo, proporcionan factores que los Estados deben tener en cuenta al examinar los nuevos desafíos planteados por las tecnologías emergentes. Su importancia para el derecho de desarme en particular es evidente en las negociaciones que llevaron a la adopción de una prohibición preventiva de los láseres cegadores. Por lo tanto, los Estados y otros deben tener en cuenta la cláusula al analizar la legalidad de las armas completamente autónomas y la mejor manera de abordarlas.

Aplicabilidad de la Cláusula Martens

La Cláusula Martens, según lo establecido en el Protocolo adicional I, aplica “en casos no cubiertos” por el protocolo o por otros acuerdos internacionales.[19] No importa cuán cuidadosos sean, los redactores de tratados no pueden prever y abarcar todas las circunstancias en un solo instrumento. La cláusula de Martens sirve como una medida provisional para garantizar que una situación no anticipada o una tecnología emergente no subviertan el propósito general del derecho humanitario simplemente porque ninguna disposición de un tratado existente lo cubre explícitamente.[20]

La Cláusula Martens se activa cuando el derecho de los tratados existentes no aborda específicamente una determinada circunstancia. Como lo explicó el Tribunal Militar de los Estados Unidos en Nüremberg, la cláusula hace que “los usos establecidos entre las naciones civilizadas, las leyes de la humanidad y los dictámenes de la conciencia pública en el criterio legal, se apliquen cuando las disposiciones específicas de [la ley existente] no cubran casos específicos que ocurren en la guerra”.[21] Es particularmente relevante para las nuevas tecnologías que los redactores de leyes existentes pueden no haber predicho. Al enfatizar que la cláusula de "la continua existencia y aplicabilidad no debe ponerse en duda", la Corte Internacional de Justicia destacó que “ha demostrado ser un medio eficaz para abordar la rápida evolución de la tecnología militar”.[22] Dado que a menudo hay una escasez de ley en esta área, la Cláusula Martens proporciona un estándar para armas emergentes.

Como una forma de tecnología en rápido desarrollo, las armas completamente autónomas ejemplifican un tema apropiado para la Cláusula Martens. El derecho internacional humanitario existente se aplica a las armas completamente autónomas solo en términos generales. Requiere que todas las armas cumplan con los principios básicos de distinción y proporcionalidad, pero no contiene reglas específicas para tratar con armas completamente autónomas.[23] Los redactores de los Convenios de Ginebra no podrían haber imaginado la posibilidad de un robot que pudiera hacer determinaciones independientes sobre cuándo usar la fuerza sin un control humano significativo. Dado que las armas completamente autónomas presentan un caso no cubierto por la ley existente, deben ser evaluadas bajo los principios articulados en la Cláusula Martens.

Significancia legal de la Cláusula Martens

Las interpretaciones del significado legal de la Cláusula Martens varían.[24] Algunos expertos adoptan una perspectiva estrecha, afirmando que la Cláusula Martens sirve simplemente como un recordatorio de que si un tratado no prohíbe expresamente una acción específica, la acción no se permite automáticamente. En otras palabras, los Estados deben referirse al derecho internacional consuetudinario cuando el derecho de los tratados guarda silencio sobre un tema específico.[25] Sin embargo, este punto de vista es discutiblemente insatisfactorio porque aborda solo un aspecto de la cláusula, la costumbre establecida, y no tiene en cuenta el papel de los principios de la humanidad y los dictados de la conciencia pública. Bajo reglas de interpretación legal bien aceptadas, se debe leer una cláusula para dar sentido a cada uno de sus términos.[26] Tratar los principios de la humanidad y los dictados de la conciencia pública como simples elementos de una costumbre establecida los haría redundantes y violaría esta regla.

Otros argumentan que la Cláusula Martens es en sí misma, una fuente única de ley.[27] Sostienen que el lenguaje sencillo de la Cláusula Martens eleva los principios de la humanidad y los dictados de la conciencia pública a estándares legales independientes contra los cuales juzgar situaciones no anticipadas y formas emergentes de tecnología militar.[28] Sobre esta base, una situación o arma que entre en conflicto con cualquiera de las normas es per se ilegal.

El jurista de derecho internacional público Antonio Cassese adoptó un enfoque intermedio, al tratar los principios de la humanidad y los dictados de la conciencia pública como una “guía fundamental” para la interpretación del derecho internacional.[29] Cassese escribió que “en caso de duda, las reglas internacionales, en particular las reglas que pertenecen al derecho humanitario, deben interpretarse de modo que estén en consonancia con las normas generales de la humanidad y las demandas de la conciencia pública”.[30] Por lo tanto, debe entenderse que el derecho internacional no aprueba situaciones o tecnologías que suscitan inquietudes en relación con estos aspectos de la Cláusula Martens. Como mínimo, la Cláusula Martens proporciona factores que los Estados deben tener en cuenta a medida que se acercan a la tecnología de armas emergentes, incluidas las armas completamente autónomas. En 2018, el CICR reconoció el “debate sobre si la Cláusula Martens constituye un criterio legalmente vinculante contra el cual debe medirse la legalidad de un arma o más bien una directriz ética”.[31] Sin embargo, concluyó que “está claro que la humanidad y la conciencia pública han impulsado la evolución del derecho internacional sobre las armas y estas nociones han provocado la negociación de tratados específicos para prohibir o limitar ciertas armas”.[32] Si surgen inquietudes sobre un arma bajo los principios de humanidad o dictados de conciencia pública, la adopción de una ley nueva y más específica que elimine las dudas sobre la legalidad de un arma puede aumentar la protección de civiles y combatientes.

La Cláusula Martens también hace que las consideraciones morales sean legalmente relevantes. Está codificado en tratados internacionales, pero requiere evaluar una situación o tecnología de acuerdo con los principios de humanidad y los dictados de la conciencia pública, los cuales incorporan elementos de moralidad. Peter Asaro, un filósofo de la ciencia y la tecnología, escribe que la Cláusula Martens invita a la “reflexión moral sobre el papel de los principios de la humanidad y los dictados de la conciencia pública al articular y establecer un nuevo [derecho internacional humanitario]”.[33] Si bien una evaluación moral de armas completamente autónomas es importante por sí misma, la Cláusula Martens también hace que sea un requisito legal en ausencia de una ley específica.

Precedente de la prohibición preventiva de los láseres cegadores

Los Estados, las organizaciones internacionales y la sociedad civil han invocado la Cláusula Martens en deliberaciones previas sobre tecnología emergente no regulada.[34] Lo encontraron especialmente aplicable a las discusiones sobre los láseres cegadores en la década de 1990. Estos grupos se referían explícita e implícitamente a los elementos de la Cláusula Martens como justificación para prohibir de forma preventiva los láseres cegadores. El Protocolo IV de CCAC, adoptado en 1995, codifica la prohibición.[35]

Durante una mesa redonda convocada por el CICR en 1991, los expertos destacaron la relevancia de la Cláusula Martens. La abogada del CICR, Louise Doswald-Beck, argumentó que “las decisiones para imponer restricciones específicas sobre el uso de ciertas armas pueden basarse en consideraciones políticas” y que “los criterios consagrados en la Cláusula Martens [deberían] ser particularmente tomados en cuenta”.[36] Otro participante dijo que: “la Cláusula Martens aborda particularmente el problema del sufrimiento humano para que ‘la conciencia pública’ se refiera a lo que se considera inhumano o socialmente inaceptable”.[37]

Los críticos de los láseres cegadores hablaron en términos que demostraron que las armas plantean preocupaciones bajo los principios de la humanidad y los dictados de la conciencia pública. Varios oradores en las reuniones convocadas por el CICR coincidieron en que “las armas diseñadas para cegar son (...) socialmente inaceptables”.[38] El propio CICR apeló “a la conciencia de la humanidad” al abogar por una prohibición.[39] En la Primera Conferencia de Revisión de la CCAC, representantes de la agencias de la ONU y la sociedad civil describieron los láseres cegadores como "inhumanos”,[40] “aborrecibles a la conciencia de la humanidad”[41] e “inaceptable en el mundo moderno”.[42] Una campaña de concientización pública particularmente efectiva del CICR, utilizó fotografías de soldados cegados por gas venenoso durante la Primera Guerra Mundial para enfatizar el hecho de que el cegamiento permanente de los soldados es cruel e inhumano.

Tales caracterizaciones de los láseres cegadores estaban vinculadas a la necesidad de una prohibición preventiva. Por ejemplo, durante el debate en la Primera Conferencia de Revisión, Chile expresó su esperanza de que el organismo “podría establecer pautas de acción preventiva para prohibir el desarrollo de tecnologías inhumanas y, por lo tanto, evitar la necesidad de remediar la miseria que podrían causar”.[43] En una resolución de diciembre de 1995 que instaba a los Estados a ratificar el Protocolo IV, el Parlamento Europeo declaró que “el cegamiento deliberado como método de guerra es abominable”.[44] Utilizando el lenguaje de la Cláusula Martens, el Parlamento Europeo declaró que “el cegamiento deliberado como método de guerra está (...) en contravención de las costumbres establecidas, los principios de la humanidad y los dictados de la conciencia pública”.[45] El CICR dio la bienvenida al Protocolo IV como una “victoria de la civilización sobre la barbarie”.[46]

Las discusiones en torno al Protocolo IV de la CCAC subrayan la relevancia de la Cláusula Martens para el debate actual sobre armas completamente autónomas. Muestran que Estados parte de la CCAC tienen un historial de aplicación de la Cláusula Martens a las armas controvertidas. También demuestran la disposición de estos Estados para prohibir preventivamente un arma que encuentra contraria a los principios de la humanidad y los dictados de la conciencia pública. Como se analizará con mayor profundidad más adelante, las armas completamente autónomas plantean preocupaciones importantes en virtud de la Cláusula Martens. El hecho de que su impacto en el conflicto armado sea exponencialmente mayor que el de los láseres cegadores solo debería aumentar la urgencia de llenar el vacío en el derecho internacional y prohibirlos explícitamente.[47]

IV. Los principios de la humanidad

La Cláusula Martens divide los principios del derecho internacional en costumbres establecidas, los principios de la humanidad y los dictados de la conciencia pública. Dado que el derecho consuetudinario es aplicable incluso sin la cláusula, este informe evalúa las armas completamente autónomas bajo los últimos dos elementos. La Cláusula Martens no define estos términos, pero han sido objeto de mucha discusión académica y legal.

La literatura relevante ilumina dos componentes clave de los principios de la humanidad. Los actores deben: (1) tratar a los demás con humanidad y (2) mostrar respeto por la vida y la dignidad humanas. Debido a su falta de emoción y juicio, las armas completamente autónomas se enfrentarían a dificultades significativas para cumplir con cualquiera de ellas.

Trato humano

Definición

El primer principio de la humanidad requiere el trato humano de los demás. El Diccionario de Oxford define “humanidad” como “la calidad de ser humano; benevolencia”.[48] La obligación de tratar a los demás con humanidad es un componente clave del derecho internacional humanitario y de las normas internacionales de derechos humanos.[49] Aparece, por ejemplo, en el artículo 3 común y otras disposiciones de los Convenios de Ginebra, en numerosos manuales militares, en la jurisprudencia internacional y en el Pacto Internacional de Derechos Civiles y Políticos.[50] Más allá de estas fuentes, la Cláusula Martens establece que los seres humanos deben ser tratados humanamente, incluso cuando no existe una ley específica.[51]

Para tratar a otros seres humanos con humanidad, uno debe ejercer compasión y hacer juicios éticos y legales.[52] La compasión, según los principios fundamentales del CICR, es la “agitación del alma que hace que uno responda a la angustia de los demás”.[53] Para mostrar compasión, un actor debe poder experimentar empatía, es decir, comprender y compartir los sentimientos de otro y ser obligado a actuar en respuesta.[54] Esta capacidad emocional es vital en situaciones en las que se hacen determinaciones sobre el uso de la fuerza.[55] Impulsa a los actores a hacer esfuerzos conscientes para minimizar el daño físico o psicológico que infligen a los seres humanos. Actuar con compasión se basa en la premisa de que “la captura es preferible a herir a un enemigo y herirlo es mejor que matarlo; que los no combatientes se salvarán en la medida de lo posible; que las heridas infligidas sean lo más livianas posible, para que los heridos puedan ser tratados y curados; y que las heridas causan el menor dolor posible”.[56]

Mientras que la compasión proporciona una motivación para actuar humanamente, el juicio ético y legal proporciona un medio para hacerlo. Para actuar humanamente, un actor debe tomar decisiones consideradas sobre cómo minimizar el daño.[57] Tales decisiones se basan en la capacidad de percibir y comprender el entorno de uno y de aplicar el “sentido común y el conocimiento del mundo” a una circunstancia específica.[58] El profesor de filosofía James Moor señala que los actores deben poseer la capacidad de “identificar y procesar información ética sobre una variedad de situaciones y hacer determinaciones sensibles sobre lo que se debe hacer en esas situaciones”.[59] De esta manera, el juicio ético y legal ayuda a un actor a sopesar los factores relevantes para garantizar que el tratamiento cumpla con los estándares exigidos por la compasión. El juicio es vital para minimizar el sufrimiento: uno solo puede abstenerse de dañar a los humanos si reconoce los posibles daños y sabe cómo responder.[60]

Aplicación a las armas completamente autónomas.

Las armas completamente autónomas se enfrentarían a desafíos importantes para cumplir con el principio del trato humano porque la compasión y el juicio legal y ético son características humanas. La empatía y la compasión por los demás que engendra, vienen naturalmente a los seres humanos. La mayoría de los humanos han experimentado dolor físico o psicológico, lo que los impulsa a evitar infligir sufrimientos innecesarios a otros. Sus sentimientos trascienden las divisiones nacionales y otras. Como señala el CICR, “en todas las culturas se encuentran sentimientos y gestos de solidaridad, compasión y abnegación”.[61] La comprensión compartida del dolor y el sufrimiento de la gente los lleva a mostrar compasión por los demás seres humanos e inspira una reciprocidad que es, en palabras del CICR, “perfectamente natural”.[62]

Independientemente de la sofisticación de un arma completamente autónoma, no podría experimentar emociones.[63] Hay algunas ventajas asociadas a ser impermeable a emociones como la ira y el miedo, pero la incapacidad de un robot para sentir empatía y compasión limitaría gravemente su capacidad de tratar a los demás de forma humana. Como no serían seres sensibles, las armas completamente autónomas no podrían conocer el sufrimiento físico o psicológico. Como resultado, carecerían de las experiencias y entendimientos compartidos que causan que los humanos se relacionen de manera empática con el dolor de los demás, que sus “almas se agiten” y que sean impulsados a ejercer compasión hacia otros seres humanos. Amanda Sharkey, profesora de ciencias de la computación, ha escrito que “los robots actuales, que carecen de cuerpos vivos, no pueden sentir dolor, ni siquiera pueden preocuparse por sí mismos, y mucho menos extender esa preocupación a los demás. ¿Cómo pueden empatizar con el dolor o la angustia de un humano si no pueden experimentar alguna de las emociones?”[64] Por lo tanto, las armas completamente autónomas enfrentarían considerables dificultades para garantizar que sus actos sean humanos y que cumplan con los principios de la humanidad.

Los robots tampoco tendrían el juicio legal y ético necesario para minimizar el daño caso por caso.[65] Las situaciones que involucran el uso de la fuerza, particularmente en conflictos armados, son a menudo complejas e impredecibles y pueden cambiar rápidamente. Por lo tanto, las armas completamente autónomas encontrarían obstáculos significativos para tomar decisiones apropiadas con respecto a un trato humano. Después de examinar numerosos estudios en los que los investigadores intentaron programar la ética en robots, Sharkey descubrió que los robots que exhiben un comportamiento que podría describirse como “ético” o “mínimamente ético” podrían operar solo en entornos restringidos. Sharkey concluyó que los robots tienen capacidades morales limitadas y, por lo tanto, no deben usarse en circunstancias que “exijan competencia moral y una comprensión de la situación social que lo rodea”.[66] El cumplimiento del derecho internacional a menudo requiere la toma de decisiones subjetivas en situaciones complejas. Las armas completamente autónomas tendrían una capacidad limitada para interpretar los matices del comportamiento humano, comprender la dinámica política, socioeconómica y ambiental de la situación, y comprender los riesgos humanitarios del uso de la fuerza en un contexto particular.[67] Estas limitaciones comprometerían la capacidad de las armas para garantizar el trato humano a civiles y combatientes y cumplir con el primer principio de la humanidad.

Respeto por la vida humana y la dignidad.

Definición

Un segundo principio de la humanidad requiere que los actores respeten tanto la vida humana como la dignidad humana. Christof Heyns, Ex Relator Especial sobre Ejecuciones Extrajudiciales, Sumarias o Arbitrarias, destacó estos conceptos relacionados pero distintos cuando planteó dos preguntas con respecto a las armas completamente autónomas: “¿Permiten la selección apropiada?” e “incluso si ¿pueden hacer una orientación adecuada, deberían las máquinas tener el poder de la vida y la muerte sobre los humanos?”[68] El primero considera si un arma puede cumplir con las normas del derecho internacional sobre la protección de la vida. El segundo aborda la “manera de seleccionar objetivos” y si respeta la dignidad humana.[69]

Para respetar la vida humana, los actores deben tomar medidas para minimizar los asesinatos.[70] El derecho a la vida establece que “nadie será privado arbitrariamente de su vida”.[71] Limita el uso de la fuerza letal a circunstancias en las que es absolutamente necesario proteger la vida humana, constituye un último recurso y se aplica de manera proporcional a la amenaza.[72] Codificado en el artículo 6 del Pacto Internacional de Derechos Civiles y Políticos, el derecho a la vida ha sido reconocido como el “derecho supremo” del derecho internacional de los derechos humanos, que se aplica en todas las circunstancias. En tiempos de conflicto armado, el derecho internacional humanitario determina lo que constituye una privación de vida arbitraria o injustificada. Requiere que los actores cumplan con las reglas de distinción, proporcionalidad y necesidad militar en situaciones de conflicto armado.[73]

El juicio y la emoción promueven el respeto por la vida porque pueden servir como controles para matar. La capacidad de emitir juicios éticos y legales puede ayudar a un actor a determinar qué curso de acción protegerá mejor la vida humana en el número infinito de posibles escenarios imprevistos. Una resistencia instintiva a matar proporciona una motivación psicológica para cumplir y, a veces, ir más allá de las normas del derecho internacional para minimizar las víctimas.

Bajo los principios de la humanidad, los actores también deben respetar la dignidad de todos los seres humanos. Esta obligación se basa en el reconocimiento de que cada ser humano tiene un valor inherente que es universal e inviolable.[74] Numerosos instrumentos internacionales, entre ellos la Declaración Universal de Derechos Humanos, el Pacto Internacional de Derechos Civiles y Políticos, la Declaración y el Programa de Acción de Viena adoptados en la Conferencia Mundial de Derechos Humanos de 1993 y los tratados regionales, consagran la importancia de la dignidad como principio fundamental del derecho humanitario.[75] La Carta de África de Derechos Humanos y de los Pueblos establece explícitamente que las personas tienen “el derecho al respeto de la dignidad inherente a un ser humano”.[76]

Mientras que el respeto por la vida humana implica minimizar el número de muertes y evitar las arbitrarias o injustificadas, el respeto por la dignidad humana requiere una apreciación de la gravedad de la decisión de matar.[77] El CICR explicó que es importante “no solo si una persona muere o resulta herida, sino cómo la matan o lesionan, incluido el proceso por el que se toman estas decisiones”.[78] Antes de tomar una vida, un actor debe entender verdaderamente el valor de una vida humana y el significado de su pérdida. Los seres humanos deben ser reconocidos como individuos únicos y no reducidos a objetos con un valor meramente instrumental o sin valor.[79] Si un actor mata sin tener en cuenta el valor de la víctima individual, el asesinato socava la noción fundamental de la dignidad humana y viola este principio de la humanidad.

Aplicación a las armas completamente autónomas.

Es muy poco probable que las armas completamente autónomas puedan respetar la vida y la dignidad humanas. Su falta de juicio ético y legal interferiría con su capacidad de respetar la vida humana. Por ejemplo, la prueba de proporcionalidad del derecho internacional humanitario requiere que los comandantes determinen si la ventaja militar anticipada supera los daños civiles esperados caso por caso. Dado el número infinito de contingencias que pueden surgir en el campo de batalla, las armas completamente autónomas no podrían ser preprogramadas para hacer tales determinaciones. El estándar generalmente aceptado para evaluar la proporcionalidad es si un “comandante militar razonable” hubiera lanzado un ataque en particular[80] y la razonabilidad requiere tomar decisiones basadas en consideraciones éticas y legales.[81] Al no poder aplicar esta norma a la prueba de equilibrio de proporcionalidad, las armas completamente autónomas probablemente pondrían en peligro a los civiles y potencialmente violarían el derecho internacional humanitario.[82]

Las armas completamente autónomas también carecerían de la instintiva resistencia humana a matar que puede proteger la vida humana más allá de los requisitos mínimos de la ley.[83] La inclinación a evitar matar es algo natural para la mayoría de las personas porque tienen un aprecio innato por el valor inherente de la vida humana. La investigación empírica demuestra la reticencia de los seres humanos a tomar las vidas de otros humanos. Por ejemplo, un guardabosques del Ejército de los EE. UU. retirado que realizó una investigación exhaustiva sobre los asesinatos durante un conflicto armado descubrió que “existe en el hombre una resistencia intensa a matar a sus semejantes. Una resistencia tan fuerte que, en muchas circunstancias, los soldados en el campo de batalla morirán antes de que puedan superarla”.[84] Como objetos inanimados, las armas completamente autónomas no pueden perder su propia vida o comprender las emociones asociadas con la pérdida de la vida de un ser querido. Es dudoso que un programador pueda replicar en un robot la inclinación natural de un humano a evitar matar y proteger la vida con la complejidad y el matiz que reflejaría la toma de decisiones humana.

Las armas completamente autónomas no podrían respetar la dignidad humana, que se relaciona con el proceso que sucede por detrás, sino más bien con las consecuencias del uso de la fuerza.[85] Como máquinas, realmente no podrían comprender ni el valor de la vida individual, ni el significado de su pérdida. Basarían las decisiones de matar en algoritmos sin considerar la humanidad de una víctima específica.[86] Además, estas armas se programarían con antelación y no podrían explicar la necesidad de una fuerza letal en una situación específica. En una presentación de la CCAC como relator especial, Christof Heyns explicó que:

Permitir que las máquinas determinen cuándo y dónde usar la fuerza contra los humanos es reducir a esos humanos a objetos; son tratados como meros objetivos. Se convierten en ceros y unos en los ámbitos digitales de las armas que están programadas de antemano para liberar la fuerza sin la capacidad de considerar si no hay otra salida, sin un nivel suficiente de elección humana deliberada sobre el asunto.[87]

Mines Action Canada concluyó de manera similar que el “despliegue de armas completamente autónomas en combate, muestra la creencia de que cualquier humano atacado de esta manera no garantiza la consideración de un operador vivo, por lo tanto, le roba a la vida humana su derecho a la dignidad”.[88] Permitir que un robot tome una vida cuando no puede entender el valor inherente de esa vida o la necesidad de tomarla, no respeta y menosprecia a la persona cuya vida es tomada. Por lo tanto, es irreconciliable con los principios de humanidad consagrados en la Cláusula Martens.

Cuando se usa en situaciones apropiadas, la IA tiene el potencial de proporcionar beneficios extraordinarios a la humanidad. Sin embargo, permitir que los robots tomen decisiones para matar seres humanos sería contrario a la Cláusula Martens, que fusiona la ley y la moral. Las limitaciones en las capacidades emocionales, perceptivas y éticas de estas máquinas dificultan significativamente su capacidad para tratar a otros seres humanos con humanidad y respetar la vida y la dignidad humanas. En consecuencia, el uso de estas armas sería incompatible con los principios de humanidad establecidos en la Cláusula Martens.

V. Los dictados de la conciencia pública

La Cláusula Martens establece que, en ausencia de una ley de tratados, los dictados de la conciencia pública y los principios de la humanidad protegen a los civiles y los combatientes. La referencia a la "conciencia pública" inculca la ley en la moralidad y requiere que las evaluaciones de los medios y métodos de guerra tengan en cuenta las opiniones de los ciudadanos y los expertos, así como los gobiernos. Las reacciones de estos grupos ante la perspectiva de armas completamente autónomas dejan claro que el desarrollo, la producción y el uso de dicha tecnología plantearían serias preocupaciones en virtud de la Cláusula Martens.

Definición

Los dictados de la conciencia pública se refieren a pautas morales compartidas que dan forma a las acciones de los Estados y los individuos.[89] El uso del término “conciencia” indica que los dictados se basan en un sentido de moralidad, un conocimiento de lo que es correcto e incorrecto.[90] Según el filósofo Peter Asaro, la conciencia implica “sentirse obligado o creer en una obligación o deber moral específico”.[91] El adjetivo “público” aclara que estos dictados reflejan las preocupaciones de una variedad de personas y entidades. Sobre la base del trabajo ampliamente citado del jurista y experto en derecho internacional humanitario Theodor Meron, este informe analiza dos fuentes en particular para determinar qué califica como conciencia pública: la opinión del público y las opiniones de los gobiernos.[92]

Los datos de las encuestas y las opiniones de los expertos proporcionan evidencia de la opinión pública.[93] Las encuestas revelan las perspectivas y creencias de los individuos comunes y corrientes. También pueden iluminar diferencias matizadas en los valores y entendimientos de los laicos. Si bien las encuestas informativas, por sí mismas, no son medidas suficientes de la conciencia pública, en parte porque las respuestas pueden verse influidas por la naturaleza de las preguntas formuladas y no reflejan necesariamente la consideración moral.[94] Las declaraciones y acciones de los expertos, que a menudo han deliberado extensamente sobre estas cuestiones, reflejan una comprensión más profunda.[95] Su experiencia específica puede ir desde la religión hasta la tecnología y la ley, pero comparten un profundo conocimiento del tema. Las opiniones que expresan pueden así arrojar luz sobre las normas morales abrazadas por el público informado.[96]

Los gobiernos articulan sus posturas a través de políticas y en declaraciones escritas e intervenciones orales en reuniones diplomáticas y otros foros públicos. Sus posiciones reflejan las perspectivas de los países que difieren en el desarrollo económico, la destreza militar, los sistemas políticos, las tradiciones religiosas y culturales, y la demografía. La opinión del gobierno puede ayudar a iluminar opinio juris, un elemento del derecho internacional consuetudinario, que se refiere a la creencia de un Estado de que cierta práctica es legalmente obligatoria.[97]

Aplicación a las armas completamente autónomas

Las posiciones de individuos y gobiernos de todo el mundo han demostrado que las armas completamente autónomas son altamente problemáticas bajo los dictados de la conciencia pública. A través de encuestas de opinión, cartas abiertas, declaraciones orales y escritas, publicaciones detalladas y directrices autoimpuestas, los miembros del público han compartido su angustia y su indignación ante la perspectiva de estas armas. Funcionarios gubernamentales de más de 100 países han expresado preocupaciones similares y se han pronunciado a favor de imponer límites a las armas completamente autónomas.[98] Si bien la oposición pública a las armas completamente autónomas no es universal, colectivamente, estas voces muestran que es generalizada y creciente.[99]

Opinión del público

La oposición pública al desarrollo, producción y uso de armas completamente autónomas es significativa y se está extendiendo. Varias encuestas de opinión pública han revelado la resistencia de los individuos a estas armas.[100] Estos hallazgos se reflejan en declaraciones hechas por líderes en los campos relevantes de desarme y derechos humanos, paz y religión, ciencia y tecnología e industria. Si bien no son exhaustivas, las fuentes que se analizan a continuación ejemplifican la naturaleza y el rango de la opinión pública y proporcionan evidencia de la conciencia pública.

Encuestas

Las encuestas de opinión pública realizadas en todo el mundo han documentado una oposición generalizada al desarrollo, la producción y el uso de estas armas. De acuerdo con estas encuestas, la mayoría de las personas encuestadas encontraron inaceptable la posibilidad de delegar las decisiones de vida o muerte a las máquinas. Por ejemplo, una encuesta de estadounidenses realizada en 2013, realizada por la profesora de ciencias políticas Charli Carpenter, encontró que el 55% de los encuestados se oponía a la "tendencia a usar" armas completamente autónomas.[101] Esta posición se compartió aproximadamente de manera equitativa entre los géneros, las edades y las ideologías políticas. Curiosamente, el personal militar en servicio activo, que comprende de primera mano las realidades del conflicto armado, se encontraba entre los objetores más fuertes; el 73% expresó su oposición a las armas completamente autónomas.[102] La mayoría de los encuestados en esta encuesta también apoyaron una campaña para prohibir las armas.[103] Una encuesta nacional más reciente de alrededor de 1.000 belgas, que se publicó el 3 de julio de 2018, encontró que el 60% de los encuestados creía que “Bélgica debería apoyar los esfuerzos internacionales para prohibir el desarrollo, la producción y el uso de armas completamente autónomas”. Sólo el 23% en desacuerdo.[104]

Las encuestas de opinión internacionales han producido resultados similares. En 2015, Open Robotics Initiative encuestó a más de 1.000 personas de 54 países diferentes y descubrió que el 56% de los encuestados se oponía al desarrollo y uso de lo que denominó sistemas de armas autónomas letales.[105] El 34% de los encuestados rechazó el desarrollo y el uso porque “los humanos siempre deben ser los que toman decisiones de vida/muerte”.[106] Otras motivaciones citadas con menos frecuencia incluyen la falta de fiabilidad de las armas, el riesgo de proliferación y la falta de responsabilidad.[107] Una encuesta aún más grande realizada por Ipsos a 11.500 personas de 25 países, produjo resultados similares en 2017.[108] Esta encuesta explicó que las Naciones Unidas estaban revisando las "implicaciones estratégicas, legales y morales de los sistemas de armas autónomos" (equivalente a las armas totalmente autónomas) y preguntó a los participantes cómo se sentían con respecto al uso de las armas. El 56% registró su oposición.[109]

Organizaciones no gubernamentales y organizaciones internacionales

Al proporcionar evidencia adicional de inquietudes bajo los dictados de la conciencia pública, los expertos de diversos campos se han sentido obligados, especialmente por razones morales, a pedir la prohibición del desarrollo, la producción y el uso de armas completamente autónomas. La Campaña para Detener a los Robots Asesinos, una coalición de la sociedad civil de 75 ONG, encabeza el esfuerzo para prohibir las armas completamente autónomas.[110] Los miembros de sus ONG están activos en más de 30 países e incluyen grupos con experiencia en desarme humanitario, paz y resolución de conflictos, tecnología, derechos humanos y otros campos relevantes.[111] Human Rights Watch, que cofundó la campaña en 2012, es su coordinador. En los últimos seis años, las organizaciones miembro de la campaña han destacado los numerosos problemas asociados con las armas completamente autónomas a través de docenas de publicaciones y declaraciones realizadas en reuniones diplomáticas y eventos de las Naciones Unidas, en las redes sociales y en otros foros.[112]

Mientras que diferentes preocupaciones resuenan con diferentes personas, Steve Goose, director de la División de Armas de Human Rights Watch, destacó la importancia de la Cláusula Martens en su declaración en la reunión del Grupo de Expertos Gubernamentales de la CCAC de abril de 2018. Goose dijo:

Hay muchas razones para rechazar [los sistemas de armas autónomas letales] (incluidas las preocupaciones legales, de responsabilidad, técnicas, operativas, de proliferación y de seguridad internacional), pero las preocupaciones éticas y morales, que generan la sensación de repulsión, superan a todas. Estas preocupaciones éticas deberían obligar a las Altas Partes Contratantes de la Convención sobre Armas Convencionales a tener en cuenta la Cláusula Martens en el derecho internacional humanitario, según la cual no deben desarrollarse armas que vayan en contra de los principios de la humanidad y los dictados de la conciencia pública.[113]

El CICR ha alentado a los Estados a evaluar las armas completamente autónomas bajo la Cláusula Martens y observó que “con respecto a la conciencia pública, existe una profunda incomodidad con la idea de cualquier sistema de armas que ponga el uso de la fuerza más allá del control humano”.[114] El CICR ha enfatizado repetidamente la necesidad ética y legal del control humano sobre las funciones críticas de selección y ataque de objetivos. En abril de 2018, dejó en claro su opinión de que “se requiere un nivel mínimo de control humano para garantizar el cumplimiento de las normas del derecho internacional humanitario que protegen a los civiles y combatientes en conflictos armados, y la aceptabilidad ética en términos de los principios de humanidad y conciencia pública”.[115] El CICR explicó que el derecho internacional humanitario “exige que aquellos que planifican, deciden y llevan a cabo ataques hacen ciertos juicios al aplicar las normas al lanzar un ataque. Las consideraciones éticas son paralelas a este requisito: exigir que la agencia y la intención humanas se mantengan en las decisiones de usar la fuerza”.[116] El CICR concluyó que un sistema de armas fuera del control humano “sería ilegal por su propia naturaleza”.[117]

Líderes de paz y fe

En 2014, más de 20 individuos y organizaciones que habían recibido el Premio Nobel de la Paz emitieron una carta conjunta en la que declaraban que “abrazan de todo corazón [el] objetivo de una prohibición preventiva de armas completamente autónomas” y consideran que “es inconcebible que los seres humanos sigan expandiendo la investigación y el desarrollo de máquinas letales que podrían matar personas sin intervención humana”.[118] Los firmantes individuales de la carta incluían a la activista estadounidense Jody Williams, quien dirigió la campaña de la sociedad civil para prohibir las minas terrestres, junto con jefes de Estado y políticos, activistas por los derechos humanos y por la paz, un abogado, un periodista y un líder de la iglesia.[119] Los signatarios de la organización, las Conferencias Pugwash sobre Ciencia y Asuntos Mundiales y la Iniciativa Nobel de Mujeres, que ayudaron a encabezar la carta, están en el comité directivo de la Campaña para Detener a los Robots Asesinos.

Los líderes religiosos se han unido de manera similar contra las armas completamente autónomas. En 2014, más de 160 líderes religiosos firmaron una “declaración interreligiosa que pide a los Estados que trabajen para lograr una prohibición global de las armas completamente autónomas”.[120] En un lenguaje que implica preocupaciones bajo los principios de la humanidad, la declaración describe tales armas como “una afrenta a la dignidad humana y al carácter sagrado de la vida”.[121] La declaración además critica la idea de delegar decisiones de vida o muerte a una máquina porque las armas completamente autónomas no tienen “agencia moral y, como resultado, no pueden ser consideradas responsables si toman una vida inocente”.[122] La lista de firmantes incluía representantes del budismo, el catolicismo, el islamismo, el judaísmo, el protestantismo y el cuakerismo. El arzobispo Desmond Tutu firmó esta declaración y la carta de los Premios Nobel de la Paz.

Expertos en ciencia y tecnología

Los individuos con experiencia tecnológica también han expresado su oposición a las armas completamente autónomas. El Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés), cuyos miembros estudian la tecnología de varias disciplinas, dio la alarma en 2013 poco después de cofundar la Campaña para Detener los Robots Asesinos.[123] El ICRAC emitió una declaración respaldada por más de 270 expertos que piden una prohibición del desarrollo y despliegue de armas completamente autónomas.[124] Los miembros del ICRAC señalaron “la ausencia de evidencia científica clara de que las armas de robot tienen, o es probable que tengan en el futuro previsible, la funcionalidad requerida para la identificación precisa de los objetivos, la conciencia de la situación o las decisiones sobre el uso proporcional de la fuerza” y concluyeron que “las decisiones sobre la aplicación de la fuerza violenta no deben delegarse en las máquinas”.[125] Si bien las preocupaciones enfatizadas en esta declaración se centran en la tecnología, como se discutió anteriormente, la incapacidad para tomar decisiones de proporcionalidad puede ir en contra del respeto por la vida y los principios de la humanidad.

En 2015, un grupo aún mayor de investigadores de inteligencia artificial y robótica emitió una carta abierta. A partir de junio de 2018, más de 3.500 científicos junto a más de 20.000 otras personas firmaron este llamado a una prohibición.[126] La carta advierte que estas máquinas podrían convertirse en los “Kalashnikov del mañana” si no se evita su desarrollo.[127] Afirma que mientras los firmantes “creen que la IA tiene un gran potencial para beneficiar a la humanidad de muchas maneras (…) creen que una carrera de armamentos de la IA militar no sería beneficiosa para la humanidad. Hay muchas maneras en que la IA puede hacer que los campos de batalla sean más seguros para los humanos, especialmente los civiles, sin crear nuevas herramientas para matar gente”.[128]

Además de exigir la acción de otros, miles de expertos en tecnología se han comprometido a no participar en acciones que promuevan el desarrollo de armas completamente autónomas. En un congreso mundial celebrado en Estocolmo en julio de 2018, los principales investigadores de Amnistía Internacional emitieron una promesa de “no participar ni apoyar el desarrollo, la fabricación, el comercio o el uso de armas autónomas letales”.[129] A finales de mes, más de 2.850 expertos en inteligencia artificial, científicos y otras personas, junto con 223 compañías de tecnología, sociedades y organizaciones de al menos 36 países habían firmado. El compromiso, que cita preocupaciones morales, de rendición de cuentas, de proliferación y relacionadas con la seguridad, encuentra que “la decisión de tomar una vida humana nunca debe delegarse en una máquina”. Afirma: “Hay un componente moral en esta posición, por lo que no debemos permitir que las máquinas tomen decisiones para tomar vidas por las cuales otros, o nadie, serán culpables”.[130] De acuerdo con el Future of Life Institute, que alberga el compromiso en su sitio web, el compromiso es necesario porque “los políticos hasta ahora no han puesto en práctica” ninguna regulación y ley contra los sistemas de armas autónomos letales.[131]

Industria

Las empresas de tecnología de alto perfil y sus representantes han criticado las armas completamente autónomas por varios motivos. Un fabricante canadiense de robótica, ClearPath Robotics, se convirtió en la primera compañía que se negó públicamente a fabricar "robots armados que sacan la supervisión humana”.[132] En 2014, se comprometió a “valorar la ética sobre los posibles ingresos futuros”.[133] En una carta al público, la compañía declaró que estaba motivada por su creencia de que “el desarrollo de robots asesinos no es prudente, no es ético y debería ser prohibido a escala internacional”. ClearPath continuó:

¿Podría un robot tener la moral, el sentido o la comprensión emocional para intervenir en contra de órdenes que son incorrectas o inhumanas? No. ¿Podrían las computadoras tomar los tipos de decisiones subjetivas necesarias para verificar la legitimidad de los objetivos y garantizar el uso proporcional de la fuerza en el futuro previsible? No. ¿Podría esta tecnología llevar a los que la poseen a valorar menos la vida humana? Francamente, creemos que este será el caso.[134]

La carta muestra que las armas completamente autónomas plantean problemas bajo los principios de la humanidad y los dictados de la conciencia pública.

En agosto de 2017, los fundadores y directores ejecutivos (CEO) de 116 empresas de inteligencia artificial y robótica publicaron una carta en la que pedían a los Estados miembro de la CCAC que tomaran medidas sobre las armas autónomas.[135] La carta comienza diciendo: “Como compañías que desarrollan tecnologías en inteligencia artificial y robótica que pueden ser reutilizadas para desarrollar armas autónomas, nos sentimos especialmente responsables de dar esta alarma”.[136] La carta continúa destacando los peligros para los civiles, el riesgo de una carrera de armamentos y la posibilidad de efectos desestabilizadores. Advierte que “una vez que se abra la caja de Pandora, será difícil cerrarla”.[137] En una línea similar en 2018, Scott Phoenix, CEO de Vicarious, una importante compañía de desarrollo de inteligencia artificial, describió el desarrollo de armas autónomas como una de las “peores ideas del mundo” debido a la probabilidad de defectos en sus códigos y la vulnerabilidad a la piratería.[138]

Google y las compañías de su grupo Alphabet han estado en el centro del debate sobre armas completamente autónomas en múltiples ocasiones. DeepMind es una compañía de investigación de inteligencia artificial que fue adquirida por Google en 2014. En 2016, presentó pruebas a un comité parlamentario del Reino Unido en el que describió una prohibición de las armas autónomas como “el mejor enfoque para evitar las consecuencias perjudiciales que surgirían del desarrollo y uso de tales armas”.[139] DeepMind expresó una preocupación particular por las “implicaciones de las armas para la estabilidad global y la reducción de conflictos”.[140] Dos años después, más de 3.000 empleados de Google protestaron por la participación de la compañía en el “Proyecto Maven”, un programa del Departamento de Defensa de los EE. UU., que pretende utilizar la IA para procesar de forma autónoma las imágenes de video tomadas por drones de vigilancia. Los empleados argumentaron que la compañía “no debería estar en el negocio de la guerra”[141] y más de 1.100 académicos los apoyaron en una carta separada.[142] En junio de 2018, Google acordó finalizar su participación en el Proyecto Maven una vez que el contrato expire en 2019 y emitió principios éticos comprometiéndose a no desarrollar IA para el uso en armas. Los principios establecen que Google “no está desarrollando IA para su uso en armas” y “no diseñará ni desplegará IA” para tecnología que cause “daños generales” o “contravenga principios ampliamente aceptados del derecho internacional y los derechos humanos”.[143]

Los inversores en la industria de la tecnología también han comenzado a responder a las preocupaciones éticas planteadas por las armas completamente autónomas. En 2016, el Consejo de Ética del Fondo de Pensiones del Gobierno de Noruega anunció que vigilaría las inversiones en el desarrollo de estas armas para decidir si son contrarias a las directrices del consejo.[144] Johan H. Andresen, presidente del consejo, reiteró esa posición en una presentación de panel para delegados de la CCAC en abril de 2018.[145]

Opiniones de gobiernos

Los gobiernos de todo el mundo han compartido cada vez más las opiniones de los expertos y el público en general de que el desarrollo, la producción y el uso de armas sin un control humano significativo es inaceptable. A partir de abril de 2018, 26 naciones —de África, Asia, Europa, América Latina y Oriente Medio— han pedido una prohibición preventiva de armas completamente autónomas.[146] Además, más de 100 Estados, incluidos los del Movimiento de Países No Alineados (MPNA), han pedido un instrumento legalmente vinculante para tales armas. En una declaración conjunta, los miembros de MPNA citaron “cuestiones éticas, legales, morales y técnicas, así como internacionales relacionadas con la paz y la seguridad” como temas de preocupación.[147] Si bien un análisis completo de las intervenciones gubernamentales en los últimos cinco años está más allá del alcance de este informe, en general, las declaraciones han demostrado que los países se oponen a la pérdida del control humano por motivos morales, legales, técnicos y otros. Las opiniones de estos gobiernos, que reflejan las preocupaciones del público, refuerzan el argumento de que las armas completamente autónomas violan los dictados de la conciencia pública.

Los principios incorporados en la Cláusula Martens han desempeñado un papel en las discusiones internacionales sobre armas completamente autónomas desde su inicio en 2013. En ese año, Christof Heyns, el entonces Relator Especial sobre Ejecuciones Extrajudiciales, presentó un informe al Consejo de Derechos Humanos de la ONU sobre armas completamente autónomas, a las que denominó “robótica autónoma letal”.[148] Al enfatizar la importancia del control humano sobre las decisiones de vida o muerte, Heyns explicó que “es un supuesto subyacente de la mayoría de los códigos legales, morales y de otra índole que cuando la decisión de quitar la vida o de someter a las personas a otras graves consecuencias es en juego, el poder de decisión debe ser ejercido por los humanos”.[149] Continuó: “Delegar este proceso deshumaniza aún más el conflicto armado y excluye un momento de deliberación en aquellos casos en que sea posible. Las máquinas carecen de moralidad y mortalidad, y como resultado no deben tener poderes de vida o muerte sobre los humanos”.[150] Heyns también nombró la Cláusula Martens como una base legal para su determinación.[151] El informe de 2013 pedía una moratoria sobre el desarrollo de armas completamente autónomas hasta el establecimiento de un “marco acordado internacionalmente”.[152] Un informe conjunto de 2016 de Heyns y Maina Kiai, el entonces Relator Especial de las Naciones Unidas sobre la Libertad de Reunión Pacífica y de Asociación, dio un paso más y recomendó que “deben prohibirse los sistemas de armas autónomos que no requieren un control humano significativo”.[153]

En mayo de 2013, en respuesta al informe de Heyns, el Consejo de Derechos Humanos de la ONU celebró las primeras discusiones sobre las armas a nivel internacional.[154] De las 20 naciones que expresaron sus posiciones, muchas expresaron inquietudes acerca de la tecnología emergente. A menudo usaban lenguaje relacionado con la Cláusula Martens o la moralidad en general. Ecuador se refirió explícitamente a los elementos de la Cláusula Martens y declaró que dejar las decisiones de vida o muerte a las máquinas sería una violación de la conciencia pública.[155] Indonesia planteó objeciones relacionadas con los principios de humanidad discutidos anteriormente. Criticó los “posibles efectos de largo alcance en los valores de la sociedad, incluso fundamentalmente en la protección y el valor de la vida” que podrían surgir del uso de estas armas.[156] Rusia recomendó que se preste “atención particular” a las “graves implicaciones para los fundamentos sociales, incluida la negación de la vida humana”.[157] Pakistán pidió una prohibición basada en el precedente de la prohibición preventiva de los láseres cegadores, que fue motivada en gran parte por la Cláusula Martens.[158] Brasil también abordó temas de moralidad; dijo: “Si la muerte de un ser humano por otro ha sido un desafío que los códigos legales, morales y religiosos han lidiado desde tiempos inmemoriales, uno puede imaginar la cantidad de preocupaciones adicionales que plantean los robots que ejercen el poder de la vida y la muerte sobre los humanos”.[159] Si bien los Estados miembros del Consejo de Derechos Humanos también abordaron otros riesgos importantes de armas completamente autónomas, especialmente las relacionadas con la seguridad, la moralidad fue un tema dominante.[160]

Desde la sesión del Consejo de Derechos Humanos en 2013, la mayoría de las discusiones diplomáticas han tenido lugar bajo los auspicios de la Convención sobre Armas Convencionales.[161] Los Estados parte de la Convención celebraron tres reuniones informales de expertos sobre lo que denominan “sistemas de armas autónomas letales” entre 2014 y 2016.[162] En su Conferencia de Revisión de 2016, acordaron formalizar las discusiones en un Grupo de Expertos Gubernamentales, un foro que generalmente se espera que produzca un resultado tal como un nuevo protocolo de la CCAC[163] Más de 80 estados participaron en la reunión más reciente del grupo en abril de 2018. En esa reunión, Austria observó que “el compromiso de la CCAC con armas autónomas letales es un testimonio del alto nivel de preocupación sobre el riesgo que conllevan dichas armas”.[164] También sirve como una indicación de que la conciencia pública está en contra de esta tecnología.

Los Estados parte de la CCAC han destacado la relevancia de la Cláusula Martens en cada una de sus reuniones sobre sistemas de armas autónomos letales. En la primera reunión celebrada en mayo de 2014, por ejemplo, Brasil describió la Cláusula Martens como una “piedra angular” del derecho internacional humanitario, que “nos permite navegar de manera segura en aguas nuevas y peligrosas y sentirnos seguros de que un ser humano sigue estando protegido. Los principios de la humanidad y los dictados de la conciencia pública”.[165] México encontró que “no hay ninguna duda de que el desarrollo de estas nuevas tecnologías debe cumplir con los [principios] de la Cláusula Martens”.[166] En la segunda reunión de expertos de la CCAC en abril de 2015, Rusia describió la Cláusula Martens como “una parte integral del derecho internacional consuetudinario”.[167] Al adoptar una interpretación estricta de la disposición, los Estados Unidos dijeron que “la Cláusula Martens no es una norma de derecho internacional que prohíba cualquier arma en particular, mucho menos un arma que no existe actualmente”. Sin embargo, reconoció que “los principios de la humanidad y los dictados de la conciencia pública proporcionan un paradigma relevante e importante para discutir las cuestiones morales o éticas relacionadas con el uso de la automatización en la guerra”.[168]

Varios Estados miembro de la CCAC han basado sus objeciones a las armas completamente autónomas en la Cláusula Martens y sus elementos. En una declaración conjunta en abril de 2018, el Grupo Africano dijo que los “principios de humanidad y los dictados de la conciencia pública enunciados en la Cláusula [Martens] deben tomarse en serio”.[169] El Grupo Africano pidió una prohibición preventiva de los sistemas de armas autónomas letales, declarando que sus miembros encontraron “inhumano, aborrecible, repugnante y contra la conciencia pública que los humanos entreguen el control a las máquinas, permitiendo que las máquinas decidan quién vive o muere, cómo muchas vidas y cuya vida es aceptable como daño colateral cuando se usa la fuerza”.[170] La Santa Sede condenó las armas completamente autónomas porque “nunca podrían ser un sujeto moralmente responsable. La capacidad humana única para el juicio moral y la toma de decisiones éticas es más que una compleja colección de algoritmos y dicha capacidad no puede ser reemplazada ni programada en una máquina”. La Santa Sede advirtió que los sistemas de armas autónomos podrían ser normales y aceptables “aquellos comportamientos que el derecho internacional prohíbe, o que, aunque no se explican de manera explícita, todavía están prohibidos por dictámenes de moralidad y conciencia pública”.[171]

En la reunión de abril de 2018, otros Estados plantearon asuntos de manera más implícita bajo la Cláusula Martens. Grecia, por ejemplo, declaró que “es importante garantizar que los comandantes y operadores se mantendrán al tanto del proceso de toma de decisiones para garantizar el juicio humano apropiado sobre el uso de la fuerza, no solo por razones relacionadas con la responsabilidad, sino principalmente proteger la dignidad humana sobre la decisión de vida o muerte”.[172]

En los últimos cinco años, los Estados parte de la CCAC han considerado una serie de otros problemas relacionados con los sistemas de armas autónomas letales. Han resaltado, entre otras cosas, los desafíos de cumplir con el derecho internacional humanitario y las normas internacionales de derechos humanos, el potencial de vacío en la rendición de cuentas, el riesgo de una carrera de armamentos y un umbral más bajo para la guerra, y la vulnerabilidad de las armas a la piratería. Combinados con la Cláusula Martens, estos problemas han llevado a la convergencia de puntos de vista sobre el imperativo de retener alguna forma de control humano sobre los sistemas de armas mediante el uso de la fuerza. En abril de 2018, Pakistán señaló que “se está desarrollando un sentido general entre las Altas Partes Contratantes de que las armas con funciones autónomas deben permanecer bajo el control directo y la supervisión de los seres humanos en todo momento, y deben cumplir con el derecho internacional”.[173] De manera similar, la Unión Europea declaró que sus miembros “creen firmemente que los humanos deben tomar las decisiones con respecto al uso de la fuerza letal, ejercer un control suficiente sobre los sistemas de armas letales que utilizan y seguir siendo responsables de las decisiones sobre la vida y la muerte”.[174]

El año 2018 también ha visto un aumento en los pedidos parlamentarios y de las Naciones Unidas para el control humano. El 4 de julio, el comité de defensa del Parlamento belga adoptó una resolución solicitando al gobierno que apoye los esfuerzos internacionales para prohibir el uso de armas completamente autónomas.[175] Al día siguiente, el Parlamento Europeo votó para recomendar que el Consejo de Seguridad de la ONU:

Trabajar para lograr una prohibición internacional de los sistemas de armas que carecen del control humano sobre el uso de la fuerza según lo solicitado por el Parlamento en diversas ocasiones y, en preparación de las reuniones pertinentes a nivel de las Naciones Unidas, desarrollar y adoptar urgentemente una posición común sobre los sistemas de armas autónomos y hablar en los foros relevantes con una sola voz y actuar en consecuencia.[176]

En su agenda de desarme de 2018, el secretario general de la ONU señaló: “Todas las partes parecen estar de acuerdo en que, como mínimo, es necesaria la supervisión humana sobre el uso de la fuerza”. Se ofreció a apoyar los esfuerzos de los Estados “para elaborar nuevos medidas, incluso a través de acuerdos políticamente o legalmente vinculantes, para garantizar que los seres humanos permanezcan en todo momento en control sobre el uso de la fuerza”.[177] Si bien el término queda por definir, requerir “control humano” es efectivamente lo mismo que prohibir las armas sin tal control. Por lo tanto, el acuerdo generalizado sobre la necesidad del control humano indica que las armas completamente autónomas contravienen los dictados de la conciencia pública.

VI. La necesidad de un Tratado de Prohibición Preventiva

La Cláusula Martens llena un vacío cuando los tratados existentes no abordan específicamente, la nueva situación o tecnología. En tales casos, los principios de la humanidad y los dictados de la conciencia pública sirven como guías para interpretar el derecho internacional y establecen normas contra las cuales juzgar los medios y métodos de guerra. Al hacerlo, proporcionan una línea de base para proteger adecuadamente a los civiles y combatientes. La cláusula, que es una disposición del derecho internacional humanitario, también integra consideraciones morales en el análisis legal.

Los tratados existentes solo regulan las armas completamente autónomas en términos generales y, por lo tanto, una evaluación de las armas debería tener en cuenta la Cláusula Martens. Debido a que las armas completamente autónomas plantean inquietudes tanto en virtud de los principios de humanidad como de los dictados de la conciencia pública, la Cláusula Martens señala la necesidad urgente de adoptar un acuerdo internacional específico sobre la tecnología emergente. Para eliminar cualquier incertidumbre y cumplir con los elementos de la Cláusula Martens, el nuevo instrumento debería tomar la forma de una prohibición preventiva del desarrollo, la producción y el uso de armas completamente autónomas.

No hay manera de regular las armas completamente autónomas sin una prohibición que garantice el cumplimiento de los principios de la humanidad. Las armas completamente autónomas carecerían de la compasión, y el juicio legal y ético que facilitan el trato humano a los humanos. Se enfrentarían a desafíos significativos en el respeto de la vida humana. Incluso si pudieran cumplir con las normas legales de protección, no tendrían la capacidad de respetar la dignidad humana.

Limitar el uso de armas completamente autónomas a ciertos lugares, como aquellos donde no viven muchos civiles, no solucionaría suficientemente estos problemas. El “daño a los demás”, que el principio del trato humano trata de evitar, abarca el daño a los objetos civiles, que podría estar presente donde los civiles no lo están. El requisito de respetar la dignidad humana se aplica tanto a los combatientes como a los civiles, por lo que no deben permitirse las armas donde se encuentran las tropas enemigas. Además, permitir que se desarrollen armas completamente autónomas y que entren en arsenales nacionales aumentaría la posibilidad de su uso indebido. Probablemente se convertirían en actores sin consideración por el sufrimiento humano y sin respeto por la vida o la dignidad humana. La carta de 2017 de los directores ejecutivos de la empresa de tecnología advirtió que las armas podrían ser “armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes, y armas pirateadas para comportarse de formas indeseables”.[178] Un reglamento que permita la existencia de armas completamente autónomas abriría la puerta a violaciones de los principios de la humanidad.

También es necesaria una prohibición para promover el cumplimiento de los dictados de la conciencia pública. Una visión general de la opinión pública muestra que tanto las personas comunes como los expertos se han opuesto a la posibilidad de armas completamente autónomas por razones morales. Las encuestas de opinión pública han iluminado una oposición significativa a estas armas basadas en los problemas de delegar decisiones de vida o muerte a las máquinas. Los expertos han pedido continuamente una prohibición preventiva de armas completamente autónomas, citando cuestiones morales y legales y de seguridad. La regulación que permite la existencia de armas completamente autónomas, incluso si solo pudieran usarse en circunstancias limitadas, sería inconsistente con la creencia generalizada de que las armas completamente autónomas son moralmente incorrectas.

Las declaraciones de los gobiernos, otro elemento de la conciencia pública, iluminan que la oposición a las armas que carecen del control humano sobre la selección y el compromiso de los objetivos, se extiende más allá de los individuos a los países. Más de dos docenas de países han pedido explícitamente una prohibición preventiva de estas armas[179] y está surgiendo un consenso sobre la necesidad del control humano sobre el uso de la fuerza. Como se señaló anteriormente, el requisito de control humano es efectivamente equivalente a una prohibición de armas sin él. Por lo tanto, una prohibición aseguraría mejor que se cumplan los dictados de la conciencia pública.

Los principios de humanidad y los dictados de la conciencia pública refuerzan el caso contra las armas completamente autónomas, aunque como se discutió anteriormente, no son el único motivo de preocupación. Las armas completamente autónomas también son problemáticas según otras disposiciones legales y aumentan los riesgos de responsabilidad, tecnológicos y de seguridad. En conjunto, estos peligros para la humanidad justifican de más la creación de una nueva ley que mantiene el control humano sobre el uso de la fuerza y evita que aparezcan armas completamente autónomas.

Agradecimientos

Bonnie Docherty, investigadora principal de la División de Armas de Human Rights Watch, fue la redactora y editora principal de este informe. También es directora asociada de conflictos armados y protección civil y profesora de derecho en la Clínica Internacional de Derechos Humanos (IHRC, por sus siglas en inglés) de la Escuela de Derecho de Harvard. Danielle Duffield, Annie Madding y Paras Shah, estudiantes de IHRC, hicieron importantes contribuciones a la investigación, análisis y redacción del informe. Steve Goose, director de la División de Armas, y Mary Wareham, directora de defensa de la División de Armas, editaron el informe. Dinah PoKempner, consejera general, y Tom Porteous, subdirector del programa, también revisaron el informe. Peter Asaro, profesor asociado de la Escuela de Estudios de Medios de la Escuela Nueva, proporcionó comentarios adicionales sobre el informe.

Este informe fue preparado para su publicación por Jacqulyn Kantack, asociada de la División de Armas, Fitzroy Hepkins, gerente administrativo, y José Martínez, coordinador principal. Russell Christian produjo la caricatura para la portada del informe.

 

 

[1] Para una discusión más profunda de las ventajas y desventajas de las armas completamente autónomas, ver también Human Rights Watch y Harvard Law School International Human Rights Clinic (IHRC), Construyendo el caso: El peligro de los robots asesinos y la necesidad de una prohibición preventiva, diciembre de 2016, https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban.

[2] Future of Life Institute, “Autonomous Weapons: An Open Letter from AI & Robotics Researchers”, abierto el 28 de julio de 2015, https://futureoflife.org/open-letter-autonomous-weapons/ (accedido el 22 de julio de 2018).

[3] La Convención (II) con respecto a las Leyes y Costumbres de la Guerra Terrestre y su Anexo: Reglamentos relativos a las Leyes y Costumbres de Guerra Terrestre, La Haya, adoptada el 29 de julio de 1899, entró en vigor el 4 de septiembre de 1900, preámbulo, párr., 8.

[4] “Las tres convenciones aprobadas en la Conferencia de 1899 representaban las tres grandes áreas (...) la solución pacífica de las controversias internacionales, la limitación de armamentos y las leyes de la guerra”. Betsy Baker, “Hague Peace Conferences: 1899 and 1907”, Max Planck Encyclopedia of Public International Law, actualizada en noviembre de 2009, http://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690-e305 (accedido el 14 de julio de 2018), párr. 3.

[5] Ver Antonio Cassese, “The Martens Clause: Half a Loaf or Simply Pie in the Sky?” European Journal of International Law, vol. 11, no. 1 (2000), pp. 193-195; Theodor Meron, “The Martens Clause, Principles of Humanity, and Dictates of Public Conscience”, American Journal of International Law, vol. 94, no. 1 (2000), p. 79 (notar que “la cláusula fue diseñada originalmente para proporcionar reglas humanitarias residuales para la protección de la población de los territorios ocupados, especialmente los resistentes armados en esos territorios”). Una minoría de académicos cuestiona la narrativa convencional de que la cláusula sirvió como un compromiso justo. Vea Rotem Giladi, “The Enactment of Irony: Reflections on the Origins of the Martens Clause”, European Journal of International Law, vol. 25, no. 3 (2014), p. 853 (“Su respuesta [de Martens] a las objeciones planteadas por Bélgica fue todo menos conciliadora. Naturalmente, se calculó para promover normas legales sobre la ocupación que se ajustaran a los intereses del imperio ruso en expansión que él representaba (...) La respuesta de Martens sigue siendo un ejemplo clásico de política de poder velada por la retórica humanitaria; también con astucia aprovechó las sensibilidades políticas y profesionales que acosaban a su audiencia”).

[6] Al 6 de agosto de 2018, los Cuatro Convenios de Ginebra contaban con 196 Estados parte. Ver Comité Internacional de la Cruz Roja (CICR)), “Treaties, States Parties and Commentaries, Geneva Conventions of 12 August 1949 and Additional Protocols, and their Commentaries”, https://ihl-databases.icrc.org/applic/ihl/ihl.nsf/vwTreaties1949.xsp (accedido el 6 de agosto de 2018).

[7] Convenio de Ginebra para aliviar la suerte que corren los heridos y los enfermos de las fuerzas armadas en campaña, adoptado el 12 de agosto de 1949, 75 U.N.T.S. 31, que entró en vigor el 21 de octubre de 1950, art. 63; Convenio de Ginebra para aliviar la suerte que corren los heridos, los enfermos y los náufragos de las fuerzas armadas en el mar, adoptado el 12 de agosto de 1949, 75 U.N.T.S. 85, que entró en vigor el 21 de octubre de 1950, art. 1.2. 62; Convenio de Ginebra relativo al trato debido a los prisioneros de guerra, adoptado el 12 de agosto de 1949, 75 U.N.T.S. 135, que entró en vigor el 21 de octubre de 1950, art. 142. Convenio de Ginebra relativo a la protección debida a las personas civiles en tiempo de guerra, adoptado el 12 de agosto de 1949, 75 U.N.T.S. 287, que entró en vigor el 21 de octubre de 1950, art. 1.2; Convenio de Ginebra relativo a la protección debida a las personas civiles en tiempo de guerra, adoptado el 12 de agosto de 1949, 75 U.N.T.S. 287, que entró en vigor el 21 de octubre de 1950, art. 1.2; Convenio de Ginebra relativo a la protección debida a las personas civiles en tiempo de guerra, adoptado el 12 de agosto de 1949, art. 1.3; Convenio de Ginebra relativo a la protección debida a las personas civiles en tiempo de guerra, adoptado el 12 de agosto de 1949, 75 U.N.T.S. 287, que entró en vigor el 21 de octubre de 1950, art. 1.3; Convenio de Ginebra relativo a la protección debida a las personas civiles en tiempo de guerra, adoptado el 21 de octubre de 1950, art. 1.4. 158 (que dice: “La denuncia sólo tendrá efecto respecto de la Potencia denunciante. No menoscabará en modo alguno las obligaciones que las Partes en conflicto seguirán estando obligadas a cumplir en virtud de los principios del derecho de gentes, tal como resultan de los usos establecidos entre los pueblos civilizados, de las leyes de la humanidad y de los dictados de la conciencia pública”).

[8] CICR, Commentary of 2016 on Convention (I) for the Amelioration of the Condition of the Wounded and Sick in Armed Forces in the Field, Ginebra, 12 de agosto de 1949: Artículo 63: Denunciation”, https://ihl-databases.icrc.org/applic/ihl/ihl.nsf/Comment.xsp?action=openDocument&documentId=E6BD0D82E2A36F3EC1257F7A00588C50 (accedido el 14 de julio de 2018), párr. 3330.

[9] El 6 de agosto de 2018, el Protocolo adicional I tenía 174 Estados parte. Ver CICR, “Protocolo adicional a los Convenios de Ginebra del 12 de agosto de 1949, relativo a la protección de las víctimas de los conflictos armados internacionales (Protocolo I), 8 de junio de 1977, https://ihl-databases.icrc.org/ihl/INTRO/470 (accedido el 6 de agosto de 2018).

[10] Protocolo adicional a los Convenios de Ginebra del 12 de agosto de 1949, relativo a la protección de las víctimas de los conflictos armados internacionales (Protocolo I), adoptado el 8 de junio, 1977, 1125 U.N.T.S. 3, que entró en vigor en diciembre 7, 1978, art. 1(2).

[11] CICR, “Commentary of 1987 on Protocol Additional to the Geneva Conventions of August 12, 1949 and relating to the Protection of Victims of International Armed Conflicts (Protocol I): Article 1, General Principles and Scope of Application”, https://ihl‑databases.icrc.org/applic/ihl/ihl.nsf/Comment.xsp?action=openDocument&documentId=7125D4CBD57A70DDC12563CD0042F793 (accedido el 15 de julio de 2018), párr. 55.

[12] Una excepción notable es la Convención sobre armas químicas de 1993. Vea Convención sobre la Prohibición del Desarrollo, la Producción, el Almacenamiento y el Empleo de Armas Químicas y sobre su Destrucción, abierto a firma el 13 de enero de 1993, 1974 UNTS 45, que entró en vigor el 29 de abril de 1997.

[13] El Protocolo de gas de Ginebra de 1925 incorpora elementos de la Cláusula Martens en su preámbulo. Protocolo para la prohibición del uso en la guerra de gases asfixiantes, venenosos u otros y de los métodos bacteriológicos de guerra, adoptado junio 17, 1925, 94 L.N.T.S. 65, que entró en vigor el 8 de febrero 8 de 1928, preámbulo, párr. 1-3 (“Considerando que el empleo en la guerra de gases asfixiantes, tóxicos o similares [...] ha sido justamente condenado por la opinión general del mundo civilizado; y Considerando que la prohibición de tal empleo ha sido declarada en tratados en los que son partes la mayoría de las potencias del mundo; y con el fin de que esta prohibición sea universalmente aceptada [...]vinculando por igual la conciencia y la práctica de las naciones”).

[14] Convención sobre la Prohibición del Desarrollo, la Producción y el Almacenamiento de Armas Bacteriológicas (Biológicas) y Toxinas y sobre su Destrucción, abierta a la firma el 10 de abril de 1972, 1015 UNTS 163, que entró en vigor el 26 de marzo de 1975, preámbulo, párr. 10 ("Convencido de que tal uso sería repugnante para la conciencia de la humanidad y que no se debe escatimar ningún esfuerzo para minimizar este riesgo").

[15] Convención sobre prohibiciones o restricciones del uso de Ciertas Armas Convencionales (CCW, por sus siglas en inglés) que pueden considerarse excesivamente dañinas o tener efectos indiscriminados, adoptada en diciembre 10, 1980, 1342 UNTS 137, que entró en vigor el 2 de diciembre de 1983, preámbulo, párr. 5 (“Confirmando su determinación de que en los casos no cubiertos por la presente convención y sus protocolos anexos o por otros acuerdos internacionales, la población civil y los combatientes permanecerán en todo momento bajo la protección y autoridad de los principios del derecho internacional derivados de la costumbre establecida, a partir de principios de la humanidad y de los dictados de la conciencia pública).

[16] Convención sobre la prohibición del empleo, el almacenamiento, la producción y la transferencia de minas antipersonales y sobre su destrucción, adoptado en septiembre 18, 1997, 2056 UNTS 241, que entró en vigor el 1 de marzo de 1999, preámbulo, párr. 8 (“Enfatizar el papel de la conciencia pública en la promoción de los principios de la humanidad como lo demuestra el llamado a una prohibición total de las minas antipersonal”).

[17] Convención sobre Municiones en Racimo, adoptada el 30 de mayo de 2008, 2688 UNTS 39, que entró en vigor en agosto 1, 2010, preámbulo, párr. 11 (“Reafirmando que en los casos no cubiertos por esta Convención o por otros acuerdos internacionales, civiles y combatientes permanecen bajo la protección y autoridad de los principios del derecho internacional, derivados de las costumbres establecidas, de los principios de humanidad y de los dictados de la conciencia pública).

[18] Tratado sobre la Prohibición de las Armas Nucleares, adoptado el 7 de julio de 2017, C.N.475.2017.TREATIES-XXVI.9, preámbulo, párr. 11 (“Reafirmando que cualquier uso de armas nucleares también sería abominable a los principios de la humanidad y los dictados de la conciencia pública).

[19] Protocolo I, art. 1(2).

[20] Por ejemplo, en un documento legal sobre armas completamente autónomas, Suiza argumentó: "En consecuencia, no todo lo que no está explícitamente prohibido puede decirse que es legal si contradice los principios expuestos en la Cláusula Martens. De hecho, se puede decir que la Cláusula Martens implica obligaciones positivas cuando la acción militar contemplada podría tener consecuencias humanitarias insostenibles”. Suiza, “Compliance-Based’ Approach to Autonomous Weapon Systems”, Doc. de la ONU CCW/GGE.1/2017/WP.9, 10 de noviembre de 2017, https://www.unog.ch/80256EDD006B8954/(httpAssets)/6B80F9385F6B505FC12581D4006633F8/$file/2017_GGEonLAWS_WP9_Switzerland.pdf (accedido el 15 de julio 2018), párr. 18.

[21] In re Krupp, Sentencia del 31 de julio de 1948, en Trials of War Criminals before the Nuremberg Military Tribunals: “The Krupp Case”, vol. IX, (Washington: US Government Printing Office, 1950), p. 1340.

[22] Advisory Opinion on the Legality of the Threat or Use of Nuclear Weapons, Corte Internacional de Justicia, 8 de julio de 1996, http://www.icj-cij.org/files/case-related/95/095-19960708-ADV-01-00-EN.pdf (accedido el 15 de julio de 2018), párr. 78.

[23] Algunos críticos argumentan que el derecho internacional humanitario cubriría adecuadamente las armas totalmente autónomas y señalan la aplicabilidad de los tratados de desarme sobre minas terrestres antipersonal, municiones en racimo y armas incendiarias. Sin embargo, estos instrumentos no proporcionan una ley específica sobre las armas totalmente autónomas. Para las críticas, ver Michael N. Schmitt y Jeffrey S. Thurnher, “‘Out of the Loop’: Autonomous Weapon Systems and the Law of Armed Conflict”, Harvard National Security Journal, vol. 4 (2013), p. 276.

[24] Ver Rupert Ticehurst, “The Martens Clause and the Laws of Armed Conflict”, International Review of the Red Cross, no. 317 (1997), https://www.icrc.org/eng/resources/documents/article/other/57jnhy.htm (accedido el 15 de julio de 2018), p. 1 (que expresa “ El problema que enfrentan los abogados humanitarios es que no hay una interpretación aceptada de la Cláusula Martens. Por lo tanto, está sujeta a una variedad de interpretaciones, tanto estrechas como amplias”).

[25] Por ejemplo, el gobierno británico avanzó esta interpretación en su informe ante la Corte Internacional de Justicia durante el proceso de 1996 Nuclear Weapons Advisory Opinion que establece: “Si bien la Cláusula de Martens deja claro que la ausencia de una disposición específica en el tratado sobre el uso de armas nucleares no es, en sí misma, suficiente para establecer que dichas armas son capaces de ser utilizadas legalmente, la Cláusula no establece, por sí misma, su ilegalidad. Los propios términos de la Cláusula de Martens hacen necesario señalar una norma de derecho internacional consuetudinario que podría prohibir el uso de las armas nucleares”. Meron, “The Martens Clause, Principles of Humanity, and Dictates of Public Conscience”, American Journal of International Law, p. 85.

[26] France v. Greece, Corte Permanente de Justicia Internacional, Sentencia No. 22, 17 de marzo de 1934, http://www.worldcourts.com/pcij/eng/decisions/1934.03.17_lighthouses.htm (accedido el 15 de julio de 2018), párr. 106 (Opinión separada de M. Anzilotti) (“[Es una regla fundamental en la interpretación de los textos legales que no se debe admitir a la ligera que contienen palabras superfluas: lo correcto, siempre que sea posible, es buscar una interpretación que permita una razón y un sentido a cada palabra del texto”).

[27] Ver, por ejemplo, Michael Salter, “Reinterpreting Competing Interpretations of the Scope and Potential of the Martens Clause”, Journal of Conflict and Security Law, vol. 17, no. 3 (2012), p. 421.

[28] Ver , por ejemplo, In re Krupp, Sentencia del 31 de julio de 1948, in Trials of War Criminals before the Nuremberg Military Tribunals: “The Krupp Case”, p. 1340 (que afirma que la Cláusula Martens "es mucho más que una declaración piadosa”). Ver también Cassese, “The Martens Clause”, European Journal of International Law, p. 210 (que asevera: “La mayoría de los Estados que comparecieron ante la Corte Internacional de Justicia con respecto a la Opinión Consultiva sobre Armas Nucleares sugirieron, ya sea implícitamente o de manera enrevesada, la expansión del alcance de la cláusula para elevarla al rango de una norma que establece nuevas fuentes de derecho”); CICR, A Guide to the Legal Review of New Weapons, Means and Methods of Warfare: Measures to Implement Article 36 of Additional Protocol I of 1977 (2006), http://www.icrc.org/eng/resources/documents/publication/p0902.htm (accedido el 15 de julio de 2018), p. 17 (que dice: "Un arma que no esté cubierta por las normas vigentes del derecho internacional humanitario se considerará contraria a la cláusula Martens si se determina per se que contraviene los principios de humanidad o los dictados de la conciencia pública”).

[29] Cassese, “The Martens Clause”, European Journal of International Law, p. 212.

[30] Ib. Ver también Jochen von Bernstorff, “Martens Clause”, Max Planck Encyclopedia of Public International Law, actualizado en diciembre 2009, http://opil.ouplaw.com/search?sfam=&q=Martens+Clause+&prd=EPIL&searchBtn=Search (accedido el 15 de julio 2018), párr. 13 (“Una segunda lectura considera la cláusula como un dispositivo interpretativo según el cual, en caso de duda, las normas del derecho internacional humanitario deben interpretarse de acuerdo con los ‘principios de la humanidad’ y los ‘dictados de la conciencia pública’”).

[31] CICR, “Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control?” 3 de abril de 2018, https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control (accedido el 15 de julio de 2018), p. 6. El CICR ha reconocido en otras ocasiones que los Estados deben tener en cuenta la Cláusula Martens al realizar las revisiones de las armas. CICR, A Guide to the Legal Review of New Weapons, Means and Methods of Warfare, p. 17.

[32] CICR, “Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control?” p. 6.

[33] Peter Asaro, “Jus nascendi, Robotic Weapons and the Martens Clause”, en Robot Law, eds. Ryan Calo, Michael Froomkin, y Ian Kerr (Cheltenham, UK: Edward Elgar Publishing, 2016), https://www.elgaronline.com/view/9781783476725.00024.xml (accedido el 15 de julio de 2018), p. 386.

[34] CICR, “Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control?” p. 6.

[35] Protocolo sobre Armas Láseres Cegadores de CCAC (Protocolo IV CCW), adoptado el 13 de octubre 13 de 1995, que entró en vigor el 30 de julio de 1998, art. 1. Para una discusión de la historia de negociación de este protocolo y su relación con las discusiones sobre armas totalmente autónomas, ver Human Rights Watch y IHRC, Precedent for Preemption: The Ban on Blinding Lasers as a Model for a Killer Robots Prohibition, noviembre de 2015, https://www.hrw.org/sites/default/files/supporting_resources/robots_and_lasers_final.pdf, pp. 3-7.

[36] CICR, Blinding Weapons: Reports of the Meetings of Experts Convened by the ICRC on Battlefield Laser Weapons, 1989-1991 (Ginebra: CICR, 1993), p. 342 (énfasis en el original eliminado).

[37] Ib., p. 341.

[38] Ib., p. 85.

[39] Louise Doswald-Beck, “New Protocol on Blinding Laser Weapons”, International Review of the Red Cross, no. 312 (1996),

https://www.icrc.org/eng/resources/documents/article/other/57jn4y.htm (accedido el 15 de julio de 2018).

[40] Resumen de la declaración por Human Rights Watch, Primera Conferencia de Revisión de la CCAC, “Summary Record of the 6th Meeting”, CCW/CONF.I/SR.6, 28 de septiembre de 1995, párr. 60.

[41] Resumen de la declaración por el Programa de Naciones Unidas para el Desarrollo, Primera Conferencia de Revisión de la CCAC, “Summary Record of the 5th Meeting”, CCW/CONF.I/SR.5, Septiembre 27, 1995, para. 50.

[42] Resumen de la declaración por Christoffel Blindenmission (CBM), Primera Conferencia de Revisión de la CCAC, “Summary Record of the 6th Meeting”, CCW/CONF.I/SR.6, Septiembre 28, 1995, párr. 51. CBM es una organización internacional de desarrollo cristiano.

[43] Resumen de la declaración de Chile, Primera Conferencia de Revisión de la CCAC, “Summary Record of the 14th Meeting”, CCW/CONF.I/SR.13, mayo 3, 1996, párr. 69.

[44] Parlamento Europeo, Resolución sobre el Fracaso de la Conferencia Internacional sobre Minas Antipersonales y Armas Láser, 4 de diciembre de 1995, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:51995IP1360&from=EN (accedido el 15 de julio de 2018).

[45] Ib.

[46] Doswald-Beck, “New Protocol on Blinding Laser Weapons”, International Review of the Red Cross.

[47] Los láseres cegadores y las armas completamente autónomas diferirían en algunos aspectos. Por ejemplo, los láseres cegadores son un tipo específico de arma, mientras que las armas completamente autónomas constituyen una clase amplia. Sin embargo, en lugar de socavar las llamadas a una prohibición, las cualidades únicas de las armas completamente autónomas hacen que una prohibición preventiva sea aún más apremiante.. Ver Human Rights Watch y IHRC, Precedent for Preemption, pp. 17-18.

[48] English Oxford Living Dictionaries, “humanidad”, https://en.oxforddictionaries.com/definition/humanity (accedido el 15 de julio 15 de 2018). Ver también Merriam Webster, “humanidad”, https://www.merriam-webster.com/dictionary/humanity (accedido el 15 de julio 15 de 2018) (definir a la humanidad como “comportamiento o disposición compasivo, simpático o generoso; La calidad o estado de ser humano”).

[49] VearCICR, “Rule 87: Humane Treatment”, Customary International Humanitarian Law Database, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule87 (accedido el 15 de julio de 2018).

[50] Ib. Ver también V.V. Pustogarov, “The Martens Clause in International Law”, Journal of the History of International Law, vol. 125 (1999), p. 133 (que señala que "los principios de humanidad se expresan concretamente en las disposiciones que prescriben el 'tratamiento humano' de los heridos, los enfermos, los prisioneros de guerra y otras personas que se encuentran bajo la protección de los Convenios de Ginebra de 1949 y los Protocolos de 1977. Se puede decir que el 'trato humano' es el contenido principal del derecho humanitario"). Además, el artículo 10(1) del Pacto Internacional de Derechos Civiles y Políticos establece que "Toda persona privada de libertad será tratada humanamente"; Pacto Internacional de Derechos Civiles y Políticos (PIDCP) , adoptado el 16 de diciembre de 1966, Res. de la Asamblea general 2200A (XXI), 21 Sup. GAOR de la ONU (No. 16) en 52, Doc de la ONU.A/6316 (1966), 999 U.N.T.S. 171, que entró en vigencia el 23 de marzo de 1976, art. 10(1).

[51] CICR, “The Fundamental Principles of the Red Cross: Commentary”, 1 de enero de 1979, https://www.icrc.org/eng/resources/documents/misc/fundamental-principles-commentary-010179.htm (accedido el 15 de julio de 2018).

[52] English Oxford Living Dictionaries, “humanidad”, https://en.oxforddictionaries.com/definition/humane (accedido el 15 de julio de 2018) (Definir "humano" como "tener o mostrar compasión o benevolencia”).

[53] CICR, “The Fundamental Principles of the Red Cross: Commentary”, 1 de enero de 1979.

[54] En este informe, el término "actor" se usa para describir a un agente desplegado en situaciones, incluido el conflicto armado, donde se les encarga la toma de decisiones morales, es decir, aquellas en las que las acciones de una persona tienen el potencial de dañar o ayudar a otros. Por lo tanto, tanto los seres humanos como las armas totalmente autónomas son actores para los propósitos de este documento. Todos los actores están obligados, de conformidad con la Cláusula de Martens, a cumplir con los principios de la humanidad. Para una definición de empatía., vea English Oxford Living Dictionaries, “empatía”, https://en.oxforddictionaries.com/definition/empathy (accedido el 15 de julio de 2018). Anneliese Klein-Pineda también ha comentado que "tanto la empatía como la simpatía requieren la capacidad de interpretar acciones y percibir las motivaciones o sentimientos de los demás”. Anneliese Klein-Pineda, “The Ethics of Robots: Is There an Algorithm for Morality?” Stashlearn, 22 de diciembre 22 de 2016, https://learn.stashinvest.com/robot-ethics-morality (accedido el 15 julio de 2018).

[55] Christof Heyns, el entonces Relator Especial sobre Ejecuciones Extrajudiciales, Sumarias o Arbitrarias, escribió que "las decisiones sobre la vida y la muerte en los conflictos armados pueden requerir compasión e intuición”. Informe del Relator Especial sobre Ejecuciones Extrajudiciales, sumarias o Arbitrarias, Christof Heyns, “Lethal Autonomous Robotics and the Protection of Life”, Consejo de Derechos Humanos de la ONU, A/HRC/23/47, 9 de abril de 2013, https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf (accedido el 15 de julio de 2018), párr. 55.

[56] Jean Pictet, Development and Principles of International Humanitarian Law (Ginebra: Martinus Nijoff and Henry Dunant Institute, 1985), p. 62.

[57] English Oxford Living Dictionaries, “juicio”, https://en.oxforddictionaries.com/definition/judgement (accedido el 15 de julio de 2018) (define "juicio" como "la capacidad de tomar decisiones consideradas o llegar a conclusiones sensatas").

[58] James H. Moor, “The Nature, Importance, and Difficulty of Machine Ethics”, IEEE Intelligent Systems, vol. 21, no. 4, (2006), https://ieeexplore.ieee.org/document/1667948/ (accedido el 15 de julio de 2018), p. 21.

[59] James H. Moor, “Four Kinds of Ethical Robot” Philosophy Now, vol. 72 (2007), p. 12.

[60] Moor, “The Nature, Importance, and Difficulty of Machine Ethics”, IEEE Intelligent Systems, p. 21.

[61] CICR, “The Fundamental Principles of the Red Cross and Red Crescent”, 1996, https://www.icrc.org/eng/assets/files/other/icrc_002_0513.pdf (accedido el 15 de julio de 2018) p. 2.

[62] Ib.

[63] English Oxford Living Dictionaries, “emoción”, https://en.oxforddictionaries.com/definition/emotion (accedido el 15 de julio de 2018) (define la emoción como "un sentimiento fuerte derivado de las circunstancias, el estado de ánimo o las relaciones con los demás" y "sentimiento instintivo o intuitivo que se distingue del razonamiento o el conocimiento).

[64] Amanda Sharkey, “Can We Program or Train Robots to be Good?” Ethics and Information Technology (2017), accedido el 3 de agosto de 2018, doi.org/10.1007/s10676-017-9425-5, p. 8.

[65] Ver Olivia Goldhill, “Can We Trust Robots to Make Moral Decisions?” Quartz, 3 de abril de 2016, https://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/ (accedido el 15 de julio de 2018) (que afirma: “es poco probable que los robots sean capaces de abordar las decisiones éticas más sofisticadas para el futuro previsible”).

[66] Sharkey, “Can We Program or Train Robots to be Good?” Ethics and Information Technology, p. 1.

[67] Mary Wareham (Human Rights Watch), “It’s Time for a Binding, Absolute Ban on Fully Autonomous Weapons”, comentario, Equal Times, 9 de noviembre de 2017, https://www.hrw.org/news/2017/11/09/its-time-binding-absolute-ban-fully-autonomous-weapons.

[68] Christof Heyns, “Autonomous Weapons in Armed Conflict and the Right to a Dignified Life: An African Perspective”, South African Journal on Human Rights, vol. 33 (2017), accedido el 1 de julio de 2018, doi.org/10.1080/02587203.2017.1303903, p. 51.

[69] Ib., p. 58.

[70] CICR, “The Fundamental Principles of the International Red Cross and Red Crescent Movement”, agosto de 2015, https://www.icrc.org/sites/default/files/topic/file_plus_list/4046‑the_fundamental_principles_of_the_international_red_cross_and_red_crescent_movement.pdf (accedido el 21 de julio 21, 2018), p. 3.

[71] Pacto Internacional de Derechos Civiles y Políticos (PIDCP), art. 6(1).

[72] Para un análisis más detallado de los requisitos para el uso de la fuerza bajo el derecho a la vida, ver Human Rights Watch y IHRC, “Shaking the Foundations: The Human Rights Implications of Killer Robots”, mayo de 2014, https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots, pp. 8-16.

[73] CICR, “Rule 1 The Principle of Distinction between Civilians and Combatants”, Customary International Humanitarian Law Database, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule1 (accedido el 21 de julio 21, 2018); CICR, “Rule 14: Proportionality in Attack”, Customary International Humanitarian Law Database, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule14 (accedido el 6 de agosto de 2018); “Military Necessity”, en CICR, How Does Law Protect in War?, https://casebook.icrc.org/glossary/military-necessity (accedido el 21 de julio de 2018).

[74] English Oxford Living Dictionaries, “dignidad” https://en.oxforddictionaries.com/definition/dignity (accedido el 21 de julio de 2018) (define "dignidad" como "la calidad de ser digno u honorable"). Ver también Jack Donnelly, “Human Dignity and Human Rights”, en Swiss Initiative to Commemorate the 60th Anniversary of the UDHR, Protecting Dignity: Agenda for Human Rights, Junio 2009, https://www.legal-tools.org/doc/e80bda/pdf/ (accedido el 21 de julio de 2018), p. 10; Human Rights Watch and IHRC, Shaking the Foundations, p. 3; José Pablo Alzina de Aguilar, “Human Dignity according to International Instruments on Human Rights”, Revista Electrónica de Estudios Internacionales, vol. 22 (2011), p. 8. (“[Los instrumentos internacionales de derechos humanos] también dicen que los derechos que se derivan de esa dignidad, o al menos los más importantes, son universales e inviolables”).

[75] Por ejemplo, el preámbulo de la Declaración Universal de los Derechos Humanos afirma que “el reconocimiento de la dignidad inherente y de los derechos iguales e inalienables de todos los miembros de la familia humana es el fundamento de la libertad, la justicia y la paz en el mundo”. Declaración Universal de los derechos humanos (DUDH), adoptado el 10 de diciembre de 1948, Res. de la Asamblea General 217A(III), Doc. de la ONU A/810 at 71 (1948), preámbulo, párr. 1.

[76] Carta Africana de Derechos Humanos y de los Pueblos (Carta de Banjul), adoptada el 27 de junio de 1981, CAB/LEG/67/3 rev. 5, 21 I.L.M. 58, que entró en vigor el 21 de octubre de 1986, art. 7.

[77] Existe una superposición entre los tipos de respeto en la medida en que un actor que respeta verdaderamente la dignidad humana tiene más probabilidades de tomar las medidas necesarias para proteger la vida humana.

[78] CICR, “Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control?” p. 10.

[79] Heyns, “Autonomous Weapons in Armed Conflict and the Right to a Dignified Life”, South African Journal on Human Rights, pp. 62-63 (que declara: “Un empuje central de la noción de dignidad humana es la idea de que los humanos no deben ser tratados como algo similar a un objeto que simplemente tiene un valor instrumental (como es el caso, por ejemplo, con la esclavitud o la violación) o que no tiene ningún valor ( como con muchas masacres”).

[80] Human Rights Watch y IHRC, “Construyendo el caso: El peligro de los robots asesinos y la necesidad de una prohibición preventiva, p. 6. Ver también Final Report to the Prosecutor by the Committee Established to Review the NATO Bombing Campaign against the Federal Republic of Yugoslavia, Tribunal Penal Internacional para la ex Yugoslavia, http://www.difesa.it/SMD_/CASD/IM/ISSMI/Corsi/Corso_Consigliere_Giuridico/Documents/72470_final_report.pdf (accedido el 21 de julio 21 de 2018), párr. 50.

[81] Human Rights Watch y IHRC, Construyendo el caso: El peligro de los robots asesinos y la necesidad de una prohibición preventiva”, p. 7. Ver también Olivier Corten, “Reasonableness in International Law”, Max Planck Encyclopedia of Public International Law, actualizado en 2013, http://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690-e1679?prd=EPIL#law-9780199231690-e1679-div1-1 (accedido el 22 de julio de 2018), párr. 1 (que establece: “También se percibe generalmente que la razonabilidad abre la puerta a varias consideraciones éticas o morales, en lugar de legales”).

[82] Las armas completamente autónomas enfrentarían las mismas dificultades para determinar si la fuerza es necesaria y proporcionada en situaciones de cumplimiento de la ley y evitarla cuando sea posible, que son requisitos para defender el derecho a la vida. Veáse también Human Rights Watch y IHRC, Shaking the Foundations, pp. 8-14. Ver también Peter Asaro, “‘Hands Up, Don’t Shoot!’ HRI and the Automation of Police Use of Force”, Journal of Human-Robot Interaction, vol. 5, no. 3, (2016), http://humanrobotinteraction.org/journal/index.php/HRI/article/view/301/pdf_37 (accedido el 22 de julio de 2018).

[83] Heyns, “Autonomous Weapons in Armed Conflict and the Right to a Dignified Life”, South African Journal on Human Rights, p. 64.

[84] Lt. Col. Dave Grossman, On Killing: The Psychological Cost of Learning to Kill in War and Society (Nueva York: Little, Brown and Company, 1995), p. 4. De manera similar, Armin Krishnan escribió que “Una de las mayores restricciones para la crueldad en la guerra siempre ha sido la inhibición natural de los humanos para no matar o lastimar a otros seres humanos. La inhibición natural es, de hecho, tan fuerte que la mayoría de la gente preferiría morir antes que matar a alguien”. Armin Krishnan, Killer Robots: Legality and Ethicality of Autonomous Weapons (Farnham: Ashgate Publishing Limited, 2009), p. 130.

[85] CICR, “Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control?” pp. 10, 12.

[86] El CICR ha declarado que la importancia de respetar la personalidad y la dignidad del individuo es vital para el principio de humanidad. Ver CICR, “The Fundamental Principles of the Red Cross: Commentary”, 1 de enero de 1979.

[87] Christof Heyns, “Autonomous Weapon Systems: Human Rights and Ethical Issues” (presentación a la Reunión de Expertos de CCAC sobre Sistemas de Armas Autónomas Letales, 14 de abril de 2016, transcripción archivada en Human Rights Watch.

[88] Erin Hunt y Piotr Dobrzynski, “The Right to Dignity and Autonomous Weapons Systems”, CCW Report, Abril 11, 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/reports/CCWR6.3.pdf (accedido el 22 de julio de 2018), p. 5.

[89] Larry May, “Hobbes, Law, and Public Conscience”, Critical Review of International Social and Political Philosophy, vol. 19, (2016): accedido el 22 de julio de 2018, doi.org/10.1080/13698230.2015.1122352. Ver Heping Dang, International Law, Human Rights, and Public Opinion: The Role of the State in Educating on Human Rights Standards (Londres: Taylor & Francis Group, 2017).

[90] English Oxford Living Dictionaries, “conciencia”, https://en.oxforddictionaries.com/definition/conscience (accedido el 22 de julio de 2018) (Define "conciencia" como "sentido moral de lo correcto e incorrecto de una persona, visto como una guía para su comportamiento"). Ver también Merriam-Webster, “conciencia”, https://www.merriam-webster.com/dictionary/conscience (accedido el 22 de julio de 2018) (que define "conciencia" como "el sentido o conciencia de la bondad moral o la culpabilidad de la propia conducta, intenciones o carácter, junto con un sentimiento de obligación de hacer el bien o ser bueno").

[91] Asaro, “Jus nascendi, Robotic Weapons and the Martens Clause”, pp. 374-375.

[92] Meron señala que mirar un rango de opiniones ayuda a protegerse de las opiniones potencialmente inmorales de los gobiernos y las personas. Meron también señala que algunos han argumentado que el derecho internacional de los derechos humanos, que se discutió en el Capítulo IV de este informe, puede desempeñar un papel en la determinación de la conciencia pública. Meron, “The Martens Clause, Principles of Humanity, and Dictates of Public Conscience”, American Journal of International Law, pp. 83-84 (que establece que: “La opinión pública, tan influyente en nuestra era, tiene un papel que desempeñar en el desarrollo del derecho internacional no es un fenómeno completamente nuevo”).

[93] Asaro, “Jus nascendi, Robotic Weapons and the Martens Clause”, pp. 374-375. Ver también V.V. Pustogarov, “The Martens Clause in International Law”, Journal of the History of International Law, pp. 132-133.

[94] Asaro, “Jus nascendi, Robotic Weapons and the Martens Clause”, pp. 373-374.

[95] Ib., p. 375 (“De hecho, el mejor lugar para buscar normas emergentes y los dictados de la conciencia pública son los foros públicos en los que los estados y los individuos intentan lidiar y articular esa conciencia”).

[96] Ib. (“Ese contenido también debe obtenerse a través de la discusión pública, así como mediante estudios académicos, expresiones artísticas y culturales, reflexión individual, acción colectiva y medios adicionales, mediante los cuales la sociedad delibera su conciencia moral colectiva”).

[97] Michael Wood y Omri Sender, “State Practice”, Max Planck Encyclopedia of Public International Law, actualizado en enero 2017, http://opil.ouplaw.com/abstract/10.1093/law:epil/9780199231690/law-9780199231690-e1107?rskey=RSszP4&result=3&prd=EPIL (accedido el 22 de julio 22 de 2018) (“En esencia, la práctica debe ser general, es decir, suficientemente extendida y representativa, así como coherente, e ir acompañada de un reconocimiento de que se trata de un estado de derecho o de una obligación legal”).

[98] Con el apoyo del Movimiento de Países No Alineados, que cuenta con más de 100 estados como miembros, este número supera con creces a 100 naciones. Véase, por ejemplo, la declaración de Venezuela en nombre del Movimiento de Países No Alineados, Grupo de Expertos Gubernamentales (GGE) de la CCAC sobre sistemas de armas autónomas letales, Ginebra, 28 de marzo de 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/E9BBB3F7ACBE8790C125825F004AA329/$file/CCW_GGE_1_2018_WP.1.pdf (accedido el 22 de julio 22 de 2018); “Declaración del Grupo Africano”, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9-13 de abril de 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_African-Group.pdf (accedido el 22 de julio de 2018).

[99] Para ejemplos de Estados que se oponen a una prohibición, ver “Declaración de los Estados Unidos”, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 13 de abril de 2018, https://geneva.usmission.gov/2018/04/17/u-s-statement-on-the-outcome-of-the-gge/(accedido el 22 de julio de 2018); “Declaración de Israel”, Reunión de los Estados Parte de la CCAC, Ginebra, 15 de noviembre de 2017, http://embassies.gov.il/UnGeneva/priorities-statements/Disarmament/Documents/CCW-MSP-GeneralExchangeViews22.11.2017.pdf (accedido el 22 de julio de 2018).

[100] Charli Carpenter, “US Public Opinion Poll on Lethal Autonomous Weapons”, junio de 2013, http://duckofminerva.dreamhosters.com/wp-content/uploads/2013/06/UMass-Survey_Public-Opinion-on-Autonomous-Weapons.pdf (accedido el 22 de julio de 2018); Open Roboethics Initiative, “The Ethics and Governance of Lethal Autonomous Weapons Systems: An International Public Opinion Poll”, 9 de noviembre de 2015, http://www.openroboethics.org/wp-content/uploads/2015/11/ORi_LAWS2015.pdf (accedido el 22 de julio de 2018); Chris Jackson, “Three in Ten Americans Support Using Autonomous Weapons”, Ipsos, 7 de febrero de 2017, https://www.ipsos.com/en-us/news-polls/three-ten-americans-support-using-autonomous-weapons (accedido el 22 de julio de 2018).

[101] Del 55%, el 39% dijo que se "oponen fuertemente" y el 16% "se opone de alguna manera" al usar armas completamente autónomas. Para evaluar los efectos del lenguaje, la encuesta describió las armas como “completamente autónomas [armas robóticas / robots letales]”. Charli Carpenter, “US Public Opinion on Autonomous Weapons”. Estas cifras se basan en una encuesta en línea representativa a nivel nacional de 1.000 estadounidenses realizada por Yougov.com. Los encuestados fueron un grupo de usuarios de Internet invitados (YouGov Panel) emparejados y ponderados por género, edad, raza, ingresos, región, educación, identificación de partidos, registro de votantes, ideología, interés político y estatus militar. El margen de error para los resultados es de +/- 3,6%.

[102] Ib.

[103] Ib. Según la encuesta, el 33% dijo que "apoyan firmemente" una campaña y el 20% dijo que "de alguna manera lo apoyan”.

[104] Willem Staes, “Nieuw onderzoek: 60% van de Belgen wil internationaal verbod op ‘killer robots”, Pax Christi Vlaanderen, 3 de julio de 2018, https://www.paxchristi.be/nieuws/nieuw-onderzoek-60-van-de-belgen-wil-internationaal-verbod-op-killer-robots (accedido el 22 de julio de 2018) (traducción no oficial).

[105] Open Roboethics Initiative, “The Ethics and Governance of Lethal Autonomous Weapons Systems: An International Public Opinion Poll”, pp. 4, 8.

[106] Ib., p. 7.

[107] Ib.

[108] Chris Jackson, “Three in Ten Americans Support Using Autonomous Weapons”.

[109] Ib. Los países más fuertemente opuestos al uso de estas armas fueron Rusia (69% en oposición), Perú (67% en oposición), España (66% en oposición) y Argentina (66% en oposición). Los países que vieron su uso algo favorable fueron India (60% a favor), China (47% a favor) y los Estados Unidos (34% a favor).

[110] Campaña para detener a los Robots Asesinos, “Who We Are”, abril 2018, https://www.stopkillerrobots.org/coalition/ (accedido el 22 de julio de 2018).

[111] Ib.

[112] Ver Campaña para Detener a los Robots Asesinos, “Bibliography”, https://www.stopkillerrobots.org/bibliography/ (accedido el 22 de julio de 2018).

[113] Declaración de Human Rights Watch, CCW GEE on Lethal Autonomous Weapons Systems, Ginebra, 9 de abril de 2018, https://www.hrw.org/news/2018/04/09/statement-human-rights-watch-convention-conventional-weapons-group-governmental.

[114] Declaración de CICR, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 15 de noviembre de 2017, https://www.icrc.org/en/document/expert-meeting-lethal-autonomous-weapons-systems (accedido el 22 de julio de 2018).

[115] Declaración de la CICR, CCW GEE on Lethal Autonomous Weapons Systems, Ginebra, 11 de abril de 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/11April_ICRC.pdf, p. 1.

[116] Ib.

[117] Ib.

[118] Nobel Women's Initiative, “Nobel Peace Laureates Call for Preemptive Ban on Killer Robots”, 12 de mayo de 2014, http://nobelwomensinitiative.org/nobel-peace-laureates-call-for-preemptive-ban-on-killer-robots/?ref=204 (accedido el 22 de julio de 2018).

[119] Ib.

[120] PAX, “Religious Leaders Call for a Ban on Killer Robots”, 12 de noviembre de 2014, https://www.paxforpeace.nl/stay-informed/news/religious-leaders-call-for-a-ban-on-killer-robots (accedido el 22 de julio de 2018).

[121] Campaña para Detener a los Robots Asesinos, “Who Supports the Call to Ban Killer Robots?” junio de 2017, http://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_ListBanEndorsers_June2017-1.pdf (accedido el 22 de julio de 2018), p. 1.

[122] PAX, “Religious Leaders Call for a Ban on Killer Robots”.

[123] Frank Sauer, Comité Internacional para el Control de Armas Robóticas (ICRAC), “The Scientists’ Call … to Ban Autonomous Lethal Robots”, noviembre 11, 2012, https://www.icrac.net/the-scientists-call/ (accedido el 22 de julio de 2018).

[124] Campaña para Detener a los Robots Asesinos, “Scientists Call for a Ban”, 16 de octubre de 2013, https://www.stopkillerrobots.org/2013/10/scientists-call/ (accedido el 22 de julio de 2018). Los firmantes provenían de 37 países diferentes e incluían numerosos profesores universitarios.

[125] “Computing Experts from 37 Countries Call for Ban on Killer Robots”, comunicado de prensa del ICRAC, 15 de octubre de 2013, https://www.icrac.net/wp-content/uploads/2018/06/Scientist-Call_Press-Release.pdf (accedido el 22 de julio de 2018), p. 1; ICRAC, “As Computer Scientists, Engineers, Artificial Intelligence Experts, Roboticists and Professionals from Related Disciplines, We Call for a Ban on the Development and Deployment of Weapon Systems in which the Decision to Apply Violent Force is Made Autonomously”, junio de 2018, https://www.icrac.net/wp-content/uploads/2018/06/List-of-Signatories-ICRAC-call.pdf (accedido el 22 de julio de 2018).

[126] Algunos de los firmantes: Elon Musk, CEO de Tesla; Steve Wozniak, cofundador de Apple; Jaan Tallin, cofundador de Skype; Stephen Hawking, profesor Stephen Hawking, profesor Noam Chomsky, líder de DeepMind, y 21 de sus ingenieros, Kathryn McElroy, líder de diseño de IBM Watson. Facebook Jefe de Investigación de AI Yann LeCun, CEO de Twitter Jack Dorsey, Premio Nobel de física Frank Wilczek, ex Ministro de Defensa de Canadá, Excmo. Jean Jacques Blais, y numerosos profesores. Future of Life Institute, “Autonomous Weapons: An Open Letter from AI & Robotics Researchers”.

[127] Ib.

[128] Ib.

[129] Future of Life Institute, “Lethal Autonomous Weapons Pledge”, https://futureoflife.org/lethal-autonomous-weapons-pledge/ (accedido el 30 de julio de 2018).

[130] Ib.

[131] Ariel Conn, “AI Companies, Researchers, Engineers, Scientists, Entrepreneurs, and Others Sign Pledge Promising Not to Develop Lethal Autonomous Weapons”, comunicado de prensa de Future of Life Institute, 18 de julio de 2018, https://futureoflife.org/2018/07/18/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/ (accedido el 30 de julio de 2018).

[132] Meghan Hennessy, “Clearpath Robotics Takes Stance Against ‘Killer Robots’” comunicado de prensa de ClearPath Robotics, 13 de agosto de 2014, https://www.clearpathrobotics.com/2014/08/clearpath-takes-stance-against-killer-robots/ (accedido el 22 de julio de 2018).

[133] Ib.

[134] Ib.

[135] Samuel Gibbs, “Elon Musk Leads 116 Experts Calling for Outright Ban of Killer Robots”, Guardian, 20 de agosto de 2017, https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war (accedido el 22 de julio de 2018).

[136] Future of Life Institute, “An Open Letter to the United Nations Convention on Certain Conventional Weapons”, https://futureoflife.org/autonomous-weapons-open-letter-2017/ (accedido el 22 de julio de 2018).

[137] Ib.

[138] Barbara Booth, “‘Autonomous Weapons are among the World's Dumbest Ideas’: A.I. CEO”, CNBC, 15 de marzo de 2018, https://www.cnbc.com/2018/03/15/autonomous-weapons-are-among-the-worlds-dumbest-ideas-a-i-ceo.html (accedido el 22 de julio de 2018).

[139] Parlamento del Reino Unido, Comité de Ciencia y Tecnología, Investigación de Robótica e Inteligencia Artificial, “Written Evidence Submitted by Google DeepMind, ROB0062”, mayo de 2016, http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/33005.html (accedido el 22 de julio de 2018), párr. 5.3.

[140] Ib.

[141] Scott Shane y Daisuke Wakabayashi, “‘The Business of War’: Google Employees Protest Work for the Pentagon”, New York Times, 4 de abril de 2018, https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html?partner=IFTTT (accedido el 22 de julio de 2018).

[142] ICRAC, “Open Letter in Support of Google Employees and Tech Workers”, 25 de junio de 2018, https://www.icrac.net/open-letter-in-support-of-google-employees-and-tech-workers/ (accedido el 22 de julio de 2018).

[143] Sunda Pichai, “AI at Google: Our Principles”, https://www.blog.google/technology/ai/ai-principles/ (accedido el 30 de julio de 2018). Otros conjuntos similares de pautas éticas que buscan asegurar los beneficios de la IA, no los daños, los seres humanos, incluyen: “Montreal Declaration for Responsible AI”, https://www.montrealdeclaration-responsibleai.com/the-declaration (accedido el 22 de julio de 2018); Future of Life, “Asilomar AI Principles”, 2017, https://futureoflife.org/ai-principles/ (accedido el 24 de julio de 2018) (Firmado por 1.273 investigadores de IA y robótica y 2.541 personas más).; George Dvorsky, “UK Government Proposes Five Basic Principles to Keep Humans Safe From AI”, Gizmodo, 16 de abril de 2018, https://gizmodo.com/uk-government-proposes-five-basic-principles-to-keep-hu-1825290212 (accedido el 22 de julio de 2018).

[144] “Norwegian Fund Considers Killer Robots”, Comunicado de prensa de la Campaña para Detener a los Robots Asesinos, 19 de marzo de 2016, https://www.stopkillerrobots.org/2016/03/norwayfund/ (accedido el 22 de julio de 2018).

[145]Ban on Killer Robots Gaining Ground”, comunicado de prensa de PAX, 16 de abril de 2018, https://www.paxforpeace.nl/stay-informed/news/ban-on-killer-robots-gaining-ground (accedido el 3 de agosto de 2018).

[146] Campaña para Detener a los Robots Asesinos, “Country Views on Killer Robots”, 13 de abril de 2018, https://www.stopkillerrobots.org/wp-content/uploads/2018/04/KRC_CountryViews_13Apr2018.pdf (accedido el 22 de julio de 2018). Estas naciones son: Argelia, Argentina, Austria, Bolivia, Brasil, Chile, China (pide una prohibición de uso solamente), Colombia, Costa Rica, Cuba, Djibouti, Ecuador, Egipto, Ghana, Guatemala, la Santa Sede, Irak, México, Nicaragua, Pakistán, Panamá, Perú, el Estado de Palestina, Uganda, Venezuela y Zimbabwe.

[147] Declaración de Venezuela en nombre del Movimiento de Países No Alineados., CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 28 de marzo de 2018.

[148] Ver el Informe del Relator Especial sobre Ejecuciones Extrajudiciales, Sumarias o Arbitrarias, Christof Heyns, “Lethal Autonomous Robotics and the Protection of Life”.

[149] Ib., párr. 89.

[150] Ib., párr. 94.

[151] Ib., párr. 89, 100.

[152] Ib., párr 113.

[153] “Joint Report of the Special Rapporteur on the Rights to Freedom of Peaceful Assembly and of Association and the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions on the Proper Management of Assemblies to the UN Human Rights Council, A/HRC/31/66, 4 de febrero de 2016, http://www.refworld.org/docid/575135464.html (accedido el 6 de agosto de 2018), párr. 67(f).

[154] Campaña para Detener a los Robots Asesinos, “Chronology”, https://www.stopkillerrobots.org/chronology/ (accedido el 22 de julio de 2018).

[155] Declaración de Ecuador, Reunión de los Estados Partes de la CCAC, Ginebra, 25 de octubre de 2013, http://www.reachingcriticalwill.org/images/documents/Disarmament-fora/1com/1com13/statements/29Oct_Ecuador.pdf, (accedido el 22 de julio de 2018), p. 2.

[156] Declaración de Indonesia, Diálogo interactivo con el Relator Especial sobre Ejecuciones Extrajudiciales, Sumarias o Arbitrarias, Consejo de Derechos Humanos de la ONU, 23° período de sesiones, Ginebra, 30 de mayo de 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Indonesia_09_30May2013.pdf (accedido el 22 de julio de 2018).

[157] Declaración de Rusia, Diálogo interactivo, Consejo de Derechos Humanos de la ONU, 23° período de sesiones, Ginebra, 30 de mayo de 2013, traducido en la Campaña para Setener a los Robots Asesinos, "Report on Outreach on the UN Report on ‘Lethal Autonomous Robotics’” http://stopkillerrobots.org/wp-content/uploads/2013/03/KRC_ReportHeynsUN_Jul2013.pdf (accedido el 22 de julio de 2018), p. 19.

[158] Declaración de Pakistán, Diálogo interactivo, Consejo de Derechos Humanos de la ONU, 23° período de sesiones, Ginebra, 30 de mayo de 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Pakistan_09_30May2013.pdf (accedido el 22 de julio de 2018), p. 2. Ver también Campaña para Detener a los Robots Asesinos, “Chronology”.

[159] Declaración de Brasil, Diálogo interactivo, Consejo de Derechos Humanos de las Naciones Unidas, 23° período de sesiones, Ginebra, 30 de mayo de 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Brazil_09_30May2013.pdf (accedido el 22 de julio de 2018), p. 2.

[160] Con respecto a las preocupaciones de seguridad, Indonesia señaló los posibles impactos en la "estabilidad y seguridad internacional" que podrían surgir del uso de tales armas. Declaración de Indonesia, Diálogo interactivo, Consejo de Derechos Humanos de las Naciones Unidas, 23° período de sesiones, Ginebra, 30 de mayo de 2013. La Red Latinoamericana GRULAC enfatizó que "estos sistemas podrían conducir a una 'normalización del conflicto', y a una posible carrera de armamentos que crearía divisiones entre los Estados y debilitaría el derecho internacional". Declaración de Argentina en nombre de GRULAC, Diálogo interactivo, ONU Consejo de Derechos Humanos, 23° período de sesiones, Ginebra, 30 de mayo de 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Argentina_09_30May2013.pdf (accedido el 22 de julio de 2018), p. 2.

[161] Campaña para Detener a los Robots Asesinos, “Chronology”.

[162] Ibid.

[163] Ibid.

[164] Declaración de Austria, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9-13 abril de 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/AA0367088499C566C1258278004D54CD/$file/2018_LAWSGeneralExchang_Austria.pdf (accedido el 22 de julio de 2018), p. 1.

[165] Resumen de la declaración de Brasil, Reunión informal de expertos de la CCAC sobre sistemas de armas autónomas letales, Ginebra, 13 de mayo de 2014, en la Campaña para Detener a los Robots Asesinos, “Report on Activities: CCW Informal Meeting of Experts on Lethal Autonomous Weapons Systems”, mayo 13-16, 2014, http://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_CCWreport_16Sep20141.pdf (accedido el 22 de julio de 2018), p. 27.

[166] Resumen de la declaración de México, Reunión informal de expertos de la CCAC sobre sistemas de armas autónomas letales, Ginebra, 13 de mayo de 2014, en Campaña para Detener a los Robots Asesinos, “Report on Activities”, p. 30.

[167] Resumen de la declaración de Rusia, Reunión informal de expertos de la CCAC sobre sistemas de armas autónomas letales, Ginebra, 13 de mayo de 2014, en Campaña para Detener a los Robots Asesinos, “Report on Activities”, p. 18.

[168] Declaración de los Estados Unidos, Reunión informal de expertos de la CCAC sobre sistemas de armas autónomas letales, Ginebra, 16 de abril de 2015, https://geneva.usmission.gov/2015/04/16/ccw-informal-meeting-of-experts-on-lethal-autonomous-weapons-systems-laws/ (accedido el 22 de julio de 2018).

[169] Declaración del Grupo Africano, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9 de abril de 2018.

[170] Ibid.

[171] Statement de la Santa Sede, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9 de abril de 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Holy-See.pdf, (accedido el 22 de julio de 2018), p. 1.

[172] Declaración de Grecia, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9 de abril de 2018,

http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Greece.pdf (accedido el 22 de julio de 2018), p. 2.

[173] Declaración de Pakistán, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9 de abril de 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Pakistan.pdf (accedido el 22 de julio de 2018), p. 2.

[174] Declaración de la Unión Europea, CCW GGE on Lethal Autonomous Weapons Systems, Ginebra, 9 de abril de 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_EU.pdf (accedido el 22 de julio de 2018), p. 2.

[175] Campaña para Detener a los Robots Asesinos, “Parliamentary Actions”, 10 de julio de 2018, https://www.stopkillerrobots.org/2018/07/parliaments-2/ (accedido el 24 de julio de 2018); Chambre des Représentants de Belgique, Proposition de Résolution visant à interdire l’utilisation, par la Défense belge, de robots tueurs et de drones armés, DOC 54 3201/001, 27 de junio 27 de 2018, http://www.dekamer.be/FLWB/PDF/54/3203/54K3203001.pdf (accedido el 24 de julio de 2018).

[176] “European Parliament Recommendation of 5 July 2018 to the Council on the 73rd session of the United Nations General Assembly”, P8_TA-PROV(2018)0312, adoptado en julio 5, 2018, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2018-0312+0+DOC+PDF+V0//EN (accedido el 24 de julio de 2018), art. 1(av).

[177] El Secretario General de la ONU, António Guterres, Asegurando nuestro futuro común: una agenda para el desarme (Nueva York: Oficina de Asuntos de Desarme de la ONU, 2018), https://front.un-arm.org/documents/SG+disarmament+agenda_1.pdf (accedido el 22 de julio de 2018), p. 55.

[178] Future of Life Institute, “Carta Abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales”.

[179] Campaña para Detener a los Robots Asesinos, “Country Views on Killer Robots”.