Skip to main content

Robots asesinos: Se debe negociar el tratado en un nuevo foro

Demorar una norma sumamente necesaria pone en peligro a civiles y genera inseguridad

© 2022 Brian Stauffer por Human Rights Watch
  • Los gobiernos deben trasladar las discusiones para un tratado sobre sistemas de armas autónomas, llamadas también “robots asesinos”, a espacios alejados de las reuniones sobre el tratado de armas que existen en la actualidad, donde esas conversaciones se encuentran estancadas.
  • Esos sistemas de armas operan sin un control humano significativo y delegan a máquinas las decisiones sobre vida o muerte. Varios países están invirtiendo en la tecnología necesaria para desarrollar estas armas. 
  • Los gobiernos deben iniciar negociaciones que conduzcan a un nuevo tratado, ya sea fuera de la ONU, como los tratados sobre minas terrestres o municiones en racimo, o en la Asamblea General de la ONU, como el tratado de prohibición de las armas nucleares.

(Ginebra, 10 de noviembre de 2022) – Los gobiernos deben trasladar las conversaciones estancadas para un tratado sobre sistemas de armas autónomas, denominadas “robots asesinos”, a un nuevo foro internacional, señaló Human Rights Watch en un informe que se presentó en el día de hoy. Estos sistemas de armas operan sin un control humano significativo y delegan a máquinas las decisiones sobre vida o muerte.

El informe de 40 páginas, “An Agenda for Action: Alternative Processes for Negotiating a Killer Robots Treaty” (“Programa para la acción: Procesos alternativos de negociación de un tratado sobre robots asesinos”) se publica como una colaboración entre Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard. Propone que los países inicien un proceso para la formulación de un tratado sobre la base de modelos de desarme humanitario anteriores, como por ejemplo, para el tratado que prohíbe las municiones en racimo.

“Un nuevo tratado internacional que aborde los sistemas de armas autónomas requiere un foro más apropiado para el desarrollo de las negociaciones”, señaló Bonnie Docherty, investigadora sénior sobre armas de Human Rights Watch, directora adjunta de conflictos armados y protección civil en la Clínica Internacional de Derechos Humanos de Harvard y autora principal del informe. “Existen numerosos antecedentes que muestran que adoptar un proceso alternativo para definir normas legales sobre robots asesinos resulta viable y es deseable, y que los países deben actuar ahora para estar a la altura de los desarrollos tecnológicos”.

Más de 70 países, como así también organizaciones no gubernamentales y el Comité Internacional de la Cruz Roja, consideran que adoptar un nuevo tratado con prohibiciones y restricciones es necesario y urgente, y que se puede materializar. El secretario general de las Naciones Unidas António Guterres llamó a establecer “límites acordados a nivel internacional” para los sistemas de armas que puedan, por sí mismos, elegir como blancos a seres humanos y atacarlos, y describió esas armas como “moralmente repudiables y políticamente inaceptables”.

Desde 2014 se han mantenido conversaciones sobre sistemas de armas autónomas letales en el marco de la Convención sobre Ciertas Armas Convencionales (CAC). Los países volverán a reunirse en la ONU en Ginebra del 16 al 18 de noviembre de 2022 con ocasión de la reunión anual sobre el tratado. No obstante, no hay ningún indicio de que vayan a ponerse de acuerdo sobre negociar un nuevo instrumento jurídicamente vinculante a través de la CAC en 2023 ni en el futuro próximo.

El principal motivo que explica la falta de avances en el marco del CAC es que los países miembros toman las decisiones sobre la base del consenso, lo que implica que un solo país puede rechazar una propuesta, aun cuando todos los demás países manifiesten su acuerdo con ella. Unas pocas potencias militares importantes han bloqueado, en reiteradas oportunidades, las propuestas de iniciar negociaciones; por ejemplo, India y Rusia durante el año pasado. Ambos países también procuraron impedir que las organizaciones no gubernamentales participaran en debates durante 2022.

India y Rusia, al igual que Australia, China, Irán, Israel, Corea del Sur, Turquía, el Reino Unido y Estados Unidos, están invirtiendo fuertemente en las aplicaciones militares de la inteligencia artificial y las tecnologías relacionadas para desarrollar sistemas de armas autónomas aéreos, terrestres y marítimos.

Dadas las falencias del foro de la CAC, deberían explorarse procesos alternativos para negociar un nuevo tratado, expresaron Human Rights Watch y la Clínica de Derechos Humanos de Harvard. Una opción sería impulsar un proceso independiente por fuera de la ONU, tal como el que se usó para los tratados que prohíben las minas terrestres antipersonales y las municiones en racimo. Otra vía es la Asamblea General de la ONU, que inició las negociaciones del tratado sobre la prohibición de las armas nucleares.

Hay cuatro características de estos procesos alternativos que hacen que resulten particularmente conducentes a lograr tratados sólidos y oportunos: un objetivo común; toma de decisiones basada en votaciones; plazos claros y breves; y un compromiso de asegurar la inclusión, explicaron Human Rights Watch y la Clínica de Derechos Humanos de Harvard.

Los países ya han expresado un amplio apoyo a los elementos esenciales que se precisan para responder a las preocupaciones que plantea retirar el control humano del uso de la fuerza. Si se arribara a un nuevo tratado internacional, este debería prohibir los sistemas de armas autónomas que, intrínsecamente, carezcan de control humano significativo, como así también los sistemas dirigidos a personas. Debería incluir obligaciones positivas orientadas a asegurar el control humano significativo en otros sistemas de armas que tengan autonomía. Se entiende, de manera general, que “control humano significativo” requiere que la tecnología sea comprensible, previsible y limitada en tiempo y espacio.

En octubre, 70 países expresaron su apoyo a las “normas y los límites acordados a nivel internacional” sobre sistemas de armas autónomas en una declaración conjunta dirigida a la Primera Comisión de Desarme y Seguridad Internacional de la Asamblea General de la ONU.

También se han recibido más manifestaciones de apoyo por parte de la industria a que estas armas se reglamenten. En octubre, Boston Dynamics y otras cinco empresas de robótica se comprometieron a no transformar en armas sus robots móviles avanzados e instaron a otros actores a “asumir compromisos similares de no construir, autorizar, brindar apoyo ni permitir que se conecten armas a estos robots”.

Human Rights Watch es cofundador de la coalición Stop Killer Robots, integrada por más de 190 organizaciones no gubernamentales de 67 países, que aboga por que se establezcan nuevas normas internacionales sobre la autonomía en los sistemas de armas.

“Cuanto más tiempo la cuestión de los robots asesinos permanezca paralizada en el foro actual, más tiempo tendrán los desarrolladores de sistemas de armas autónomas para crear nuevas tecnologías y lograr viabilidad comercial”, manifestó Docherty. “Un nuevo tratado contribuiría a detener la carrera armamentista y a evitar la proliferación estigmatizando la eliminación del control humano”.

Your tax deductible gift can help stop human rights violations and save lives around the world.

Región / País

Las más vistas