Réunion d'experts au sujet de la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques (CCAC) au siège européen de l'ONU à Genève, en avril 2015.

© 2015 Bureau des Nations Unies - Genève

 

(Genève) – Les gouvernements devraient trouver le moyen d’étendre et de formaliser leurs délibérations internationales sur les armes totalement autonomes, avec pour objectif ultime de les interdire à titre préventif, a déclaré Human Rights Watch dans un rapport publié aujourd'hui. Ces armes, connues sous le nom de systèmes d'armes létales autonomes ou robots tueurs, seraient en mesure de sélectionner et d’attaquer des cibles en l’absence d’intervention humaine.

Intitulé « Un précédent pour la préemption » (« Precedent for Preemption: The Ban on Blinding Lasers as a Model for a Killer Robots Prohibition »), le rapport de 18 pages présente les raisons pour lesquelles les pays ont convenu, à titre préventif, d'interdire les armes à laser aveuglantes en 1995 et explique en quoi cette décision pourrait constituer un précédent aux efforts actuels visant à interdire les armes totalement autonomes.  Les pays participant à la réunion annuelle de la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques (CCAC) décideront par consensus, le 13 novembre 2015, de poursuivre ou non l’an prochain leurs délibérations sur les systèmes d'armes létales autonomes.

« Les inquiétudes relatives aux armes totalement autonomes ont fait remonter cette question au sommet de l'ordre du jour international en matière de désarmement, mais les pays doivent accélérer le rythme de leurs discussions», a déclaré Bonnie Docherty, chercheuse senior auprès de la division Armes de Human Rights Watch, organisation cofondatrice de la Campagne Stop Killer Robots (« Stop aux robots tueurs »). « Les gouvernements peuvent maintenant agir directement en prenant l’engagement d'interdire les armes sans contrôle humain significatif sur la cible et le moment de l’attaque. »

Human Rights Watch, qui coordonne la campagne contre les robots tueurs, appelle les pays à s’engager dans un processus plus vigoureux grâce à la création d'un groupe d'experts gouvernementaux sur les armes totalement autonomes, en vertu de la CCAC.

Des experts en matière d’intelligence artificielle, des roboticiens et d'autres scientifiques prédisent que les armes totalement autonomes pourraient être mises au point dans un délai de quelques années.  L'interdiction préemptive des lasers aveuglants, qui figure dans un protocole annexé au traité sur les armes conventionnelles, montre qu'une interdiction de ces futures armes est possible.

« La perspective d'armes totalement autonomes soulève les mêmes préoccupations que les lasers aveuglants il y a deux décennies », a déclaré Docherty, auteur principal du nouveau rapport retraçant l'histoire de l'interdiction des lasers qui rendent définitivement aveugles leurs victimes.  « Les pays devraient parvenir à la même solution en prohibant les armes totalement autonomes avant qu'elles n’arrivent sur le champ de bataille ».

Le rapport conjoint de Human Rights Watch et du laboratoire des droits humains internationaux de l’Université de Harvard montre que les menaces aux principes d'humanité et d’exigence de conscience publique, ainsi que les notions d'horreur et d'inacceptabilité sociale, ont décidé les pays à interdire les lasers aveuglants. Les armes entièrement autonomes présentent des dangers similaires.

Le risque de prolifération généralisée des armes à laser aveuglant parmi des individus faisant peu de cas du droit international a été un autre facteur clé dans la décision des Etats, un risque auquel ont fait écho les discussions sur les armes totalement autonomes, selon Human Rights Watch et le laboratoire des droits humains internationaux de l’Université de Harvard. Comme avec les lasers aveuglants il y a 20 ans, une interdiction des armes totalement autonomes pourrait clarifier et renforcer la législation existante sans limiter le développement des technologies connexes légitimes.

« Les inquiétudes relatives aux armes totalement autonomes ont fait remonter cette question au sommet de l'ordre du jour international en matière de désarmement, mais les pays doivent accélérer le rythme de leurs discussions. Les gouvernements peuvent maintenant agir directement en prenant l’engagement d'interdire les armes sans contrôle humain significatif sur la cible et le moment de l’attaque. »

Bonnie Docherty

Chercheuse senior auprès de la division Armes

Les deux groupes ont reconnu des différences notables dans les problèmes juridiques et le caractère technologique spécifiques des deux types d’armes, constatant que ces différences rendent l'interdiction des armes totalement autonomes encore plus nécessaires.

Dans d'autres publications, Human Rights Watch s’est penché sur les défis auxquels seraient confrontées  les armes totalement autonomes pour être en conformité avec le droit international humanitaire et le droit international des droits humains et analysé les problèmes posés par l’absence de responsabilité en ce qui concerne le préjudice illégal causé de telles armes.

Plusieurs des 121 pays ayant adhéré à la CCAC – y compris les États-Unis, le Royaume-Uni, la Chine, Israël, la Russie et la Corée du Sud – développent des systèmes d'armes avec divers degrés d'autonomie et de létalité. Les États parties au traité ont eu neuf jours de discussions informelles sur les systèmes d'armes létales autonomes en 2014 et 2015, mais ils gagneraient maintenant à accélérer leurs délibérations, concluent Human Rights Watch et le laboratoire international des droits humains de l’Université de Harvard.

Docherty et Steve Goose, le Directeur de la Division Armes de Human Rights Watch, présenteront le rapport lors d'une manifestation qui se tiendra le 9 novembre à 14 heures en salle de conférence XI du Palais des Nations à Genève. Lors d'une seconde manifestation, prévue le 13 novembre à 13 heures, toujours en salle de conférence XI, Goose reviendra sur la décision qui sera prise lors de la réunion sur les armes totalement autonomes, rejoints par d'autres membres de la Campagne pour mettre fin aux robots tueurs.

------------------

À lire aussi :

Tribune de Genève 23.11.15