Des représentants de la Campagne pour interdire les robots tueurs (« Campaign to Stop Killer Robots ») devant le palais de Westminster, siège du parlement britannique, lors du lancement de la campagne par une coalition d’ONG internationales à Londres, le 23 avril 2013.

© 2013 Campaign to Stop Killer Robots

(Genève, le 28 mai 2013) – Les États-Unis devraient soutenir l'appel lancé par un rapporteur spécial des Nations Unies en faveur de l'interdiction des armes robotisées complètement autonomes, a déclaré Human Rights Watch aujourd'hui. Ces armes, une fois activées, auraient la capacité de choisir et de tirer sur des cibles sans autre intervention humaine.

Pour la première fois, les États vont débattre des défis posés par les armes pleinement autonomes, parfois appelées « robots tueurs», au Conseil des droits de l'homme des Nations Unies à Genève, le 29 mai 2013.

« Le rapport de l'ONU montre de façon très claire que nous devons renoncer aux armes complètement autonomes, sinon les civils en subiront les conséquences à terme », a déclaré Steve Goose, directeur de la division Armes à Human Rights Watch. « Les États-Unis et tous les autres pays devraient soutenir et mettre en œuvre l'appel de l'ONU à abandonner tous les projets de mise au point de robots tueurs. »

Christof Heyns, rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires auprès du Haut-Commissariat de l'ONU aux droits de l'homme, a préparé un rapport de 22 pages sur les armes robotisées autonomes et létales, qu'il présentera à la deuxième session du Conseil des droits de l'homme, le 29 mai. Le Conseil envisagera alors quelles mesures prendre pour suivre les recommandations du rapport, notamment son appel à toutes les nations à déclarer immédiatement un moratoire sur ce type d'armes et à travailler à l'élaboration d'un accord international qui réponde aux nombreuses préoccupations répertoriées dans le rapport.

Reconnaissant que le recours à des armes complètement autonomes poserait de nombreux défis, le Département de la Défense des États-Unis a émis le 21 novembre 2012 une directive qui impose, pour l'instant, la présence d’un être humain « dans le circuit » de consultation quand il s'agit de décider du recours à la force létale. Pour une période pouvant aller jusqu'à 10 ans, la Directive nº 3000.09 du Département de la Défense autorise d’une manière générale le développement et l’utilisation de systèmes d'armement totalement autonomes à la condition qu'ils soient munis d'une force non létale, à moins que les responsables du Département au plus haut niveau ne décident d'une dérogation à cette politique. De fait, cette directive constitue le premier moratoire au monde sur les armes létales totalement autonomes.

Mais bien qu'étant un élément positif, cette directive ne peut être considérée comme une solution globale ou permanente aux problèmes potentiels posés par les systèmes d'armes entièrement autonomes, a souligné Human Rights Watch. La politique de retenue qu'elle représente pourrait également être difficile à poursuivre si d'autres pays choisissaient de déployer des systèmes d'armes entièrement autonomes.

Au cours de la dernière décennie, l'utilisation croissante de véhicules armés sans équipage ou de drones a changé radicalement la conduite de la guerre, faisant apparaître de nouveaux défis sur les plans humanitaire et juridique, a rappelé Human Rights Watch. Selon le rapport de l'ONU, on peut dire, malgré l'absence de transparence autour de la recherche et du développement, que « des robots dotés d'une totale autonomie et munis d'une force létale n'ont pas encore été déployés ». Le rapport dresse une liste de plusieurs systèmes robotisés dotés de divers degrés d'autonomie et de force létale qui sont utilisés par les États-Unis, la Corée du Sud, Israël et le Royaume-Uni. D'autres nations dotées d'armées équipées de hautes technologies, comme la Chine et la Russie, semblent également s'orienter vers des systèmes qui doteraient des machines d’une autonomie totale au combat.

Le 19 novembre 2012, Human Rights Watch et la Clinique des droits humains internationaux de la faculté de droit de l'Université de Harvard (Harvard Law School International Human Rights Clinic) ont publié « Losing Humanity: The Case Against Killer Robots,»(« Une arme inhumaine: Les arguments contre les robots tueurs »), un rapport de 50 pages qui donne un aperçu des nombreuses préoccupations suscitées par les armes complètement autonomes, notamment sur les plans juridique, éthique et politique.

Human Rights Watch est le coordinateur originel de la Campagne pour l'interdiction des robots tueurs (Campaign to Stop Killer Robots), une nouvelle coalition internationale d'organisations non gouvernementales qui milite pour une interdiction préventive et totale des armes robotisées complètement autonomeset dotées d'une force létale qui auraient la capacité de choisir et de tirer sur des cibles sans aucune intervention humaine. Cette interdiction devrait être concrétisée par un traité international, ainsi que par des lois nationales et d'autres mesures, afin d'enraciner le principe selon lequel la décision de recourir à la force létale contre un être humain doit toujours être prise par un être humain.

«Il est possible d'arrêter la dérive vers la pleine autonomie des armements avant que certaines frontières morales et juridiques ne soient transgressées, mais seulement si nous traçons dès maintenant une ligne rouge à ne jamais franchir », a conclu Steve Goose. « La réaction initiale du public à l'éventuelle mise au point d'armes complètement autonomes a été une réaction de profonde inquiétude. Ces armes devraient être rejetées comme étant inacceptables pour la conscience publique.»