La prochaine génération d’armes dans les arsenaux militaires pourrait être celle des « robots tueurs », capables de sélectionner et de détruire des cibles spécifiques sans aucune intervention humaine. Mais si un robot enfreint la loi, qui sera tenu responsable ? Est-ce que ce sera le programmeur, le fabricant, le commandant militaire, ou bien le robot qui se présentera au tribunal ?

© 2015 Russell Christian pour Human Rights Watch

(Genève) – Les programmeurs, les fabricants et le personnel militaire pourraient tous échapper à leur responsabilité juridique pour les décès et les blessures causés de manière illicite par les armes entièrement autonomes, ou « robots tueurs », a déclaré Human Rights Watch dans un rapport publié aujourd’hui. Ce rapport a été préparé en vue de la réunion multilatérale sur ces armes qui se tiendra aux Nations Unies à Genève.

Le rapport de 38 pages, intitulé « Mind the Gap: The Lack of Accountability for Killer Robots » (« Une lacune cruciale : Le manque de responsabilité juridique pour les robots tueurs »), détaille des obstacles notables à l’attribution de responsabilité personnelle pour les actions des armes entièrement autonomes, tant au niveau du droit pénal que du droit civil. Le rapport examine également les conséquences de l’absence d’attribution de responsabilité légale. Ce rapport est publié conjointement par Human Rights Watch et par la Clinique des droits humains internationaux de la Faculté de droit de l'Université de Harvard (Harvard Law School’s International Human Rights Clinic).

« L’absence de responsabilité légale équivaut à l’absence de dissuasion de futurs crimes, à l’absence de justice pour les victimes et à l’absence de condamnation par la société des utilisateurs de ces armes », a observé Bonnie Docherty, chercheuse senior auprès de la division Armes à Human Rights Watch, et auteure principale du rapport. « Les nombreux obstacles à la justice pour d’éventuelles victimes montrent pourquoi il est urgent d’interdire les armes entièrement autonomes. »

Les armes entièrement autonomes seraient encore plus dangereuses que les drones télécommandés qui sont déjà utilisés, car elles seraient capables de sélectionner et d’attaquer des cibles sans intervention d’un être humain. Même si ces armes ne sont pas encore opérationnelles, l’avancée rapide de la technologie dans cette direction a déjà attiré l’attention d’observateurs internationaux et suscité de profondes préoccupations.

Human Rights Watch est co-fondateur de la Campagne pour interdire les robots tueurs et en est l’organisation coordinatrice. La coalition internationale de plus de 50 organisations non gouvernementales y participant appelle à une interdiction préventive de la mise au point, de la fabrication et de l'utilisation des armes entièrement autonomes.

Le rapport sera distribué lors d’une importante réunion internationale sur les « Systèmes létaux d’armes autonomes » qui se tiendra du 13 au 17 avril au siège européen de l’ONU, à Genève. La plupart des 120 pays qui ont adhéré à la Convention sur certaines armes classiques devraient participer à la réunion d’experts sur ce thème, qui fera suite aux délibérations entamées lors d’une réunion d’experts initiale en mai 2014.

Selon Human Rights Watch, le fait que ces discussions se tiendront dans le cadre de la Convention sur certaines armes classiques pourrait éventuellement mener à une nouvelle législation internationale interdisant les armes entièrement autonomes. La Convention sur certaines armes classiques a interdit à titre préventif les armes à laser aveuglantes en 1995.

 

 

Une préoccupation essentielle relative aux armes entièrement autonomes est qu’elles seraient susceptibles de faire des victimes civiles en violation du droit humanitaire international et du droit international des droits humains. Le manque de réel contrôle humain qui caractérise ces armes rendrait difficile d’exiger des comptes devant la justice pour de telles actions illicites.

Des commandants ou des opérateurs militaires pourraient être reconnus coupables s’ils déploient intentionnellement une arme entièrement autonome pour commettre un crime, selon Human Rights Watch. Mais ils seraient susceptibles d’échapper à la justice dans le cadre d’une situation plus plausible, où ils n’auraient pas prévu une attaque illicite par un robot autonome, et/ou ils auraient été incapables de l’arrêter.

« Une arme entièrement autonome serait capable de commettre des actes qui constitueraient des crimes de guerre si c’était une personne qui les perpétrait, mais en l’occurrence les victimes ne verraient personne être puni pour ces crimes », a expliqué Bonnie Docherty, qui est également conférencière à la Faculté de droit de Harvard. « Qualifier de tels actes de simple ‘accident’ ou de ‘pépin’ banaliserait les dommages mortels qu’ils pourraient causer. »

Les obstacles à l’obligation de rendre des comptes seraient également considérables au regard du droit civil, selon Human Rights Watch. L’établissement précis de la responsabilité civile serait pratiquement impossible, tout au moins aux États-Unis, du fait de l’immunité octroyée par la loi à l’armée et à ses prestataires, et des obstacles en matière de preuve dans les poursuites pour indemnisation. De nombreux autres pays disposent de systèmes similaires d’immunité absolue.

Même en cas de réussite, des poursuites au civil auraient une efficacité limitée en tant qu’instrument de justice. L’objectif premier des sanctions pénales est l’indemnisation des victimes, et non les peines. Si les dommages-intérêts monétaires peuvent aider les victimes, ils ne peuvent en aucun cas se substituer à la responsabilité pénale en termes de dissuasion, de justice rétributive et de stigmatisation morale.

Un système dans lequel les victimes pourraient recevoir une indemnisation sans que soit également apporté la preuve d’une faute légale ne garantirait pas une véritable responsabilité, et la plupart des gouvernements seraient réticents à adopter un tel système, selon Human Rights Watch.

Le manque de responsabilité juridique n’est qu’un des multiples sujets de préoccupation soulevés par les armes entièrement autonomes. Dans de précédents communiqués et rapports, Human Rights Watch a examiné les défis posés par ces armes quant au respect du droit humanitaire international et du droit international des droits humains. Human Rights Watch a également souligné des inquiétudes relatives à la possibilité d'une course à l’armement, à la perspective de la prolifération, et a soulevé des questions quant à savoir s’il est éthique pour des machines de prendre des décisions de vie ou de mort sur le champ de bataille.

« Le manque de responsabilité juridique vient s’ajouter aux arguments légaux, moraux et techniques pouvant être avancés contre les armes entièrement autonomes, et renforce l’urgence de l’appel à une interdiction préventive », a conclu Bonnie Docherty.

------------------

À lire aussi :

Le Monde 17.10.15