Répondre à l’appel

L’interdiction des robots tueurs, un impératif moral et juridique

 

Résumé

Dans les cas non prévus par le présent Protocole ou par d’autres accords internationaux, les personnes civiles et les combattants restent sous la sauvegarde et sous l’empire des principes du droit des gens, tels qu’ils résultent des usages établis, des principes de l’humanité et des exigences de la conscience publique.
— Clause de Martens, telle qu’énoncée dans le Protocole I aux Conventions de Genève de 1977

Les armes entièrement autonomes sont l’une des technologies militaires en cours de développement les plus inquiétantes. Il est urgent que les États, les spécialistes et le grand public examinent attentivement ces armes à la lumière de la clause de Martens, unique disposition du droit international humanitaire qui établisse une base de référence pour la protection des civils et des combattants lorsqu’une situation n’est couverte par aucun texte juridique. Le présent rapport montre comment les armes entièrement autonomes, qui seraient capables de sélectionner et d’attaquer des cibles sans contrôle humain significatif, iraient à l’encontre des deux piliers de la clause de Martens : les principes de l’humanité et les exigences de la conscience publique. Afin de respecter la clause de Martens, les États devraient adopter une interdiction préventive portant sur la mise au point, la production et l’utilisation de ces armes.

Au vu du développement rapide des technologies autonomes et de l’intelligence artificielle (IA), les armes entièrement autonomes pourraient devenir une réalité dans un futur proche. Également connues sous le nom de « robots tueurs » et de « systèmes d’armes létales autonomes », elles soulèvent une multitude de préoccupations en matière de morale, de droit, de responsabilité, de fonctionnement, de technique et de sécurité. Ces armes font l’objet de débats internationaux depuis 2013. Cette année-là, la Campagne contre les robots tueurs (Campaign to Stop Killer Robots), une coalition de la société civile, a été créée pour pousser les États à examiner la question de ces armes. Après avoir organisé trois réunions informelles d’experts, les États parties à la Convention sur certaines armes classiques (CCAC) a entamé, en 2017, des discussions formelles. En août 2018, environ 80 États doivent se réunir de nouveau à l’occasion d’une nouvelle rencontre du Groupe d’experts gouvernementaux de la CCAC.

L’examen des armes entièrement autonomes et de la voie à suivre mené par les États parties à la CCAC doit placer la clause de Martens au centre du débat. Cette clause, qui est commune au droit international humanitaire et aux traités sur le désarmement, dispose que, en l’absence d’accord international, les usages établis, les principes de l’humanité et les exigences de la conscience publique doivent apporter une protection aux civils et aux combattants. Elle s’applique aux armes entièrement autonomes car celles-ci ne sont pas spécifiquement couvertes par le droit international. Les experts ne sont pas tous d’accord sur la signification juridique précise de la clause de Martens ; pour certains, elle reprend le droit coutumier, pour d’autres elle constitue une source de droit indépendante, et pour d’autres encore elle sert d’outil d’interprétation. Il n’en reste pas moins que la clause de Martens fournit aux États des éléments essentiels à prendre en compte pour évaluer des technologies d’armement émergentes telles que les armes entièrement autonomes. Elle crée une norme morale permettant de juger ces armes.

Les principes de l’humanité

Du fait de leur absence d’émotions et de jugement juridique et éthique, les armes entièrement autonomes auraient beaucoup de mal à respecter les principes de l’humanité. Selon ces principes, il convient de traiter autrui avec humanité et de respecter la vie et la dignité humaines. Les êtres humains sont naturellement poussés à traiter leurs semblables avec humanité car ils ressentent de la compassion et de l’empathie à leur égard. Le jugement juridique et éthique offre, quant à lui, les moyens de limiter les maux infligés ; il permet de prendre des décisions réfléchies, fondées sur la compréhension d’un contexte particulier. En tant que machines, les armes entièrement autonomes ne seraient pas des êtres sensibles capables de ressentir de la compassion. Au lieu d’exercer un jugement, ces systèmes d’armes fonderaient leur action sur des algorithmes préprogrammés, qui ne fonctionnent pas bien dans des situations complexes et imprévisibles.

Respecter la vie humaine suppose de réduire le nombre de morts. Le jugement éthique et juridique aide l’être humain à évaluer différents facteurs pour éviter les morts arbitraires et injustifiées dans les conflits armés ou dans d’autres situations. Il serait complexe de recréer ce jugement, qui s’est développé au travers de l’histoire de l’être humain et de la vie de chacun, chez des armes entièrement autonomes. Elles ne pourraient pas non plus être préprogrammées pour traiter l’ensemble des scénarios possibles tout en respectant les normes juridiques et éthiques. En outre, la plupart des êtres humains éprouvent une aversion naturelle face à l’acte de tuer, parce qu’ils comprennent l’impact de la perte de la vie, ce que les armes entièrement autonomes, en tant que machines inanimées, ne peuvent connaître.

Même si les armes entièrement autonomes pouvaient protéger la vie humaine de manière adéquate, elles seraient incapables de respecter la dignité humaine. À la différence des êtres humains, ces robots ne seraient pas capables d’apprécier pleinement la valeur d’une vie humaine et la signification de sa perte. Elles fonderaient les décisions de vie ou de mort sur des algorithmes, réduisant leurs cibles humaines à des objets. Les armes entièrement autonomes violeraient de cette manière les principes de l’humanité sur tous les plans.

Les exigences de la conscience publique

L’indignation croissante de la population face aux armes entièrement autonomes laisse penser que cette nouvelle technologie va aussi à l’encontre du deuxième volet de la clause de Martens, les exigences de la conscience publique. Ces exigences sont un ensemble d’orientations morales, qui se fondent sur la connaissance de ce qui est bien ou mal. Elles peuvent être déterminées par l’intermédiaire de l’opinion publique et des avis du gouvernement.

Beaucoup de personnes, d’experts et de gouvernement se sont fortement opposés à la mise au point d’armes entièrement autonomes. La majorité des personnes interrogées dans le cadre d’une multitude de sondages d’opinion ont fait part de leur opposition à ces armes. Des experts, qui ont étudié la question de manière plus approfondie, ont publié des lettres ouvertes et des déclarations qui reflètent mieux la conscience que les sondages. Des organisations internationales et des organisations non gouvernementales (ONG), aux côtés de leaders dans les domaines du désarmement et des droits humains, de la paix et de la religion, de la science et de la technologie, et de l’industrie, se sont sentis contraints, en particulier pour des motifs en lien avec la morale, d’appeler à l’interdiction des armes entièrement autonomes. Pour eux, ces armes sont « inadmissibles », « un affront (…) au caractère sacré de la vie », « insensées » et « contraires à l’éthique ».

Les gouvernements ont cité le respect de la clause de Martens et les manquements sur le plan moral parmi les principales préoccupations soulevées par les armes entièrement autonomes. Au mois de juillet 2018, 26 États avaient apporté leur soutien à une interdiction préventive, et plus d’une centaine d’États avaient lancé un appel en faveur d’un instrument juridiquement contraignant afin de répondre aux préoccupations soulevées par les systèmes d’armes létales autonomes. Presque tous les États parties à la Convention sur certaines armes classiques qui sont intervenus lors de leur dernière réunion en date, en avril 2018, ont insisté sur la nécessité de conserver un contrôle humain sur le recours à la force. Ce consensus qui apparaît et qui équivaut, dans les faits, à interdire les armes qui ne requièrent pas d’intervention humaine significative, prouve que la conscience publique est fortement opposée aux armes entièrement autonomes.

La nécessité d’un traité d’interdiction préventive

Une évaluation des armes entièrement autonomes au regard de la clause Martens fait ressortir la nécessité d’une nouvelle loi spécifique et solide. Des règles qui ne feraient qu’encadrer leur utilisation ne suffiraient pas. Par exemple, le fait de limiter l’utilisation des armes à certains lieux n’empêcherait pas le risque de prolifération entre les mains d’acteurs n’ayant que peu d’égard pour le traitement d’autrui avec humanité ou la vie humaine et aucun respect pour la dignité des civils et des combattants. En outre, la conscience publique témoigne d’un large soutien en faveur d’une interdiction des armes entièrement autonomes, ou de son équivalent, à savoir l’obligation d’un contrôle humain significatif. Afin de garantir le respect des principes de l’humanité et des exigences de la conscience publique, les États devraient interdire de manière préventive la mise au point, la production et l’utilisation des armes entièrement autonomes.

Recommandations

Afin de prévenir les risques liés aux armes entièrement autonomes et à la perte de contrôle humain sur la sélection et l’attaque de cibles, qu’ils soient d’ordre juridique, moral ou autre, Human Rights Watch et International Human Rights Clinic (IHRC) de la faculté de droit de Harvard recommandent ce qui suit :

Aux États parties à la Convention sur certaines armes classiques

· Adopter, lors de leur réunion annuelle de novembre 2018, un mandat pour négocier un nouveau protocole interdisant les systèmes d’armes entièrement autonomes, ou systèmes d’armes létales autonomes, en vue d’une conclusion des négociations fin 2019.

· Profiter de la réunion du Groupe d’experts gouvernementaux en août 2018 pour présenter des positions nationales claires et parvenir à un accord sur la nécessité d’adopter un mandat de négociation lors de la réunion annuelle de novembre.

· Élaborer des positions et adopter des interdictions au niveau national, qui constitueront les éléments de base d’une interdiction au niveau international.

· Exprimer leur opposition aux armes entièrement autonomes, notamment pour des raisons juridiques et morales reflétées dans la clause de Martens, afin de développer encore davantage la conscience publique.

Aux experts du secteur privé

· S’opposer à la suppression d’un contrôle humain significatif sur les systèmes d’armes et sur le recours à la force.

· Exprimer publiquement un soutien explicite à l’appel à l’interdiction des armes entièrement autonomes, notamment pour des raisons juridiques et morales reflétées dans la clause de Martens, et appeler les gouvernements à entamer la négociation d’un nouveau traité international.

· S’engager à ne pas participer à la conception ou au développement de l’intelligence artificielle au service des armes entièrement autonomes au travers de codes de conduite, de déclarations de principe et d’autres mesures garantissant que le secteur privé ne prend pas part à la mise au point, à la production ou à l’utilisation de ces armes.

   

I. Contexte des armes entièrement autonomes

Les armes entièrement autonomes seraient capables de sélectionner et d’attaquer des cibles sans intervention humaine significative. Elles représentent une évolution inacceptable des drones armés actuels, car la décision finale de recourir à la force contre une personne ne serait pas prise par un humain. Les armes entièrement autonomes, également connues sous les appellations « systèmes d’armes létales autonomes » ou « robots tueurs », n’existent pas encore ; elles sont en cours de développement, et les investissements militaires dans les technologies autonomes augmentent de manière alarmante.

Les risques liés aux armes entièrement autonomes sont bien plus importants que leurs prétendus avantages. D’après les partisans de cette nouvelle technologie, celle-ci pourrait sauver la vie de soldats, traiter des données et agir avec plus de rapidité que les systèmes traditionnels, tout en restant insensible à la peur et à la colère, qui peuvent être à l’origine de la mort de civils. Les armes entièrement autonomes, cependant, soulèvent de nombreuses graves inquiétudes, dont la plupart ont été mises en avant par Human Rights Watch dans de précédentes publications. Premièrement, le fait de confier à des machines la décision de vie ou de mort franchit une ligne rouge sur le plan moral. Deuxièmement, les armes entièrement autonomes devraient relever des défis de taille pour être en conformité avec le droit international humanitaire et le droit international relatif aux droits humains. Troisièmement, elles créeraient un vide en matière de responsabilité, en raison de la difficulté de demander des comptes en cas de préjudices imprévus causés par un robot autonome. Quatrièmement, les armes entièrement autonomes seraient exposées au spoofing et au piratage. Cinquièmement, ces armes seraient une menace pour la sécurité mondiale, car elles pourraient engendrer une course à l’armement, être massivement employées par des acteurs n’ayant que peu de respect pour le droit international et augmenter la menace de guerre[1].

Le présent rapport s’intéresse à un autre sujet préoccupant, qui touche au droit et à la morale : le fait que les armes entièrement autonomes ne respecteraient vraisemblablement pas la clause de Martens. Cette clause du droit international humanitaire exige des États qu’ils prennent en considération les principes de l’humanité et les exigences de la conscience publique au moment d’examiner une nouvelle technique d’armement. Présente dans les Conventions de Genève et les traités de désarmement, elle contraint juridiquement les États à tenir compte de considérations morales.

Face aux multiples problèmes présentés par les armes entièrement autonomes, dont celui du non-respect de la clause de Martens, il est nécessaire d’agir sans attendre. Quelques États ont proposé d’adopter une position attentiste, car on ignore encore quelle technologie va pouvoir être générée. Cependant, au vu de l’importance des enjeux, il semble préférable d’adopter une approche préventive. L’incertitude scientifique ne devrait pas faire obstacle aux mesures visant à éviter ce que certains scientifiques ont qualifié de « troisième révolution de la guerre, après l’invention de la poudre à canon et des armes nucléaires »[2]. Les pays devraient adopter une interdiction à titre préventif du développement, de la production et de l’utilisation des armes entièrement autonomes.

 

II. Histoire de la clause de Martens

La clause de Martens trouve son origine dans un compromis diplomatique, et a servi des fins humanitaires. Elle établit que, en l’absence d’une disposition conventionnelle spécifique, les usages établis, les principes de l’humanité et les exigences de la conscience publique protègent les civils et les combattants. Depuis son introduction, la clause de Martens est devenue un élément commun des instruments fondateurs du droit international humanitaire. Elle est aussi reprise dans de nombreux traités de désarmement. Les protections offertes par la clause de Martens et la reconnaissance juridique dont elle jouit prouvent son importance pour l’examen de systèmes d’armes émergents qui pourraient avoir de lourdes répercussions humanitaires sur le champ de bataille et au-delà.

Origines de la clause de Martens

La clause de Martens est apparue pour la première fois dans le préambule de la Convention II de La Haye de 1899 contenant les lois et coutumes de la guerre sur terre. Elle est ainsi rédigée :

En attendant qu’un code plus complet des lois de la guerre puisse être édicté, les Hautes Parties contractantes jugent opportun de constater que, dans les cas non compris dans les dispositions réglementaires adoptées par elles, les populations et les belligérants restent sous la sauvegarde et sous l’empire des principes du droit des gens, tels qu’ils résultent des usages établis entre nations civilisées, des lois de l’humanité et des exigences de la conscience publique[3].

La clause prévoit donc un niveau de protection minimal pour les civils et les combattants en l’absence de dispositions réglementaires spécifiques.

Le diplomate et juriste russe Fyodor Fyodorovich Martens a proposé cette clause alors que les négociations se trouvaient dans une impasse lors de la Conférence de la paix réunie à La Haye en 1899, qui avait été organisée dans le but d’adopter des règles contraignantes applicables à la guerre, de réduire les dépenses consacrées à l’armement et de promouvoir la paix[4]. Les grandes puissances et les pays moins puissants ne parvenaient pas à se mettre d’accord sur le degré d’autorité que pouvait exercer une force occupante sur la population locale. Les grandes puissances insistaient pour élaborer un nouveau traité qui aurait précisé les droits et les obligations de toute force occupante, quand les pays moins puissants s’opposaient à la codification des dispositions d’une déclaration politique antérieure qui, selon eux, ne protégeaient pas les civils de manière adéquate. La clause de Martens offrait aux combattants ayant pris les armes contre une force occupante étrangère la possibilité d’affirmer que, si aucune disposition ne s’appliquait précisément à leur cas, ils étaient en droit de bénéficier de la protection prévue par les principes du droit international dérivés des usages, des « principes de l’humanité » et des « exigences de la conscience publique »[5].

Utilisation contemporaine de la clause de Martens

Au cours des quelque 120 années qui se sont écoulées depuis l’adoption de la Convention de La Haye de 1899, la clause de Martens a été appliquée plus largement et a peu à peu constitué le fondement des efforts visant à étendre la protection humanitaire lors des conflits armés. Aux fins de limiter les répercussions des hostilités, de nombreux instruments du droit international humanitaire et du droit du désarmement ont intégré cette disposition.

Conventions de Genève et Protocole additionnel I

Lors de l’élaboration des Conventions de Genève de 1949, piliers du droit international humanitaire[6], les négociations avaient pour but de garantir que certaines protections restent applicables en cas de retrait d’un État partie de l’un quelconque des traités. Les quatre Conventions de Genève contiennent la clause de Martens dans leurs articles sur la dénonciation, qui traitent des conséquences du retrait de la communauté des États participant aux conventions[7]. Le Comité international de la Croix-Rouge (CICR), gardien du droit international humanitaire, explique dans ses commentaires des conventions qui font autorité :

Si une Haute Partie contractante venait à dénoncer l’une des Conventions de Genève, elle serait toujours liée non seulement par l’intermédiaire d’autres traités auxquels elle reste partie, mais également par d’autres règles du droit international, telles que le droit coutumier. Un argumentum e contrario, qui laisse supposer l’existence d’un vide juridique à la suite de la dénonciation d’un texte conventionnel, est donc impossible[8].

Le Protocole additionnel I, adopté en 1977, élargit les protections prévues pour les civils par la Convention IV de Genève[9]. Ce protocole contient la formulation contemporaine de la clause de Martens, qui est également utilisée dans le présent rapport :

Dans les cas non prévus par le présent Protocole ou par d’autres accords internationaux, les personnes civiles et les combattants restent sous la sauvegarde et sous l’empire des principes du droit des gens, tels qu’ils résultent des usages établis, des principes de l’humanité et des exigences de la conscience publique[10].

En intégrant cette formulation dans son article « Principes généraux et champ d’application », plutôt qu’en en faisant une simple disposition relative à la dénonciation, le Protocole additionnel I élargit le champ d’application de la clause de Martens. D’après le commentaire du CICR :

S’il a paru utile de reprendre une nouvelle fois cette formule dans le Protocole, c’était à deux fins. D’abord (…) il n’est pas possible d’envisager qu’une codification soit complète à un moment quelconque ; la clause de Martens empêche ainsi de considérer que tout ce qui n’est pas expressément interdit par les traités pertinents est autorisé. Ensuite, on doit y voir un élément dynamique proclamant l’applicabilité des principes mentionnés nonobstant l’évolution ultérieure des situations ou de la technique.[11]

La clause de Martens comble ainsi un vide juridique du droit applicable et promeut la protection des civils face à des situations et des technologies nouvelles.

Traités de désarmement

Depuis 1925, la plupart des traités qui contiennent des dispositions interdisant des armes incluent également la clause de Martens[12]. Cette clause figure sous différentes formes dans les préambules du Protocole de Genève de 1925[13], la Convention sur les armes biologiques de 1972[14], la Convention sur certaines armes classiques de 1980[15], la Convention sur l’interdiction des mines de 1997[16], la Convention sur les armes à sous-munitions de 2008[17], et le Traité sur l’interdiction des armes nucléaires de 2017[18]. Même si le préambule n’établit pas de règles contraignantes, il peut servir à l’interprétation d’un traité et est généralement utilisé pour intégrer, par renvoi, le contexte réglementaire déjà existant. L’inclusion de la clause de Martens indique que, si les dispositions d’un traité présentent des lacunes, celles-ci doivent être comblées par les usages établis, les principes de l’humanité et les exigences de la conscience publique. En intégrant la clause de Martens dans cette série de traités sur le désarmement, les États ont réaffirmé son importance pour le droit international humanitaire en général et pour le droit relatif à l’armement plus particulièrement.

Parce que son emploi est généralisé, il est pertinent d’inclure la clause de Martens dans les discussions actuelles sur les armes entièrement autonomes. Cette clause fournit un principe permettant de garantir que les civils et les combattants bénéficient de protections minimales face à ces armes problématiques. En outre, la plupart des discussions diplomatiques relatives aux armes entièrement autonomes ont eu lieu sous les auspices de la Convention sur certaines armes classiques, qui inclut la clause de Martens dans son préambule. C’est pourquoi une évaluation des armes entièrement autonomes au regard de la clause de Martens devrait occuper une place centrale dans les délibérations relatives à une nouvelle convention sur les armes classiques.

 

III. Applicabilité et importance de la clause de Martens

La clause de Martens s’applique lorsqu’un sujet n’est pas couvert par un texte juridique particulier. Les experts ont des avis divergents sur son importance juridique ; néanmoins, elle donne des éléments que les États doivent prendre en considération dans l’étude des nouveaux défis des techniques émergentes. Son importance, en particulier pour le droit relatif au désarmement, est évidente dans les négociations qui ont mené à l’adoption de l’interdiction préventive des lasers aveuglants. Les États, entre autres, devraient par conséquent tenir compte de la clause de Martens dans les discussions relatives au caractère légal des armes entièrement autonomes et à la manière dont ce sujet doit être traité.

Applicabilité de la clause de Martens

La clause de Martens, telle qu’énoncée dans le Protocole additionnel I, s’applique « [d]ans les cas non prévus par le présent Protocole ou par d’autres accords internationaux » [19]. Même en faisant preuve de la plus grande prudence, les rédacteurs de traités ne peuvent pas prévoir toutes les circonstances possibles dans un instrument unique. La clause de Martens joue le rôle de mesure palliative en évitant qu’une situation qui n’avait pas été envisagée ou une technologie émergente ne bouleverse l’objectif global du droit humanitaire simplement parce qu’elle n’est couverte par aucune disposition conventionnelle[20].

La clause de Martens s’applique lorsque le droit des traités ne prévoit pas spécifiquement une situation donnée. Comme l’expliquait le tribunal militaire des États-Unis à Nuremberg, avec la clause de Martens, « les usages établis entre nations civilisées, les lois de l’humanité et les exigences de la conscience publique prennent le statut de références du droit, qui devront être appliquées lorsque les dispositions spécifiques [du droit existant] ne couvrent pas les cas précis pouvant se produire en temps de guerre[21] ». Elle est particulièrement pertinente dans le cas d’une nouvelle technologie que les rédacteurs des textes juridiques en vigueur n’auraient pas envisagée. La Cour internationale de Justice a affirmé que le fait que la clause « continu[ait] à exister et à être applicable ne [faisait] aucun doute » et qu’elle avait « prouvé qu’elle constituait un moyen efficace de contrer l’évolution rapide de la technologie militaire »[22]. Face au vide juridique en la matière, la clause de Martens sert de principe pour les nouvelles armes.

Parce qu’il s’agit d’une technologie qui connaît un développement rapide, les armes entièrement autonomes sont un exemple de cas dans lequel la clause de Martens peut s’appliquer. Le droit international humanitaire actuel ne s’applique aux armes entièrement autonomes que de manière générale. Il exige que toutes les armes respectent les principes fondamentaux de distinction et de proportionnalité, mais ne prévoit aucune disposition précise relative aux armes entièrement autonomes[23]. Les rédacteurs des Conventions de Genève n’auraient pas pu envisager la perspective d’un robot capable de déterminer de manière indépendante quand avoir recours à la force sans une intervention humaine significative. Puisque les armes entièrement autonomes représentent un cas non prévu par les textes juridiques en vigueur, elles devraient être examinées selon les principes formulés dans la clause de Martens.

Importance juridique de la clause de Martens

Il existe différentes interprétations de l’importance juridique de la clause de Martens[24]. Certains experts adoptent une perspective étroite, en affirmant que la clause de Martens ne sert qu’à rappeler que, si un traité n’interdit pas de manière explicite une action précise, cette action n’est pas automatiquement autorisée. En d’autres termes, les États devraient s’en remettre au droit international coutumier lorsque les textes conventionnels ne prévoient pas un cas particulier[25]. Cette opinion est assurément insatisfaisante, cependant, car elle ne porte que sur un aspect de la clause, les usages établis, et néglige le rôle des lois de l’humanité et des exigences de la conscience publique. Selon les règles convenues de l’interprétation juridique, une clause devrait être lue de manière à donner une signification à chaque terme[26]. Considérer que les principes de l’humanité et les exigences de la conscience publique sont simplement des éléments des usages établis les rendrait redondants et irait à l’encontre de ces règles.

Pour d’autres, la clause de Martens est en elle-même une source unique de droit[27]. Ils soutiennent que les termes clairs de la clause de Martens font des lois de l’humanité et des exigences de la conscience publique des principes juridiques indépendants permettant d’évaluer les situations non prévues et les nouvelles formes de technologie militaire[28]. Ainsi, une situation ou une arme qui ne respecte pas l’un ou l’autre de ces principes est intrinsèquement contraire à la loi.

Antonio Cassese, juriste en droit international public, a adopté une approche intermédiaire en considérant les principes de l’humanité et les exigences de la conscience publique comme des « orientations fondamentales » pour l’interprétation du droit international[29]. Comme l’a écrit M. Cassese, « [e]n cas de doute, les règles internationales, en particulier les règles du droit humanitaire, doivent être interprétées de manière à se trouver en accord avec les principes généraux de l’humanité et les exigences de la conscience publique »[30]. Ainsi, on ne devrait pas considérer que le droit international cautionne des situations ou des technologies qui suscitent des inquiétudes au regard de ces aspects de la clause de Martens.

Au minimum, la clause de Martens donne des éléments que les États doivent prendre en considération dans leur manière d’appréhender les techniques d’armement émergentes, dont font partie les armes entièrement autonomes. En 2018, le CICR a reconnu « le débat visant à déterminer si la clause de Martens constitue un critère juridiquement contraignant à l’égard duquel le caractère légal d’une arme doit être évalué, ou du moins une orientation éthique »[31] . Le CICR a conclu, cependant, qu’il « apparaît clairement que les considérations d’humanité et de conscience publique ont orienté l’évolution du droit international en matière d’armement, et que ces notions ont déclenché la négociation de traités particuliers destinés à interdire ou à limiter certaines armes »[32]. Lorsque des inquiétudes relatives à une arme naissent au regard des principes de l’humanité ou des exigences de la conscience publique, le fait d’adopter un texte juridique nouveau et plus précis, qui élimine les doutes sur la licéité d’une arme, peut permettre de renforcer les protections prévues pour les civils et les combattants.

La clause de Martens donne également une valeur juridique à des considérations morales. Codifiée dans les textes conventionnels internationaux, elle requiert néanmoins d’évaluer une situation ou une technologie au regard des principes de l’humanité et des exigences de la conscience publique, qui intègrent toutes deux des éléments moraux. Peter Asaro, philosophe dans le domaine de la science et des technologies, a écrit que la clause de Martens invite à « avoir une réflexion morale sur le rôle des principes de l’humanité et les exigences de la conscience publique lors de l’élaboration et de la mise en place de nouveaux [textes de droit international humanitaire] »[33]. Si l’évaluation morale des armes entièrement autonomes est intrinsèquement importante, la clause de Martens en fait une obligation juridique lorsqu’aucune disposition règlementaire n’existe.

Le précédent de l’interdiction préventive des lasers aveuglants

La clause de Martens a été invoquée par des États, des organisations internationales et la société civile lors de précédentes délibérations concernant une technologie émergente et pour laquelle aucune réglementation n’existait[34],particulièrement dans les années 90 à l’occasion des discussions concernant les lasers aveuglants. Ils renvoyaient, de manière explicite et implicite, aux éléments de la clause de Martens afin de justifier l’interdiction préventive des lasers aveuglants. Le Protocole IV de la Convention sur certaines armes classiques, adopté en 1995, établit l’interdiction[35].

Au cours d’une table ronde organisée par le CICR en 1991, des experts ont souligné la pertinence de la clause de Martens. D’après Louise Doswald-Beck, juriste au CICR, les « décisions d’imposer des restrictions spécifiques à l’usage de certaines armes peuvent se fonder sur des considérations politiques » et « les critères inscrits dans la clause de Martens [devraient] être particulièrement pris en considération »[36]. Pour un autre participant, « la clause de Martens aborde en particulier le problème de la souffrance humaine de manière à ce que la "conscience publique" fasse référence à ce qui est considéré comme inhumain ou socialement inacceptable »[37].

Les propos des détracteurs des lasers aveuglants ont prouvé que ces armes soulevaient des inquiétudes relatives aux principes de l’humanité et aux exigences de la conscience publique. Lors de réunions organisées par le CICR, plusieurs intervenants ont estimé que « les armes conçues pour aveugler sont (…) socialement inacceptables »[38]. Le CICR lui-même a lancé un appel à « la conscience de l’humanité » dans son plaidoyer pour leur interdiction[39]. Lors de la première Conférence d’examen de la Convention sur certaines armes classiques, des représentants d’agences de l’ONU et de la société civile ont décrit les lasers aveuglants comme « barbares »[40], « aberrants pour la conscience de l’humanité »[41] et « inacceptables dans le monde moderne »[42]. Une campagne de sensibilisation particulièrement efficace menée par le CICR montrait des photographies de soldats aveuglés par du gaz toxique au cours de la Première guerre mondiale afin de démontrer que le fait de rendre définitivement aveugles des soldats est cruel et inhumain.

C’est grâce à ce type de caractérisation que le besoin d’une interdiction préventive a été associée aux lasers aveuglants. Par exemple, au cours des débats de la première Conférence d’examen, le Chili a dit avoir « l’espoir que la Conférence d’examen parviendra à établir des principes directeurs concernant les mesures de prévention à prendre pour empêcher la mise au point de moyens techniques barbares et éviter ainsi de devoir remédier aux souffrances que ces moyens risquent d’infliger »[43]. Dans une résolution de décembre 1995 exhortant les États à ratifier le Protocole IV, le Parlement européen a déclaré que « faire la guerre en utilisant délibérément des armes aveuglantes est une pratique aberrante »[44]. Reprenant les termes de la clause de Martens, le Parlement européen a affirmé que « faire la guerre en utilisant délibérément des armes aveuglantes est (…) contraire aux us et coutumes en la matière, aux principes d’humanité et à la voix de la conscience publique »[45]. Le CICR a qualifié le Protocole IV de « succès de la civilisation sur la barbarie »[46].

Les discussions relatives au Protocole IV de la Convention sur certaines armes classiques soulignent la pertinence de la clause de Martens dans le débat actuel portant sur les armes entièrement autonomes. Elles prouvent que, au cours de l’histoire, les États parties de la Convention sur certaines armes classiques ont appliqué la clause de Martens à des armes qui suscitaient la controverse. Elles montrent aussi la volonté de ces États d’interdire à titre préventif une arme qu’ils considèrent comme allant à l’encontre des principes de l’humanité et des exigences de la conscience publique. Comme cela sera développé plus loin, les armes entièrement autonomes soulèvent de graves inquiétudes au regard de la clause de Martens. Le fait que leur impact sur les conflits armés serait infiniment plus important que celui des lasers aveuglants devrait à lui seul suffire à montrer l’urgence de combler les lacunes du droit international et aboutir à une interdiction explicite de ces armes[47].

 

IV. Les principes de l’humanité

La clause de Martens divise les principes du droit international (« droit des gens » dans le texte original) en usages établis, lois de l’humanité et exigences de la conscience publique. Étant donné que le droit coutumier s’applique même sans cette clause, le présent rapport examine la question des armes entièrement autonomes à la lumière des deux derniers éléments. La clause de Martens ne définit pas ces termes, mais ils ont fait l’objet de nombreux débats dans les sphères académique et juridique.

La documentation pertinente explique les deux principales composantes des principes de l’humanité (« lois de l’humanité » dans le texte original). Les acteurs doivent : 1) traiter autrui avec humanité et 2) respecter la vie et la dignité humaines. Du fait de leur absence d’émotions et de jugement, les armes entièrement autonomes auraient beaucoup de mal à respecter ces deux contraintes.

Traitement humain

Définition

Le premier principe des lois de l’humanité consiste à traiter autrui avec humanité. Le dictionnaire Oxford définit l’humanité comme « le caractère de ce qui est humain ; bienveillance »[48]. L’obligation de faire preuve d’humanité envers autrui est une composante essentielle du droit international humanitaire et du droit international des droits humains[49]. Elle apparaît, par exemple, dans l’article 3 commun et d’autres dispositions des Conventions de Genève, dans de nombreux manuels militaires, dans la jurisprudence internationale et dans le Pacte international relatif aux droits civils et politiques[50]. La clause de Martens va plus loin que ces sources en disposant que les êtres humains doivent être traités avec humanité, même en l’absence de dispositions réglementaires spécifiques[51].

Pour pouvoir traiter d’autres êtres humains avec humanité, il faut faire preuve de compassion et exercer un jugement juridique et éthique[52]. La compassion, selon les principes fondamentaux du CICR, est un « mouvement de l’âme qui nous rend sensible aux maux d’autrui »[53]. Pour faire preuve de compassion, un acteur doit être capable de ressentir de l’empathie, c’est-à-dire de comprendre et de partager les sentiments d’autrui, et se sentir poussé à réagir[54]. Cette capacité émotionnelle est vitale dans des situations où la décision de recourir ou non à la force est prise[55]. Elle amène les acteurs à faire un effort conscient pour limiter les maux physiques et psychologiques causés à autrui. Agir avec compassion repose sur le postulat que « capturer son ennemi vaut mieux que le blesser, et le blesser vaut mieux que le tuer ; que les non-combattants doivent autant que possible être épargnés ; que les blessures infligées doivent être aussi légères que possible, afin que les blessés puissent être soignés et guéris, et qu’elles causent le moins de douleur possible »[56].

Alors que la compassion donne une motivation pour agir avec humanité, le jugement juridique et éthique offre un moyen de le faire. Pour agir avec humanité, un acteur doit prendre des décisions réfléchies quant à la manière de causer le moins de mal possible[57]. De telles décisions sont fondées sur la capacité de percevoir et de comprendre son environnement, et d’appliquer « le bon sens et la connaissance du monde » à des circonstances particulières[58]. Le professeur de philosophie James Moor fait remarquer que les acteurs doivent posséder la capacité « d’identifier et d’intégrer des informations éthiques dans des situations diverses et déterminer de manière sensible ce qu’il convient de faire dans ces situations » [59]. Ainsi, le jugement juridique et éthique aide un acteur à évaluer des facteurs pertinents pour s’assurer que les actes correspondent aux critères exigés par la compassion. Le jugement est essentiel pour limiter la souffrance : on ne peut se retenir de causer de la souffrance humaine que si l’on reconnaît les maux possibles et si l’on sait comment réagir[60].

Application aux armes entièrement autonomes

Les armes entièrement autonomes auraient beaucoup de mal à respecter le principe de traitement humain, car la compassion et le jugement juridique et éthique sont des facultés humaines. L’empathie, et la compassion qu’elle engendre vis-à-vis d’autrui sont naturelles pour les humains. La plupart des êtres humains connaissent la douleur physique ou psychologique, ce qui les pousse à éviter d’infliger des souffrances inutiles à leurs semblables. Leurs émotions transcendent les clivages, nationaux ou autres. Comme le constate le CICR, « les sentiments et les gestes de solidarité, de compassion, d’altruisme, sont répandus dans les cultures les plus diverses » [61]. La compréhension de la douleur et de la souffrance que partagent les êtres humains les pousse à faire preuve de compassion vis-à-vis de leurs semblables et leur inspire une réciprocité qui est, selon les mots du CICR, « tout[e] naturel[le] » [62].

Même l’arme entièrement autonome la plus perfectionnée qui soit ne pourrait pas ressentir d’émotions[63]. Il y a des avantages à ne pas ressentir d’émotions telles que la colère ou la peur, mais l’incapacité d’un robot à ressentir de l’empathie ou de la compassion limiterait gravement sa capacité à traiter une personne avec humanité. Parce qu’elles ne seraient pas des êtres sensibles, les armes entièrement autonomes ne pourraient pas connaître la souffrance physique ou psychologique. Par conséquent, elles n’auraient pas l’expérience et la compréhension que partagent les êtres humains et qui leur font ressentir, par l’empathie, la douleur des autres, qui les émeut et les pousse à faire preuve de compassion envers autrui. Amanda Sharkey, professeur d’informatique, a écrit : « Les robots actuels, n’ayant pas de corps vivant, ne peuvent ressentir la douleur ou s’inquiéter de leur propre état, sans parler de celui d’autrui. Comment peut-on ressentir de l’empathie vis-à-vis de la douleur ou de la détresse humaines si on est incapable de ressentir l’une ou l’autre de ces émotions ? » [64] Les armes entièrement autonomes seraient donc confrontées à de grandes difficultés si elles devaient veiller à ce que leurs actes soient empreints d’humanité et conformes aux principes de l’humanité.

Les robots n’auraient pas non plus la capacité de jugement juridique et éthique nécessaire pour limiter les souffrances au cas par cas[65]. Les situations impliquant le recours à la force, en particulier dans le cadre d’un conflit armé, sont souvent complexes et imprévisibles et peuvent changer rapidement. Les armes entièrement autonomes rencontreraient donc des difficultés importantes pour prendre les bonnes décisions en ce qui concerne le traitement humain. En analysant plusieurs études dans lesquelles des chercheurs avaient tenté de programmer un jugement éthique chez des robots, Amanda Sharkey a constaté que les robots ayant un comportement pouvant être qualifié « d’éthique » ou de « faiblement éthique » ne pouvaient fonctionner que dans un environnement contraint. Selon ses conclusions, les robots ont des capacités morales limitées et, par conséquent, ne devraient pas être utilisés dans des circonstances qui « exigent des compétences morales et une compréhension de la situation sociale environnante » [66]. Respecter le droit international nécessite souvent de prendre des décisions subjectives dans des situations complexes. Les armes entièrement autonomes auraient une aptitude limitée à interpréter les nuances du comportement humain, à comprendre les dynamiques politiques, socioéconomiques et environnementales de la situation et à appréhender les risques humanitaires liés à l’usage de la force dans un contexte particulier[67]. Ces limites compromettraient la capacité des armes à faire en sorte que les civils et les combattants soient traités avec humanité et à respecter le premier principe de l’humanité.

Respect de la vie et de la dignité humaine

Définition

Un deuxième principe de l’humanité exige des acteurs qu’ils respectent la vie et la dignité humaines. Christof Heyns, ancien Rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, a mis en avant ces concepts liés mais bien distincts en posant deux questions à propos des armes entièrement autonomes : « Peuvent-elles cibler de manière exacte ou rendre possible un ciblage exact ? » Et « Même si elles sont capables de cibler de manière appropriée, les machines devraient-elles avoir le pouvoir de vie ou de mort sur des humains »[68] ? La première question porte sur la conformité d’une arme avec les règles du droit international relatives à la protection de la vie. La seconde porte sur la « manière de cibler » et sur son respect de la dignité humaine[69].

Afin de respecter la vie humaine, les acteurs doivent prendre des mesures visant à limiter le nombre de personnes tuées[70]. Le droit à la vie établit que « Nul ne peut être arbitrairement privé de la vie »[71]. Il limite l’usage de la force létale à des circonstances dans lesquelles celui-ci est absolument nécessaire afin de protéger la vie humaine, constitue un dernier recours et est appliqué de manière proportionnée par rapport à la menace[72]. Codifié dans l’article 6 du Pacte international relatif aux droits civils et politiques, le droit à la vie a été reconnu comme un « droit suprême » du droit international humanitaire, qui s’applique dans toutes les circonstances. Lors des conflits armés, le droit international humanitaire détermine le caractère arbitraire ou injustifié de la privation de la vie. Pour cela, les acteurs doivent respecter les règles de distinction, de proportionnalité et de nécessité militaire dans les situations de conflit armé[73].

Le jugement et l’émotion sont deux éléments qui favorisent le respect de la vie, car ils peuvent agir comme des freins à la décision de tuer. La capacité de formuler des jugements juridiques et éthiques peut aider un acteur à déterminer quelle action permettra de mieux protéger la vie humaine dans le nombre infini de scénarios possibles qui n’auront pas été envisagés. Une résistance instinctive à l’acte de tuer donne une motivation psychologique qui pousse à respecter, voire parfois à aller au-delà des règles du droit international dans le but de réduire le nombre de tués.

Au nom des lois de l’humanité, les acteurs doivent également respecter la dignité de tous les êtres humains. Cette obligation se fonde sur la reconnaissance que chaque être humain possède une valeur intrinsèque à la fois universelle et inviolable[74]. Nombre d’instruments, parmi lesquels la Déclaration universelle des droits de l’homme, le Pacte international relatif aux droits civils et politiques, la Déclaration et le Programme d’action de Vienne adoptés en 1993 lors de la Conférence mondiale de 1993 sur les droits de l’homme, ainsi que des traités régionaux, consacrent l’importance de la dignité en en faisant un principe fondateur du droit relatif aux droits de l’homme[75].La Charte africaine des droits de l’homme et des peuples établit clairement que les personnes ont « droit au respect de la dignité inhérente à la personne humaine »[76].

Si le respect de la vie humaine suppose de réduire le nombre de personnes tuées et d’éviter toute mort arbitraire ou injustifiée, le respect de la dignité humaine exige d’apprécier la gravité de la décision de donner la mort[77]. Le CICR a expliqué que ce qui importe n’est « pas uniquement le fait qu’une personne soit tuée ou blessée, mais également la manière dont elle est tuée ou blessée, tout comme le processus au cours duquel ces décisions sont prises »[78]. Avant de mettre fin à une vie humaine, un acteur doit pleinement comprendre la valeur de celle-ci et la signification de sa perte. Les êtres humains devraient être reconnus en tant que personnes uniques et ne pas être réduits à des objets ayant une valeur uniquement instrumentale, voire nulle[79]. Lorsqu’un acteur tue sans prendre en compte la valeur de la victime en tant que personne, sa mise à mort fragilise la notion fondamentale de la dignité humaine et viole ce principe de l’humanité.

Application aux armes entièrement autonomes

Il semble peu probable que les armes entièrement autonomes soient en mesure de respecter la vie humaine et la dignité humaine. Leur absence de jugement juridique et éthique irait à l’encontre de leur capacité à respecter la vie humaine. Ainsi, le test de proportionnalité du droit international humanitaire exige des commandants qu’ils déterminent, au cas par cas, si l’avantage militaire attendu est supérieur aux dommages que la population civile aurait à subir. Au vu de l’infinité de situations qui peuvent survenir sur le champ de bataille, les armes entièrement autonomes ne pourraient pas être préprogrammées pour procéder à une telle appréciation. Le principe généralement admis pour évaluer la proportionnalité consiste à déterminer si « un commandant militaire raisonnable » aurait lancé une attaque donnée[80] ; or, pour prendre une décision raisonnable, il est nécessaire de se fonder sur des considérations éthiques et juridiques[81]. Parce qu’elles ne seraient pas capables d’appliquer ce principe au test de proportionnalité, les armes entièrement autonomes mettraient sans doute en danger les civils et pourraient violer les dispositions du droit international humanitaire[82].

Les armes entièrement autonomes n’auraient pas non plus l’aversion instinctive de l’humain face à l’acte de tuer, qui peut protéger la vie humaine au-delà de ce qu’exige le droit[83]. Cette propension à éviter de tuer est naturelle chez la plupart des êtres humains, qui apprécient la valeur intrinsèque de la vie humaine de manière innée. Des recherches théoriques montrent la réticence de l’être humain à prendre la vie d’un semblable. Ainsi, un Ranger de l’armée des États-Unis à la retraite a conduit de vastes recherches sur l’acte de donner la mort lors d’un conflit armé et a conclu que « l’homme porte en lui une grande aversion pour le fait de tuer son semblable. Cette aversion est si forte que, dans de nombreux cas, les soldats sur le champ de bataille mourront avant d’avoir pu la surmonter »[84]. En tant qu’objets inanimés, les armes entièrement autonomes ne risqueraient pas de perdre la vie ou de comprendre les émotions liées à la perte d’un être cher. Il est permis de douter qu’un programmeur puisse reproduire chez un robot la tendance naturelle d’un être humain à éviter de donner la mort et à protéger la vie avec la complexité et les nuances qui interviennent lors de la prise d’une décision par un être humain.

Les armes entièrement autonomes ne pourraient pas respecter la dignité humaine, qui est liée au processus et non aux conséquences du recours à la force[85]. En tant que machines, elles ne pourraient pleinement appréhender la valeur de la vie d’une personne ou la signification de sa perte. Elles baseraient la décision de tuer sur des algorithmes, sans prendre en compte l’humanité d’une victime donnée[86]. En outre, ces armes seraient programmées à l’avance selon un certain scénario et ne pourraient pas répondre de la nécessité de la force létale dans une situation particulière. Christof Heyns, dans une présentation relative à la Convention sur certaines armes classiques faite en tant que rapporteur spécial, a expliqué ce qui suit :

[P]ermettre aux machines de déterminer quand et où utiliser la force contre des humains, c’est réduire les humains à des objets ; ils sont traités comme de simples cibles. Ils deviennent des zéros et des uns dans l’objectif numérique d’armes programmées à l’avance pour faire usage de la force sans qu’elles soient en mesure d’envisager un autre moyen, ni qu’elles aient un niveau de réflexion suffisant semblable à celui utilisé par l’être humain pour faire un choix délibéré[87].

De la même manière, Mines Action Canada a conclu que « le fait de déployer [des armes entièrement autonomes] pendant le combat indique que l’on considère que tout être humain ciblé de cette manière ne justifie pas la considération d’un opérateur humain, ce qui revient à priver cette vie humaine de son droit à la dignité »[88]. Permettre à un robot de prendre une vie humaine alors qu’il ne peut pas comprendre la valeur intrinsèque de celle-ci ni la nécessité de la prendre est une preuve de non-respect et de dénigrement de la personne. Cela va à l’encontre des lois de l’humanité inscrites dans la clause de Martens.

Lorsqu’elle est employée dans des situations appropriées, l’intelligence artificielle peut avoir des retombées extraordinaires pour l’humanité. Laisser des robots prendre la décision de tuer des humains, cependant, serait contraire à la clause de Martens, qui combine droit et morale. Les capacités limitées de ces machines sur le plan des émotions, de la perception et de l’éthique entravent lourdement leur capacité à traiter les êtres humains avec humanité et à respecter la vie et la dignité humaines. Par conséquent, le recours à ces armes serait incompatible avec les lois de l’humanité, telles qu’établies dans la clause de Martens.

 

V. Les exigences de la conscience publique

La clause de Martens établit que, en l’absence de texte conventionnel applicable, les exigences de la conscience publique protègent, avec les principes de l’humanité, les civils et les combattants. Le renvoi à la « conscience publique » introduit un élément de moralité dans le droit et exige que l’évaluation des moyens et des méthodes de guerre prennent en considération les opinions des citoyens et des experts, ainsi que celui des gouvernements. La réaction de ces protagonistes à la perspective des armes entièrement autonomes montre clairement que la mise au point, la production et l’utilisation d’une telle technologie soulèverait de graves préoccupations au regard de la clause de Martens.

Définition

La notion d’« exigences de la conscience publique » fait référence aux orientations morales communes qui définissent les actions des États et des personnes[89]. L’utilisation du terme « conscience » montre que les exigences se fondent sur un sentiment de moralité, une connaissance de ce qui est bien ou mal[90]. Selon le philosophe Peter Asaro, la conscience implique de « se sentir contraint par, ou de croire en un devoir ou une obligation morale »[91]. L’adjectif « publique » précise que ces exigences reflètent les préoccupations d’un ensemble de personnes et d’entités. Le présent rapport s’appuie sur le travail souvent cité du juriste et expert du droit international humanitaire Theodor Meron pour analyser deux sources en particulier, afin de déterminer ce qui constitue la conscience publique : l’opinion du public et les opinions des gouvernements[92].

Les données issues de sondages et les avis d’experts donnent un aperçu de l’opinion du public[93]. Les études révèlent les points de vue et les croyances d’individus lambda. Elles peuvent aussi mettre en lumière différentes nuances dans les valeurs et les conceptions des personnes laïques. Les sondages, même s’ils sont informatifs, ne donnent pas une mesure satisfaisante de la conscience publique, car les réponses, qui peuvent être influencées par la nature de la question, ne reflètent pas nécessairement les considérations morales[94]. Les déclarations et les initiatives d’experts, qui donnent souvent naissance à de longs débats sur la question concernée, sont le reflet d’une assimilation plus poussée[95]. Les experts se spécialisent dans des domaines spécifiques, de la religion à la technologie en passant par le droit ; ils partagent néanmoins une connaissance approfondie du sujet. Les opinions qu’ils formulent peuvent donc faire la lumière sur les normes morales adoptées par un public averti[96].

Le gouvernement exprime sa position au travers de politiques et de déclarations écrites ou orales présentées lors de réunions diplomatiques et dans le débat public. Cette position est propre à la vision nationale en matière de développement économique, de prouesses militaires, de systèmes politiques, de traditions religieuses et culturelles et de démographie, et varie selon les pays. L’opinion du gouvernement peut aider à montrer l’opinio juris, un élément du droit international coutumier qui désigne la conviction d’un État qu’une pratique donnée est juridiquement obligatoire[97].

Application aux armes entièrement autonomes

Les opinions exprimées par les individus et les gouvernements partout dans le monde ont prouvé que les armes entièrement autonomes posent de graves problèmes au regard de la conscience publique. Grâce à des sondages d’opinion, des lettres ouvertes, des déclarations orales et écrites, des publications étayées et des lignes directrices auto-imposées, le grand public a partagé son anxiété et son indignation face à la perspective de ces armes. Des membres du gouvernement de plus d’une centaine de pays ont fait part de préoccupations similaires et se sont exprimés en faveur de l’application de limites aux armes entièrement autonomes[98]. Même si l’opposition du grand public aux armes entièrement autonomes n’est pas universelle, ces voix peuvent, collectivement, montrer qu’elle est à la fois massive et grandissante[99].

Opinion du grand public

L’opposition du grand public à la mise au point, la production et l’utilisation des armes entièrement autonomes est importante et grandissante. Plusieurs sondages d’opinion menés auprès de la population ont montré la résistance exprimée face à ces armes[100]. Ces conclusions se retrouvent dans des déclarations faites par des leaders dans plusieurs domaines pertinents comme le désarmement et les droits humains, la paix et la religion, la science et la technologie, et l’industrie. Même si elles ne sont pas exhaustives, les sources dont il est question ci-dessous illustrent la nature et la variété d’opinions et sont la preuve de l’existence d’une conscience publique.

Sondages d’opinion

Des sondages d’opinion conduits auprès du grand public dans le monde entier ont documenté l’opposition massive à la mise au point, à la production et à l’utilisation de ces armes. D’après ces sondages, la majorité des personnes interrogées ont considéré comme « inacceptable » la perspective de déléguer des décisions de vie ou de mort à des machines. Ainsi, une étude menée en 2013 par le professeur de sciences politiques Charli Carpenter auprès de citoyens américains a conclu que 55 pour cent des personnes interrogées étaient opposées à la « tendance en faveur de l’utilisation » d’armes entièrement autonomes[101]. Cette opinion était partagée de manière à peu près homogène par des personnes de différents genres, âges et idéologies politiques. Il est intéressant de constater que les membres du personnel militaire en service actif, qui ont une compréhension directe de la réalité des conflits armés, constituent le groupe qui a le plus fermement rejeté les armes entièrement autonomes, 73 pour cent d’entre eux s’étant déclarés opposés à celles-ci[102]. La majorité des personnes interrogées pour ce sondage ont également apporté leur soutien à une campagne en faveur de l’interdiction de ces armes[103]. Plus récemment, d’après une étude nationale conduite auprès d’un millier de Belges et publiée le 3 juillet 2018, 60 pour cent des personnes interrogées estimaient que la « Belgique devrait soutenir les efforts internationaux visant à interdire la mise au point, la production et l’utilisation d’armes entièrement autonomes ». Seuls 23 pour cent des personnes interrogées n’étaient pas d’accord[104].

Des sondages menés à l’échelle internationale ont eu des résultats similaires. En 2015, Open Robotics Initiative a interrogé plus d’un millier de personnes dans 54 pays différents, et 56 pour cent des personnes interrogées se sont dites opposées à la mise au point et à l’utilisation de systèmes d’armes létales autonomes[105]. Au total, 34 pour cent des personnes ayant répondu au sondage ont rejeté la mise au point et l’utilisation de ces armes, car « l’être humain devrait toujours être celui qui prend les décisions de vie ou de mort »[106]. Parmi les autres motifs de rejet moins cités se trouvaient le manque de fiabilité des armes, le risque de prolifération et l’absence de responsabilité[107]. Une étude encore plus vaste, conduite par Ipsos auprès de 11 500 personnes dans 25 pays a produit les mêmes résultats[108]. Cette étude expliquait que les Nations Unies étaient en train d’examiner les « retombées stratégiques, juridiques et morales des systèmes d’armes autonomes » (autre terme désignant les armes entièrement autonomes) et demandait aux participants leur avis sur l’utilisation de ces armes. Au total, 56 pour cent ont fait part de leur opposition[109].

Organisations non gouvernementales et internationales

En apportant davantage de preuves étayant les préoccupations au regard de la conscience publique, des experts issus de différents domaines se sont sentis contraints, en particulier pour des raisons morales, d’appeler à l’interdiction de la mise au point, de la production et de l’utilisation des armes entièrement autonomes. La coalition Campagne contre les robots tueurs, qui regroupe 75 ONG, est à la tête du mouvement pour l’interdiction des armes entièrement autonomes[110]. Les ONG qui la composent agissent dans une trentaine de pays et comptent des groupes spécialisés dans des domaines pertinents comme le désarmement humanitaire, la paix et la résolution de conflits, la technologie ou les droits humains[111]. Human Rights Watch, qui a cofondé cette coalition en 2012, assure sa coordination. Au cours des six dernières années, les organisations membres ont mis en avant les nombreux problèmes associés aux armes entièrement autonomes en réalisant des dizaines de publications et de déclarations lors de réunions diplomatiques et d’événements organisés par les Nations Unies, sur les réseaux sociaux et dans d’autres tribunes publiques[112].

Même s’il est vrai que différentes préoccupations trouvent un écho auprès de différentes personnes, Steve Goose, directeur de la division Armes de Human Rights Watch, a souligné l’importance de la clause de Martens dans sa déclaration lors de la réunion en avril 2018 du Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques. Il a ainsi déclaré :

Si de nombreuses raisons justifient le rejet [des systèmes d’armes létales autonomes] (notamment des préoccupations relatives à l’aspect juridique, technique et opérationnel, à la prolifération et à la sécurité internationale), les préoccupations éthiques et morales, qui créent un sentiment de répulsion, les éclipsent toutes. Ces préoccupations éthiques devraient pousser les Hautes Parties contractantes à la Convention sur certaines armes classiques à tenir compte de la clause de Martens dans le droit international humanitaire, en vertu duquel les armes allant à l’encontre des principes de l’humanité et des exigences de la conscience publique ne devraient pas être mises au point[113].

Le CICR a invité les États à évaluer les armes entièrement autonomes au regard de la clause de Martens et a constaté que, « [e]n ce qui a trait aux exigences de la conscience publique, l’idée d’un système d’armes qui placerait l’utilisation de la force hors de tout contrôle humain suscite un profond sentiment de malaise »[114]. Le CICR a, à plusieurs reprises, souligné la nécessité juridique et éthique du contrôle humain des fonctions essentielles de sélection et d’attaque de cibles. En avril 2018, le CICR a clairement fait savoir qu’il estimait qu’un « niveau minimal de contrôle humain est nécessaire pour garantir le respect des règles du droit international humanitaire qui protège les civils et les combattants dans les conflits armés, et pour veiller à l’acceptabilité éthique relative aux principes de l’humanité et à la conscience publique »[115]. Le CICR a expliqué que le droit international humanitaire « exige que les personnes chargées de planifier, de valider et de mener à bien des attaques portent des jugements lorsqu’elles appliquent les principes au moment de lancer une attaque. Des considérations éthiques font écho à cette nécessité, exigeant que l’intervention et l’intention humaine subsistent dans les décisions d’avoir recours à la force »[116]. Le CICR a conclu qu’un système d’armes hors de tout contrôle humain « serait illégal de par sa nature même »[117]

Leaders de mouvements pacifiques et religieux

En 2014, plus d’une vingtaine de personnes et d’organisations lauréates du prix Nobel ont rédigé une lettre ouverte déclarant qu’elles « partagent sans réserve la volonté d’obtenir une interdiction préventive des armes entièrement autonomes » et qu’elles estiment qu’il est « inadmissible que l’être humain approfondisse la recherche et le développement de machines létales qui pourraient tuer sans intervention humaine »[118]. Parmi les signataires de la lettre se trouvent la militante américaine Jody Williams, qui a mené le mouvement de la société civile en faveur de l’interdiction des mines terrestres, des chefs d’État et des figures politiques, des militants des droits humains et pour la paix, un juriste, un journaliste et un chef religieux[119]. Pugwash Conferences on Science and World Affairs, organisation signataire, et Nobel Women’s Initiative, qui est elle aussi à l’origine de la lettre, sont toutes deux membres du comité directeur de la coalition Campagne contre les robots tueurs.

De la même manière, des chefs religieux se sont eux aussi unis contre les armes entièrement autonomes. En 2014, plus de 160 chefs religieux ont signé une « déclaration interconfessionnelle appelant les États à agir pour l’interdiction des armes entièrement autonomes à l’échelle internationale » [120]. Faisant part de préoccupations au regard des principes de l’humanité, la déclaration qualifie ces armes d’« affront à la dignité humaine et au caractère sacré de la vie » [121]. La déclaration rejette l’idée de confier à une machine la décision de vie ou de mort, car les armes entièrement autonomes n’ont « pas de représentation morale et, par conséquent, ne peuvent être tenues pour responsables si elles prennent une vie innocente » [122]. Parmi les signataires, on trouve des représentants du bouddhisme, du catholicisme, de l’islam, du judaïsme, du protestantisme et du quakerisme. L’archevêque Desmond Tutu a signé cette déclaration et la lettre rédigée par les lauréats du prix Nobel de la paix.

Experts des sciences et technologies

Des personnes possédant des compétences poussées en technologie ont elles aussi fait part de leur opposition aux armes entièrement autonomes. International Committee for Robot Arms Control (ICRAC), dont les membres s’intéressent aux développements technologiques dans différents domaines, a tiré la sonnette d’alarme en 2013, peu de temps après avoir cofondé la coalition Campagne contre les robots tueurs [123]. ICRAC a publié une déclaration qui a reçu le soutien de plus de 270 spécialistes et qui appelle à l’interdiction de la mise au point et du déploiement des armes entièrement autonomes [124]. Les membres d’ICRAC constatent « l’absence de preuve scientifique manifeste que les armes-robots possèdent, ou sont susceptibles de posséder dans un avenir prévisible, les fonctionnalités nécessaires pour procéder avec exactitude à l’identification d’une cible, à l’analyse de la situation ou à la prise de décision concernant l’usage proportionnel de la force » et concluent que « [l]es décisions relatives à l’usage violent de la force ne doivent pas être déléguées à des machines »[125]. Les préoccupations mises en avant dans cette déclaration sont axées sur la technologie ; néanmoins, comme évoqué plus haut, l’incapacité de prendre des décisions concernant la proportionnalité peut aller à l’encontre du respect de la vie et des principes de l’humanité.

En 2015, un ensemble encore plus important de chercheurs en intelligence artificielle et en robotique ont publié une lettre ouverte. Au mois de juin 2018, plus de 3 500 scientifiques et plus de 20 000 personnes avaient signé cet appel en faveur d’une interdiction [126]. La lettre alerte sur le fait que ces machines pourraient devenir les « Kalashnikovs de demain » si leur mise au point n’est pas interdite [127]. Elle explique par ailleurs que, bien que les signataires « soient convaincus que les potentielles retombées positives de l’intelligence artificielle pour l’humanité sont énormes », ils « estiment qu’une course à l’armement dans le domaine de l’intelligence artificielle ne serait pas bénéfique pour l’humanité. L’intelligence artificielle peut rendre le champ de bataille plus sûr pour les êtres humains, en particulier les civils, de nombreuses façons, sans pour autant créer de nouveaux outils pour tuer » [128].

Des milliers d’experts dans le domaine des technologies ont appelé chacun à agir, et se sont engagés à ne pas participer à l’avancement de la mise au point d’armes entièrement autonomes. Lors d’un sommet international organisé à Stockholm en 2018, des chercheurs en intelligence artificielle ont publié un engagement à « ne pas apporter leur participation ou leur soutien à la mise au point, la fabrication, la commercialisation ou l’utilisation des armes létales autonomes »[129]. Avant la fin du mois, plus de 2 850 spécialistes, scientifiques et acteurs du domaine de l’intelligence artificielle ainsi que 223 entreprises et organisations technologiques d’au moins 36 pays avaient signé l’appel. Cet engagement, qui exprime des préoccupations au regard de questions morales, de responsabilité, de prolifération et de sécurité, conclut que « la décision de prendre une vie humaine ne devrait jamais être confiée à une machine ». Le document précise : « Il y a un aspect moral à cette opinion : nous ne devrions pas permettre à des machines de prendre des décisions de vie ou de mort dont quelqu’un aura à répondre ou dont personne ne sera responsable[130] ». D’après Future of Life Institute, qui publie l’engagement sur son site Internet, ce document est nécessaire, car « les dirigeants politiques ont jusque-là échoué à faire entrer en vigueur » des textes réglementaires et juridiques opposés aux systèmes d’armes létales autonomes[131].

Représentants d’industries

Des entreprises technologiques de premier plan et leurs représentants ont formulé des critiques diverses envers les armes entièrement autonomes. Un fabricant canadien de robots, ClearPath Robotics, est devenu la première entreprise à refuser publiquement de produire des « robots armés fonctionnant sans intervention humaine » [132]. En 2014, l’entreprise s’est engagée à « privilégier l’éthique plutôt que les bénéfices potentiels » [133]. Dans une lettre publique, l’entreprise a expliqué être motivée par sa conviction que « la mise au point de robots tueurs est imprudente, contraire à l’éthique et devrait être interdite à l’échelle internationale ». ClearPath Robotics a également expliqué :

 [U]n robot aurait-il le sens moral, le jugement ou la compréhension émotionnelle pour désobéir à des ordres injustes ou manquant d’humanité ? Non. Les ordinateurs seraient-ils en mesure de prendre les décisions subjectives nécessaires pour vérifier le caractère légitime des cibles et pour garantir que la force est utilisée de manière proportionnelle dans un avenir proche ? Non. Cette technologie pourrait-elle pousser ses détenteurs à rabaisser la valeur d’une vie humaine ? En toute franchise, nous pensons que ce serait le cas. [134]

Ce message montre que les armes entièrement autonomes posent problème au regard du principe de l’humanité et des exigences de la conscience publique.

En août 2017, les créateurs et les dirigeants de 116 entreprises dans les domaines de l’intelligence artificielle et de la robotique ont publié une lettre appelant les États parties à la Convention sur certaines armes classiques à prendre des mesures concernant les armes autonomes[135]. La lettre commence comme suit : « En tant qu’entreprises qui créons les technologies de l’intelligence artificielle et de la robotique qui pourraient être utilisées pour mettre au point des armes autonomes, nous pensons qu’il nous incombe de tirer la sonnette d’alarme » [136]. Le texte insiste ensuite sur les dangers pour les civils, le risque d’une course à l’armement et un possible effet déstabilisateur. Il formule la mise en garde suivante : « [u]ne fois cette boîte de Pandore ouverte, il sera très difficile de la refermer »[137]. De la même manière, en 2018, Scott Phoenix (à la tête de Vicarious, une entreprise de développement de l’intelligence artificielle de premier plan) a décrit la mise au point d’armes autonomes comme faisant partie des « pires idées du monde » en raison de la présence probable d’anomalies dans leur code et de leur vulnérabilité face au piratage[138].

À de multiples reprises, Google et les entreprises appartenant à son groupe Alphabet se sont retrouvées au centre des débats sur les armes entièrement autonomes. DeepMind est une entreprise de recherche sur l’intelligence artificielle rachetée par Google en 2014. En 2016, elle a présenté devant un comité parlementaire du Royaume-Uni des documents prouvant que l’interdiction des armes autonomes est « la meilleure approche pour éviter les conséquences préjudiciables entraînées par la mise au point et l’utilisation de celles-ci » [139]. Les préoccupations exprimées par DeepMind portaient en particulier sur les « répercussions, à l’échelle internationale, sur la stabilité et la réduction du nombre de conflits » [140]. Deux ans plus tard, plus de 3 000 employés de Google ont contesté la participation de l’entreprise au programme « Project Maven » du département de la Défense des États-Unis ayant pour but d’utiliser l’intelligence artificielle pour traiter les documents vidéo tournés par les drones de surveillance. Pour les employés, l’entreprise ne devrait pas « participer à l’économie de la guerre » [141]. Plus de 1 100 universitaires leur ont apporté leur soutien dans une lettre distincte[142]. En juin 2018, Google a accepté de se retirer du programme Project Maven à la fin du contrat correspondant, en 2019, et a publié des principes éthiques dans lesquels l’entreprise s’engage à ne pas développer l’intelligence artificielle destinée à être utilisée par des armes. Dans ses principes, Google s’engage à « ne pas développer une intelligence artificielle destinée à être utilisée dans des armes » et à « ne pas concevoir ou employer l’intelligence artificielle » dans le cadre de technologies à l’origine de « préjudices globaux » ou allant « à l’encontre des principes couramment admis du droit international et des droits humains » [143].

Les investisseurs de l’industrie des technologies commencent eux aussi à réagir face aux préoccupations éthiques soulevées par les armes entièrement autonomes. En 2016, le comité éthique de la caisse de pensions du gouvernement norvégien a annoncé qu’il allait contrôler les investissements réalisés dans la mise au point de ces armes afin de déterminer s’ils vont à l’encontre des lignes directrices du comité[144]. Johan H. Andresen, président du comité, a réitéré cet engagement lors d’un exposé devant les délégués de la Convention sur certaines armes classiques en avril 2018[145].

Avis de gouvernements

De plus en plus, des gouvernements du monde entier partagent le point de vue des experts et du grand public selon lequel il est inacceptable d’élaborer, de produire et d’utiliser des armes ne nécessitant pas de contrôle humain significatif. En avril 2018, 26 nations d’Afrique, d’Asie, d’Europe, d’Amérique latine et du Moyen-Orient ont demandé l’interdiction préventive des armes entièrement autonomes[146]. En outre, plus de 100 États, y compris des pays appartenant au Mouvement des non-alignés, ont demandé l’élaboration d’un instrument juridiquement contraignant relatif à ces armes. Dans une intervention conjointe, les membres du Mouvement des non-alignés ont cité des questions éthiques, juridiques, morales et techniques, ainsi que des questions de paix et de sécurité internationale, comme sujets de préoccupation[147]. Même si une analyse complète des interventions faites par des gouvernements à ce propos au cours des cinq dernières années dépasserait le cadre de ce rapport, les déclarations montrent dans l’ensemble que les pays sont opposés à la perte de contrôle humain, entre autres pour des raisons morales, juridiques et techniques. Les avis de ces gouvernements, qui reflètent les préoccupations du public, viennent renforcer l’argument selon lequel les armes entièrement autonomes vont à l’encontre des exigences de la conscience publique.

Les principes cités dans la clause de Martens ont influencé les discussions internationales sur les armes entièrement autonomes depuis qu’elles ont commencé, en 2013. Cette année-là, Christof Heyns, alors rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, a rendu au Conseil des droits de l’homme des Nations Unies un rapport sur les armes entièrement autonomes, qu’il qualifie de « robots létaux autonomes »[148]. Soulignant l’importance de conserver un contrôle humain sur les décisions de vie et de mort, Heyns explique que « [l]a plupart des codes juridiques, moraux et autres reposent sur le postulat que, lorsqu’il s’agit d’ôter la vie de personnes ou de les soumettre à d’autres conséquences graves, le pouvoir de décision doit être exercé par l’être humain » [149]. Il poursuit : « Le fait de déléguer ce processus déshumanise encore plus les conflits armés et empêche toute possibilité de délibération, même lorsque cela est possible. Les machines n’ont pas de morale et ne sont pas mortelles, et à ce titre ne devraient pas avoir un pouvoir de vie et de mort sur les êtres humains »[150]. Heyns cite aussi la clause de Martens comme l’un des fondements juridiques de son argumentation[151]. Le rapport de 2013 appelait à l’instauration d’un moratoire sur le développement des armes entièrement autonomes « en attendant la mise en place d’un cadre convenu à l’échelle internationale »[152]. Dans un rapport conjoint publié en 2016, Heyns et Maina Kiai, Rapporteur spécial des Nations Unies sur le droit de réunion pacifique et d'association de l’époque, sont allés plus loin en recommandant : « [l]es systèmes d’armes autonomes qui ne requièrent aucun contrôle humain effectif devraient être interdits »[153].

En mai 2013, à la suite du rapport de Heyns, le Conseil des droits de l’homme des Nations Unies a organisé les premières discussions relatives aux armes au niveau international[154]. Sur les 20 nations ayant exprimé leur position, un grand nombre ont formulé des préoccupations concernant les technologies émergentes. Souvent, les propos employés étaient liés à la clause de Martens ou, plus généralement, à la question de la moralité. L’Équateur a fait explicitement référence au contenu de la clause de Martens et a déclaré que le fait de laisser des machines prendre des décisions de vie et de mort irait à l’encontre des exigences de la conscience publique[155]. L’Indonésie a soulevé des objections liées aux principes de l’humanité évoqués plus haut. Elle a critiqué les « possibles répercussions profondes sur les valeurs sociétales, y compris essentiellement sur la protection et la valeur de la vie » que pourrait avoir l’usage de ces armes[156]. La Russie a recommandé qu’une « attention particulière » soit portée aux « graves conséquences sur les fondements de la société, notamment la négation de la vie humaine » [157]. Le Pakistan a demandé une interdiction fondée sur le précédent de l’interdiction préventive des lasers aveuglants, motivée en grande partie par la clause de Martens[158]. Le Brésil a également invoqué la question de la moralité : « Si le fait qu’un être humain en tue un autre est un problème avec lequel les codes juridiques, moraux et religieux tentent de composer depuis toujours, on peut imaginer le nombre de préoccupations que soulèverait l’existence de robots exerçant un droit de vie ou de mort sur des humains »[159]. Même si les États membres du Conseil des droits de l’homme ont également évoqué d’autres risques importants liés aux armes entièrement autonomes, en particulier ceux relatifs à la sécurité, la morale reste une préoccupation majeure[160].

Depuis la session du Conseil des droits de l’homme de 2013, la plupart des discussions diplomatiques se sont tenues sous les auspices de la Convention sur certaines armes classiques[161]. Entre 2014 et 2016, les États parties à la Convention sur certaines armes classiques ont organisé trois réunions d’experts informelles sur ce qu’ils appellent les « systèmes d’armes létales autonomes » [162]. Lors de leur Conférence d’examen de 2016, ils ont convenu de formaliser les discussions par la création d’un Groupe d’experts gouvernementaux, instance généralement chargée de produire un document tel qu’un nouveau protocole  à la Convention[163]. Plus de 80 États ont participé à la dernière réunion de ce groupe, qui s’est tenue en avril 2018. Lors de cette réunion, l’Autriche a noté que « l’engagement de la Convention sur certaines armes classiques à propos des armes létales autonomes témoigne du haut degré de préoccupation quant au risque lié à ces armes » [164]. Il indique également que la conscience publique se positionne contre cette technologie.

Les États parties à la Convention sur certaines armes classiques ont souligné la pertinence de la clause de Martens à chacune de leurs réunions sur les systèmes d’armes létales autonomes. Par exemple, lors de la première réunion, tenue en mai 2014, le Brésil a décrit la clause de Martens comme étant « un fondement » du droit international humanitaire, qui « "permet de naviguer en toute sécurité dans des eaux nouvelles et dangereuses" et d’être convaincu que les êtres humains restent protégés par les lois de l’humanité et les exigences de la conscience publique » [165]. Selon le Mexique, « il ne fait absolument aucun doute que le développement de ces nouvelles technologies doit respecter [les] principes » de la clause de Martens[166]. Lors de la deuxième réunion du groupe d’experts, en avril 2015, la Russie a décrit la clause de Martens comme « une partie intégrante du droit international coutumier » [167]. Faisant une interprétation étroite de la disposition, les États-Unis ont déclaré que « la clause de Martens n’est pas une règle du droit international qui interdit une arme en particulier, et encore moins une arme qui n’existe pas encore ». Cependant, ils ont reconnu que « les principes de l’humanité et les exigences de la conscience publique offrent un paradigme pertinent et important pour les discussions relatives aux questions morales et éthiques que soulève l’utilisation de l’automatisation pour faire la guerre » [168].

Plusieurs États parties à la Convention sur certaines armes classiques ont fondé leurs objections aux armes entièrement autonomes sur la clause de Martens et ses principes. Dans une déclaration conjointe d’avril 2018, le groupe Afrique a affirmé que « les lois de l’humanité et les exigences de la conscience publique, telles qu’énoncées dans la clause [de Martens], doivent être prises au sérieux » [169]. Le Groupe Afrique a demandé l’interdiction préventive des systèmes d’armes létales autonomes, déclarant que ses membres les trouvaient « inhumaines, abominables et répugnantes », et qu’il allait « à l’encontre de la conscience publique que les humains laissent le contrôle à des machines et leur permettent de décider de qui vit et qui meurt, qui survit et qui représente un dommage collatéral acceptable du recours à la force » [170]. Le Saint Siège a condamné les armes entièrement autonomes car elles ne « pourraient jamais être des sujets moralement responsables. La capacité unique de l’être humain à exercer un jugement moral et à prendre des décisions éthiques est plus qu’un ensemble complexe d’algorithmes, et cette capacité ne saurait être remplacée par une machine, ou programmée dans celle-ci ». Le Saint Siège a averti que les systèmes d’armes autonomes pourraient trouver normaux et acceptables « des comportements que le droit international interdit ou qui, même si cela n’est pas explicitement énoncé, sont encore interdits pas les exigences de la morale et de la conscience publique » [171].

Lors de la réunion d’avril 2018, d’autres États ont soulevé des questions en vertu de la clause de Martens de manière plus implicite. Par exemple, la Grèce a déclaré qu’il « est important que les commandants et les opérateurs restent maîtres du processus décisionnel, afin de garantir qu’un être humain forme un jugement approprié quant à la nécessité de recourir à la force, non seulement pour des raisons de responsabilité mais aussi, principalement, pour que la dignité humaine passe avant la décision de vie ou de mort » [172].

Au cours des cinq dernières années, les États parties à la Convention sur certaines armes classiques ont examiné une multitude d’autres questions entourant les systèmes d’armes létales autonomes. Ils ont mis en avant, entre autres, la difficulté de respecter le droit international humanitaire et le droit international des droits humains, les lacunes potentielles en matière de responsabilité, le risque de course à l’armement et l’augmentation de la menace de guerre, ainsi que la vulnérabilité de ces armes au piratage. Venant s’ajouter à la clause de Martens, ces questions ont conduit à une convergence d’opinions quant à la nécessité de conserver une forme de contrôle humain sur les systèmes d’armes et le recours à la force. En avril 2018, le Pakistan a fait remarquer que « les Hautes Parties contractantes ont le sentiment général que les armes dotées de fonctions automatiques doivent rester à tout moment sous le contrôle direct et la supervision d’êtres humains et doivent respecter le droit international » [173]. De la même manière, l’Union européenne a déclaré que ses membres « croient fermement que des êtres humains doivent prendre les décisions relatives à l’usage de la force létale, exercer un contrôle suffisant sur les systèmes d’armes létales qu’ils utilisent, et rester responsables des décisions de vie et de mort » [174].

En 2018, le nombre d’appels lancés par des parlementaires et les Nations Unies en faveur d’un contrôle humain a encore augmenté. Le 4 juillet, la commission de la défense de la Chambre des représentants de Belgique a adopté une résolution demandant au gouvernement de soutenir les efforts internationaux en faveur de l’interdiction de l’utilisation des armes entièrement autonomes[175]. Le lendemain, le Parlement européen a voté pour recommander au Conseil de sécurité des Nations Unies ce qui suit :

œuvrer en faveur d’une interdiction internationale des systèmes d’armes échappant à tout contrôle humain sur le recours à la force, comme l’a demandé le Parlement à diverses occasions et, en préparation des réunions correspondantes au niveau des Nations unies, élaborer et adopter d’urgence une position commune sur les systèmes d’armes autonomes, s’exprimer d’une seule voix dans les forums pertinents et agir en conséquence[176]

Dans son programme de désarmement de 2018, le Secrétaire général des Nations Unies a indiqué que « [t]outes les parties semblent être d’accord sur le fait que, au minimum, un contrôle humain doit être exercé sur l’usage de la force ». Il a proposé de soutenir les efforts des États pour « élaborer de nouvelles mesures, y compris au travers d’accords politiquement ou juridiquement contraignants, afin de garantir un contrôle humain permanent sur l’usage de la force » [177]. Même si le terme doit encore être défini, l’exigence d’un « contrôle humain » revient à interdire les armes qui ne seraient pas placées sous ce contrôle. L’avis selon lequel un contrôle humain est nécessaire est ainsi largement répandu, ce qui prouve que les armes entièrement autonomes vont à l’encontre des exigences de la conscience publique.

 

VI. La nécessité d’un traité d’interdiction préventive

La clause de Martens comble le vide juridique qui existe face à une situation ou à une technologie non prévue par les traités existants. Dans de tels cas, les principes de l’humanité et les exigences de la conscience publique orientent l’interprétation du droit international et établissent les normes qui permettront de juger les moyens et les méthodes de guerre. Ainsi, ils servent de référence pour la protection adéquate des civils et des combattants. Cette clause, qui est une disposition du droit international humanitaire, intègre également des considérations morales dans une analyse juridique.

Les traités existants ne réglementent les armes entièrement autonomes que de manière générale ; par conséquent, une évaluation de ces armes devrait tenir compte de la clause de Martens. Au vu des préoccupations que soulèvent les armes entièrement autonomes, aussi bien du point de vue des principes de l’humanité que de celui des exigences de la conscience publique, la clause de Martens souligne l’urgence qu’il y a à adopter un accord international spécifique sur cette technologie émergente. Afin d’éliminer toute incertitude et de respecter la clause de Martens, ce nouvel instrument devrait prendre la forme d’une interdiction préventive portant sur la mise au point, la production et l’utilisation des armes entièrement autonomes.

On ne peut pas réglementer les armes entièrement autonomes sans un accord qui garantirait le respect des principes de l’humanité. Les armes entièrement autonomes n’auraient pas la compassion et le jugement juridique et éthique qui poussent à traiter autrui avec humanité. Elles auraient beaucoup de difficultés à respecter la vie humaine. Même si elles pouvaient respecter les règles juridiques relatives à la protection, elles n’auraient pas la capacité de respecter la dignité humaine.

Limiter l’utilisation des armes entièrement autonomes à certains lieux, tels que ceux où les civils sont rares, ne suffirait pas à résoudre ces problèmes. « Les maux causés à autrui », que le principe du traitement humain cherche à éviter, englobent les maux causés aux biens civils, qui peuvent être présents là où les civils ne le sont pas. Les exigences liées au respect de la dignité humaine s’appliquent aux combattants comme aux civils, afin que les armes ne soient pas permises là où les troupes ennemies sont positionnées. En outre, permettre que des armes entièrement autonomes soient développées et puissent faire partie de l’arsenal d’une nation engendrerait la possibilité qu’elles soient mal utilisées. Elles se retrouveraient probablement entre les mains d’acteurs n’ayant que faire de la souffrance humaine et aucun respect pour la vie et la dignité humaines. Dans leur lettre publiée en 2017, des chefs d’entreprise du domaine de la technologie ont lancé un avertissement : ces armes pourraient être « des armes de terreur, des armes que les despotes et les terroristes utiliseraient contre des populations innocentes, et des armes piratées pour agir d’une manière indésirable » [178]. Une règlementation qui permettrait l’existence d’armes entièrement autonomes ouvrirait la voie à des violations des principes de l’humanité.

Une interdiction est également nécessaire pour promouvoir le respect des exigences de la conscience publique. Un aperçu de l’opinion publique montre que les citoyens ordinaires comme les experts rejettent la perspective de l’existence des armes entièrement autonomes pour des raisons morales. Les enquêtes d’opinion publique ont mis en lumière une vive opposition à ces armes, fondée sur les problèmes liés au fait de laisser à des machines le soin de décider de la vie ou de la mort d’êtres humains. Les experts n’ont cessé d’appeler à une interdiction préventive des armes entièrement autonomes, citant des préoccupations morales, ainsi que juridiques et de sécurité. Une réglementation qui permettrait l’existence d’armes entièrement autonomes, même si elles ne pouvaient être utilisées que dans certaines circonstances, serait contraire à l’opinion largement répandue selon laquelle ces armes sont moralement inacceptables.

Les déclarations de gouvernements, autre composante de la conscience publique, montrent que les pays rejoignent les individus dans leur opposition aux armes qui se passent d’un contrôle humain pour sélectionner et attaquer des cibles. Plus d’une vingtaine de pays ont explicitement appelé à interdire ces armes de manière préventive[179], et un consensus se fait jour concernant la nécessité de garder un contrôle humain sur le recours à la force. Comme mentionné plus haut, l’obligation de conserver un contrôle humain équivaut, dans les faits, à une interdiction des armes sur lesquelles aucun contrôle humain n’est exercé. Par conséquent, une interdiction permettrait de garantir que les exigences de la conscience publique sont respectées.

Les principes de l’humanité et les exigences de la conscience publique sont des arguments de l’opposition aux armes entièrement autonomes, même si, comme cela a été exposé précédemment, elles ne constituent pas le seul motif de préoccupation. Les armes entièrement autonomes vont également à l’encontre d’autres dispositions juridiques et présentent des risques en matière de responsabilité, de technologie et de sécurité. Pris ensemble, ces risques pour l’humanité justifient largement la création d’un nouvel instrument juridique permettant de conserver un contrôle humain sur l’usage de la force et d’empêcher que des armes entièrement autonomes existent un jour.

 

Remerciements

Bonnie Docherty, chercheuse senior auprès de la division Armes de Human Rights Watch, est l’auteure et réviseuse principale de ce rapport. Elle est également directrice associée de la section Conflits armés et protection civile, et professeur de droit à la International Human Rights Clinic (IHRC) de la faculté de droit de Harvard. Danielle Duffield, Annie Madding et Paras Shah, étudiants du IHRC, ont largement contribué aux recherches, à l’analyse et à la rédaction de ce rapport. Steve Goose, directeur de la division Armes, et Mary Wareham, directrice de plaidoyer auprès de la division Armes, ont corrigé ce rapport. Dinah PoKempner, directrice juridique, et Tom Porteous, directeur adjoint de la divison Programmes, ont également révisé ce rapport. Peter Asaro, professeur associé du Centre des études de médias (School of Media Studies) de la New School, a apporté des commentaires à ce rapport.

Ce rapport a été préparé pour publication par Marta Kosmyna, associée senior auprès de la division Armes, Fitzroy Hepkins, directeur administratif, et Jose Martinez, coordonnateur senior. Russell Christian a réalisé le dessin de la couverture du rapport.

La traduction en français a été réalisée par Griselda Jung et Fanny Mourguet, et a été relue par Peter Huvos. Jacqulyn Kantack, associée auprès de la division Armes, a assuré la finalisation de ce document en vue de sa publication et mise en ligne.

 

 

[1] Pour une discussion plus approfondie sur les avantages et inconvénients des armes entièrement autonomes, voir Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard (IHRC), « Plaidoyer contre les robots tueurs, Dangers de ces armes et nécessité d’une interdiction préventive », décembre 2016, https://www.hrw.org/fr/report/2016/12/09/plaidoyer-contre-les-robots-tueurs/dangers-de-ces-armes-et-necessite-dune.

[2] Future of Life Institute, « Autonomous Weapons: An Open Letter from AI & Robotics Researchers », lettre ouverte publiée le 28 juillet 2015, https://futureoflife.org/open-letter-autonomous-weapons/ (consultée le 22 juillet 2018).

[3] Convention (II) concernant les lois et coutumes de la guerre sur terre et son Annexe : Règlement concernant les lois et coutumes de la guerre sur terre, La Haye, 29 juillet 1899, entrée en vigueur le 4 septembre 1900, Préambule, par. 8.

[4] « Les trois conventions adoptées lors de la Conférence de 1899 représentaient les trois vastes domaines (…) [de] règlement pacifique des litiges internationaux, de la limitation de l’armement et des lois de la guerre. » Betsy Baker, « Hague Peace Conferences: 1899 and 1907 », Max Planck Encyclopedia of Public International Law, mis à jour en novembre 2009, http://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690-e305 (consulté le 14 juillet 2018), par. 3.

[5] Voir Antonio Cassese, « The Martens Clause: Half a Loaf or Simply Pie in the Sky? », European Journal of International Law, vol. 11, no 1 (2000), p. 193-195 ; Theodor Meron, « The Martens Clause, Principles of Humanity, and Dictates of Public Conscience », American Journal of International Law, vol. 94, no 1 (2000), p. 79 (« la clause était à l’origine destinée à définir des règles humanitaires résiduelles pour protéger la population des territoires occupés, en particulier les résistants armés de ces territoires »). Un petit nombre d’universitaires estime que cette clause ne représente pas un compromis équitable, contrairement à ce qui est généralement admis. Voir Rotem Giladi, « The Enactment of Irony: Reflections on the Origins of the Martens Clause », European Journal of International Law, vol. 25, no 3 (2014), p. 853 (« La réponse [de Martens] aux objections soulevées par la Belgique était tout sauf conciliante. Elle était calculée, naturellement, de manière à mettre en avant les dispositions juridiques relatives à l’occupation qui étaient dans l’intérêt de l’empire de Russie qu’il représentait (…).La réponse de Martens reste un exemple classique de politique du pouvoir dissimulée sous une rhétorique humanitaire qui, de façon astucieuse, fait écho aux sensibilités politique et professionnelle de l’assistance. »).

[6] Au 6 août 2018, les quatre Conventions de Genève comptaient 196 États parties. Voir Comité international de la Croix-Rouge (CICR), Traités, États parties et Commentaires, Conventions de Genève de 1949 et Protocoles additionnels et leurs Commentaires, https://ihl-databases.icrc.org/applic/ihl/dih.nsf/vwTreaties1949.xsp (consulté le 6 août 2018).

[7] Convention de Genève pour l’amélioration du sort des blessés et des malades dans les forces armées en campagne, adoptée le 12 août 1949, 75 R.T.N.U. 31, entrée en vigueur le 21 octobre 1950, art. 63 ; Convention de Genève pour l’amélioration du sort des blessés, des malades et des naufragés des forces armées sur mer, adoptée le 12 août 1949, 75 R.T.N.U. 85, entrée en vigueur le 21 octobre 1950, art. 62 ; Convention de Genève relative au traitement des prisonniers de guerre, adoptée le 12 août 1949, 75 R.T.N.U. 135, entrée en vigueur le 21 octobre 1950, art. 142 ; Convention de Genève relative à la protection des personnes civiles en temps de guerre, adoptée le 12 août 1949, 75 R.T.N.U. 287, entrée en vigueur le 21 octobre 1950, art. 158 (qui établit : « La dénonciation vaudra seulement à l’égard de la Puissance dénonçante. Elle n’aura aucun effet sur les obligations que les Parties au conflit demeureront tenues de remplir en vertu des principes du droit des gens tels qu’ils résultent des usages établis, entre nations civilisées, des lois de l’humanité et des exigences de la conscience publique »).

[8] CICR, Commentaire de la Première Convention de Genève pour l’amélioration du sort des blessés et des malades dans les forces armées en campagne, Genève, 12 août 1949, article 63 : Dénonciation, https://ihl-databases.icrc.org/applic/ihl/ihl.nsf/Comment.xsp?action=openDocument&documentId=E6BD0D82E2A36F3EC1257F7A00588C50 (consulté le 14 juillet 2018), par. 3330.

[9] Au 6 août 2018, le Protocole additionnel I comptait 174 États parties. Voir CICR, Protocole additionnel aux Conventions de Genève du 12 août 1949 relatif à la protection des victimes des conflits armés internationaux (Protocole I), 8 juin 1977, https://ihl-databases.icrc.org/applic/ihl/dih.nsf/Treaty.xsp?documentId=CBEC955A2CE7E0D4C12563140043ACA5&action=openDocument (consulté le 6 août 2018).

[10] Protocole additionnel aux Conventions de Genève du 12 août 1949 relatif à la protection des victimes des conflits armés internationaux (Protocole I), adopté le 8 juin 1977, 1125 R.T.N.U. 3, entré en vigueur le 7 décembre 1978, art. 1 2).

[11] CICR, Commentaire de 1987 du Protocole additionnel aux Conventions de Genève du 12 août 1949 relatif à la protection des victimes des conflits armés internationaux (Protocole I), article 1, Principes généraux et champ d’application, https://ihl-databases.icrc.org/applic/ihl/dih.nsf/Comment.xsp?action=openDocument&documentId=8A16225D20D136C8C12563BD002D3782 (consulté le 15 juillet 2018), par. 55.

[12] Une exception notable est la Convention sur les armes chimiques de 1993. Voir Convention sur l’interdiction de la mise au point, de la fabrication, du stockage et de l’emploi des armes chimiques et sur leur destruction, ouverte à la signature le 13 janvier 1993, 1974 R.T.N.U. 45, entrée en vigueur le 29 avril 1997.

[13] Le Protocole de Genève de 1925 inclut des éléments de la clause de Martens dans son préambule. Protocole concernant la prohibition d’emploi à la guerre de gaz asphyxiants, toxiques ou similaires et de moyens bactériologiques, adopté le 17 juin 1925, 94 R.T.N.U. 65, entré en vigueur le 8 février 1928, préambule, par. 1-3 (« Considérant que l’emploi à la guerre de gaz asphyxiants, toxiques ou similaires (…) a été à juste titre condamné par l’opinion générale du monde civilisé, considérant que l’interdiction de cet emploi a été formulée dans les traités auxquels sont Parties la plupart des Puissances du monde, dans le dessein de faire universellement reconnaître comme incorporée au droit international cette interdiction, qui s’impose également à la conscience et à la pratique des nations »).

[14] Convention sur l’interdiction de la mise au point, de la fabrication et du stockage des armes bactériologiques (biologiques) ou à toxines et sur leur destruction, ouverte à la signature le 10 avril 1972, 1015 R.T.N.U. 163, entrée en vigueur le 26 mars 1975, préambule, par. 10 (« Convaincus que la conscience de l’humanité réprouverait l’emploi de telles méthodes et qu’aucun effort ne doit être épargné pour amoindrir ce risque »).

[15] Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination, adoptée le 10 décembre 1980, 1342 R.T.N.U. 137, entrée en vigueur le 2 décembre 1983, préambule, par. 5 (« Confirmant leur détermination selon laquelle, dans les cas non prévus par la présente convention et les protocoles y annexés ou par d’autres accords internationaux, les personnes civiles et les combattants restent à tout moment sous la sauvegarde et sous l’empire des principes du droit des gens, tels qu’ils résultent des usages établis, des principes de l’humanité et des exigences de la conscience publique »).

[16] Convention sur l’interdiction de l’emploi, du stockage, de la production et du transfert des mines antipersonnel et sur leur destruction, adoptée le 18 septembre 1997, 2056 R.T.N.U. 241, entrée en vigueur le 1er mars 1999, préambule, par. 8 (« Soulignant le rôle de la conscience publique dans l’avancement des principes humanitaires comme en atteste l’appel à une interdiction totale des mines antipersonnel »).

[17] Convention sur les armes à sous-munitions, adoptée le 30 mai 2008, 2688 R.T.N.U. 39, entrée en vigueur le 1er août 2010, préambule, par. 11 (« Réaffirmant que, dans les cas non couverts par la présente Convention ou par d’autres accords internationaux, les personnes civiles et les combattants restent sous la sauvegarde des principes du droit des gens, tels qu’ils résultent des usages établis, des principes de l’humanité et des exigences de la conscience publique »).

[18] Traité sur l’interdiction des armes nucléaires, adopté le 7 juillet 2017, C.N.475.2017.TREATIES-XXVI.9, préambule, par. 11 (« Réaffirmant que tout emploi d’armes nucléaires serait également inacceptable au regard des principes de l’humanité et des exigences de la conscience publique »).

[19] Protocole I, art. 1(2).

[20] Par exemple, dans un document juridique sur les systèmes d’armes létales autonomes, la Suisse a déclaré : « De la même manière, tout ce qui n’est pas explicitement interdit n’est pas pour autant légal si cela va à l’encontre des principes établis dans la clause de Martens. On peut effectivement dire que la clause de Martens implique des obligations positives lorsque l’action militaire envisagée pourrait avoir des conséquences humanitaires indéfendables ». Suisse, « A “Compliance-Based” Approach to Autonomous Weapon Systems », Doc. ONU CCW/GGE.1/2017/WP.9, 10 novembre 2017, https://www.unog.ch/80256EDD006B8954/(httpAssets)/6B80F9385F6B505FC12581D4006633F8/$file/2017_GGEonLAWS_WP9_Switzerland.pdf (consulté le 15 juillet 2018), par. 18.

[21] In re Krupp, Arrêt du 31 juillet 1948, in Trials of War Criminals before the Nuremberg Military Tribunals: « The Krupp Case », vol. IX, (Washington : US Government Printing Office, 1950), p. 1340.

[22] Licéité de la menace ou de l’emploi d’armes nucléaires, avis consultatif, C.I.J., recueil 1996, p. 257, https://www.icj-cij.org/files/case-related/95/095-19960708-ADV-01-00-FR.pdf (consulté le 15 juillet 2018), par. 78.

[23] Pour certains détracteurs, le droit international humanitaire devrait englober de manière adéquate les armes entièrement autonomes et faire remarquer l’applicabilité des traités de désarmement relatifs aux mines antipersonnel, aux armes à sous-munitions et aux armes incendiaires. Ces instruments ne prévoient cependant pas de dispositions propres aux armes entièrement autonomes. Pour un point de vue critique, voir Michael N. Schmitt et Jeffrey S. Thurnher, « “Out of the Loop”: Autonomous Weapon Systems and the Law of Armed Conflict », Harvard National Security Journal, vol. 4 (2013), p. 276.

[24] Voir Rupert Ticehurst, « La clause de Martens et le droit des conflits armés », Revue internationale de la Croix-Rouge, no 317 (1997), https://www.icrc.org/fr/doc/resources/documents/misc/5fzgrl.htm (consulté le 15 juillet 2018), p. 1 (« Les juristes spécialisés en droit humanitaire voient leur tâche compliquée par le fait qu’il n’existe aucune interprétation usuelle de la clause de Martens, et qu’ils sont, au contraire, confrontés à diverses interprétations plus ou moins larges »).

[25] Ainsi, le gouvernement britannique s’est appuyé sur cette interprétation dans son exposé devant la Cour internationale de justice dans le cadre de la procédure relative à l’avis consultatif sur les armes nucléaires de 1996 pour déclarer : « Si la clause de Martens précise que l’absence d’une disposition conventionnelle relative à l’utilisation d’armes nucléaires n’est pas, en soi, suffisante pour établir que ces armes peuvent être employées de manière légale, elle n’établit pas, intrinsèquement, leur caractère illégal. Les termes de la clause de Martens nécessitent un renvoi vers une règle du droit international coutumier qui pourrait proscrire le recours aux armes nucléaires ». Meron, « The Martens Clause, Principles of Humanity, and Dictates of Public Conscience », American Journal of International Law, p. 85.

[26] Opinion individuelle de M. Anzilotti dans l’arrêt France c. Grèce, Cour permanente de justice internationale, Arrêt no 22, 17 mars 1934, https://jusmundi.com/fr/document/pdf/Opinion/PCIJ-AB62-2/fr/fr-affaire-franco-hellenique-des-phares-opinion-individuelle-de-m-anzilotti-saturday-17th-march-1934 (consulté le 15 juillet 2018), (« Or, c’est une règle fondamentale de l’interprétation des textes juridiques que l’on ne doit pas facilement admettre qu’ils contiennent des mots inutiles : il faut, autant que possible, chercher une interprétation qui assigne à chaque mot employé sa raison d’être et sa signification. »).

[27] Voir, par exemple, Michael Salter, « Reinterpreting Competing Interpretations of the Scope and Potential of the Martens Clause », Journal of Conflict and Security Law, vol. 17, no 3 (2012), p. 421.

[28] Voir, par exemple, In re Krupp, Arrêt du 31 juillet 1948, in Trials of War Criminals before the Nuremberg Military Tribunals: « The Krupp Case », p. 1340 (où il est affirmé que la clause de Martens « est bien plus qu’une pieuse déclaration »). Voir aussi Cassese, « The Martens Clause », European Journal of International Law, p. 210 (où il est affirmé que la plupart des États qui se sont exprimés devant la Cour internationale de justice dans le cadre de l’Avis consultatif sur les armes nucléaires « ont suggéré, de manière implicite ou contournée, d’élargir la portée de la clause pour en faire un principe établissant de nouvelles sources de droit ») ; CICR, Guide de l’examen de la licéité des nouvelles armes et des nouveaux moyens et méthodes de guerre – Mise en œuvre des dispositions de l’article 36 du Protocole additionnel I de 1977 (2006), https://shop.icrc.org/guide-de-l-examen-de-la-liceite-des-nouvelles-armes-et-des-nouveaux-moyens-et-methodes-de-guerre-mise-en-oeuvre-des-dispositions-de-l-article-36-du-protocole-additionnel-i-de-2211.html (consulté le 15 juillet 2018), p. 23 (« Une arme non couverte par les règles existantes du droit international humanitaire serait considérée non conforme à la clause de Martens s’il est établi que per se elle contrevient aux principes de l’humanité ou aux exigences de la conscience publique. »).

[29] Cassese, « The Martens Clause », European Journal of International Law, p. 212.

[30] Ibid. Voir aussi Jochen von Bernstorff, « Martens Clause », Max Planck Encyclopedia of Public International Law, mise à jour de décembre 2009, http://opil.ouplaw.com/search?sfam=&q=Martens+Clause+&prd=EPIL&searchBtn=Search (consulté le 15 juillet 2018), par. 13 (« Une deuxième lecture permet de voir la clause comme un outil d’interprétation selon lequel, en cas de doute, les règles du droit international humanitaire devraient être interprétées selon les “lois de l’humanité” et les “exigences de la conscience publique”. »).

[31] CICR, « Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control? », 3 avril 2018, https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control (consulté le 15 juillet 2018), p. 6. Le CICR a déjà reconnu que les États doivent prendre en considération la clause de Martens lors de l’examen de nouvelles armes. CICR, Guide de l’examen de la licéité des nouvelles armes et des nouveaux moyens et méthodes de guerre, p. 22.

[32] CICR, « Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control? » p. 6.

[33] Peter Asaro, « Jus nascendi, Robotic Weapons and the Martens Clause », in Robot Law, eds. Ryan Calo, Michael Froomkin, et Ian Kerr (Cheltenham, Royaume-Uni : Edward Elgar Publishing, 2016), https://www.elgaronline.com/view/9781783476725.00024.xml (consulté le 15 juillet 2018), p. 386.

[34] CICR, « Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control? » p. 6.

[35] Protocole relatif aux armes à laser aveuglantes (Protocole IV), adopté le 13 octobre 1995, entré en vigueur le 30 juillet 1998, art. 1. Pour une discussion concernant l’histoire des négociations de ce protocole et le lien avec les discussions relatives aux armes entièrement autonomes, voir Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, « Precedent for Preemption: The Ban on Blinding Lasers as a Model for a Killer Robots Prohibition », novembre 2015, https://www.hrw.org/sites/default/files/supporting_resources/robots_and_lasers_final.pdf, p. 3-7.

[36] CICR, Les armes qui aveuglent : rapports des réunions d’experts organisées par le Comité international de la Croix-Rouge sur les lasers de combat 1989-1991 (Genève : CICR, 1993), p. 342 (soulignement de l’original enlevé).

[37] Ibid., p. 341.

[38] Ibid., p. 85.

[39] Louise Doswald-Beck, « Le nouveau Protocole sur les armes à laser aveuglantes », Revue internationale de la Croix-Rouge, no 312 (1996),

https://www.icrc.org/fr/doc/resources/documents/misc/5fzfff.htm (consulté le 15 juillet 2018).

[40] Résumé de la déclaration de Human Rights Watch, première Conférence d’examen de la Convention sur certaines armes classiques, « Compte rendu analytique de la 6e séance », CCW/CONF.I/SR.6, 28 septembre 1995, par. 60.

[41] Résumé de la déclaration du Programme des Nations Unies pour le développement, première Conférence d’examen de la Convention sur certaines armes classiques, « Compte rendu analytique de la 5e séance », CCW/CONF.I/SR.5, 27 septembre 1995, par. 50.

[42] Résumé de la déclaration de Christoffel Blindenmission (CBM), première Conférence d’examen de la Convention sur certaines armes classiques, « Compte rendu analytique de la 6e séance », CCW/CONF.I/SR.6, 28 septembre 1995, par. 51. CBM est une organisation internationale chrétienne de développement.

[43] Résumé de l’intervention du Chili, première Conférence d’examen de la Convention sur certaines armes classiques, « Compte rendu analytique de la 14e séance », CCW/CONF.I/SR.13, 3 mai 1996, par. 69.

[44] Parlement européen, Résolution sur l’échec de la conférence internationale sur les mines terrestres antipersonnel et les armes à laser, 4 décembre 1995, https://eur-lex.europa.eu/legal-content/fr/TXT/HTML/?uri=CELEX:51995IP1360&from=fr (consulté le 15 juillet 2018).

[45] Ibid.

[46] Doswald-Beck, « Le nouveau Protocole sur les armes à laser aveuglantes », Revue internationale de la Croix-Rouge.

[47] Les lasers aveuglants et les armes entièrement autonomes différeraient sur plusieurs aspects. Ainsi, les lasers aveuglants sont un type particulier d’armes, alors que les armes entièrement autonomes constituent une catégorie à part entière. Les caractéristiques uniques des armes entièrement autonomes ne discréditent pas les arguments en faveur de leur prohibition mais rendent la nécessité de leur interdiction préventive encore plus pressante. Voir Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, Precedent for Preemption: The Ban on Blinding Lasers as a Model for a Killer Robots Prohibition, p. 17-18.

[48] English Oxford Living Dictionaries, « humanity », https://en.oxforddictionaries.com/definition/humanity (consulté le 15 juillet 2018). Voir aussi Merriam Webster, « humanity », https://www.merriam-webster.com/dictionary/humanity (consulté le 15 juillet 2018) (qui définit l’humanité comme un comportement ou un tempérament compatissant, empathique ou généreux ; caractère ou état de ce qui est humain).

[49] Voir CICR, « Règle 87 : le traitement humain », Base de données sur le droit international humanitaire coutumier (en anglais), https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule87 (consulté le 15 juillet 2018).

[50] Ibid. Voir aussi V.V. Pustogarov, « The Martens Clause in International Law », Journal of the History of International Law, vol. 125 (1999), p. 133 (« les principes de l’humanité sont exprimés concrètement dans les dispositions qui prévoient le "traitement humain" des blessés, des malades, des prisonniers de guerre et des autres personnes protégées par les Conventions de Genève de 1949 et les Protocoles de 1977. On peut dire que le "traitement humain" constitue l’élément essentiel du droit humanitaire. »). Par ailleurs, l’article 10(1) du Pacte international relatif aux droits civils et politiques dispose que « Toute personne privée de sa liberté est traitée avec humanité et avec le respect de la dignité inhérente à la personne humaine. » ; Pacte international relatif aux droits civils et politiques), adopté le 16 décembre 1966, A.G. Rés. 2200A (XXI), 21 U.N. GAOR Supp. (n° 16) à 52, U.N. Doc.A/6316 (1966), 999 R.T.N.U. 171, entré en vigueur le 23 mars 1976, art. 10(1).

[51] CICR, « Les Principes fondamentaux de la Croix-Rouge : commentaire », 1er janvier 1979, https://www.icrc.org/fr/doc/resources/documents/misc/fundamental-principles-commentary-010179.htm (consulté le 15 juillet 2018).

[52] English Oxford Living Dictionaries, « humane », https://en.oxforddictionaries.com/definition/humane (consulté le 15 juillet 2018) (qui définit l’adjectif « humain » comme le fait d’avoir ou de montrer de la compassion ou de la bienveillance).

[53] CICR, « Les principes fondamentaux de la Croix-Rouge : Commentaire », 1er janvier 1979.

[54] Aux fins du présent rapport, le terme « acteur » signifie un agent déployé dans une situation, par exemple un conflit armé, où il est chargé de prendre des décisions morales, c’est-à-dire des décisions relatives à des actions pouvant soit faire souffrir soit aider autrui. Ainsi, pour les besoins de ce rapport, les êtres humains et les armes entièrement autonomes sont considérés comme des acteurs. Conformément à la clause de Martens, tous les acteurs sont tenus de respecter les principes de l’humanité. Pour une définition de l’empathie en anglais, voir English Oxford Living Dictionaries, « empathy », https://en.oxforddictionaries.com/definition/empathy (consulté le 15 juillet 2018). Selon Anneliese Klein-Pineda, « l’empathie et la compassion nécessitent toutes les deux la capacité d’interpréter des actions et de comprendre les motivations ou les sentiments d’autrui ». Anneliese Klein-Pineda, « The Ethics of Robots: Is There an Algorithm for Morality? » Stashlearn, 22 décembre 2016, https://learn.stashinvest.com/robot-ethics-morality (consulté le 15 juillet 2018).

[55] Selon Christof Heyns, rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, « [l]es décisions de vie ou de mort que l’on est amené à prendre dans un conflit armé exigent d’avoir de la compassion et de l’intuition ». Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns, Robots létaux autonomes et protection de la vie, Conseil des droits de l’homme des Nations Unies, A/HRC/23/47, 9 avril 2013, https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_fr.pdf (consulté le 15 juillet 2018), par. 55.

[56] Jean Pictet, Développement et principes du droit international humanitaire (Genève : Martinus Nijoff et Institut Henry Dunant, 1985), p. 62.

[57] English Oxford Living Dictionaries, « judgement », https://en.oxforddictionaries.com/definition/judgement (consulté le 15 juillet 2018) (qui définit le « jugement » comme la capacité de prendre des décisions réfléchies ou de parvenir à des conclusions sensées).

[58] James H. Moor, « The Nature, Importance, and Difficulty of Machine Ethics », IEEE Intelligent Systems, vol. 21, n° 4, (2006), https://ieeexplore.ieee.org/document/1667948/ (consulté le 15 juillet 2018), p. 21.

[59] James H. Moor, « Four Kinds of Ethical Robot » Philosophy Now, vol. 72 (2007), p. 12.

[60] Moor, « The Nature, Importance, and Difficulty of Machine Ethics », IEEE Intelligent Systems, p. 21.

[61] CICR, « Les Principes fondamentaux de la Croix-Rouge et du Croissant-Rouge », 1996, https://www.icrc.org/fr/doc/assets/files/other/icrc_001_0513_principes_fondamentaux_cr_cr.pdf (consulté le 15 juillet 2018) p. 2.

[62] Ibid.

[63] English Oxford Living Dictionaries, « emotion », https://en.oxforddictionaries.com/definition/emotion (consulté le 15 juillet 2018) (qui définit une émotion comme un état affectif intense provoqué par des circonstances, une humeur, ou des relations avec d’autres personnes et un état affectif instinctif ou intuitif qui s’oppose au raisonnement ou à la connaissance).

[64] Amanda Sharkey, « Can We Program or Train Robots to be Good? » Ethics and Information Technology (2017), consulté le 3 août 2018, doi.org/10.1007/s10676-017-9425-5, p. 8.

[65] Voir Olivia Goldhill, « Can We Trust Robots to Make Moral Decisions? » Quartz, 3 avril 2016, https://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/ (consulté le 15 juillet 2018) (« il est peu probable que les robots soient capables de prendre des décisions éthiques très complexes dans un futur proche. »).

[66] Amanda Sharkey, « Can We Program or Train Robots to be Good? » Ethics and Information Technology, p. 1.

[67] Mary Wareham (Human Rights Watch), « It’s Time for a Binding, Absolute Ban on Fully Autonomous Weapons », commentaire, Equal Times, 9 novembre 2017, https://www.hrw.org/news/2017/11/09/its-time-binding-absolute-ban-fully-autonomous-weapons.

[68] Christof Heyns, « Autonomous Weapons in Armed Conflict and the Right to a Dignified Life: An African Perspective », South African Journal on Human Rights, vol. 33 (2017), consulté le 1er juillet 2018, doi.org/10.1080/02587203.2017.1303903, p. 51.

[69] Ibid., p. 58.

[70] CICR, « Les Principes fondamentaux de la Croix-Rouge et du Croissant-Rouge », août 2015, https://www.icrc.org/fr/doc/assets/files/other/icrc_001_0513_principes_fondamentaux_cr_cr.pdf (consulté le 21 juillet 2018), p. 3.

[71] Pacte international relatif aux droits civils et politiques, art. 6(1).

[72] Pour une analyse plus poussée des critères du recours à la force au regard du droit à la vie, voir Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, Shaking the Foundations: The Human Rights Implications of Killer Robots, mai 2014, https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots, p. 8-16.

[73] CICR, « Règle 1 : Le principe de la distinction entre civils et combattants », Base de données sur le droit international humanitaire coutumier, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule1 (consulté le 21 juillet 2018; CICR, « Règle 14 : La proportionnalité dans l’attaque », Base de données sur le droit international humanitaire coutumier, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule14 (consulté le 6 août 2018) ; « Military Necessity », in CICR, How Does Law Protect in War?, https://casebook.icrc.org/glossary/military-necessity (consulté le 21 juillet 2018).

[74] English Oxford Living Dictionaries, « dignity », https://en.oxforddictionaries.com/definition/dignity (consulté le 21 juillet 2018) (qui définit la dignité comme le fait d’être digne ou louable). Voir aussi Jack Donnelly, « Human Dignity and Human Rights », in Swiss Initiative to Commemorate the 60th Anniversary of the UDHR, Protecting Dignity: Agenda for Human Rights, juin 2009, https://www.legal-tools.org/doc/e80bda/pdf/ (consulté le 21 juillet 2018), p. 10 ; Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, Shaking the Foundations: The Human Rights Implications of Killer Robots, p. 3 ; José Pablo Alzina de Aguilar, « Human Dignity according to International Instruments on Human Rights », Revista Electrónica de Estudios Internacionales, vol. 22 (2011), p. 8. (« D’après [les instruments du droit international humanitaire], les droits qui découlent de la dignité, ou du moins les principaux sont universels et inaliénables »).

[75] Ainsi, le préambule de la Déclaration universelle des droits de l’homme établit que « la reconnaissance de la dignité inhérente à tous les membres de la famille humaine et de leurs droits égaux et inaliénables constitue le fondement de la liberté, de la justice et de la paix dans le monde ». Déclaration universelle des droits de l’homme, adoptée le 10 décembre 1948, A.G. Rés. 217A(III), Doc. ONU A/810 à 71 (1948), préambule, par. 1.

[76] Charte africaine des droits de l’homme et des peuples (Charte de Banjul), adoptée le 27 juin 1981, CAB/LEG/67/3 rév. 5, 21 I.L.M. 58, entrée en vigueur le 21 octobre 1986, art. 7.

[77] Ces deux types de respect se chevauchent, dans la mesure où celui qui respecte réellement la dignité humaine est plus susceptible de prendre les mesures nécessaires à la protection de la vie humaine.

[78] CICR, « Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control? » p. 10.

[79] Heyns, « Autonomous Weapons in Armed Conflict and the Right to a Dignified Life », South African Journal on Human Rights, p. 62-63 (« La principale idée de la notion de dignité humaine est que les êtres humains ne devraient pas être traités comme une chose s’apparentant à un objet, qui n’aurait qu’une valeur instrumentale (comme dans le cas de l’esclavage ou du viol) ou nulle (comme dans le cas de nombreux massacres »)).

[80] Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, Plaidoyer contre les robots tueurs, Dangers de ces armes et nécessité d’une interdiction préventive, p. 6. Voir aussi Final Report to the Prosecutor by the Committee Established to Review the NATO Bombing Campaign against the Federal Republic of Yugoslavia, Tribunal pénal international pour l’ex-Yougoslavie, http://www.difesa.it/SMD_/CASD/IM/ISSMI/Corsi/Corso_Consigliere_Giuridico/Documents/72470_final_report.pdf (consulté le 21 juillet 2018), par. 50.

[81] Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, Plaidoyer contre les robots tueurs, Dangers de ces armes et nécessité d’une interdiction préventive, p. 7. Voir aussi Olivier Corten, « Reasonableness in International Law », Max Planck Encyclopedia of Public International Law, mis à jour en mars 2013, http://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690-e1679?prd=EPIL#law-9780199231690-e1679-div1-1 (consulté le 22 juillet 2018), par. 1 (« Le fait d’être raisonnable est généralement perçu comme une ouverture à des considérations éthiques et morales plutôt que juridiques »).

[82] Les armes entièrement autonomes seraient confrontées aux mêmes difficultés pour déterminer si le recours à la force est nécessaire et proportionné dans les situations de maintien de l’ordre et pour l’éviter si possible, ce qui constitue une condition au respect de la vie. Voir Human Rights Watch et International Human Rights Clinic de la faculté de droit de Harvard, Shaking the Foundations: The Human Rights Implications of Killer Robots, p. 8-14. Voir aussi Peter Asaro, « “Hands Up, Don’t Shoot!” HRI and the Automation of Police Use of Force », Journal of Human-Robot Interaction, vol. 5, no 3 (2016), http://humanrobotinteraction.org/journal/index.php/HRI/article/view/301/pdf_37 (consulté le 22 juillet 2018).

[83] Heyns, « Autonomous Weapons in Armed Conflict and the Right to a Dignified Life », South African Journal on Human Rights, p. 64.

[84] Lt. Col. Dave Grossman, On Killing: The Psychological Cost of Learning to Kill in War and Society (New York : Little, Brown and Company, 1995), p. 4. Armin Krishnan a également écrit à ce sujet : « Depuis toujours, l’un des plus importants freins à la cruauté de la guerre est l’inhibition naturelle de l’être humain, qui l’empêche de tuer ou de blesser ses semblables. Ce mécanisme naturel est si puissant que la plupart des personnes préfèrent mourir plutôt que de tuer quelqu’un ». Armin Krishnan, Killer Robots: Legality and Ethicality of Autonomous Weapons (Farnham : Ashgate Publishing Limited, 2009), p. 130.

[85] CICR, « Ethics and Autonomous Weapons Systems: An Ethical Basis for Human Control? » pp. 10, 12.

[86] Le CICR a déclaré que le respect de la personnalité de chacun et de la dignité des personnes est d’une importance vitale pour le principe de l’humanité. Voir CICR, « Les Principes fondamentaux de la Croix-Rouge : commentaire », 1er janvier 1979.

[87] Christof Heyns, « Autonomous Weapon Systems: Human Rights and Ethical Issues » (exposé lors de la réunion d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létaux autonomes, 14 avril 2016), transcription disponible auprès de Human Rights Watch.

[88] Erin Hunt et Piotr Dobrzynski, « The Right to Dignity and Autonomous Weapons Systems », CCW Report, 11 avril 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/reports/CCWR6.3.pdf (consulté le 22 juillet 2018), p. 5.

 

[89] Larry May, « Hobbes, Law, and Public Conscience », Critical Review of International Social and Political Philosophy, vol. 19, (2016) : consulté le 22 juillet 2018, doi.org/10.1080/13698230.2015.1122352. Voir, de manière générale, Heping Dang, International Law, Human Rights, and Public Opinion: The Role of the State in Educating on Human Rights Standards (Londres : Taylor & Francis Group, 2017).

[90] English Oxford Living Dictionaries, « conscience », https://en.oxforddictionaries.com/definition/conscience (consulté le 22 juillet 2018) (qui définit la conscience comme la notion qu’a une personne du bien et du mal, qui guide ses actes). Voir aussi Merriam-Webster, « conscience », https://www.merriam-webster.com/dictionary/conscience (consulté le 22 juillet 2018) (qui définit la conscience comme le sens ou la connaissance par une personne du caractère bon ou mauvais de sa conduite, de ses intentions ou de sa nature, lié au sentiment de devoir bien agir ou de faire preuve de bonté).

[91] Asaro, « Jus nascendi, Robotic Weapons and the Martens Clause », p. 374-375.

[92] Meron fait remarquer que le fait que nous nous intéressions à différentes opinions nous aide à nous prémunir contre les points de vue potentiellement immoraux des gouvernements et des personnes. Il fait également observer que, pour certains, le droit international humanitaire (évoqué au chapitre IV du présent rapport) peut aider à déterminer la conscience publique. Meron, « The Martens Clause, Principles of Humanity, and Dictates of Public Conscience », American Journal of International Law, p. 83-84 (« l’opinion publique, dont l’influence est prépondérante à notre époque, a un rôle à jouer dans le développement du droit international, et n’est pas un phénomène nouveau. »).

[93] Asaro, « Jus nascendi, Robotic Weapons and the Martens Clause », p. 374-375. Voir aussi V.V. Pustogarov, « The Martens Clause in International Law », Journal of the History of International Law, p. 132-133.

[94] Asaro, « Jus nascendi, Robotic Weapons and the Martens Clause », p. 373-374.

[95] Ibid., p. 375 (« En effet, la meilleure source de nouveaux principes et de conscience publique est le débat public, dans le cadre duquel les États et les individus essaient de capturer cette conscience et de l’exprimer. »).

[96] Ibid. (« Ces opinions peuvent aussi être recueillies au moyen des débats publics, des travaux de recherche, des créations artistiques et culturelles, de la réflexion individuelle, de l’action collective et d’autres canaux qui permettent de refléter la conscience morale collective de la société. »).

[97] Michael Wood et Omri Sender, « State Practice », Max Planck Encyclopedia of Public International Law, mise à jour de janvier 2017, http://opil.ouplaw.com/abstract/10.1093/law:epil/9780199231690/law-9780199231690-e1107?rskey=RSszP4&result=3&prd=EPIL (consulté le 22 juillet 2018) (« Intrinsèquement, la pratique doit être de portée générale (c’est-à-dire assez large et représentative, et uniforme) et s’accompagner de la reconnaissance qu’une règle de droit ou une obligation juridique est en jeu. »).

[98] Avec le soutien du Mouvement des non-alignés, qui rassemble plus de 100 États membres, le nombre de nations est bien plus élevé. Voir, par exemple, Intervention du Venezuela pour le compte du Mouvement des non-alignés, Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 28 mars 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/E9BBB3F7ACBE8790C125825F004AA329/$file/CCW_GGE_1_2018_WP.1.pdf (consulté le 22 juillet 2018) ; Intervention du Groupe Afrique, Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9-13 avril 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_African-Group.pdf (consulté le 22 juillet 2018).

[99] Pour des exemples d’États opposés à une interdiction, voir Intervention des États-Unis, Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 13 avril 2018, https://geneva.usmission.gov/2018/04/17/u-s-statement-on-the-outcome-of-the-gge/(consulté le 22 juillet 2018) ; Intervention d’Israël, Réunion des États parties à la Convention sur certaines armes classiques, Genève, 15 novembre 2017, http://embassies.gov.il/UnGeneva/priorities-statements/Disarmament/Documents/CCW-MSP-GeneralExchangeViews22.11.2017.pdf (consulté le 22 juillet 2018).

[100] Charli Carpenter, « US Public Opinion Poll on Lethal Autonomous Weapons », juin 2013, http://duckofmine&rva.dreamhosters.com/wp-content/uploads/2013/06/UMass-Survey_Public-Opinion-on-Autonomous-Weapons.pdf (consulté le 22 juillet 2018) ; Open Roboethics Initiative, « The Ethics and Governance of Lethal Autonomous Weapons Systems: An International Public Opinion Poll », 9 novembre 2015, http://www.openroboethics.org/wp-content/uploads/2015/11/ORi_LAWS2015.pdf (consulté le 22 juillet 2018) ; Chris Jackson, « Three in Ten Americans Support Using Autonomous Weapons » Ipsos, 7 février 2017, https://www.ipsos.com/en-us/news-polls/three-ten-americans-support-using-autonomous-weapons (consulté le 22 juillet 2018).

[101] 39 pour cent de ces 55 pour cent de personnes interrogées ont dit « s’opposer fortement » et 16 pour cent « s’opposer quelque peu » à l’utilisation des armes entièrement autonomes. Pour évaluer les effets de la langue, le sondage définissait les armes comme des « [armes robotisées/robots létaux] entièrement autonomes ». Charli Carpenter, « US Public Opinion on Autonomous Weapons ». Ces chiffres s’appuient sur un sondage en ligne représentatif à l’échelle nationale mené auprès de 1 000 américains par Yougov.com. Les personnes interrogées étaient un groupe d’utilisateurs d’Internet invité (le « YouGov Panel ») pondéré et compensé par genre, âge, origine ethnique, revenu, formation, identification à un parti, inscription électorale, idéologie, intérêt politique et statut militaire. La marge d’erreur pour les résultats est de +/- 3,6 pour cent.

[102] Ibid.

[103] Ibid. D’après le sondage, 33 pour cent ont déclaré « soutenir fortement » une campagne et 20 pour cent ont dit la « soutenir quelque peu ».

[104] Willem Staes, « Nieuw onderzoek: 60% van de Belgen wil internationaal verbod op “killer robots” », Pax Christi Vlaanderen, 3 juillet 2018, https://www.paxchristi.be/nieuws/nieuw-onderzoek-60-van-de-belgen-wil-internationaal-verbod-op-killer-robots (consulté le 22 juillet 2018).

[105] Open Roboethics Initiative, « The Ethics and Governance of Lethal Autonomous Weapons Systems: An International Public Opinion Poll », p. 4, 8.

[106] Ibid., p. 7.

[107] Ibid.

[108] Chris Jackson, « Three in Ten Americans Support Using Autonomous Weapons ».

[109] Ibid. Les pays les plus fortement opposés à l’utilisation de ces armes étaient la Russie (69 % contre), le Pérou (67 % contre), l’Espagne (66 % contre) et l’Argentine (66 % contre). Les pays se déclarant quelque peu favorables à leur utilisation étaient l’Inde, (60 % pour), la Chine (47 % pour), et les États-Unis (34 % pour).

[110] Campagne contre les robots tueurs, « Coalition », avril 2018, https://www.stopkillerrobots.org/coalition/?lang=fr (consulté le 22 juillet 2018).

[111] Ibid.

[112] Voir Campagne contre les robots tueurs, « Bibliography », https://www.stopkillerrobots.org/bibliography/ (consulté le 22 juillet 2018).

[113] Déclaration de Human Rights Watch, Groupes d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 avril 2018, https://www.hrw.org/news/2018/04/09/statement-human-rights-watch-convention-conventional-weapons-group-governmental.

[114] Déclaration du CICR, réunion du Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 15 novembre 2017, https://www.icrc.org/fr/document/reunion-dexperts-sur-les-systemes-darmes-letales-autonomes (consulté le 22 juillet 2018).

[115] Déclaration du CICR, réunion du Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 11 avril 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/11April_ICRC.pdf, p. 1.

[116] Ibid.

[117] Ibid.

[118] Nobel Women’s Initiative, « Nobel Peace Laureates Call for Preemptive Ban on Killer Robots », 12 mai 2014, http://nobelwomensinitiative.org/nobel-peace-laureates-call-for-preemptive-ban-on-killer-robots/?ref=204 (consulté le 22 juillet 2018).

[119] Ibid.

[120] PAX, « Religious Leaders Call for a Ban on Killer Robots », 12 novembre 2014, https://www.paxforpeace.nl/stay-informed/news/religious-leaders-call-for-a-ban-on-killer-robots (consulté le 22 juillet 2018).

[121] Campagne contre les robots tueurs, « Who Supports the Call to Ban Killer Robots? », juin 2017, http://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_ListBanEndorsers_June2017-1.pdf (consulté le 22 juillet 2018), p. 1.

[122] PAX, « Religious Leaders Call for a Ban on Killer Robots ».

[123] Frank Sauer, International Committee for Robot Arms Control (ICRAC), « The Scientists’ Call … to Ban Autonomous Lethal Robots », 11 novembre 2012, https://www.icrac.net/the-scientists-call/ (consulté le 22 juillet 2018).

[124] Campagne contre les robots tueurs, « Scientists Call for a Ban », 16 octobre, 2013, https://www.stopkillerrobots.org/2013/10/scientists-call/ (consulté le 22 juillet 2018). Au travers des signataires, parmi lesquels de nombreux chercheurs universitaires, 37 pays différents sont représentés.

[125] « Computing Experts from 37 Countries Call for Ban on Killer Robots », communiqué de presse d’ICRAC, 15 octobre 2013, https://www.icrac.net/wp-content/uploads/2018/06/Scientist-Call_Press-Release.pdf (consulté le 22 juillet 2018), p. 1 ; ICRAC, « As Computer Scientists, Engineers, Artificial Intelligence Experts, Roboticists and Professionals from Related Disciplines, We Call for a Ban on the Development and Deployment of Weapon Systems in which the Decision to Apply Violent Force is Made Autonomously », juin 2018, https://www.icrac.net/wp-content/uploads/2018/06/List-of-Signatories-ICRAC-call.pdf (consulté le 22 juillet 2018).

[126] Les signataires sont notamment Elon Musk, fondateur et directeur de Tesla, Steve Wozniak, cofondateur d’Apple, Jaan Tallin, cofondateur de Skype, Stephen Hawking, Noam Chomsky, Demis Hassabis, dirigeant de DeepMind (et 21 de ses ingénieurs), Kathryn McElroy, responsable de la conception chez IBM Watson, Yann LeCun, responsable de la recherche en intelligence artificielle chez Facebook, Jack Dorsey, directeur de Twitter, Frank Wilczek, lauréat du prix Nobel de physique, Jean Jacques Blais, ancien ministre de la Défense du Canada, et de nombreux professeurs. Future of Life Institute, « Autonomous Weapons: An Open Letter from AI & Robotics Researchers ».

[127] Ibid.

[128] Ibid.

[129] Future of Life Institute, « Lethal Autonomous Weapons Pledge », https://futureoflife.org/lethal-autonomous-weapons-pledge/ (consulté le 30 juillet 2018).

[130] Ibid.

[131] Ariel Conn, « AI Companies, Researchers, Engineers, Scientists, Entrepreneurs, and Others Sign Pledge Promising Not to Develop Lethal Autonomous Weapons », communiqué de presse de Future of Life Institute, 18 juillet 2018, https://futureoflife.org/2018/07/18/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/ (consulté le 30 juillet 2018).

[132] Meghan Hennessy, « Clearpath Robotics Takes Stance Against “Killer Robots” », communiqué de presse de ClearPath Robotics, 13 août 2014, https://www.clearpathrobotics.com/2014/08/clearpath-takes-stance-against-killer-robots/ (consulté le 22 juillet 2018).

[133] Ibid.

[134] Ibid.

[135] Samuel Gibbs, « Elon Musk Leads 116 Experts Calling for Outright Ban of Killer Robots », Guardian, 20 août 2017, https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war (consulté le 22 juillet 2018).

[136] Future of Life Institute, « An Open Letter to the United Nations Convention on Certain Conventional Weapons », https://futureoflife.org/autonomous-weapons-open-letter-2017/ (consulté le 22 juillet 2018).

[137] Ibid.

[138] Barbara Booth, « “Autonomous Weapons are among the World’s Dumbest Ideas”‘: A.I. CEO », CNBC, 15 mars 2018, https://www.cnbc.com/2018/03/15/autonomous-weapons-are-among-the-worlds-dumbest-ideas-a-i-ceo.html (consulté le 22 juillet 2018).

[139] Parlement du Royaume-Uni, Comité des sciences et de la technologie, Enquête sur la robotique et l’intelligence artificielle, « Written Evidence Submitted by Google DeepMind, ROB0062 », mai 2016, http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/33005.html (consulté le 22 juillet 2018), para. 5.3.

[140] Ibid.

[141] Scott Shane et Daisuke Wakabayashi, « “The Business of War”: Google Employees Protest Work for the Pentagon », New York Times, 4 avril 2018, https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html?partner=IFTTT (consulté le 22 juillet 2018).

[142] ICRAC, « Open Letter in Support of Google Employees and Tech Workers » 25 juin 2018, https://www.icrac.net/open-letter-in-support-of-google-employees-and-tech-workers/ (consulté le 22 juillet 2018).

[143] Sunda Pichai, « AI at Google: Our Principles », https://www.blog.google/technology/ai/ai-principles/ (consulté le 30 juillet 2018). Parmi les autres ensembles d’orientations éthiques similaires qui visent à garantir des retombées positives et non préjudiciables de l’intelligence artificielle, citons « la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle », https://www.declarationmontreal-iaresponsable.com/, (consulté le 22 juillet 2018) ; Future of Life, « Asilomar AI Principles », 2017, https://futureoflife.org/ai-principles/ (consulté le 24 juillet 2018) (signés par 1 273 chercheurs en robotique et intelligence artificielle, et 2 541 autres personnes) ; George Dvorsky, « UK Government Proposes Five Basic Principles to Keep Humans Safe From AI », Gizmodo, 16 avril 2018, https://gizmodo.com/uk-government-proposes-five-basic-principles-to-keep-hu-1825290212 (consulté le 22 juillet 2018).

[144] « Norwegian Fund Considers Killer Robots », communiqué de presse de la coalition Campagne contre les robots tueurs, 19 mars 2016, https://www.stopkillerrobots.org/2016/03/norwayfund/ (consulté le 22 juillet 2018).

[145] « Ban on Killer Robots Gaining Ground », communiqué de presse de PAX, 16 avril 2018, https://www.paxforpeace.nl/stay-informed/news/ban-on-killer-robots-gaining-ground (consulté le 3 août 2018).

[146] Campagne contre les robots tueurs, « Country Views on Killer Robots », 13 avril 2018, https://www.stopkillerrobots.org/wp-content/uploads/2018/04/KRC_CountryViews_13Apr2018.pdf (consulté le 22 juillet 2018). Ces nations sont l’Algérie, l’Argentine, l’Autriche, la Bolivie, le Brésil, le Chili, la Chine (demande d’une interdiction d’utilisation uniquement), la Colombie, le Costa Rica, Cuba, Djibouti, l’Équateur, l’Egypte, l’État de Palestine, le Ghana, le Guatemala, l’Irak, le Mexique, le Nicaragua, l’Ouganda, le Pakistan, le Panama, le Pérou, le Saint Siège, le Venezuela et le Zimbabwe.

[147] Intervention du Venezuela au nom du Mouvement des non-alignés, Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 28 mars 2018.

[148] Voir, de manière générale, Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns, Robots létaux autonomes et protection de la vie.

[149] Ibid., par. 89.

[150] Ibid., para. 94.

[151] Ibid., par. 89, 100.

[152] Ibid., para. 113.

[153] Rapport conjoint du Rapporteur spécial sur le droit de réunion pacifique et la liberté d’association et du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires concernant la bonne gestion des rassemblements au Conseil des droits de l’homme des Nations Unies, A/HRC/31/66, 4 février 2016, https://www.refworld.org/cgi-bin/texis/vtx/rwmain/opendocpdf.pdf?reldoc=y&docid=575135ae4 (consulté le 6 août 2018), par. 67(f).

[154] Campagne contre les robots tueurs, « Chronology » https://www.stopkillerrobots.org/chronology/?lang=fr (consulté le 22 juillet 2018)

[155] Intervention de l’Equateur, Réunion des États parties à la Convention sur certaines armes classiques, Genève, 25 octobre 2013, http://www.reachingcriticalwill.org/images/documents/Disarmament-fora/1com/1com13/statements/29Oct_Ecuador.pdf (consulté le 22 juillet 2018), p. 2.

[156] Intervention de l’Indonésie, dialogue avec le Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Conseil des droits de l’homme des Nations Unies, 23e session, Genève, 30 mai 2013 http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Indonesia_09_30May2013.pdf, (consulté le 22 juillet 2018)

[157] Intervention de la Russie, dialogue avec le Rapporteur spécial, Conseil des droits de l’homme des Nations Unies, 23e session, Genève, 30 mai 2013, traduit en anglais sur le site web de la coalition Campagne contre les robots tueurs, « Report on Outreach on the UN Report on "Lethal Autonomous Robotics" », http://stopkillerrobots.org/wp-content/uploads/2013/03/KRC_ReportHeynsUN_Jul2013.pdf, (consulté le 22 juillet 2018), p. 19.

[158] Intervention du Pakistan, dialogue avec le Rapporteur spécial, Conseil des droits de l’homme des Nations Unies, 23e session, Genève, 30 mai 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Pakistan_09_30May2013.pdf (consulté le 22 juillet 2018), p. 2. Voir aussi Campagne contre les robots tueurs, « Chronology ».

[159] Intervention du Brésil, dialogue avec le Rapporteur spécial, Conseil des droits de l’homme des Nations Unies, 23e session, Genève, 30 mai 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Brazil_09_30May2013.pdf (consulté le 22 juillet 2018), p. 2.

[160] Concernant les préoccupations relatives à la sécurité, l’Indonésie a évoqué les conséquences potentielles de l’utilisation de ces armes sur la « stabilité et la sécurité internationales ». Intervention de l’Indonésie, dialogue avec le Rapporteur spécial, Conseil des droits de l’homme des Nations Unies, 23e session, Genève, 30 mai 2013. Le réseau latinoaméricain GRULAC a souligné que « ces systèmes pourraient entraîner une « normalisation des conflits » et conduire à une course à l’armement qui créerait des divisions entre États et affaiblirait le droit international ». Intervention de l’Argentine au nom du GRULAC, dialogue avec le Rapporteur spécial, Conseil des droits de l’homme des Nations Unies, 23e session, Genève, 30 mai 2013, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Argentina_09_30May2013.pdf (consulté le 22 juillet 2018), p. 2.

[161] Campagne contre les robots tueurs, « Nouvelles ».

[162] Ibid.

[163] Ibid.

[164] Intervention de l’Autriche, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 au 13 avril 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/AA0367088499C566C1258278004D54CD/$file/2018_LAWSGeneralExchang_Austria.pdf, (consulté le 22 juillet 2018), p. 1.

[165] Résumé de l’intervention du Brésil, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 13 mai 2014, in Campagne contre les robots tueurs, « Report on Activities:  CCW Informal Meeting of Experts on Lethal Autonomous Weapons Systems », 13-16 mai 2014, http://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_CCWreport_16Sep20141.pdf (consulté le 22 juillet 2018), p. 27.

[166] Résumé de l’intervention du Mexique, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 13 mai 2014, in Campagne contre les robots tueurs, « Report on Activities », p. 30.

[167] Résumé de l’intervention de la Russie, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 16 avril 2015, in Campagne contre les robots tueurs, « Report on Activities », p. 18.

[168] Intervention des États-Unis, Réunion informelle du Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 16 avril 2015, https://geneva.usmission.gov/2015/04/16/ccw-informal-meeting-of-experts-on-lethal-autonomous-weapons-systems-laws/ (consulté le 22 juillet 2018).

[169] Intervention du groupe Afrique, Groupe d’experts gouvernementaux de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 avril 2018.

[170] Ibid.

[171] Intervention du Saint Siège, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 avril 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Holy-See.pdf (consulté le 22 juillet 2018), p. 1.

[172] Intervention de la Grèce, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 avril 2018,

http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Greece.pdf (consulté le 22 juillet 2018), p. 2.

[173] Intervention du Pakistan, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 avril 2015, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw /2018/gge/statements/9April_Pakistan.pdf (consulté le 22 juillet 2018), p. 2.

[174] Intervention de l’Union européenne, Groupe d’experts de la Convention sur certaines armes classiques sur les systèmes d’armes létales autonomes, Genève, 9 avril 2018, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_EU.pdf (consulté le 22 juillet 2018), p. 2.

[175] Campagne contre les robots tueurs, « Parliamentary Actions », 10 juillet 2018, https://www.stopkillerrobots.org/2018/07/parliaments-2/ (consulté le 24 juillet 2018) ; Chambre des Représentants de Belgique, Proposition de Résolution visant à interdire l’utilisation, par la Défense belge, de robots tueurs et de drones armés, DOC 54 3201/001, 27 juin 2018, http://www.dekamer.be/FLWB/PDF/54/3203/54K3203001.pdf (consulté le 24 juillet 2018).

[176] « Recommandation du Parlement européen du 5 juillet 2018 à l’intention du Conseil sur la 73e session de l’Assemblée générale des Nations Unies », P8_TA-PROV(2018)0312, adoptée le 5 juillet 2018, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2018-0312+0+DOC+PDF+V0//FR (consulté le 24 juillet 2018), art. 1(av).

[177]  António Guterres, Secrétaire général des Nations Unies, Securing Our Common Future: An Agenda for Disarmament (New York : Bureau des affaires de désarmement des Nations Unies, 2018), https://front.un-arm.org/documents/SG+disarmament+agenda_1.pdf (consulté le 22 juillet 2018), p. 55.

[178] Future of Life Institute, « An Open Letter to the United Nations Convention on Certain Conventional Weapons ».

[179] Campagne contre les robots tueurs, « Country Views on Killer Robots ».

Région / Pays