(New York, le 28 avril 2025) – Les systèmes d’armes autonomes font peser un risque grave sur les droits humains en temps de paix tout comme en temps de guerre, affirme Human Rights Watch dans un rapport publié aujourd’hui. Les gouvernements devraient traiter les préoccupations soulevées par ces systèmes d’armes, connus sous le nom de « robots tueurs », en négociant un traité multinational pour répondre aux différents dangers.
Le rapport de 61 pages, intitulé « A Hazard to Human Rights: Autonomous Weapons Systems and Digital Decision-Making » (« Un danger pour les droits humains : Systèmes d’armes autonomes et processus décisionnels numériques » - résumé et recommandations en français), constate que les armes autonomes, conçues pour sélectionner des cibles et employer la force en se basant sur les données de capteurs plutôt que sur des décisions humaines, porteraient atteinte aux droits à la vie, à la liberté de réunion pacifique, à la vie privée et au recours ainsi qu’aux principes de dignité humaine et de non-discrimination. Les avancées technologiques et les investissements dans le secteur militaire favorisent actuellement le développement rapide de systèmes d’armes autonomes appelés à fonctionner sans contrôle humain significatif.
« L’utilisation des systèmes d’armes autonomes ne se limitera pas aux terrains de guerre ; elle s’étendra aux opérations de police, au contrôle des frontières et à d’autres situations, d’où de graves inquiétudes en matière de respect du droit international des droits humains », a déclaré Bonnie Docherty, conseillère senior auprès de la division Armes à Human Rights Watch, chargée de cours en droit à la Clinique internationale des droits humains (International Human Rights Clinic, IHRC) de la faculté de droit de Harvard et auteure principale du rapport. « Afin d’éviter qu’un jour les meurtres automatisés soient une réalité, les gouvernements devraient saisir toutes les occasions pour œuvrer à l’adoption d’un traité mondial sur les systèmes d’armes autonomes. »
Le rapport, copublié par Human Rights Watch et IHRC, a été rendu public à l’approche de la première réunion de l’Assemblée générale des Nations Unies sur les systèmes d’armes autonomes, qui se tiendra à New York les 12 et 13 mai 2025.
Les systèmes d’armes dotés d’un degré d’autonomie plus ou moins grand existent depuis des années, mais les types de cibles, la durée des opérations, la portée géographique et l’environnement dans lequel ils opèrent sont limités. Parmi eux figurent les systèmes de défense anti-missiles, les drones armés et les munitions rôdeuses.
Une fois activés, les systèmes d’armes autonomes opérant sans contrôle humain s’appuieraient sur des logiciels, utilisant souvent des algorithmes, des données provenant de capteurs tels que des caméras, des signatures radars et des formes thermiques, ainsi que d’autres données, pour identifier une cible. Une fois la cible identifiée, ils lanceraient ou libéreraient leur charge projectile sans nécessiter l’autorisation ou l’examen d’un opérateur humain. Cela signifie que c’est une machine et non un humain qui déterminerait où, quand et contre quoi une force est employée.
Les systèmes d’armes autonomes n’auraient pas la capacité d’interpréter des situations complexes et de se rapprocher avec précision des émotions et d’un jugement humains, essentiels pour un emploi légal de la force en vertu du droit à la vie et du droit à la liberté de réunion pacifique.
Contrairement aux principes fondamentaux des droits humains, les systèmes d’armes seraient incapables d’apprécier la vie humaine d’une manière qui respecte la dignité d’un individu. En outre, les systèmes qui s’appuient sur l’intelligence artificielle seraient fort probablement discriminatoires en raison des biais des développeurs et du manque inhérent de transparence de l’apprentissage automatique.
Les systèmes d’armes autonomes enfreindraient également les droits humains tout au long de leur durée de vie, et non pas seulement au moment de leur utilisation. La surveillance de masse requise pour leur développement et leur mise au point iraient à l’encontre du droit à la vie privée. Le manque de responsabilité inhérent à ces systèmes de « boîtes noires » porterait atteinte au droit à obtenir un recours pour les préjudices subis après une attaque.
« Les opérateurs humains, qu’il s’agisse de soldats ou d’officiers de police, portent souvent atteinte aux droits humains de manière flagrante, mais ce serait encore pire si des machines les remplaçaient », a ajouté Bonnie Docherty. « Si les humains sont en mesure de respecter les droits humains, les machines, elles, sont incapables de s’y conformer ou de comprendre les conséquences de leurs actions. »
Christof Heyns, le défunt Rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, a été le premier responsable de l’ONU à alerter sur les dangers des systèmes d’armes autonomes, dans son rapport de 2013 présenté devant le Conseil des droits de l’homme des Nations Unies. Le rapport « Un danger pour les droits humains » présente la manière dont le Secrétaire général des Nations Unies et de nombreux organes et experts de l’ONU soulignent les risques que l’utilisation des systèmes d’armes autonomes poserait pour le droit international des droits humains, certains d’entre eux préconisant une interdiction de ces systèmes.
Plus de 120 pays réclament aujourd’hui publiquement l’adoption d’un nouveau traité international sur les systèmes d’armes autonomes. Le Secrétaire général de l’ONU António Guterres et la Présidente du Comité international de la Croix-Rouge Mirjana Spoljaric ont exhorté les États à « agir dès maintenant pour préserver le contrôle humain sur l’emploi de la force », en engageant d’ici 2026 des négociations sur un instrument juridiquement contraignant visant à établir des interdictions et des limitations concernant les systèmes d’armes autonomes.
La plupart des défenseurs du projet de traité ont réclamé une interdiction des systèmes d’armes autonomes qui de par leur nature fonctionnent sans contrôle humain significatif ou des systèmes qui ciblent des personnes, et demandé des réglementations veillant à ce qu’aucun des autres systèmes d’armes autonomes ne puisse être utilisé sans contrôle humain significatif.
La prochaine réunion des Nations Unies a été mandatée par une résolution de l’Assemblée générale de l’ONU sur les systèmes d’armes létales autonomes adoptée le 2 décembre 2024 par 166 voix pour, 3 voix contre (Bélarus, Corée du Nord et Russie) et 15 abstentions.
Les pays débattent des systèmes d’armes létales autonomes dans le cadre des réunions de la Convention sur certaines armes conventionnelles (CCAC) à Genève depuis mai 2014, mais sans résultats concrets. La principale raison de ce manque de progrès au sein de la CCAC est que ses États membres s’appuient sur un système de décision par consensus, ce qui signifie qu’un seul pays peut rejeter une proposition, même si tous les autres pays y sont favorables. Une poignée de grandes puissances militaires qui investissent dans les systèmes d’armes autonomes ont exploité ce processus pour bloquer à maintes reprises les propositions visant à négocier un instrument juridiquement contraignant.
« Les négociations en vue d’un traité sur les systèmes d’armes autonomes devraient se dérouler dans le cadre d’un forum caractérisé par un objectif commun, un processus décisionnel basé sur le vote, un calendrier clair et ambitieux, et un engagement en faveur de l’inclusivité », a conclu Bonnie Docherty.
Human Rights Watch est l’un des cofondateurs de la campagne Stop Killer Robots (« Stopper les robots tueurs ») qui réclame l’instauration d’un nouveau traité international interdisant et réglementant les systèmes d’armes autonomes. Cette coalition de plus de 270 organisations non gouvernementales issues de 70 pays soutient l’élaboration de normes juridiques et autres pour veiller à un contrôle humain significatif sur l’emploi de la force, lutter contre la déshumanisation numérique et réduire les préjudices attribuables à des actions automatisées.