Aux États-Unis et dans le reste du monde, élus et autorités locales devraient envisager de s’inspirer d’une proposition de loi innovante qui interdirait à la police d’armer les robots utilisés dans le cadre de ses opérations de maintien de l’ordre.
Le projet de loi, présenté le 18 mars par Ben Kallos et Vanessa Gibson, membres du conseil municipal de New York, interdirait « au Département de police de la ville de New York (NYPD) de recourir ou de menacer de recourir à des robots armés, ou d’utiliser des robots d’une manière susceptible de causer la mort ou des blessures corporelles graves. »
Ce texte a été élaboré à la suite d’un tollé sur les réseaux sociaux concernant l’utilisation d’un robot terrestre non armé de 32 kg construit par Boston Dynamics dans le cadre d’une opération de police menée le mois dernier dans le Bronx. La représentante de ce district au sein du Congrès, Alexandria Ocasio-Cortez, a critiqué son déploiement « à titre d’essai au sein de communautés de couleur à faible revenu où les écoles sont insuffisamment financées », suggérant que la ville devrait plutôt investir dans l’éducation.
Dans une déclaration publiée dans Wired et d’autres médias, le PDG de Boston Dynamics, Robert Playter, a déclaré que les robots conçus par sa compagnie « n’atteindront de viabilité commerciale à long terme que si les gens les considèrent comme utiles et bénéfiques sans se soucier de leur dangerosité éventuelle ». Playter a également déclaré que sa société interdisait à ses clients de munir ses robots d’armes. Les conditions de service de Boston Dynamics exigent des acheteurs de son robot terrestre – qui n’est pas armé – qu’ils ne l’utilisent pas intentionnellement « pour nuire ou intimider un être humain ou un animal, comme arme ou pour activer une arme quelconque ». D’autres compagnies technologiques telles que Paravision, Skydio et Clearpath Robotics ont adopté des mesures similaires.
Ces exigences contractuelles sont un début, mais des lois sont nécessaires pour garantir que les forces de police n’ignorent pas ces dangers alors qu’elles développent l’utilisation de l’intelligence artificielle et des technologies émergentes. Les engagements à ne pas militariser les robots ne constituent pas des garanties contre un avenir de déshumanisation numérique et de mise à mort automatisée.
Les systèmes d’armes létales autonomes (SALA), ou robot tueurs, doivent être interdits en toutes circonstances, y compris dans le cadre des conflits armés, de l’application des lois et du contrôle aux frontières, comme l’ont préconisé Human Rights Watch et d’autres organisations membres de la Campagne contre les robots tueurs.
Permettre aux machines de sélectionner et d’attaquer des humains sans contrôle humain significatif marquerait le franchissement d’une ligne rouge d’un point de vue éthique. Seules de nouvelles lois permettront une règlementation viable face aux graves défis éthiques, juridiques, opérationnels et autres soulevés par l’élimination du contrôle humain dans le recours à la force.
-----------------------