Pas besoin d'être un expert pour comprendre le problème que représente les « robots tueurs ». L’existence de machines qui décident qui vit et qui meurt, potentiellement grâce à un algorithme, est en soi terrifiante.
Nous pensons souvent à ces systèmes d'armes automatisés uniquement dans un contexte de guerre et à la manière dont ils pourraient être utilisés au front. Cependant, leur utilisation en temps de paix constitue aussi une menace majeure.
C'est un sujet sur lequel les auteurs de science-fiction nous mettent en garde depuis des décennies.
Par exemple, Ray Bradbury, dans son classique dystopique des années 1950, Fahrenheit 451, décrit une horreur appelée « le chien mécanique ». Il s'agit d'une machine à huit pattes ressemblant à une araignée, dotée de puissants récepteurs sensoriels et d'une longue aiguille remplie d'un anesthésiant dans son museau. Elle est utilisée par la police pour traquer, voire tuer, les humains, en particulier les dissidents, et une fois lâchée, elle agit de manière autonome.
À l'époque, il s'agissait de science-fiction, mais aujourd'hui, trois quarts de siècle plus tard, toute la technologie nécessaire semble exister pour construire une telle créature. Ainsi, étant donné qu'il y a toujours des gouvernements répressifs à la recherche de nouveaux moyens d'imposer leur volonté et des entreprises technologiques désireuses d'en tirer profit, les « chiens dystopiques » pourraient bien être à nos portes. (voir aussi : épisode « Metalhead » de la série Black Mirror)
En effet, le futur, c'est maintenant, comme l'explique un nouveau rapport de Human Rights Watch et de la Clinique internationale des droits humains de la faculté de droit de Harvard. Les progrès technologiques et les investissements militaires stimulent aujourd'hui le développement rapide de « robots tueurs », qui font peser de multiples menaces sur les droits humains, notamment sur le droit à la vie.
Il s'agit de systèmes d'armes autonomes, fonctionnant sans contrôle humain significatif.
Une fois activés, ils s'appuieraient sur des logiciels, utilisant souvent des algorithmes, des données provenant de capteurs tels que des caméras, des signatures radar et des formes thermiques, ainsi que d'autres données, pour identifier une cible. Après avoir trouvé une cible, ils tireraient ou largueraient leur charge sans l'approbation ou la vérification d'un humain.
Cela signifie qu'une machine plutôt qu'un être humain déterminerait où, quand et contre quoi la force serait utilisée.
Le chien mécanique au museau pointu de Bradbury n'est qu'un exemple parmi les mille potentielles horreurs.
Bradbury avait expliqué clairement pourquoi il écrivait de la science-fiction : « Les gens me demandent de prédire l'avenir, alors que tout ce que je veux, c'est l'empêcher. Mieux encore, le construire. »
Et la bonne nouvelle, c'est que certains gouvernements cherchent justement à faire cela : construire un avenir différent.
Le mois prochain se tiendra la toute première réunion de l'Assemblée générale des Nations unies sur les systèmes d'armes autonomes. Elle fait suite aux efforts des militants de la campagne Stop Killer Robots et à l'appel lancé par plus de 120 pays en faveur de l'adoption d'un nouveau traité international sur les systèmes d'armes autonomes.
Certes, obtenir l'accord des pays du monde entier sur quoi que ce soit de nos jours peut s'apparenter à un véritable casse-tête. Mais la menace de ces chiens dystopiques est une motivation puissante.