Skip to main content
Faire un don

La dangereuse dérive de l'armée américaine vers des armes capables de tuer de manière autonome

Les gouvernements devraient agir d’urgence pour renforcer les dispositifs de sécurité liés à l’IA, afin de mieux protéger les civils

Vue aérienne du Pentagone, siège du département de la Défense américain à Washington, photographié le 2 février 2026.  © 2026 Julia Demaree Nikhinson/ via AP Photo

Le 27 février, le département de la Défense des États-Unis a annoncé son rejet des « lignes rouges » éthiques fixées par la société d'intelligence artificielle Anthropic pour l'utilisation de ses outils d’IA à des fins militaires ; cette décision montre clairement que le Pentagone est peu disposé à mettre en place des garde-fous efficaces quant au développement de ses armes. Dans le cadre de son contrat prévu avec le département de la Défense, Anthropic avait refusé d’accorder au Pentagone l’autorisation d’intégrer ses produits dans des armes entièrement autonomes, ou de les utiliser dans des outils de surveillance de masse des citoyens américains.

Les gouvernements réunis cette semaine à Genève, au siège européen des Nations Unies, lors de discussions sur les systèmes d’armes autonomes dans le cadre de la Convention sur les armes classiques (CCAC), devraient exprimer leur opposition à cette décision dangereuse du Pentagone.

Des divergences de points de vue sur la définition de l'« IA responsable » dans le domaine militaire figurent au cœur du différend entre Anthropic et le Pentagone. Anthropic a indiqué avoir fixé une ligne rouge portant sur les systèmes d'armes entièrement autonomes, qui seraient capables de sélectionner et d’attaquer des cibles sans intervention humaine.

Toutefois, un mémorandum publié en janvier par le département de la Défense (appelé « Département de la guerre » par l’administration Trump) au sujet de l'IA militaire a apparemment supprimé une précédente condition exigeant que les opérateurs de systèmes d'armes autonomes puissent exercer « un niveau approprié de jugement humain portant sur l'usage de la force ». Ce mémorandum donne la priorité à l'adoption accélérée de l'IA afin de parvenir à la « domination militaire américaine en matière d'IA », ce qui enfreindrait de telles normes.

Le 27 février, le secrétaire à la Défense Pete Hegseth a ordonné qu'Anthropic soit désignée comme une entreprise constituant un « risque [pour la sécurité nationale] dans la chaîne d'approvisionnement » (« supply-chain risk to national security »). Peu après, Pete Hegseth a signé un contrat avec Open AI, concurrent d'Anthropic ; Open AI a accepté que ses produits soient utilisés à « toute fin légale » (« all lawful purposes »), conformément à une nouvelle exigence du gouvernement américain.

Human Rights Watch a décrit a maintes reprises dans le passé comment les systèmes d'armes autonomes risquent de mettre les civils en grave danger, compte tenu de leur difficulté à faire la distinction entre les civils et les combattants lors de conflits armés, ou à être déployées dans des environnements complexes et dynamiques tels que les manifestations. Parmi d’autres problèmes, ces armes sont incapables de comprendre les indices subtils reflétant des intentions humaines.

En raison du caractère opaque et imprévisible de telles armes, il serait difficile de tenir leurs opérateurs ou fabricants responsables d’actions menées, à titre individuel. De plus, les biais intégrés dans certains algorithmes utilisés par ces systèmes risquent de causer des préjudices disproportionnés aux personnes racisées, aux femmes et aux personnes handicapées, entre autres.

Pour empêcher les États-Unis d'entraîner le monde dans une spirale dangereuse et irréversible, les gouvernements participant à la conférence sur la convention CCAC cette semaine devraient saisir l’occasion de soutenir et de renforcer le projet de traité visant à interdire et à réglementer les systèmes d'armes autonomes.

…………….

Your tax deductible gift can help stop human rights violations and save lives around the world.

Région/Pays