(Genf) – Grundsätze der Menschlichkeit und das öffentliche Gewissen erfordern ein Verbot vollständig autonomer Waffen, so Human Rights Watch in einem heute veröffentlichten Bericht. Die Staaten, die sich am kommenden Treffen zu den so genannten „Killer-Robotern“ beteiligen, sollen sich darauf verständigen, Verhandlungen über ein Verbot der Entwicklung, Produktion und Nutzung solcher Waffensysteme aufzunehmen.
A Moral and Legal Imperative to Ban Killer Robots
Der 46-seitige Bericht „Heed the Call: A Moral and Legal Imperative to Ban Killer Robots“ kommt zu dem Ergebnis, dass vollständig autonome Waffen gegen die Martens’sche Klausel verstoßen. Nach diesem wichtigen völkerrechtlichen Grundsatz müssen neue Technologien anhand der „Grundprinzipien der Menschlichkeit“ und der „Erfordernisse des Gewissens“ bewertet werden, wenn sie noch nicht durch geschriebenes Recht reguliert sind.
„Die Entwicklung und Nutzung von Killer-Robotern zuzulassen, würde etablierte moralische und rechtliche Standards unterminieren“, so Bonnie Docherty, Waffenexpertin bei Human Rights Watch, Koordinator der Kampagne zum Verbot von Killer-Robotern. „Die Staaten sollen zusammenarbeiten und diese Waffensysteme präventiv verbieten, bevor sie weltweit verbreitet werden.“
Das Verbot von Laser-Blendwaffen aus dem Jahr 1995, das wesentlich auf einer Bewertung dieser Waffen unter der Martens’schen Klausel beruht, kann als Vorbild für ein Verbot von vollständig autonomen Waffen dienen, die schon bald eine Realität sein könnten.
Der Bericht wird gemeinsam mit der International Human Rights Clinic der Harvard Law School veröffentlicht, an der Docherty als stellvertretende Direktorin des Arbeitsbereichs „Bewaffneter Konflikt und Schutz der Zivilbevölkerung“ tätig ist.
Vom 27. bis zum 31. August 2018 treffen sich mehr als 70 Regierungen bei den Vereinten Nationen (UN) in Genf zum sechsten Mal seit 2014, um über die Herausforderungen zu beraten, die mit vollständig autonomen Waffensystemen bzw. tödlichen autonomen Waffensystemen einhergehen. Die Gespräche unter der UN-Waffenkonvention, einem zentralen Abrüstungsvertrag, wurden im Jahr 2017 formalisiert, allerdings ohne spezifisches Ziel.
Human Rights Watch und die Kampagne zum Verbot von Killer-Robotern rufen die Mitgliedstaaten der Konvention dazu auf, im Jahr 2019 Verhandlungen über einen neuen Vertrag aufzunehmen, der festschreibt, dass Waffensysteme und die Anwendung von Gewalt maßgeblich von Menschen kontrolliert werden müssen. Hingegen wählen und bekämpfen vollständig autonome Waffen ihre Ziele ohne bedeutende menschliche Kontrolle.
Bis heute unterstützen 26 Staaten ausdrücklich ein Verbot vollständig autonomer Waffen. Tausende Wissenschaftler und Experten für künstliche Intelligenz, mehr als 20 Träger des Friedensnobelpreises, über 160 führende Geistliche und unterschiedlichste Organisationen fordern ebenfalls ein Verbot. Im Juni veröffentlichte Google eine Reihe ethischer Grundsätze, darunter die Zusage, keine künstliche Intelligenz für Waffen zu entwickeln.
Bei den Treffen zur Überprüfung der UN-Waffenkonvention haben sich fast alle Staaten dafür ausgesprochen, ein gewisses Maß an menschlicher Kontrolle über die Anwendung von Gewalt beizubehalten. Aus diesem sich abzeichnenden Konsens folgt, dass Waffen ohne diese Kontrolle verboten werden müssen. Er reflektiert die breite Opposition gegen vollständig autonome Waffen.
Human Rights Watch und die Harvard Clinic haben untersucht, ob vollständig autonome Waffen mit den Kernelementen der Martens’schen Klausel vereinbar sind. Die Klausel, die in den Genfer Abkommen enthalten ist und in mehreren Abrüstungsverträgen zitiert wird, kommt zur Anwendung, wenn ein Thema nicht im geschriebenen internationalen Recht geregelt ist. Sie legt moralische Grundsätze fest, um neue Waffen zu bewerten.
Der Bericht kommt zu dem Ergebnis, dass vollständig autonome Waffen gegen die Grundsätze der Menschlichkeit verstoßen würden, weil sie nicht in der Lage wären, auf der Grundlage von Mitgefühl oder einer differenzierten rechtlichen und ethischen Abwägung über die Anwendung tödlicher Gewalt zu entschieden. Weil ihnen diese menschlichen Fähigkeiten fehlen, wäre es mit diesen Waffen außerordentlich schwierig, die humane Behandlung anderer und den Respekt vor Menschenleben und -würde zu gewährleisten.
Vollständig autonome Waffen widersprechen auch den Forderungen des öffentlichen Gewissens. Regierungen, Experten und die breite Öffentlichkeit haben es breit verurteilt, die menschliche Kontrolle über die Anwendung von Gewalt aufzugeben.
Teilmaßnahmen wie Regulierungen oder politische Erklärungen ohne rechtskräftiges Verbot wären nicht ausreichend, um die zahlreichen Gefahren auszuschalten, die von vollständig autonomen Waffen ausgehen. Diese verstoßen nicht nur gegen die Martens’sche Klausel, sondern werfen andere rechtliche, verantwortungs- und sicherheitstechnische sowie technologische Probleme auf.
In früheren Veröffentlichungen haben Human Rights Watch und die Harvard Clinic untersucht, inwiefern vollständig autonome Waffen die Einhaltung des humanitären Völkerrechts und internationaler Menschenrechtsstandards erschweren, die Verantwortlichkeitslücke analysiert, die entsteht, wenn solche Waffen widerrechtliche Schäden verursachen, und auf Kritiker eines präventiven Verbots geantwortet.
Die 26 Länder, die ein Verbot fordern, sind Algerien, Argentinien, Ägypten, Bolivien, Brasilien, Chile, China (nur Nutzung), Costa Rica, Dschibuti, Ecuador, Ghana, Guatemala, der Heilige Stuhl, Irak, Kolumbien, Kuba, Mexiko, Nicaragua, Österreich, Pakistan, Panama, Peru, der Staat Palästina, Simbabwe, Uganda und Venezuela.
Die Kampagne zum Verbot von Killer-Robotern, die seit dem Jahr 2013 aktiv ist, ist ein Zusammenschluss von 75 Nichtregierungsorganisationen aus 32 Ländern. Sie setzt sich dafür ein, die Entwicklung, Produktion und Nutzung vollständig autonomer Waffen präventiv zu verbieten. Docherty wird den Bericht bei einem Briefing der Kampagne für die Teilnehmer am Treffen zur UN-Waffenkonvention vorstellen, das am 28. August bei den Vereinten Nationen in Genf stattfindet.
„Der zunehmende Widerstand unter Wissenschaftlern, Geistlichen, Technologieunternehmen, Nichtregierungsorganisationen und in der Bevölkerung zeigt, dass die Öffentlichkeit versteht, dass Killer-Roboter eine moralische Grenze überschreiten”, sagt Docherty. „Ihre Sorgen, die viele Regierungen teilen, verdienen eine unverzügliche Antwort.“