Das im Jahr 2010 vorgestellte britische „Taranis“-Kampfflugzeug wurde für Luftangriffe auf weit entfernte Ziele, „sogar auf anderen Kontinenten“, entwickelt. Taranis ist beispielhaft für den Trend zu immer autonomer funktionierendem Kriegsgerät.

© 2010 AP Photo

(Washington, DC) – Regierungen weltweit sollen vollständig autonome Waffensysteme aufgrund ihres Gefährdungspotentials für Zivilisten in bewaffneten Konflikten schon heute verbieten, so Human Rights Watch. Künftige Waffensysteme („Killerroboter“) können ohne menschlichen Eingriff Ziele auswählen und angreifen.

Der 50-seitige Bericht „Losing Humanity: The Case Against Killer Robots“ untersucht die Problematik autonomer Waffensysteme, denen die menschlichen Eigenschaften fehlen, anhand derer rechtliche und andere Schutzmaßnahmen gegen die Tötung von Zivilisten getroffen werden können. Zudem untergraben sie die abschreckende Wirkung von Gesetzen, da es schwierig ist, die Verantwortlichen für Schäden durch solche Waffen zur Rechenschaft zu ziehen.

„Es geht eindeutig zu weit, Maschinen auf dem Schlachtfeld über Leben und Tod entscheiden zu lassen“, so Steve Goose, Leiter der Abteilung Waffen bei Human Rights Watch. „Eine menschliche Kontrolle von Robotern als Kriegsgerät ist entscheidend, um den Tod von Zivilisten und Verletzte zu verhindern.“

Der Bericht ist die erste umfangreiche Studie einer Nichtregierungsorganisation über autonome Waffen und stützt sich auf umfangreiche Recherchen über die Rechtslage, Technologie und Ethik im Zusammenhang mit den neuartigen Waffen. Es handelt sich dabei um eine gemeinsame Veröffentlichung von Human Rights Watch und der Harvard Law School International Human Rights Clinic.

Human Rights Watch und die International Human Rights Clinic fordern einen internationalen Vertrag, der Entwicklung, Produktion und Einsatz von vollautonomen Waffen unter allen Umständen verbietet. Einzelne Staaten wurden aufgerufen, entsprechende Richtlinien und Gesetze auch auf nationler Ebene zu verabschieden.

Vollautonome Waffen existieren zwar noch nicht und Länder wie die USA haben noch nicht über ihre Einführung entschieden. Doch viele hochtechnologisierte Armeen entwickeln oder besitzen bereits Vorläufersysteme, die den Trend zu größerer Autonomie von Maschinen auf dem Schlachtfeld verdeutlichen. Die USA sind bei dieser technologischen Entwicklung führend. Einige andere Länder wie China, Deutschland, Israel, Südkorea und Großbritannien sind ebenfalls beteiligt. Viele Experten rechnen mit der Einführung vollständig autonomer Waffen in 20 bis 30 Jahren; manche erwarten dies sogar schon früher.

„Es ist wichtig, die Entwicklung von Killerrobotern aufzuhalten, bevor sie Einzug in die nationalen Arsenale halten“, so Goose. „Je mehr Staaten in diese Technologien investiert haben, desto schwere wird es, dass sie diese wieder aufgeben.“

Vollautonome Waffen entsprechen nicht den Anforderungen des humanitären Völkerrechts, so Human Rights Watch und die Harvard Clinic. Sie sind nicht in der Lage, im Gefecht angemessen zwischen Soldaten und Zivilisten zu unterscheiden. Ferner fehlt ihnen das notwendige menschliche Urteilsvermögen, um die Verhältnismäßigkeit eines Angriffs zu bewerten – also ob wegen ziviler Schäden ein militärischer Angriff ausgeschlossen wird.

Kampfroboter untergraben auch informelle Schutzmechanismen gegen die Tötung von Zivilisten. Vollautonome Waffen können kein Mitgefühl für ihre Opfer entwickeln und etwa von Autokraten problemlos gegen das eigene Volk eingesetzt werden. Wenn Soldaten durch Maschinen ersetzt werden, können zwar Menschenleben in den Reihen des Militärs gerettet werden. Doch sie machen es auch einfacher, Kriege zu beginnen, bei denen Zivilisten die Hauptleidtragenden sind.

Der Einsatz vollautonomer Waffen schafft zudem eine Lücke darin, wer zur Verantwortung gezogen werden kann. Den Kommandeur, Programmierer oder Hersteller für die Taten eines Roboters strafrechtlich zu belangen, wäre mit erheblichen Schwierigkeiten verbunden. Dieser Mangel an Rechenschaftspflicht würde sowohl die Abschreckung vor Völkerrechtsverletzungen als auch eine wirksame Rechtshilfe für Opfer erschweren.

Die meisten Armeen behaupten, bewaffnete Roboter würden auch in Zukunft einem Mindestmaß an menschlicher Kontrolle unterstehen. Doch bleibt die Wirksamkeit einer solchen Kontrolle fragwürdig, insbesondere da sich die Militärs weiter die Möglichkeit vollständig autonomer Systeme für die Zukunft offen halten.

„Es muss jetzt gehandelt werden, bevor Kampfroboter die Grenze zwischen Science-Fiction und Realität überschreiten“, so Goose.