The next generation of weapons in military arsenals could be "killer robots," machines that would select and destroy specific targets without further human intervention. But if a robot broke the law, who would be held responsible? Would the programmer, manufacturer, military commander, or robot end up in court?

(Genf) - Programmierer, Hersteller und Militärs können sich ihrer Verantwortung entziehen, wenn vollständig autonome Waffen oder „Killer-Roboter“ Menschen widerrechtlich töten oder verletzen, so Human Rights Watch in einem heute veröffentlichten Bericht. Dieser erscheint im Vorfeld eines multilateralen Treffens über diese Waffen bei den Vereinten Nationen (UN) in Genf.

Der 38-seitige Bericht „Mind the Gap: The Lack of Accountability for Killer Robots“ zeigt, dass gravierende straf- und zivilrechtliche Hürden dabei bestehen, Individuen für die Handlungen vollständig autonomer Waffen zur Verantwortung zu ziehen. Darüber hinaus stellt er die Folgen dieser rechtlichen Verantwortlichkeitslücke dar. Der Bericht wird von Human Rights Watch und der International Human Rights Clinic der Havard Law School gemeinsam veröffentlicht.

„Keine Verantwortlichkeit bedeutet keine Abschreckung von zukünftigen Verbrechen, keine Entschädigung der Opfer, keine soziale Ächtung der Täter“, so Bonnie Docherty, Expertin für Waffen bei Human Rights Watch und federführende Autorin des Berichts. „Unzählige Hürden versperren den Opfern den Weg zu Gerechtigkeit. Wir müssen vollständig autonome Waffen dringend verbieten.“

Vollständig autonome Waffen gehen einen Schritt weiter als ferngesteuerte Drohnen, denn sie können ohne menschliche Kontrolle Ziele auswählen und angreifen. Zwar existieren sie noch nicht, aber die Technik entwickelt sich rasant in diese Richtung und weckt international Aufmerksamkeit und Besorgnis.

Human Rights Watch hat die Kampagne zum Verbot von „Killer-Robotern“ mitbegründet und koordiniert diese. Die internationale Koalition besteht aus mehr als 50 Nichtregierungsorganisationen und fordert ein präventives Verbot der Entwicklung, Produktion und Nutzung vollständig autonomer Waffen.

Der Bericht wird den Teilnehmern eines hochrangigen internationalen Treffens zum Thema „tödliche autonome Waffensysteme“ zur Verfügung gestellt, das vom 13. bis zum 17. April 2015 bei der UN in Genf stattfindet. Teilnehmen werden viele der 120 Vertragsstaaten der UN-Waffenkonvention. Das Treffen setzt einen Beratungsprozess fort, der mit einem ersten Experten-Treffen im Mai 2014 initiiert wurde.

Die Entscheidung, sich innerhalb des Forums der UN-Waffenkonvention mit vollständig autonomen Waffen zu befassen, könnte den ersten Schritt zu deren völkerrechtlichem Verbot darstellen. Bereits im Jahr 1995 wurde ein präventives Verbot von Blendlaser-Waffen in die UN-Waffenkonvention aufgenommen.

Vollständig autonome Waffen sind insbesondere deshalb problematisch, weil sie leicht zivile Todesfälle verursachen und damit das humanitäre Völkerrecht sowie internationale Menschenrechtsnormen verletzen können. Fehlende menschliche Kontrolle charakterisiert diese Waffen und erschwert massiv, Individuen für widerrechtliche Handlungen strafrechtlich zur Verantwortung zu ziehen.

Militärangehörige können verurteilt werden, wenn sie eine vollständig autonome Waffe mit dem Vorsatz einsetzen, ein Verbrechen zu begehen. Allerdings können sie kaum dafür verantwortlich gemacht werden, dass sie einen rechtswidrigen Angriff eines autonomen Roboters nicht vorhergesehen oder nicht abgewendet haben - was der alltäglichere Fall sein dürfte.

„Eine vollständig autonome Waffe könnte Handlungen ausführen, die Kriegsverbrechen darstellen, wenn sie von einem Menschen begangen werden - und niemand würde dafür zur Verantwortung gezogen werden“, sagt Docherty, die auch an der Havard Law School Clinic lehrt. „Solche Vorfälle als ‚Unfälle‘ oder ‚Funktionsstörungen‘ zu bezeichnen, würde ihre tödlichen Folgen trivialisieren.“

Auch im Zivilrecht bestehen gravierende Hürden hinsichtlich der Verantwortlichkeit. In den USA ist es buchstäblich unmöglich, eine Person für die Handlungen eines Roboters haftbar zu machen. Das liegt zum einen daran, dass das Militär und seine Subunternehmer rechtliche Immunität genießen, zum anderen an der schwierigen Beweisführung in Produkthaftungsverfahren. Viele andere Länder haben ähnliche Systeme staatlicher Immunität.

Selbst eine erfolgreiche Zivilklage kann Verantwortlichkeiten nur begrenzt aufdecken. Denn sie zielt primär darauf ab, ein Opfer zu entschädigen, nicht darauf, einen Täter zu bestrafen. Monetäre Wiedergutmachungen können den Betroffenen helfen, aber sie ersetzen nicht strafrechtliche Maßnahmen, die abschreckend wirken, ausgleichende Gerechtigkeit herstellen und die Verantwortlichen moralisch stigmatisieren.

Ein System, in dem die Opfer entschädigt werden können, ohne dass die rechtliche Schuld festgestellt wird, stellt keine bedeutungsvolle Rechenschaftspflicht her. Viele Regierungen würden zögern, derartige Verfahren anzuwenden.

Die Verantwortlichkeitslücke ist nur eine von zahlrechen Bedenken gegenüber vollständig autonomen Waffen. Human Rights Watch hat in anderen Berichten dargestellt, wie schwierig es ist, diese Waffen mit dem humanitären Völkerrecht und den internationalen Menschenrechtsstandards in Einklang zu bringen. Darüber hinaus ist besorgniserregend, dass diese Technologie zu einem Wettrüsten beitragen und sich schnell ausbreiten könnte. Auch steht die Frage im Raum, inwieweit es ethisch vertretbar ist, dass Maschinen auf dem Schlachtfeld über Leben und Tod entscheiden.

„Die mangelnde Verantwortlichkeit kommt zu den anderen rechtlichen, ethischen und technologischen Bedenken gegenüber vollständig autonomen Waffen hinzu und unterstreicht, dass sie präventiv verboten werden müssen“, so Docherty.