Update: 22.12.2015

Wichtige Argumente gegen Killer-Roboter

Gute oder böse Maschine - um diese Frage kreist die Debatte über autonome Waffensysteme oder Killer-Roboter. Ermöglichen sie einen gerechteren Krieg? Oder wird mit ihnen die letzte Menschlichkeit auf Kriegsschauplätzen verloren gehen? Die Experten/-innen aus den verschiedenen Fachgebieten sind sich nicht einig. Gesucht wird derzeit insbesondere der rechtliche Rahmen, in dem Entwicklung und Einsatz von Tötungsmaschinen möglich sein sollen. Menschenrechtsorganisationen treten dezidiert für ein komplettes Verbot ein. Die zehn wichtigsten Gründe für diese Massnahme führt Amnesty International  in einem Argumentarium auf.

Was sind Killer-Roboter?

Als Killer-Roboter werden sogenannte letale autonome Waffensysteme (LAWS) bezeichnet. Letal, weil sie tödlich sind, autonom, weil sie ab einem bestimmten Zeitpunkt eigenständig Entscheide treffen und ohne menschliche Befehle handeln. Das können beispielsweise Kampfdrohnen sein, die Ziele und Bewegungen eigenständig aufspüren und angreifen, oder Selbstschusssysteme, die auf Bewegungen reagieren. Mit den ständigen technologischen Neuerungen nehmen auch die Handlungsspielräume und Einsatzmöglichkeiten dieser Maschinen zu.

Argumente für ein Verbot

Amnesty International fordert ein weltweites Verbot von LAWS. Das Argumentarium hält fest, zwar sei es erklärtes Ziel der Entwicklung von Kampf-Maschinen, das Risiko und die Gefahr für menschliche Soldaten/-innen bei Einsätzen zu minimieren. Doch damit werde automatisch auch die Hürde für einen Angriff oder gar einen Kriegseintritt gesenkt: Wenn man keine (eigenen) Menschenleben aufs Spiel setzen muss, ist der politische Widerstand gegen militärische Einsätze geringer und ausserdem schwieriger zu begründen.

Weiter führt Amnesty die ungeklärte Frage der Verantwortlichkeit und Rechenschaftspflicht für die Handlungen von Killer-Robotern als Grund auf, warum diese zu verbieten seien. Ist die Person verantwortlich, die den Roboter programmiert hat oder diejenigen, die ihn eingesetzt haben? Oder genauer: Sind die verantwortlichen Offiziere oder die Politiker/innen bei Schaden zu belangen?

Nicht mit Völkerrecht und internationalen Standards vereinbar

Die Erfahrung mit ferngelenkten Kampfdrohnen zeige, wie schwierig festzustellen sei, wer für den Tod von Unschuldigen verantwortlich gemacht werden kann. Regierungen weigerten sich bei Drohneneinsätzen, die rechtlichen Grundlagen für ihre Angriffe darzulegen, was Untersuchungen schliesslich verunmögliche. Amnesty hält fest, dass der Einsatz von Killerrobotern deshalb unweigerlich zu einer Zunahme von widerrechtlichen Tötungen führen würde, dies nicht nur in Kriegsgebieten, sondern auch bei Polizeieinsätzen.

Die Einsätze von Tötungs-Maschinen seien weder mit dem humanitären Völkerrecht noch mit internationalen Polizeistandards zu vereinbaren. Denn letztere würden vorsehen, dass der Griff zur Waffe verboten sei, ausser zur Notwehr.  Zudem darf bei Polizeieinsätzen die angewendete Gewalt das nötige Minimum nicht überschreiten. Amnesty International vertritt die Ansicht, es sei unmöglich, dass eine Maschine in einer solchen Situation die menschliche Urteilsfähigkeit ersetzen könne.

Offener Brief für ein absolutes Verbot

Amnesty International ist überzeugt, dass der Wettbewerb um die Entwicklung von Killer-Robotern zu einem neuen Wettrüsten führt. Dies könnte sich zu einer Gefahr für die gesamte Menschheit entwickeln, ähnlich wie beim atomaren Wettrüsten während des Kalten Krieges. Auch könnten Killer-Roboter in die Hände von Unrechtsstaaten und Terroristen gelangen.

Nicht zuletzt ist der Einsatz von Killer-Robotern gemäss Amnesty International eine moralische Frage. Werde der Entscheid über Leben und Tod eines Menschen einem Roboter überlassen, komme dies einem Angriff auf die Menschenwürde gleich. Das heisst: Eine grundlegende moralische Linie würde überschritten. Das Grundproblem liege darin, dass Maschinen nicht moralisch urteilen könnten, kein Mitleid und keine Mitmenschlichkeit empfinden könnten.  

Aufgrund dieser zahlreichen Bedenken rund um Entwicklung und Anwendung von LAWS haben sich auch zahlreiche Experten/-innen gegen diese ausgesprochen. In einem offenen Brief, den über 2‘500 Persönlichkeiten unterschrieben haben (darunter etwa die Chefs von Google und Tesla sowie einige Mitbegründer von Apple und Skype), fordern sie ein absolutes Verbot von Killer-Robotern.      

Argumente gegen ein Verbot

Selbstverständlich gibt es auch Vertreter/innen der IT-Branche, die sich gegen ein Verbot aussprechen. Sie hoffen, dass die Killermaschinen, sofern sie «richtig programmiert» sind, beispielsweise die Genfer Konventionen besser einhalten könnten als Menschen. Denn die Gefühle von Kämpfern/-innen seien oft eine bedeutende Schwäche. Überlebenstrieb, Hass, Rache und Angst seien oft mitverantwortlich, dass  rechtliche und moralische Vorgaben nicht eingehalten würden.

Der Einsatz von Kampf-Robotern könnte demnach die Zahl ziviler Opfer senken. Die Erforschung der Kampf-Roboter sei ein «moralischer Imperativ», argumentiert etwa Professor Ronald Arkin vom Georgia Institute of Technology. Schliesslich habe die Erforschung und Entwicklung dieser Roboter nicht zur Folge, dass sie uneingeschränkt zum Einsatz kämen. Sinnvoll könnte demnach der Einsatz in folgender Kriegssituation sein: Ein Soldat, der in ein dunkles Haus eindringt, würde womöglich bei der kleinsten Bewegung eine wehrlose Familie erschiessen; demgegenüber, so die Hoffnung, würde eine Maschine in aller Ruhe die wirkliche Gefahr einschätzen und nicht auf Wehrlose schiessen.

Gespräche ohne grosse Ambitionen

Doch bei Menschenrechtsorganisationen finden solche Argumente kein Gehör. Nicht zuletzt wegen der Erfahrung mit den Drohneneinsätzen, bei denen nach aktuellsten Erkenntnissen ein Grossteil der Opfer Zivilisten sind (siehe hierzu unseren Artikel).

Das Thema Killer-Roboter ist seit 2013 im Fokus der internationalen Gemeinschaft. In Genf fanden im Rahmen der UNO-Waffenkonvention bereits mehrere Treffen statt, die die Regulierung und ein allfälliges Verbot von LAWS zum Thema hatten. Für April 2016 ist die nächste Gesprächsrunde geplant. Die Campaign to Stop Killer Robots, eine Koalition aus internationalen NGOs gegen Killer-Roboter, dokumentiert die Diskussionsrunden der UNO und kritisiert, dass kaum Fortschritte erzielt würden, weil die Verhandlungen «zu langsam seien und keine Ambitionen hätten.»

Dokumentation

© humanrights.ch / MERS - Hallerstr. 23 - CH-3012 Bern - Tel. +41 31 302 01 61