Genf Uno debattiert über Verbot von Killerrobotern

Genf / Jan Dirk Herbermann 30.08.2018
Autonome Waffensysteme können in naher Zukunft eigene Entscheidungen über Leben und Tod treffen. Das wirft Fragen auf.

Schon bald könnten Tötungsroboter die Kriegsführung in unheimlicher Weise revolutionieren. Experten wie die Abrüstungschefin der Vereinten Nationen, Izumi Nakamitsu, warnen: „Es besteht die reale Gefahr, dass die technologische Innovation der zivilen Kontrolle entgleitet.“ Der Missbrauch der künstlichen Intelligenz habe „potenziell katastrophale Konsequenzen“.  Angesichts dieser Gefahren feilscht eine UN-Konferenz in Genf, weitreichende Ergebnisse werden jedoch nicht erwartet.

Was sind Killerroboter?

Die Vereinten Nationen und das Internationale Komitee vom Roten Kreuz umschreiben die neue Generation der Kriegsgeräte so: „Tödliche autonome Waffensysteme“ können Ziele ohne menschliches Zutun identifizieren, angreifen und eliminieren. Die Fortschritte auf dem Feld der künstlichen Intelligenz (KI) und der Algorithmen bilden die Basis. Die Apparate sind an bestimmten Stellen fest verankert, zum Beispiel auf Kriegsschiffen, entlang Grenzen, zum Schutz militärischer oder ziviler Einrichtungen.

Die Maschinen können ebenso mobil sein, nach den Konzepten der Militärs bewegen sie sich auf Rädern, Panzerketten,  auf künstlichen Beinen. Mobile Systeme setzen sich selbst in Marsch oder sie werden in Marsch gesetzt. Der Marschbefehl stammt im Extremfall von anderen Robotern. Einen Grenzfall stellen Drohnen dar, unbemannte Fluggeräte, die zunehmend auf Schlachtfeldern und bei der Bekämpfung von Terroristen zum Einsatz kommen. Solange Angehörige der Streitkräfte die Drohnen steuern und einen Beschuss der Ziele auslösen, handelt es sich nicht um Killerroboter. Sobald Drohnen autonom agieren, schon.

Wer ist wie weit?

Rüstungsexperten der Menschenrechtsorganisation Human Rights Watch gehen davon aus, dass die USA, Großbritannien, China, Israel, Russland und Südkorea Waffensysteme entwickeln, „die in zunehmenden Maße autonom sind“. Südkorea lässt schon seit Jahren die Grenze zu Nordkorea von autonomen Waffensystemen bewachen. Der Elektrokonzern Samsung ist bei der Entwicklung der Apparate federführend. Fachleute bescheinigen deutschen Unternehmen das Können, um in Zusammenarbeit mit der Bundeswehr Killerroboter zu entwickeln.

Welche Staaten wollen ein Verbot? Wer bremst?

Die „Campaign to Stop Killer Robots“ zählt 26 Staaten, die sich innerhalb der Uno für ein Verbot einsetzen. Darunter sind Österreich und Belgien. Die Aktivisten bezichtigen Deutschland, zu den Bremsern zu gehören. „Deutschland will zusammen mit Frankreich durch unverbindliche politische Erklärungen autonome Waffen regulieren. Sie haben gleichzeitig ein hohes Interesse an künstlicher Intelligenz und an Waffen mit autonomen Fähigkeiten, dafür setzen sie umfassende finanzielle Ressourcen ein“, kritisiert Thomas Küchenmeister von der Kampagne. Die Bundesregierung widerspricht. „Ziel der Bundesregierung ist die weltweite Ächtung vollautonomer Waffensysteme“, heißt es aus dem Auswärtigen Amt. Eine stufenweise Initiative solle letztlich zu einem Verbot der Apparate führen. Klar gegen eine Ächtung positionieren sich die USA, Großbritannien, Russland und Israel.

Welche politischen und juristischen Probleme gibt es?

Ein Bericht des UN-Menschenrechtsrates warnte schon im Jahr 2013: Roboter könnten bewaffnete Konflikte zu Endloskriegen ausarten lassen. Im Extremfall könnten die Militärs die Kontrolle über die Waffensysteme verlieren, und eine politisch-diplomatische Lösung bewaffneter Auseinandersetzungen rücke dann immer weiter in die Ferne. Anders ausgedrückt: Die Politik verliert ihr Primat. Zudem scheren sich Roboter nicht um das Völkerrecht und die Menschenrechte. Als besonders brisant dürfte sich eine strafrechtliche Verfolgung von Kriegsverbrechen erweisen, die autonom von Waffensystemen verübt werden. Wer soll für die Taten zur Rechenschaft gezogen werden?

Welche ethischen Probleme gibt es?

Roboter stoßen die Tür zu einer Kriegsführung auf, die immer inhumaner wird. Ethische Grundsätze, die Unterscheidung zwischen Gut und Böse, die Abschätzung der Folgen bestimmter Aktionen, die Übernahme von Verantwortung für das eigene Tun, das alles verschwindet. Aktivist Thomas Küchenmeister von der Kampagne zum Verbot der Killerroboter betont: „Maschinen dürfen nicht entscheiden, ob sie Menschen töten oder nicht.“ Und was passiert, so fragt Küchenmeister, wenn autonome Waffen in die Hände von Terroristen und Diktatoren fallen?

Das könnte dich auch interessieren

Kampfhund der Zukunft

Er ist kein autonomes Waffensystem, aber ein Schritt dorthin: „Spot Mini“ des US-Herstellers Boston Dynamics orientiert sich selbstständig, besitzt mit vier Beinen die Flexibilität eines Hundes und kann mit dem Greifer Türen öffnen und Gegenstände bewegen – die Bewaffnung dürfte nur eine Frage der Zeit sein. cf

Zurück zur Startseite Zum nächsten Artikel