1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Listicle: Kampfmaschinen ohne Kontrolle?

Nina Werkhäuser
27. August 2018

Die Gefahren durch nicht mehr von Menschenhand gesteuerte Waffen stehen ab diesem Montag im Mittelpunkt von UN-Verhandlungen in Genf. Zahlreiche Staaten wollen "Killer-Roboter" verbieten. Hier die wichtigsten Fakten.

USA Kampfdrohne X-47B
Bild: Getty Images

Um welche Waffen geht es? 

Die offizielle Bezeichnung lautet "Letale (= tödliche) Autonome Waffensysteme", auf Englisch: "Lethal Autonomous Weapon Systems", kurz LAWS. Häufig ist von Kampfrobotern die Rede, es können aber auch Drohnen, unbemannte U-Boote oder Fahrzeuge sein. Kritiker sprechen meist von Killer-Robotern.

Was genau ist damit gemeint?

Eine allgemeingültige Definition für solche Waffensysteme gibt es nicht. Das Internationale Komitee vom Roten Kreuz (IKRK) beschreibt sie als Waffen, die Ziele selbständig, also ohne menschliches Eingreifen, auswählen und angreifen.

Gibt es diese Waffen schon?

Vollständig autonome Waffensysteme, die tödliche Gewalt gegen Menschen ausüben, gibt es noch nicht. Aufgrund rasanter Fortschritte auf dem Gebiet der künstlichen Intelligenz und der Robotik ist ihre Entwicklung aber nur eine Frage der Zeit.

Was sind die Vorläufer?

Schon jetzt gibt es viele Waffen mit autonomen Funktionen. So können heute schon Raketen ihre Ziele selbständig identifizieren, auswählen und angreifen. Unbemannte U-Boote suchen eigenständig nach Minen. Drohnen sind bereits in der Lage, sich in Schwärmen zu vernetzen und bestimmte Aufgaben selbständig auszuführen.

Was wäre ein denkbares Szenario beim Einsatz von LAWS?

Einem Kampfroboter werden die biometrischen Daten einer "Zielperson" eingespeist, die dieser dann selbständig aufsucht und tötet - ganz ohne Fernsteuerung per Radar oder Satellit, wie sie etwa bei unbemannten Drohnen üblich ist. Tödliche autonome Waffensysteme lenken sich selbst und bedürfen keines Feuerbefehls durch einen Soldaten. Niemand weiß, wann sie zuschlagen werden. 

Mittels künstlicher Intelligenz können Drohnen zu autonom agierenden Waffen umgebaut werden Bild: Imago/AFLO/R. R. Marin

Warum halten Experten das für einen Paradigmenwechsel in der Kriegsführung?

Weil die Entscheidung über Leben und Tod nicht von einem Menschen getroffen werden, sondern von einer Maschine. Daran ändert auch die Tatsache nichts, dass Menschen diese Waffe zuvor gebaut und programmiert haben.

Warum stehen autonome Waffen in Konflikt mit dem Humanitären Völkerrecht?

Eine der wichtigsten Regeln besagt, dass bei Angriffen eindeutig zwischen Kombattanten und Zivilisten unterschieden werden muss (Unterscheidungsgebot). Zivilisten und zivile Objekte sind möglichst zu verschonen. Autonome Waffensysteme können das nicht leisten. Völkerrechtler fordern daher, dass immer ein Mensch die letzte Kontrolle über einen Angriff haben muss ("Man in the loop"). 

Wo und wie wird über diese Fragen international verhandelt?

Seit 2014 finden bei den Vereinten Nationen in Genf Gespräche statt, und zwar im Rahmen des Abkommens für konventionelle Waffen (Convention on Certain Conventional Weapons, kurz CCW). Mehr als 70 Staaten, aber auch Wissenschaftler und Nichtregierungsorganisationen nehmen daran teil. 

Wie laufen die Verhandlungen?

Schleppend, da die Positionen weit auseinander liegen. Die größten Militärmächte der Welt sind gegen ein Verbot dieser Waffen, mit denen sie ihre Vormachtstellung absichern wollen. Eine Einigung ist nicht in Sicht.  

Welche Haltung hat Deutschland?

Im Koalitionsvertrag von CDU/CSU und SPD heißt es: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten." Dessen ungeachtet hat Deutschland sich nicht jenen Ländern angeschlossen, die bei der UN in Genf ein verbindliches Verbot autonomer Waffensysteme fordern. Vielmehr wirbt die Bundesregierung für eine unverbindliche politische Erklärung als Vorstufe zu einem Verbotsvertrag. 

 

Den nächsten Abschnitt Mehr zum Thema überspringen