1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Die Moral des Kampfroboters

Chase Winter
14. November 2017

Werden in der modernen Kriegsführung schon bald Maschinen statt Menschen Entscheidungen treffen? Der Einsatz von autonomen Kampfrobotern wirft rechtliche und moralische Fragen auf.

Bildergalerie Künstliche Intelligenz
Bild: AFP/Getty Images/K. Dong-Joo

Die Vereinten Nationen haben mit Gesprächen über autonome Kampfroboter begonnen, die mit dem Ziel eingesetzt werden, zu töten. Diese Lethal Autonomous Weapon Systems (LAWS) könnten die Art und Weise der modernen Kriegsführung völlig verändern. Schon werden Rufe nach einem internationalen Verbot solcher Tötungsroboter laut.

Mehr als 100 Experten für künstliche Intelligenz warnten bereits im August in einem Brief, dass LAWS eine "dritte Revolution der Kriegsführung" auslösen könnten. Sie würden ein größeres Ausmaß an bewaffneten Konflikten ermöglichen und das in einer Geschwindigkeit, die für Menschen kaum verständlich sei, schreiben die Unterzeichner des Briefes. "Die tödliche Konsequenz daraus ist, dass Maschinen – nicht Menschen – über Leben und Tod entscheiden."

Was genau sind LAWS?

Darüber gibt es international keinen Konsens. Oft werden LAWS als Systeme beschrieben, die alleine ohne menschliche Kontrolle zielen und feuern können. Im Wesentlichen handelt es sich um Maschinen, die unabhängig von Menschen funktionieren, sobald sie eingeschaltet werden. Sie funktionieren auf der Basis künstlicher Intelligenz – Algorithmen erkennen eine Situation und bestimmen die entsprechende Reaktion.

"Viele unterschätzen, wie stark Kriegsführung heutzutage automatisiert und durch Computer gesteuert ist", sagt Michael Horowitz, Politologe an der Universität von Pennsylvania, der über autonome Kriegsführung forscht.

Gibt es LAWS bereits heute?

Strenggenommen noch nicht. Israels Anti-Radar-Drohne "IAI Harpy NG" – Spitzname "Feuern und Vergessen" - kommt der Definition eines LAWS am nächsten. Nachdem sie von Bodentruppen gestartet wurde, fliegt sie autonom über ein Gebiet, findet dort nach vorher festgelegten Kriterien Radargeräte und zerstört sie durch einem Kamikazeangriff.

Die israelische Drohne Harop, auch Harpy genannt, erkennt und zerstört feindliche RadarstationenBild: Getty Images/AFP/E. Piermont

Südkorea hat eine Schießanlage entwickelt, mit der die Grenze zu Nordkorea bewacht wird. Teil des Systems sind Überwachungs- und Verfolgungssensoren sowie automatisches Feuern. Es kann autonom operieren, auch wenn derzeit ein Mensch das System starten muss.

Erst der Anfang

Hinter der Kampagne für ein Verbot von Tötungsrobotern stehen verschiedene nichtstaatliche Organisationen. Sensoren und künstliche Intelligenz machten es "zunehmend möglich", dass diese Systeme in Zukunft ohne menschlichen Eingriff zielen und angreifen würden, warnt die Gruppe. "Wenn dieser Trend Richtung Autonomie weitergeht, besteht die Gefahr, dass Menschen langsam ihren Einfluss verlieren, zunächst noch mit einer begrenzten Aufsichtsrolle, dann mit gar keiner Funktion mehr."

In einigen Fällen, etwa bei bereits existierenden Marschflugkörpern, Sensoren und Lenksystemen, können autonome Funktionen im Vergleich zu konventionelleren Angriffen zu gezielteren Attacken und weniger unbeabsichtigten Tötungen führen.

Für die Waffenexperten und Unterzeichner des Briefes im August geht es jedoch um moralische Fragen, die die Entwicklung von LAWS aus bereits heute bestehenden halbautonomen Waffensystemen aufwerfen.

Fehlerhafte LAWS etwa könnten auf einem komplexen Schlachtfeld fatale Dinge tun, etwa Zivilisten angreifen oder die eigenen Truppen. Die Möglichkeit von Fehlern ohne oder nur mit begrenzter Beteiligung von Menschen wirft Fragen zum Kriegsrecht und zur Militärpolitik sowie zur Frage auf, wer die Verantwortung trägt.

In den Händen von Unrechtsregimen ohne solche Bedenken könnten LAWS auch gegen die eigene Bevölkerung eingesetzt werden. Und in den Händen von Terroristen oder anderen nichtstaatlichen Akteuren könnten Tötungsroboter verheerende Zerstörungen anrichten.

Hollywood-Filme haben die Sorgen vor künstlicher Intelligenz auf dem Schlachtfeld vorweggenommenBild: picture-alliance/dpa/M. S. Gordon/2015 Paramount Pictures

Waffenkontrolle

Nicht jeder glaubt, dass technische Fortschritte bei autonomen Waffensystemen die menschliche Funktion in der Kriegsführung schmälern wird. Der pensionierte amerikanische Oberst Brian Hall ist Analyst für autonome Waffensysteme beim US-Generalstab. Im Juli schrieb er, der Vorteil autonomer Waffensysteme bestehe im "Vergrößern und nicht im Ersetzen der menschlichen Entscheidungsfähigkeit".

Viele Länder, darunter die USA, Russland, China und Israel, forschen und entwickeln LAWS aus der Sorge heraus, die Gegner sähen sich nicht an humanitäre, moralische oder rechtliche Beschränkungen gebunden. Das könnte in den nächsten Jahren zu einer potentiellen Aufrüstungsspirale im Bereich Tötungsroboter führen.

Oder wie Russlands Präsident Wladimir Putin es im Semptember ausdrückte: Wer immer bei künstlicher Intelligenz in Zukunft führend sein werde, "wird der Herrscher der Welt werden". Unsicherheit, was ein automomes Waffensystem ist, verkompliziert die Diskussion. Es ist unwahrscheinlich, dass Staaten einer Regelung oder einem Verbot zustimmen, wenn sie nicht einmal wissen, was darunter zu verstehen ist.

Den nächsten Abschnitt Mehr zum Thema überspringen