1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Sollen Killer-Roboter verboten werden?

Nina Werkhäuser
27. August 2018

Im Krieg der Zukunft könnten Maschinen über Leben und Tod entscheiden - ohne menschliche Kontrolle. Denn die Entwicklung autonomer Waffen schreitet rasant voran. Bei den UN in Genf wird erneut über ein Verbot verhandelt.

Roboter Method II
Bild: picture-alliance/NurPhoto/Seung-il Ryu

Mit lautem Sirren rasen Minidrohnen durch einen Hörsaal und fallen gezielt über bestimmte Studenten her, die sie mit Schüssen in die Stirn töten. Zu sehen ist die Szene in einem fiktiven Film, den Gegner von autonomen Waffen auf dem Videoportal YouTube verbreiten. Die Drohnen, kleiner als ein Handteller, identifizieren ihre Opfer mithilfe von Algorithmen. Haben sie ihr Ziel einmal angepeilt, gibt es kein Entrinnen mehr. Ihre Daten beziehen die Minidrohnen, die sich in Schwärmen vernetzen, aus den sozialen Netzwerken. Sie töten nur Menschen, die, so die fiktive Geschichte, ein kritisches Video geteilt haben. 

Alles nur Science Fiction?

Der aufrüttelnde Kurzfilm mit dem Titel "Slaughterbots" wurde seit seiner Veröffentlichung im November 2017 mehr als zweieinhalb Millionen Mal angeklickt. Alles nur Science Fiction, die Wahnvorstellung ängstlicher Mitmenschen? Keinesfalls, meint Thomas Küchenmeister, der sich für ein Verbot von autonomen Waffen einsetzt: "Der Schritt dahin ist ein ganz kleiner."

Küchenmeister ist Vorstand von "Facing Finance", einer deutschen Mitgliedsorganisation der internationalen Kampagne "Stop Killer Robots". Er sieht sich oft auf Waffenmessen um und spricht mit den Herstellern. Waffen, die bis zu einem bestimmten Grad autonom agieren, gehören heute schon zum Standardangebot. Zum Beispiel Raketen, die selbständig nach möglichen Zielen suchen und am Ende selbst entscheiden, welches sie zerstören. Grundsätzlich werden sie noch von Menschen bedient, aber für den konkreten Angriff gibt kein Soldat mehr den Feuerbefehl, oft kann er ihn nicht einmal mehr stoppen.

Im Konflikt mit dem Völkerrecht 

Küchenmeister findet das "höchst problematisch", denn: "Die saubere Unterscheidung zwischen militärischen und zivilen Fahrzeugen kann eine solche Waffe gar nicht vornehmen." Das aber schreibt das Humanitäre Völkerrecht vor. Die Unterscheidung zwischen Kombattanten und Zivilisten ist eine der wichtigsten Regeln des "Ius in bello", des im Krieg geltenden Völkerrechts. Es verpflichtet die kriegsführenden Parteien zum größtmöglichen Schutz von Zivilisten und zivilen Gebäuden.

In diesem Geist definiert das Internationale Komitee vom Roten Kreuz (IKRK) autonome Waffensysteme als solche, die ihre Ziele selbständig suchen, auswählen und angreifen oder zerstören können. Selbständig heißt: Ohne menschliches Eingreifen. Genau hier liegt das Problem: Was, wenn eine solche Rakete bei ihrer selbständigen Zielauswahl nicht nur gegnerische Geschosse unschädlich macht, sondern auch Zivilisten tötet? "Wir können diesen Waffen ja keinen Völkerrechts-Chip einpflanzen", mahnt Thomas Küchenmeister.

Das unbemannte Flugzeug "Taranis" der britischen Rüstungsschmiede BAE Systems verfügt über autonome FunktionenBild: picture-alliance/AP Photo/BAE Systems

KI in der Rüstungsindustrie

Dass der Grad an Autonomie in Waffensystemen immer größer wird, liegt an den rasanten Fortschritten im Bereich der künstlichen Intelligenz (KI) und der Robotik. Inzwischen sind Maschinen lernfähig, sie verarbeiten Erfahrungen mittels künstlicher neuronale Netze ähnlich wie ein menschliches Gehirn. Die Rüstungsindustrie macht sich das zunutze: Waffen werden dadurch schneller und effizienter, während gleichzeitig die Gefahr für die Soldaten sinkt. Das ist genau das, was Armeen wollen. Die Grenzen aber sind fließend: Mag ein Roboter, der selbständig Minen sucht, erkennt und entschärft noch weithin akzeptiert sein, so ist ein Roboter, der selbständig bestimmte Menschen sucht, erkennt und erschießt, ein klarer Fall für das Völkerrecht.

Verhandlungen unter Zeitdruck

Wie aber findet das Völkerrecht Anwendung auf diese neuen Waffen? Darüber streitet die Staatengemeinschaft seit 2014 am Sitz der Vereinten Nationen in Genf. Sie tut dies im Rahmen des UN-Waffenabkommens CCW, der "Convention on Certain Conventional Weapons". Aus den zunächst informellen Gesprächen wurden 2017 offizielle Verhandlungen, an denen mehr als 70 Staaten teilnehmen, aber auch Wissenschaftler und Nichtregierungsorganisationen.

Gegenstand der Gespräche vom 27. bis zum 31. August sind tödliche autonome Waffensysteme (Englisch: "Lethal Autonomous Weapon Systems", kurz LAWS). Das könnten etwa Roboter sein, die auf dem Schlachtfeld gegeneinander kämpfen. Auch die Killerdrohnen aus dem Video sind solche Waffen, die es bisher noch nicht gibt, aber in naher Zukunft geben wird.

Viel Zeit bleibt also nicht, doch die Verhandlungen treten auf der Stelle. Die Staatengemeinschaft spaltet sich, vereinfacht gesagt, in drei Lager: In die Gegner und Befürworter eines verbindlichen Verbots von autonomen Waffen und in Länder, die zunächst einen Mittelweg einschlagen wollen wie Deutschland und Frankreich.

Gefüttert mit künstlicher Intelligenz können Drohnen zur gefährlichen Waffe werden - auch für Terroristen Bild: Imago/ITAR-TASS

"Der beherrscht die Welt"

Gegen ein Verbot argumentieren Länder, die viel Geld in die militärische Nutzung der künstlichen Intelligenz investieren, zum Beispiel die USA, Israel, Russland oder Großbritannien. Wer bei der künstlichen Intelligenz führend sei, der beherrsche die Welt, sagte sinngemäß der russische Präsident Wladimir Putin vor Schülern im September 2017. Ihn treibt die Sorge um, dass die USA oder China auf diesem Gebiet eine Vormachtstellung gewinnen könnten. Die Fortschritte im Bereich der künstlichen Intelligenz befeuern längst ein Wettrüsten um die "klügsten" autonomen Waffen. 

Die US-Regierung, die den Verteidigungshaushalt derzeit massiv aufstockt, stellte autonome Waffen während der letzten Genfer Verhandlungsrunde im April sogar in einem positiven Licht dar: Sie trügen dazu bei, in einem Krieg zivile Opfer und "Kollateralschäden" zu vermeiden. Werde ein Soldat leicht von der großen Menge an Informationen auf dem Schlachtfeld überwältigt, behalte ein Computer den Überblick und mache weniger Fehler. Die US-Delegation warnte ausdrücklich vor einer Stigmatisierung dieser Waffen.

Für ein Verbot

Bisher fordern 26 Staaten ein verbindliches Verbot von autonomen Waffen und bekommen dafür viel Beifall aus der Zivilgesellschaft. Mehr als 230 Organisationen und 3000 Einzelpersonen haben eine Petition gegen autonome Waffen unterzeichnet, die das amerikanische "Future of Life"-Institut initiiert hat. Darunter sind führende Forscher und Unternehmer im Bereich der Künstlichen Intelligenz, etwa Tesla-Chef Elon Musk oder "Google Deep Mind". Sie verpflichten sich, die Entwicklung tödlicher autonomer Waffensysteme nicht zu unterstützen und fordern "strenge internationale Normen und Gesetze" zu deren Verbot. Niemals dürfe die Entscheidung, einen Menschen zu töten, an eine Maschine delegiert werden.

Seit 2013 fordert die internationale Kampagne "Stop Killer Robots" einen Bann von tödlichen autonomen WaffenBild: Getty Images/AFP/C. Court

Deutschland: Ja, aber nicht sofort

Auch die Bundesregierung bekennt sich im Koalitionsvertrag zu einer "weltweiten Ächtung" autonomer Waffen. Bei den Verhandlungen in Genf direkt auf ein Verbot zuzusteuern, hält sie aber für taktisch falsch - dazu lägen die Meinungen zu weit auseinander. 

Gemeinsam mit Frankreich verfolgt Deutschland daher einen Mittelweg: Als ersten Schritt schlägt die Bundesregierung eine politische Erklärung vor, der später ein militärischer Verhaltenskodex folgen soll und erst im letzten Schritt ein Verbotsvertrag. In diesem mehrstufigen Ansatz sehen deutsche Diplomaten eine Chance, die großen Gegensätze zu überbrücken. Einer unverbindlichen politischen Erklärung, so die Hoffnung, werden sich auch die Gegner eines Verbots anschließen. Seien erst einmal gewisse Standards gesetzt, erleichtere das die nächsten Schritte hin zu einem völkerrechtlich bindenden Verbot.

Diese Meinung teilen die Aktivisten der Kampagne "Stop Killer Robots" nicht. Sie fordern, dass Deutschland als großes und wichtiges europäisches Land eine Vorreiterrolle spielen und für ein sofortiges Verbot eintreten solle. Weitere Staaten würden dann mitziehen, mutmaßt Thomas Küchenmeister. "Wenn die Bundesregierung die Ächtung dieser Waffen will, dann soll sie es zeigen - das hieße, Verantwortung zu übernehmen."

In Europa haben sich bisher Österreich und Belgien für ein Verbot von autonomen Waffen ausgesprochen Bild: imago/ITAR-TASS

Immenser Zeitdruck

In einem sind sich Diplomaten und Aktivisten aber einig: Die Zeit drängt. So sieht es auch der renommierte US-amerikanische Informatiker Stuart Russell, der seit 35 Jahren im Bereich der künstlichen Intelligenz forscht. Er hatte die Idee zum Film "Slaughterbots". Noch könne ein solches Szenario verhindert werden, warnt Russell, "aber das Zeitfenster schließt sich schnell". Schon jetzt experimentieren einige Armeen mit Drohnenschwärmen, andere entwickeln Abwehrwaffen dagegen, auch die Bundeswehr. Sollten die Gespräche in Genf keine Fortschritte bringen, dann werde der Druck der Zivilgesellschaft wachsen, prophezeit Küchenmeister. Ein Verbotsvertrag könnte dann außerhalb der UN entstehen, ähnlich wie beim Kampf gegen Landminen. Die internationale Kampagne dagegen erhielt 1997 den Friedensnobelpreis.

Den nächsten Abschnitt Mehr zum Thema überspringen

Mehr zum Thema

Weitere Beiträge anzeigen