1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Technik

Deutschland warnt vor KI-Wettrüsten

7. Juni 2021

Schneller, smarter, effizienter: Die Welt tritt in eine neue Ära der Kriegsführung ein, in der Künstliche Intelligenz eine zentrale Rolle spielt. Doch ohne ausreichende Kontrolle könnte KI zur Gefahr werden.

Deutschland warnt: KI-Wettrüsten bereits im Gange
"Kamikaze-Drohnen" en masse - für viele eine alptraumhafte VorstellungBild: DW

Ein Wettrüsten hinsichtlich Künstlicher Intelligenz (KI) ist bereits in vollem Gange. Das ist die unverblümte Warnung von Bundesaußenminister Heiko Maas. "Wir sind schon mittendrin“, sagt er in der neuen DW-Dokumentation "Future Wars - and How to Prevent Them". "Das ist die Realität, mit der wir es zu tun haben."

Eine Realität, die im Zentrum des Kampfes um die Weltherrschaft steht. "Das ist ein Wettlauf, der sich quer durch den militärischen und den zivilen Bereich zieht", erklärt Amandeep Singh Gill, ehemaliger Vorsitzender der UN-Expertengruppe für autonome Waffensysteme.

Großmächte mischen mit

Auch ein aktueller Bericht der US-amerikanischen Sicherheitskommission für Künstliche Intelligenz zeigt, wie wichtig das Thema für Regierungen auf der ganzen Welt ist. Darin ist von einem "neuen Paradigma der Kriegsführung" die Rede, bei dem "Algorithmen gegen Algorithmen" antreten. Es wird zu massiven Investitionen aufgerufen, "um stets innovativer als potenzielle Gegner zu sein".

Chinas jüngster Fünfjahresplan stellt KI in den Mittelpunkt von Forschung und Entwicklung, während die Volksbefreiungsarmee sich für eine Zukunft der, wie sie selbst sagt, "intelligenzbasierten Kriegsführung" rüstet.

Und Russlands Präsident Wladimir Putin sagte bereits 2017: "Wer immer in diesem Bereich die Oberhand hat, wird zum Herrscher der Welt werden." Doch es sind nicht nur die Großmächte, die mitmischen. Weiter unten in der Hackordnung der Macht ist diese neue Ära eine im Kampf erprobte Realität.

Wendepunkt Berg-Karabach

Ende 2020, während die Welt von der Corona-Pandemie weitgehend vereinnahmt war, weiteten sich die schwelenden Spannungen zwischen Aserbaidschan und Armenien zu einem Krieg aus.

Es sah aus wie ein regionaler Konflikt aus dem Lehrbuch: Die beiden Länder kämpften um die Region Berg-Karabach. Aber für diejenigen, die aufmerksam waren, war dies ein Wendepunkt in der Kriegsführung.

Ein armenischer Soldat im Oktober 2020 inmitten von Ruinen in Berg-KarabachBild: Iliya Pitalev/Sputnik/dpa/picture alliance

"Der wirklich wichtige Aspekt bei dem Konflikt in Berg-Karabach war meines Erachtens der Einsatz von "Loitering Munition", sogenannten 'Kamikaze-Drohnen'", erläutert Ulrike Franke, Expertin für Drohnenkriegsführung am "European Council on Foreign Relations".

Bomben, die am Himmel kreisen

Fortgeschrittene Modelle von Loitering Munition sind in einem hohen Maß zu Autonomie fähig. Nach dem Start fliegen sie zu einem definierten Gebiet, wo sie herumkreisen und nach Zielen - typischerweise Luftverteidigungssysteme - Ausschau halten.

Sobald sie ein Ziel entdeckt haben, fliegen sie in dieses hinein und zerstören es beim Aufprall mit einer an Bord befindlichen Sprengladung. Daher auch der Spitzname "Kamikaze-Drohnen".

"Diese Waffen wurden auch schon vorher auf die ein oder andere Weise eingesetzt, aber dieses Mal erreichte es eine andere Dimension", erklärt Franke. "Es wurde sichtbar, wie schwierig es ist, gegen diese Systeme anzukommen."

Untersuchungen des "Center for Strategic and International Studies" in Washington, D.C. haben ergeben, dass Aserbaidschans Loitering Munition deutlich überlegen war - mit über 200 Einheiten in vier hochentwickelten israelischen Designs. Armenien verfügte dagegen nur über ein einziges einheimisches Modell.

Sogenannte "Loitering Munition" mit einem hohen Maß an Autonomie ist bereits im EinsatzBild: DW

Andere Militärs haben das aufmerksam beobachtet. "Seit dem Berg-Karabach-Konflikt gab es ein vermehrtes Interesse an diesen Waffensystemen", so Franke. "Wir stellen fest, dass mehr Streitkräfte auf der ganzen Welt Loitering Munition erwerben oder erwerben wollen."

Gefahr durch Drohnenschwärme?

Dies ist nur der Anfang. In Zukunft werden KI-gesteuerte Technologien als Schwärme in den militärischen Einsatz kommen - viele Drohnen agieren dann gemeinsam als tödliches Ganzes.

"Man könnte auf diese Weise zum Beispiel ein Luftverteidigungssystem ausschalten. Durch die schiere Menge und Masse der Drohnen wäre das System überwältigt", sagt Martijn Rasser von der Denkfabrik "Center for a New American Security". Deshalb ist es für ihn nicht überraschend, "dass eine Menge Länder daran interessiert sind".

Große Zahlen miteinander interagierender Drohnen lassen militärische Zusammenstöße vorstellbar werden, die so schnell und komplex sind, dass Menschen ihnen nicht folgen können. Das heizt die Dynamik des Wettrüstens weiter an.

Wie Ulrike Franke glaubt, "könnte es sein, dass einige Drohnen ein gewisses Maß an Autonomie annehmen müssen, zumindest in der Defensive. Denn Menschen wären nicht in der Lage, mit autonomen Angriffen so schnell umzugehen."

Der Geschwindigkeitsfaktor ist kritisch und könnte sogar zu Kriegen führen, die gefühlt aus dem Nichts ausbrechen und bei denen autonome Systeme in einer Eskalationsspirale aufeinander reagieren. "In der Fachwelt reden wir von 'Flash wars'", so Franke, "ein versehentlicher militärischer Konflikt, den man nicht gewollt hat."

Künstliche Intelligenz im Schwarm

04:50

This browser does not support the video element.

"Killerroboter stoppen"

Bonnie Docherty will eine solche Zukunft verhindern. Die Dozentin der Harvard Law School steckt hinter der "Campaign to Stop Killer Robots" ("Kampagne gegen Killerroboter"). Dabei handelt es sich um eine Allianz von Nichtregierungsorganisationen (NGOs), die ein internationales Abkommen über das Verbot tödlicher autonomer Waffen fordert.

"Der Vertrag sollte dazu verpflichten, eine sinnvolle menschliche Kontrolle über die Ausübung von Gewalt aufrechtzuerhalten", so Docherty im Gespräch mit der DW. "Er sollte alle autonom operierenden, Ziele auswählenden und auf diese Ziele feuernden Waffen abdecken, deren Entscheidungsfindung auf den Eingaben von Sensoren basiert statt von Menschen."

Der Fokus der Kampagne liegt auf der "Konvention über bestimmte konventionelle Waffen" der Vereinten Nationen (UN). Das 1983 in Kraft getretene Übereinkommen soll Waffen kontrollieren, die "unnötiges oder nicht zu rechtfertigendes Leid" verursachen. Das Thema autonome Waffen stand bei Gesprächen der Mitgliedsstaaten in Genf in den letzten Jahren immer wieder auf der Tagesordnung.

Doch es geht nur langsam voran. Der Prozess hat eine Reihe von "Leitprinzipien" hervorgebracht, die unter anderem besagen, dass autonome Waffen den Menschenrechten unterliegen und dass der Mensch die letzte Verantwortung für ihren Einsatz trägt. Aber das kann lediglich die Grundlage für weitere Diskussionen bilden.

Docherty befürchtet, dass der konsensorientierte Genfer Prozess ins Stocken gerät und von denjenigen ausgebremst wird, die kein Interesse daran haben, autonome Waffensysteme stärker zu reglementieren.

"Russland hat sich bislang besonders vehement gewehrt", sagt die Juristin und Waffenexpertin. Aber auch "einige der anderen Staaten, die autonome Waffensysteme entwickeln, wie Israel, die USA, Großbritannien und andere, unterstützen ein neues Abkommen sicherlich nicht".

Zeit für ein Umdenken?

Docherty fordert einen neuen Ansatz, falls die nächste Runde der Genfer Gespräche, die noch in diesem Jahr stattfinden soll, keine Fortschritte bringt. Ihre Idee ist "ein unabhängiger Prozess, der von Staaten geleitet wird, die dieses Thema wirklich ernst nehmen und bereit sind, starke Regulierungsstandards zu entwickeln".

Außenminister Maas im DW-InterviewBild: DW

Doch viele stehen dieser Idee skeptisch gegenüber. Bundesaußenminister Maas ist ein lautstarker Befürworter eines Verbots tödlicher autonomer Waffensysteme, die "Campaign to Stop Killer Robots" unterstützt er jedoch nicht.

"Sie wird ja von uns nicht inhaltlich abgelehnt", beteuert Maas im DW-Interview. Aber Deutschland wolle, dass auch gerade die militärisch potenten Staaten miteinbezogen würden, die in der Lage seien, autonome Waffensysteme zu entwickeln und zum Einsatz zu bringen.

Dennoch muss laut Maas ein Vertrag das Ziel sein. "Genau wie wir das bei Nuklearwaffen über viele Jahrzehnte geschafft haben, müssen wir auch bei neuen Waffentechnologien zu internationalen Verträgen kommen", sagt er. Darin solle zum Ausdruck kommen, "dass bestimmte Entwicklungen zwar technisch möglich, aber nicht verantwortbar, sondern international zu ächten sind."

Was nun?

Doch ein Konsens ist bislang nicht in Sicht. Laut Franke sind das Beste, worauf die Welt hoffen kann, Normen darüber, wie die Technologien eingesetzt werden. "Man einigt sich zum Beispiel darauf, bestimmte Fähigkeiten nur defensiv einzusetzen oder nur gegen Maschinen statt gegen Menschen oder nur in bestimmten Kontexten", führt sie aus.

Und selbst das werde eine Herausforderung: "Das zu vereinbaren und umzusetzen ist einfach viel schwieriger als einige der alten Rüstungskontrollabkommen." Doch während die Diplomaten auf Zehenspitzen um diese Fragen herumschleichen, schreitet die Technologie voran. 

Dieser Text wurde von Ines Eisele adaptiert.

Den nächsten Abschnitt Mehr zum Thema überspringen