Nahost: Mit KI gegen Proteste, bevor sie entstehen
25. Februar 2026
Man stelle sich vor, die tunesische Regierung unter dem autoritären Machthaber Ben Ali hätte im Dezember 2010 gewusst, welche Folgen der Entschluss eines einfachen Obsthändlers haben würde, sich aus Verzweiflung öffentlich selbst zu verbrennen.
Der Tod des Obstverkäufers Mohamed Bouazizi löste Massendemonstrationen aus, die Ben Ali zwangen, Tunesien zu verlassen. Die Revolution inspirierte Proteste in weiteren Ländern - der Nahe Osten veränderte sich grundlegend.
Was aber, wenn das Regime über durch Künstliche Intelligenz gestützte Werkzeuge verfügt hätte, die eine solche Entwicklung frühzeitig erkannt hätten? Behörden hätten Proteste womöglich unterbinden oder Anführer einer regierungsfeindlichen Bewegung festsetzen können, noch bevor sie an Einfluss gewann.
Ben Alis Regime verfügte nicht über solche Instrumente. Heute jedoch besitzen einige autoritäre Regierungen der Region entsprechende Technologien. Und da sich KI-gestützte Konfliktprognosen rasant entwickeln, wächst das Potenzial, politischen Protest frühzeitig zu ersticken.
KI verändert Konfliktprognosen
KI könnte sich zunehmend für autoritäre Zwecke missbrauchen lassen. Sie kombiniert maschinelles Lernen mit menschlicher Expertise, um "neue, subtile Signale für Konfliktrisiken in Ländern zu erkennen, die sich aktuell nicht im Krieg befinden", sagt Christopher Rauh, Professor für Wirtschaftswissenschaften und Datenwissenschaft an der Universität Cambridge und Mitbegründer der Organisation ConflictForecast.
"Wir befürchten, dass Akteure mit böswilligen Absichten Daten missbrauchen könnten", so Rauh. Deshalb veröffentliche man keine Protestprognosen. Das Modell sei anpassungsfähig: "Mit wenigen Änderungen könnten wir solche Prognosen erstellen. Da Proteste ein legitimer Ausdruck von Demokratie sein können, veröffentlichen wir diese Daten nicht."
Noch seien die Modelle nicht so präzise, dass autoritäre Staaten sie ohne Weiteres missbrauchen könnten. "Sie arbeiten mit Durchschnittswerten. Sie sind keine Zauberei", sagt Rauh. Doch mit besseren Prognosen und mehr Daten könnten auch die Risiken steigen.
Wie funktionieren Prognosen?
Modelle Künstlicher Intelligenz lernen aus großen Datenmengen. Dazu zählen Medienberichte oder Informationen von Konfliktbeobachtern wie der Non-Profit-Organisation "Armed Conflict Location and Event Data" (ACLED) oder dem Conflict Data Program der Universität Uppsala. Auch Wirtschaftsindikatoren, demografische Daten, Säuglingssterblichkeitsraten sowie Mobilfunk- und Flugbewegungsdaten fließen ein.
Entscheidend ist eine umfangreiche historische Datengrundlage, idealerweise über mehr als ein Jahrzehnt. So lassen sich Muster erkennen.
Wie Fehler bei der KI entstehen
"Es gibt derzeit kein KI-gestütztes System, das geopolitische Brennpunkte perfekt vorhersagen kann", schrieben Forscher des britischen Alan Turing Institute im März 2025. Herausforderungen seien begrenzte Rechenleistung, inkonsistente Daten und die Unvorhersehbarkeit individuellen Handelns.
Gleichwohl gewinnen Konfliktprognosen und Risikoanalysen mithilfe von KI im öffentlichen wie im privaten Sektor an Bedeutung.
Damini Satija, Direktorin von Amnesty Tech, das zu Amnesty International gehört, warnt vor strukturellen Problemen: "Damit die Tools funktionieren, müssen sie mit bestehenden Datensätzen trainiert werden. So reproduzieren sie Fehler und Verzerrungen realer Daten." Zudem beruhten sie auf der Annahme, komplexes menschliches Verhalten lasse sich auf wenige Indikatoren reduzieren - eine Annahme, die etwa im Bereich der Kriminalitätsprognosen bereits widerlegt worden sei.
Wie autoritäre Regime die KI einsetzen
Einige Autokratien im Nahen Osten könnten zu den ersten gehören, die KI-gestützte Konfliktprognosen zur Unterdrückung von Dissens einsetzen.
"Der Nahe Osten befindet sich seit Langem im Spannungsfeld zwischen Technologie und politischer Macht", schrieb der Forscher Arash Beidollahkhani von der Universität Manchester in der Fachzeitschrift "Democratization". Technologien von Gesichtserkennung bis zu prädiktiven Analysen hätten bestehende Überwachungspraktiken erheblich erweitert.
Saudi-Arabien, die Vereinigten Arabischen Emirate, Iran, Ägypten und Bahrain setzen bereits fortgeschrittene Technologien gegen Oppositionelle ein. Ägypten überwacht digitale Kommunikation, die neue Verwaltungshauptstadt wird als umfassend überwachte "Smart City" entwickelt. Saudi-Arabien nutzt Gesichtserkennung in Mekka und Medina und plant entsprechende Systeme für Projekte wie die Zukunftsstadt Neom.
Besonders gut positioniert erscheinen die Vereinigten Arabischen Emirate. Sie zählen zu den führenden Ländern im Bereich der "prädiktiven Polizeiarbeit", bei der vergangene Daten analysiert werden, um künftige Straftaten vorherzusagen - sei es bezogen auf Orte oder Personen.
Die VAE betreiben mehrere "Safe City"-Projekte mit umfassender Überwachungs- und Verhaltensanalyse. Finanzielle Ressourcen und politische Strukturen ermöglichen eine weitgehende Integration solcher Systeme - ohne öffentliche Rechenschaftspflicht.
Ein Teil der eingesetzten Technologien stammt aus China, wo KI bereits zur Unterdrückung abweichender Meinungen genutzt wird.
"Wenn eine Regierung - egal welcher Art - gegen Dissens vorgehen will, gibt es keinen Grund, warum sie nicht auch KI-Werkzeuge einsetzen sollte", sagt Amnesty-Tech-Direktorin Satija. Sie warnt, dass bereits heutige Systeme wie Predictive Policing abschreckend wirkten. Aktivisten befürchteten, leichter identifiziert zu werden - und verzichteten deshalb auf Proteste. "Unsere größten Sorgen gelten der bestehenden Infrastruktur und ihren Möglichkeiten."
Aus dem Englischen adaptiert von Kersten Knipp