1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
PolitikIran

Faktencheck: Getäuscht durch gefälschte Bilder aus dem Iran

Rachel Baig | Björn Kietzmann
22. März 2026

Internationale Medienunternehmen wurden durch KI-generierte Bilder zum Krieg gegen den Iran getäuscht - auch die DW. Wie gelangten diese Bilder in die Nachrichtenredaktionen und wie lassen sie sich erkennen?

Iran-Protestfoto mit DW-Markierungen
Nachdem der Verdacht aufgetaucht war, dass Bilder der Nachrichtenagentur SalamPix gefälscht sein könnten, durchforsteten Medienunternehmen ihre VeröffentlichungenBild: Salampix

Manipulierte oder alte Fotos und Videos machen in Kriegs- und Krisenzeiten häufig die Runde. Manchmal, um falsche Tatsachen vorzutäuschen, manchmal einfach nur, um Klicks zu generieren.

Im noch immer anhaltenden Krieg Israels und der USA gegen den Iran hat dieses Problem mittlerweile eine neue Dimension erreicht. Fotoagenturen selbst wurden mit manipulierten oder gefälschten Bildern beliefert, die dann in den Nachrichtenredaktionen ganz Europas landeten.

Einige dieser Fotos scheinen mit Hilfe künstlicher Intelligenz erzeugt worden zu sein, während andere von Menschen digital bearbeitet wurden. Was ist passiert und wie kann man KI-Fälschungen erkennen?

Die Saga der SalamPix-Bilder

Anfang März berichteten niederländische Medien, die größte Nachrichtenagentur des Landes ANP (Algemeen Nederlands Persbureau) habe etwa 1000 mit dem Iran im Zusammenhang stehende Fotos aus ihrer Datenbank gelöscht, weil der Verdacht aufgekommen sei, dass einige davon mit KI manipuliert worden waren.

Zwei Tage später meldete die niederländische Niederlassung des Mediennetzwerks RTL, ihr Nachrichtendienst RTL Nieuws habe unwissentlich drei dieser Bilder auf seiner Website und in seiner App verwendet. Nach einem Hinweis von ANP, dass die Bilder KI-generiert seien, entfernte RTL sie von Website und App und veröffentlichte eine detaillierte Erklärung, welche Bilder aus welchen Gründen entfernt worden waren.

Nach einem Hinweis zu KI-generierten Bildern entfernte RTL die Bilder und veröffentlichte eine Erklärung zu den Bildern und den Gründen für ihre EntfernungBild: rtl

Kurz darauf gab auch das deutsche Nachrichtenmagazin "Der Spiegel" bekannt, dass es in seiner Berichterstattung ebenfalls ein Bild eingesetzt hatte, das sich später als KI-erzeugt erwies.

In beiden Fällen hatten seriöse Nachrichtenagenturen die Bilder zur Verfügung gestellt. Die Bilder bei RTL stammten von ANP, während "Der Spiegel" seine Bilder über dpa Picture Alliance, ddp und Imago Images erhalten hatte, die sie wiederum über die französische Nachrichtenagentur Abaca Press bezogen hatten.

Die Herkunft der Bilder konnte schließlich zur iranischen Nachrichtenagentur SalamPix zurückverfolgt werden. Laut "Der Spiegel" stellte SalamPix die Fotos Abaca Press zur Verfügung. Von dort gingen sie dann an die Datenbanken zahlreicher internationaler Agenturen und schließlich an die Nachrichtenredaktionen.

Nachrichtenagenturen sammeln in der Regel Bilder und andere Medieninhalte aus aller Welt und verkaufen und verbreiten diese Informationen dann an Zeitungen und Fernseh- und Radiosender, die sie für die eigene Berichterstattung nutzen.

Nach der Entdeckung der KI-manipulierten Bilder haben viele Fotoagenturen SalamPix blockiert oder ihre Medienkunden angewiesen, Bilder von SalamPix aus ihren Veröffentlichungen zu entfernen.

Wie wurden die Fotoagenturen getäuscht?

In Deutschland ist das "Agenturprivileg" ein Rechtsbegriff, der es Medienunternehmen gestattet, das ihnen von den Nachrichtenagenturen bereitgestellte Text-, Bild- und Videomaterial zu verwenden, in dem Vertrauen, dass es überprüft wurde und echt ist. Selbst internationale Sender wie die Deutsche Welle (DW) verlassen sich bei der Berichterstattung über globale Ereignisse regelmäßig auf Agenturen.

Doch die Zunahme immer überzeugender wirkender KI-generierter und KI-manipulierter Inhalte macht es zunehmend schwierig, echte Bilder von gefälschten zu unterscheiden. Die Herausforderung ist dabei nicht nur technischer, sondern auch logistischer Natur. In einer sich schnell entwickelnden Nachrichtenlage sichten Journalisten und Agenturen innerhalb kürzester Zeit riesige Mengen an Bildmaterial. Seit Anfang 2026 gingen bei der DW täglich durchschnittlich 140.000 Agenturbilder ein.

"Eine unsere höchsten Prioritäten ist Transparenz. Wenn wir KI-erzeugte Inhalte nutzen, müssen wir diese klar und unmissverständlich als solche kennzeichnen", erklärte DW-Chefredakteur Mathias Stamm. "Und wenn wir einen Fehler machen - wie bei der Nutzung von Bildern der Agentur SalamPix - geben wir ihn zu und bleiben transparent."

Beispiele der von DW genutzten Bilder

Bei einer nach den ersten Berichten über SalamPix eingeleiteten Überprüfung musste die DW feststellen, dass Bilder der Agentur auch ihren Weg in die eigene Berichterstattung gefunden hatten. Daraufhin wurden alle Bilder von SalamPix aus DW-Veröffentlichungen entfernt und in Korrekturhinweisen unter den betreffenden Artikeln auf die Änderung des Inhalts hingewiesen.

Dieses Bild vom Februar, in dem angeblich die Folgen eines Raketeneinschlags in Teheran zu sehen sind, ist in Wirklichkeit KI-generiertBild: SalamPix/ABACA

In diesem Beispiel wird eine realistisch erscheinende Straßenszene nach dem angeblichen Einschlag einer Rakete in Teheran gezeigt. Im Vordergrund sind gelbe Autos, möglicherweise Taxis, zu sehen. Im Hintergrund befinden sich Gebäude, hinter denen Rauch aufsteigt. Dieses Bild wurde 2026 von den Agenturen verbreitet.

Ein genauerer Blick offenbart jedoch einige unverkennbare KI-Fehler.

Beim Heranzoomen wird klar, dass der Text keinen Sinn ergibt – ein typischer KI-FehlerBild: SalamPix/ABACA

Am deutlichsten wird dies bei der genaueren Untersuchung der Textelemente an einer Wand und auf einem der Autos. Sie sehen wie Text aus, doch beim Heranzoomen wird erkennbar, dass es sich weder um Arabisch noch Farsi handelt. Tatsächlich handelt es sich um sinnfreien Pseudotext, der mit keiner echten Sprache Ähnlichkeit hat. Ein Fehler, der bei KI-erzeugten Bildern häufig auftritt.

Normalerweise ebene Oberflächen wie Wände und Fenster scheinen sich in KI-erzeugten Bildern oft nach außen zu wölbenBild: SalamPix/ABACA

Ein weiterer typischer KI-Fehler sind Gebäude mit sonderbaren Formen und Objekte, die jeder Logik widersprechen. Neben einem ungewöhnlich geformten Autofenster sind auf diesem Bild in der Bildmitte an dem Gebäude nach außen gewölbte Wände und Fenster zu sehen.

Eine genauere Betrachtung von Autos und Bussen kann ebenfalls Hinweise auf die Nutzung von KI-Systemen geben, denn diese generieren häufig Fahrzeuge, die es nicht gibt oder die unrealistische, unlogische Details enthaltenBild: SalamPix/ABACA

Beim Heranzoomen an das Auto und den Bus am unteren linken Bildrand wird deren sonderbare Form deutlich. Sie entsprechen zudem keinen existierenden Fahrzeugmodellen.

Dieses von SalamPix im Januar verbreitete Bild zeigt angeblich Sicherheitskräfte, die auf Protestierende schießen, erwies sich aber ebenfalls als KI-generiertBild: SalamPix/ABACA

In diesem weiteren Beispiel ist ein schwarz gekleideter Mann zu sehen, der eine Waffe in der Hand hält. Die mitgelieferte Bildunterschrift lautete: "Teheran Bewaffnete iranische Sicherheitskräfte eröffnen das Feuer, um Protestierende während der Demonstrationen am 8. Januar 2026 zu zerstreuen".

Vergrößert man die Füße des Mannes, wird sichtbar, dass die Schuhe, die er trägt, weder dieselbe Größe noch Form habenBild: SalamPix/ABACA

Auch hier sind KI-Fehler erkennbar: Die abgebildete Person scheint zwei sehr unterschiedliche Füße zu haben und Schuhe zu tragen. Ihr Schatten (insbesondere der der rechten Hand, über der Schusswaffe) stimmt nicht mit den tatsächlichen Körperteilen überein.

Die Hand wirkt außerdem anatomisch unnatürlich. Zwischen Daumen und Finger scheint ein Stück zu fehlen.

Ein genauer Blick auf die rechte Hand zeigt, dass ein Stück zwischen Daumen und Fingern zu fehlen scheintBild: SalamPix/ABACA

Bei der Überprüfung älterer von SalamPix verbreiteter Bilder stellte DW Faktencheck ebenfalls Unregelmäßigkeiten fest. Die "Süddeutsche Zeitung", eine der größten Tageszeitungen Deutschlands, kam bei ähnlichen Überprüfungen zu dem gleichen Ergebnis.

Eines der von DW analysierten Bilder befindet sich ganz oben in diesem Artikel. Es soll Demonstranten zeigen, die während Protesten gegen das iranische Regime in der Stadt Mahabad im November 2022 mit den Sicherheitskräften aneinandergeraten.

Das Bild enthält KI-Fehler, die zu dieser Zeit typisch waren: Die Hände, insbesondere die Finger mehrerer Personen sind verformt oder wirken, als seien sie aus Holz geschnitzt. Die Fenster des Gebäudes links sind nicht im selben Winkel angeordnet. Und das Gesicht der Person ganz rechts ist verzerrt.

Wie erkennt man manipulierte Bilder?

Mit der stetigen Verbesserung von KI-Tools wird es immer schwieriger, gefälschte Bilder von echten zu unterscheiden. Das Risiko getäuscht zu werden, wird also für Nutzende wie Journalisten immer größer. Wie dieser Fall nur zu deutlich zeigt.

Medienunternehmen wie die DW investieren viel in die Schulung ihrer Mitarbeitenden, damit diese Manipulationen durch künstliche Intelligenz besser erkennen und aufdecken können. Das Team von DW Faktencheck produziert zudem Inhalte, die unserem Publikum helfen sollen, ihre Medienkompetenz zu erweitern und zu verstehen, wie irreführende Bilder und Videos entlarvt werden können.

Adaptiert aus dem Englischen von Phoenix Hanzo.

Den nächsten Abschnitt Mehr zum Thema überspringen
Den nächsten Abschnitt Top-Thema überspringen

Top-Thema

Den nächsten Abschnitt Weitere Themen überspringen