1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
MedienGlobal

Faktencheck: Wie erkenne ich KI-generierte Reporter?

Monir Ghaedi | Adnan Sidibe
8. Juli 2025

Mit Künstlicher Intelligenz erzeugte Nachrichtensendungen fluten die Sozialen Netzwerke. Die Formate sehen täuschend echt aus. Die DW erklärt, wie man diese fake Inhalte erkennt.

Screenshot von einem KI TikTok Video. Ein Mann interviewt eine Frau mit roten Haaren, im Hintergrund ein roter Briefkasten
Dieses mit Künstlicher Intelligenz erzeugte Interview in einem Tiktok-Video sieht nach einer echten Umfrage unter Passanten in Großbritannien aus. Aber die Szene ist frei erfundenBild: TikTok

In einem TikTok-Videosteht ein Reporter mit Mikrophon vor einem typisch roten Briefkasten der britischen Royal Mail. Im Hintergrund flattern Flaggen des Vereinigten Königreichs. Der Reporter fragt eine Passantin, wen sie bei den bevorstehenden Wahlen wählen würde.

"Reform", antwortet die Frau. "Ich möchte mich einfach wieder britisch fühlen, nicht wahr?". Ein Nutzer kommentiert weiter unten: "Ich frage mich, wie viel sie ihr dafür bezahlt haben, dass sie das sagt."

"Man braucht nicht einmal Fakten"

Diese Szene hat nie stattgefunden. Das Interview ist komplett gefälscht. Und der Reporter wurde mit Hilfe von Künstlicher Intelligenz (KI) generiert.

Unten rechts im Bild gibt es einen versteckten Hinweis darauf. Hinter der Hand mit der britischen Fahne lugt ein schwaches Wasserzeichen mit dem Wort "Veo" hervor. Veo ist das neue Google-Tool für Videoerstellung.

Das Acht-Sekunden-Video ist keine Ausnahme. Soziale Netzwerke werden derzeit von KI-generierten Videos geflutet, die das Aussehen und die Markenzeichen echter Nachrichtenbeiträge nachahmen.

Sie suggerieren Berichterstattung von vor Ort, blenden Grafiken auf dem Bildschirm ein und verwenden starke Schlagzeilen. Doch oft sind die Inhalte frei erfunden, um Empörung zu provozieren, Meinungen zu manipulieren oder einfach, um Reichweite zu erzielen.

In einer angeblichen Nachrichtensendung steht eine mit KI erzeugte Reporterin vor Panzern in einer Straße in London, ein ebenfalls mit KI erzeugtes Bild

Panzer im Zentrum von London?

"Wenn man durch die sozialen Medien scrollt, sehen die Beiträge auf den ersten Blick wie Nachrichten aus", bestätigt Hany Farid, Professor an der University of California, Berkeley, der sich auf digitale Forensik spezialisiert hat, gegenüber der DW. "Und das ist die Gefahr."

In einem anderen Clipbeschreibt zum Beispiel eine Reporterin einen "beispiellosen Militärkonvoi" im Zentrum von London. Sie steht vor einem Panzer, während eine Menschenmenge die Panzer beobachtet. Allerdings gibt es in dem Video keine Angaben, wann oder in welchem Kontext der angebliche Militärkonvoi stattgefunden haben soll.

DW Faktencheck hat wiederholt beobachtet, wie solche Clips gerade während politischer Krisen immer wieder auftauchen. So kursierten während der jüngsten Eskalation des Konflikts zwischen Israel und dem Iran unzählige KI-generierte Fake News auf TikTok und anderen Plattformen.

Wie man Desinformation im Nahost-Krieg erkennt

04:17

This browser does not support the video element.

Unter den Beiträgen waren auch ganze KI-generierte Nachrichtensendungen, die falsche Behauptungen aufstellten - wie etwa, dass Russland angeblich in den Krieg eingetreten sei, dass der Iran die USA angreife, oder dass der Iran B-2-Bomber der US-Luftwaffe abgeschossen habe, die bei Angriffen auf iranische Atomanlagen eingesetzt wurden.

Die DW beobachtete auch einen Anstieg der synthetischen Nachrichtenclips nach dem Ausbruch der Proteste gegen die US-Einwanderungsbehörde ICE in Los Angeles im Juni.

Einige Nutzer verwenden die KI-Nachrichten aber auch zur Parodie oder für komische Effekte. Ein virales Video auf TikTokzeigt zum Beispiel eine mit KI generierte Moderatorin, die vor einem Schlagloch steht, das so tief ist, dass Motorräder darin verschwinden.

In einem anderenerklärt ein Avatar: "Ich bin gerade an der Grenze, aber es gibt keinen Krieg. Mama, Papa, das sieht echt aus - aber es ist alles KI."

Synthetische Avatare und ihre Zähne

Doch wie kann man erkennen, was echt ist und was nicht? Ein erstes starkes Indiz sind Wasserzeichen. KI-Tools zur Videogenerierung wie Veo3, Synthesia und andere kennzeichnen ihre Videos oft mit einem solchen Element. 

Weitere typische KI-Merkmale sind ungeschickte Handbewegungen oder uneinheitliche Hintergründe. Auch Mund und Augen können Anhaltspunkte bieten. Synthetische Avatare blinzeln oft unnatürlich oder es gibt auffallende Probleme mit einer realistischen Lippensynchronisation.

Außerdem können ihre Zähne zu glatt oder unnatürlich glänzend erscheinen. Ihre Form kann sich sogar während eines Satzes verändern. Gesten und Gesichtsbewegungen sind oft zu gleichförmig und weisen nicht die natürliche Variation eines echten Menschen auf.

Auch Text kann verräterisch sein. Bildunterschriften oder Banner enthalten oft unsinnige Formulierungen oder Tippfehler. Medien- und Digitalexperte Hany Farid rät dazu, sich an vertrauenswürdige Quellen zu halten. "Wenn Sie nicht belogen werden wollen", so Farid, "sollten Sie sich an zuverlässige Nachrichtenorganisationen wenden".

"Die Einstiegshürde ist weg"

Das Konzept der KI-Moderatoren ist nicht neu. Bereits 2018 stellte die staatliche chinesische Nachrichtenagentur Xinhua einen auf viele Zuschauer gestelzt wirkenden, roboterhaften KI-Moderator vor. Damals war das eher eine Kuriosität als eine Bedrohung.

Täuschend echt: Diese vermeintlichen Proteste vieler Menschen in Israel gegen den Angriff des Landes auf den Iran wurden mit Künstlicher Intelligenz in Szene gesetzt Bild: TikTok

Aber seitdem haben sich die technischen Möglichkeiten dramatisch weiterentwickelt. Mit Tools wie Veo kann nun praktisch jeder - auch ohne Medienausbildung - für nur ein paar hundert Euro im Monat ausgefeilte Videos in Sendequalität erstellen.

"Die Einstiegshürde ist praktisch weg", sagt Farid. "Man braucht kein Studio. Man braucht nicht einmal Fakten."

Die meisten dieser Clips sind auf maximales Engagement ausgelegt. Sie greifen stark polarisierende Themen auf: Einwanderung, der Krieg in Gaza, die Ukraine und Donald Trump, um starke emotionale Reaktionen hervorzurufen und zum Teilen anzuregen.

Soziale Medienplattformen "belohnen" diese Art von Inhalten oft. So passte Meta kürzlich seinen Algorithmus so an, dass mehr Beiträge von Konten angezeigt werden, denen die Nutzer nicht folgen, wodurch synthetische Videos leichter ein breites, ahnungsloses Publikum erreichen können.

Faktencheck: Wie erkenne ich KI-Bilder?

08:06

This browser does not support the video element.

Monetarisierungsprogramme schaffen weitere Anreize für die Ersteller: Je mehr Aufrufe ein Video hat, desto mehr Geld kann es einbringen.

Konten wie diesesmit mehr als 44.000 Followern springen zum Beispiel bei Breaking-News-Situationen auf ein Thema drauf, bevor die Fakten überprüft werden können.

So zeigten während eines kürzlichen Flugzeugabsturzes in Indien Dutzende von TikTok-Videos KI-Avatare, die als CNN- oder BBC-Reporter verkleidet waren und gefälschte Opferzahlen und erfundene Augenzeugenberichte verbreiteten. Viele davon blieben stundenlang online, bevor sie aus dem Netz genommen wurden.

In Momenten aktueller Nachrichten - wenn Nutzer aktiv nach Informationen suchen - werden realistisch aussehende KI-Inhalte zu einem besonders effektiven Mittel, um Klicks zu generieren und von der öffentlichen Aufmerksamkeit zu profitieren.

"Die Plattformen haben sich von der Inhaltsmoderation entfernt", so Farid gegenüber der DW. "Es ist ein perfekter Sturm: Ich kann Inhalte erstellen, verbreiten, und es gibt ein Publikum, das bereit ist, sie zu glauben."

Dieser Text wurde aus dem Englischen adaptiert.

Den nächsten Abschnitt Mehr zum Thema überspringen

Mehr zum Thema

Weitere Beiträge anzeigen