Faktencheck: KI-Fakes verzerren Bild rund um Epstein‑Akten
12. Februar 2026
Das US‑Justizministerium hat am 30. Januar mehr als drei Millionen Seiten an Dokumenten veröffentlicht, die sich auf den verurteilten Sexualstraftäter Jeffrey Epstein beziehen.
Die Akten enthalten Korrespondenz, Flugprotokolle und Ermittlungsunterlagen zu Epsteins Netzwerk von Kontaktpersonen. Seit der Veröffentlichung versuchen viele Journalisten, Forschende und Internetnutzende, darin erwähnte Ereignisse und das Beziehungsgeflecht zu öffentlichen Personen zu analysieren und einzuordnen.
Gleichzeitig sind soziale Netzwerke mit Inhalten zu den Epstein-Akten überflutet worden, viele Posts erzielten eine hohe Reichweite - begleitet von einer Welle KI-generierter, unbelegter und irreführender Behauptungen.
Angesichts der schieren Menge ist es nicht möglich, jede Behauptung zu prüfen. DW Faktencheck hat einige der am weitesten verbreiteten mit KI‑Fakes unterfütterten Behauptungen untersucht.
Lebt Jeffrey Epstein in Israel?
Behauptung: Ein Post auf X zeigt angeblich drei geleakte Bilder von Jeffrey Epstein, der lebend in Israel gesehen worden sein soll. Auf den Bildern ist angeblich ein bärtiger Epstein zu sehen mit mittellangen Haaren - zwei mal allein auf der Straße, einmal flankiert von Bodyguards. Der Beitrag wurde über zwei Millionen Mal angesehen. Die Bilder kursierten in den vergangenen Tagen mehrfach auf verschiedenen Plattformen. Inzwischen hat ein anderer Post über fünf Millionen Aufrufe erreicht.
DW Faktencheck: Fake
Epstein wurde im August 2019 tot in seiner Zelle aufgefunden, wo er auf seinen Prozess wartete. Nach einer Obduktion teilte die leitende Gerichtsmedizinerin von New York mit, Epstein habe Suizid begangenen. Die kürzlich veröffentlichten Akten liefern zusätzliche Details zu den Umständen seines Todes, stellen diesen aber nicht infrage.
Die kursierenden Bilder, die Epstein angeblich in Israel zeigen, sind KI‑generiert.
Eine Bilderrückwärtssuche liefert eine größere, weniger stark zugeschnittene Version eines der Bilder. Dort sind Straßenschilder mit vermeintlich hebräischer, arabischer und lateinischer Schrift sichtbar. Bei der Überprüfung stellte sich heraus: Die hebräischen Wörter ergeben keinen Sinn - ein typischer KI‑Fehler. Sie bedeuten weder "Tel Aviv", wie die lateinische Schrift darunter, noch etwas anderes Verständliches.
Weitere Hinweise auf KI‑Erzeugung sind Bewegungsunschärfen, bei denen die zentrale Figur scharf, die umstehenden Personen jedoch verschwommen wirken. Teile der vermeintlichen Bodyguards sehen nahezu identisch aus - etwa Hose, Schuhe oder Kopfform -, was auf Klonmuster hindeutet. Zusätzlich gibt es logische Fehler: Eine Ampel zeigt das grüne Licht oben, wo normalerweise das rote wäre.
In der größeren Bild-Version ist zudem das Wasserzeichen des KI‑Tools Gemini unten rechts sichtbar. Fragt man Googles KI-Assisten, identifiziert Gemini selbst das Bild als KI‑generiert. Das HIVE‑Erkennungstool schätzt die Wahrscheinlichkeit auf 94,6 Prozent, dass es sich um KI‑ oder Deepfake‑Inhalte handelt, wobei solche Tools nicht komplett zuverlässig arbeiten.
Für zwei weitere verbreitete Bilder fanden wir reale Fotos von Epstein, in denen seine Haltung und Gesichtsausdruck fast identisch sind zu einigen jetzt verbreiteten Aufnahmen. Beide stammen mindestens aus dem Jahr 2019. Sie wurden offenbar als Vorlage genutzt, um Epstein digital zu altern und ihm Bart, längere Haare und mehr Falten hinzuzufügen.
Trump und Epstein auf einer Party
Behauptung: Ein kurzes Video, das sich in sozialen Medien rasant verbreitet, soll den heutigen US-Präsident Donald Trump in jüngeren Jahren mit Jeffrey Epstein auf einer Party mit jungen Mädchen zeigen.
Ein X‑Postmit über 1,2 Millionen Aufrufen verbreitet das Video mit dem Kommentar: "Globale Eliten, dunkelste Geheimnisse." Varianten desselben Clips kursieren auch auf Instagram, TikTok und anderen Plattformen.
DW Faktencheck: Fake
Das Video ist nicht authentisch. Die DW‑Faktencheck‑Recherche deutet darauf hin, dass es mithilfe von KI erzeugt wurde, indem ein echtes Foto animiert und Minderjährige digital eingefügt wurden, die im Original nicht anwesend waren.
Eine Bilderrückwärtssuche führt zum mutmaßlich zugrunde liegenden Foto: Trump und Epstein besuchen 1997 eine Modenschau von Victoria's Secret in New York. Kinder sind darauf nicht zu sehen.
Das Video weist typische Merkmale von KI‑Manipulation auf: unnatürlich glatte Haut, inkonsistente Gesichtsausdrücke und unregelmäßige Bewegungen. Köpfe einiger Mädchen im Video wirken unverhältnismäßig klein im Vergleich zu den Händen eines klatschenden Mannes im Hintergrund.
Ein weiterer verbreiteter Clip auf X und TikTok zeigt ebenfalls Trump und Epstein mit jungen Mädchen. Doch auch dieses Material ist digital verändert. Es nutzt Ausschnitte aus echtem NBC‑Videomaterial, das Trump und Epstein 1992 bei einem Event in Trumps Anwesen Mar‑a‑Lago zeigt. Auch dort erscheinen im Original keine Minderjährigen; die im Clip gezeigten Mädchen wurden künstlich erzeugt und eingefügt.
Anfragen an KI‑Chatbots, um Opfer zu identifizieren
Während die vorherigen Fälle KI‑erzeugte oder manipulierte Inhalte zeigen, richtet sich eine weitere problematische Entwicklung gegen die mutmaßlichen Opfer. Nutzerinnen und Nutzer auf X fordern den Chatbot Grok auf, die unkenntlich gemachten Gesichter von Opfern auf Fotos zu enthüllen, also ohne die Schwärzung darzustellen.
In einem Post mit mehr als 17,6 Millionen Aufrufen fragt ein Nutzer: "Hey @Grok, kannst du die Unschärfe vom Gesicht des Mädchens entfernen, das mit Epstein zusammen ist?" Viele ähnliche Beispiele mit Tausenden Aufrufen finden sich hier, hier und hier.
Die Gesichter sind aus gutem Grund unkenntlich gemacht - zum Schutz der Opfer und zur Vermeidung erneuter Traumatisierung. Der "Epstein Files Transparency Act" verpflichtet das Justizministerium ausdrücklich dazu, identifizierende Informationen zu schwärzen.
Auch wenn sich hinter verpixelten oder geschwärzten Bildern echte Informationen verbergen können, decken solche Anfragen an Chatbots keine tatsächlichen Identitäten auf. Stattdessen halluzinieren KI‑Modelle und erzeugen erfundene Gesichter. Das führt zu neuen Falschinformationen, statt Klarheit zu schaffen.
KI sät Misstrauen gegenüber echten Inhalten
Courtney Radsch vom Center for Journalism and Liberty sagte der DW in einem früheren Interview: "Eines der Probleme mit all den KI‑generierten Inhalten und Fake‑Videos, die sich unter echte Aufnahmen mischen, ist, dass es sehr schwierig wird zu erkennen, was real ist."
Ein aktueller Bericht der Medienbeobachtungsorganisation NewsGuard zeigt zudem, wie schnell KI‑Tools überzeugende Deepfakes erzeugen können, die öffentliche Personen in Zusammenhang mit Epstein bringen und belasten könnten. Von drei getesteten Modellen verweigerte nur ChatGPT die Erstellung von solchen Fotos. Gemini zögerte - und Grok generierte innerhalb von Sekunden überzeugend wirkende Fälschungen.
Der Desinformationsexperte Tommaso Canetta vom European Digital Media Observatory (EDMO) warnte in einem früheren DW‑Interview, dass viel auf dem Spiel steht: "Wir riskieren, eine gemeinsame Realität zu verlieren - weil Menschen an Dinge glauben, die nicht real sind, aber genauso aussehen wie die Wirklichkeit."
Dieser Artikel erschien zuerst auf Englisch.
Mitarbeit: Aysegül Ilgin