1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
PolitikEuropa

Faktencheck: Selenskyj-Bauchtanz-Video nicht echt

27. September 2023

Nutzer sozialer Medien behaupten, ein Video zeige Wolodymyr Selenskyj beim Bauchtanz. Doch der virale Clip des ukrainischen Präsidenten ist nicht echt, er ist manipuliert - und zeigt jemand anderen.

[No title]

Seit dem Einmarsch Russlands in die Ukraine im Februar 2022 wurden von beiden Seiten zahlreiche Falsch- und Desinformationen verbreitet. Wenn es jedoch um Fake News über die Ukraine geht, ist oft Präsident Selenskyj selbst das Ziel von Hetzkampagnen.

Behauptung: "Jedes Mal, wenn man mehr Geld braucht ... muss man eine gute Show abliefern", behauptet ein Nutzer auf X, ehemals Twitter. Er postete ein Video, das angeblich den ukrainischen Präsidenten Wolodymyr Selenskyj in einem hautengen, glitzernden goldenen Kostüm zeigt, wie er zu Bauchtanzrhythmen tanzt. Das Video wurde von vielen Accounts auch auf anderen Social-Media-Plattformen wie TikTok, Facebook und Instagram geteilt, und zwar mit ähnlichen Behauptungen, um Zelenskyy zu diskreditieren und die westliche Hilfe für die Ukraine in Frage zu stellen. Diese Behauptungen haben sich auch in Fremdsprachen wie Arabisch sehr stark verbreitet.

DW Faktencheck: Fake

Das Video zeigt nicht den ukrainischen Präsidenten Wolodymyr Selenskyj, sondern einen Bauchtänzer, Lehrer und Choreografen aus Argentinien namens Pablo Acosta. Er hat das Originalvideo am 1. Juni auf seinem Instagram-Konto geteilt. Auf seinem Account sind auch mehrere andere Videos zu sehen, in denen er in demselben Kostüm tanzt.

Als Selenskyj zu den Vereinten Nationen nach New York reiste, wurden im Internet wieder mehr Desinformationen über ihn verbreitetBild: Craig Ruttle/AP Photo/picture alliance

Die gefälschte Version, die im Internet kursiert, wurde manipuliert, indem das Gesicht von Selenskyj auf den Körper von Acosta gelegt wurde. Seit dem ursprünglichen Upload durch Acosta selbst wurde das Bild wochenlang auf verschiedenen Social-Media-Plattformen verbreitet. Vor kurzem tauchte es wieder auf, als Selenskyj am 20. September zum Sitz der Vereinten Nationen in New York reiste. Es wurde dann von konservativen Influencern wie Benny Johnson und Joey Mannarino auf ihren Social-Media-Konten mit ähnlichen Behauptungen verstärkt, in denen Selenskyj als "Definition des Wahnsinns" beschrieben wird.

Nicht das einzige Video dieser Art

Bevor er 2019 zum Präsidenten der Ukraine gewählt wurde, arbeitete Zelensky als Schauspieler und Komiker. Daher gibt es mehrere ältere Videos von ihm, in denen er auf der Bühne steht oder tanzt. Selenskyj gewann 2006 auch die Fernsehshow "Dancing with the Stars" in der Ukraine.

Ein weiteres Video aus dem Jahr 2014, das Selenskyj bei der Parodie eines Musikvideos einer ukrainischen Boyband zeigt, wird nun ebenfalls im Internet geteilt, um zu suggerieren, dass Selenskyj gerne Frauenkleidung trägt und aufreizend tanzt und daher als politischer Führer nicht ernst genommen werden sollte. In dem Video sieht man ihn in High Heels, einem kurzen Oberteil und engen Hosen tanzen. Nach unserer eigenen Verifizierung und der anderer Medien wie Snopes handelt es sich bei diesem Video nicht um eine Manipulation, sondern es stammt aus Selenskyjs Zeit als Schauspieler und Komiker, bevor er sein Amt antrat.

KI zur Beschleunigung von Desinformation eingesetzt

Seit dem Beginn der russischen Invasion in der Ukraine im Februar 2022 ist Selenskyj das Ziel von Falsch- und Desinformationskampagnen, die sein Image und das Ansehen der Ukraine in der Welt beschädigen sollen.

"Deepfakes werden in einer Desinformationskampagne häufig dazu verwendet, sich als Personen des öffentlichen Lebens oder Prominente auszugeben, die in den Medien eine große Rolle spielen und für das laufende Ereignis von Bedeutung sind. Das Ziel ist es, entweder eine bestimmte Agenda zu fördern oder die Meinung der Öffentlichkeit zu verwirren. Aus diesem Grund glaube ich, dass es so viele Deepfakes des ukrainischen Präsidenten Selenskyj gibt", sagt Siwei Lyu, Professor an der University at Buffalo, State University of New York, der sich auf digitale Medienforensik und maschinelles Lernen spezialisiert hat.

Dieser Deepfake war eines der ersten Ergebnisse des Einsatzes von KI zur Manipulation des Krieges. Ein DW Faktencheck analysierte ihn damals und zeigte, dass es sich um eine Fälschung handelte. Seit der Einführung von Tools wie ChatGPT und Midjourney wächst die Sorge, dass Fälschungen in Zukunft immer schwerer zu erkennen sein werden und dass es zu viele Fälschungen geben wird, um sie zu überwachen und zu entlarven.

"Es besteht kein Zweifel daran, dass wir mehr Deepfakes mit besserer Qualität sehen werden. Das liegt an der sich beschleunigenden Entwicklung von generativen KI-Technologien und den steigenden Einnahmen aus kommerziellen Anwendungen dieser Technologien. Wenn die Kosten und der Aufwand für die Herstellung hochwertiger Deepfakes sinken, werden wir bald einen Punkt erreichen, an dem der Einsatz von Deepfakes im Vergleich zu anderen Low-Tech-Optionen bei Falsch- und Desinformationskampagnen kosteneffektiv wird", erklärt Lyu die Entwicklung von KI und Desinformationskampagnen. 

Da die KI-Tools immer besser und billiger werden, können gefälschte Inhalte im Grunde von jedem produziert werden. Die ausgeklügelte Manipulation von Videos macht es immer schwieriger, sie zu erkennen - aber es gibt Anzeichen, auf die Sie achten können, wenn Sie sich bei einem Video oder Bild unsicher sind.  Das DW-Faktencheck-Team hat hier einen Leitfaden dazu veröffentlicht.

An diesem Artikel hat Emad Hassan mitgearbeitet.