1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Technik

Faktencheck: Wie erkenne ich KI-generierte Bilder?

9. April 2023

Midjourney, DALL-E, DeepAI - Programme, die mit künstlicher Intelligenz fotorealistische Bilder erschaffen, sorgen für eine Flut an Fakes auf Social Media. Welche Bilder sind echt und welche nicht? Tipps für den Umgang.

Screenshot eines KI-generierten Bildes, das angeblich die Verhaftung von Russlands Präsident Wladimir Putin zeigen soll. Tatsächlich ist das Bild ein Fake, was anhand von mehreren Bildfehlern (rot gekennzeichnet) erkannt werden kann. (Screenshot: Telegram)
Wird Putin hier verhaftet? Nein, diese Bild ist ein KI-Fake, was anhand von mehreren Bildfehlern - wie einem sechsten Finger oder sich auflösenden Helmvisieren - erkannt werden kann

Noch nie war es so einfach, täuschend echte Bilder zu erstellen: Eine Internetverbindung und ein Tool, das mit künstlicher Intelligenz arbeitet, ist alles, was es braucht. Binnen Sekunden sind fotorealistische Bilder erschaffen, die viele von uns als echt wahrnehmen. Und die sich deswegen rasend schnell in den Sozialen Netzen verbreiten und häufig gezielt für Desinformation verwendet werden.  

Nur ein paar der jüngsten Beispiele, die viral gingen: Wladimir Putin, der angeblich festgenommen wird ,Donald Trump, der ebenfalls vermeintlich festgenommen wird oder Elon Musk, angeblich händchenhaltend mit Mary Bara, CEO von General Motors.

Alles KI-Bilder, die Ereignisse zeigen, die nie stattgefunden haben. Und auch Fotografen veröffentlichenangebliche Porträtfotos, die sich als KI-generierte Bilder entpuppen. 

Dieses angebliche Foto von Elon Musk und Mary Barra wurde von einer KI generiert

Erdbeben, die nie passiert sind 

Ereignisse, wie angebliche spektakuläre Verfolgungsjagden oder Festnahmen von Prominenten wie Putin oder Trump, lassen sich ziemlich schnell überprüfen, indem Nutzer seriöse Medienquellen checken. Problematischer seien Bilder, bei denen die Menschen nicht so bekannt seien, sagt KI-Experte Henry Ajder im DW-Interview.

"Und nicht nur generierte Bilder von Menschen können Desinformation verbreiten", erklärt Ajder. "Wir haben Menschen gesehen, die Ereignisse erstellt haben, die nie passiert sind, wie zum Beispiel Erdbeben".

Faktencheck: Wie erkenne ich KI-Bilder?

08:06

This browser does not support the video element.

So geschehen im Fall eines angeblichen schweren Erdbebens, das 2001 den Nordwest-Pazifik erschüttert haben soll. Aber: Dieses Erdbeben hat es nie gegeben, die Bilder, die dazu auf Reddit geteilt wurden, sind KI-generiert.

Angesichts solcher Bilder wird es also zunehmend schwieriger, einzuordnen, was wirklich passiert ist - und was nicht. Doch genauso wie Irren menschlich ist, macht die KI-Fehler.

Noch, möchte man anfügen, denn die KI-Tools entwickeln sich rasant weiter. Aktuell (Stand: April 2023) haben Programme wie Midjourney, Dall-E und DeepAI vor allem bei Bildern, auf denen Menschen zu sehen sind, ihre Probleme. Hier sechs Tipps des DW-Faktencheck-Teams, wie Manipulationen bemerkt werden können. 

1. Heranzoomen und genau untersuchen 

Viele KI-generierte Bilder wirken auf den ersten Blick echt. Die verwendeten Programme können fotorealistische Bilder kreieren, die oft erst bei näherer Betrachtung als Fake zu entlarven sind. Deshalb lautet der erste Tipp: Schauen Sie genau hin. Suchen Sie dazu nach möglichst hoch auflösenden Versionen des Bildes und zoomen Sie diese auf Details des Bildes heran. In der Vergrößerung werden eventuelle Unstimmigkeiten, Fehler oder Bild-Klone sichtbar, die auf den ersten Blick unentdeckt geblieben sind.  

2. Suchen Sie nach der Herkunft des Bildes 

Wenn Sie sich unsicher sind, ob ein Bild echt ist oder von einer KI generiert wurde, versuchen Sie mehr über die Herkunft des Bildes herauszufinden. Manchmal teilen andere Nutzer ihre Erkenntnisse in den Kommentaren unter dem Bild mit, die zur Quelle oder zum ersten Post der Bilder führen.

Außerdem kann eine Bilderrückwärtssuche helfen: Dazu laden Sie das Bild in Tools wie der Google-Bilderrückwärtssuche, bei TinEye oder Yandex hoch, was nicht selten zu weiteren Informationen zum Bild und manchmal auch zu dessen Ursprung führt. Sollte es in den Treffern der Suchmaschinen bereits Faktenchecks von seriösen Medien zum Bild geben, liefern diese in der Regel Aufklärung und Kontext.  

3. Achten Sie auf Körper-Proportionen 

Stimmen die Körper-Proportionen der dargestellten Personen? Nicht selten weisen KI-generierte Bilder Unstimmigkeiten in den Proportionen auf: Die Hände können zu klein sein oder Finger zu lang. Oder aber Kopf und Füße passen nicht zum Rest des Körpers.

So zum Beispiel bei diesem Fake: Auf diesem Bild soll, Wladimir Putin vor Xi Jinping niedergekniet haben. Der hintere Schuh der knienden Person, die angeblich Putin sein soll, ist unverhältnismäßig groß und breit. Die Wade desselben Beins wirkt lang gestreckt. Der halb verdeckte Kopf der Person ist ebenfalls sehr groß und passt in der Proportion nicht zum restlichen Körper. Mehr zu diesem Fake in unserem Faktencheck

4. Achten Sie auf typische KI-Fehler 

Die Hauptfehlerquelle bei KI-Bildprogrammen wie Midjourney oder DALL-E sind aktuell die Hände. Immer wieder haben Personen einen sechsten Finger, wie zum Beispiel der Polizist links von Putin in unserem Artikelbild ganz oben. Oder auch in diesem Fall:  

Hier soll Papst Franziskus mit einer Designer-Jacke posieren. Die Bilder gingen viral - obwohl der Papst im rechten Bild nur vier Finger zu haben scheint und seine Finger im linken Bild ungewöhnlich lang sind - die Fotos sind fake. Weitere häufige Fehler in KI-Bildern sind Zähne, zum Beispiel, weil Personen zu viele Zähne haben, oder Brillengestelle, die seltsam deformiert sind, oder aber Ohren, die unrealistische Formen haben, wie zum Beispiel beim bereits erwähnten Fake-Bild von Xi und Putin. Bild-Generatoren wie der Random Face Generator kreieren innerhalb weniger Sekunden Fake-Bilder von Menschen, die gar nicht existieren. Und auch wenn die Bilder täuschend echt aussehen, lohnt es sich auch hier, auf unnatürliche Formen bei Ohren, Augen oder Haare sowie Verformungen an Brillen oder Ohrringen zu achten, da der Generator hier häufig Fehler macht. Spiegelnde Flächen wie Helmvisiere bereiten KI-Programmen ebenfalls Probleme, manchmal scheinen sie sich aufzulösen, wie bei der angeblichen Putin-Verhaftung.

AI-Experte Henry Ajder warnt jedoch: "In der aktuellen Version macht Midjourney zwar immer noch Fehler wie beim Bild des Papstes, aber es ist viel besser bei der Generierung von Händen als frühere Versionen. Die Richtung ist klar: Wir können uns nicht mehr lange darauf verlassen, dass die Programme solche Fehler machen."   

Die DW-Bildanalyse zeigt mehrere Auffälligkeiten im viralen Foto zum angeblichen Kniefall von Putin vor Xi. Ohren, Schuh und Hände sind deformiert und nicht authentisch. Diese Aspekte deuten stark auf eine Manipulation per KI hinBild: Twitter/DW

5. Wirkt das Bild künstlich und geglättet? 

Insbesondere die App Midjourney kreiert viele Bilder, die idealisiert wirken, also zu schön sind, um wahr zu sein. Folgen Sie hier ihrem Bauchgefühl: Kann ein so perfektes, ästhetisches Bild mit makellosen Menschen wirklich echt sein?

"Die Gesichter sind zu rein. Auch die Textilien, die gezeigt werden, sind zu harmonisch", erklärt Andreas Dengel, Geschäftsführer des Deutschen Forschungszentrums für KI, im DW-Interview. Die Haut der Personen ist häufig glatt und frei von jeder Irritation, auch ihre Haare und Zähne sind makellos.

Das ist in der Realität meistens nicht der Fall. Viele Bilder haben zudem einen künstlerischen Look wie er selbst von Profi-Fotografen bei Studio-Shootings und anschließender Bildbearbeitung kaum realisiert werden kann. 

KI-Programme entwerfen offenbar oft idealisierte Bilder, die perfekt aussehen und vielen Menschen gefallen sollen. Genau das ist eine Schwäche der Programme, denn so werden manche Fakes für uns erkennbar. 

6. Untersuchen Sie den Bildhintergrund 

Manchmal verrät der Hintergrund eines Bildes die Manipulation. Auch hier können Objekte deformiert dargestellt werden, zum Beispiel Laternen. In wenigen Fällen klonen die KI-Programme Personen und Objekte und setzen sie zwei Mal ein. Und nicht selten ist der Hintergrund von KI-Bildern unscharf gestaltet. Doch auch diese Unschärfe kann Fehler enthalten. Dann zum Beispiel, wenn der Hintergrund nicht bloß unscharf ist, sondern künstlich verwischt wirkt, wie bei diesem Bild, das angeblich einen aufgebrachten Will Smith bei der Oscar-Verleihung zeigen soll. Auch dieses Bild ist ein Fake. 

Fazit: Viele KI-generierte Bilder lassen sich aktuell noch mit ein wenig Recherche als falsch entlarven. Aber die Technologie wird besser und Fehler in Zukunft somit wahrscheinlich seltener.

Können KI-Detektoren wie der von Hugging Face dabei helfen, Manipulationen aufzudecken? Nach unseren Erkenntnissen liefern die Detektoren Hinweise, aber nicht mehr. Die von uns befragten Experten raten von ihrer Nutzung eher ab, die Tools seien nicht ausgereift. Auch echte Fotos werden zum Fake erklärt und umgekehrt.

Die Frage, was echt ist und was nicht, können die Detektoren-Apps derzeit also nicht immer verlässlich beantworten. Es sei ein "technologisches Wettrennen" mit der Künstlichen Intelligenz, sagt Antonio Krüger, KI-Forscher an der Universität des Saarlandes, im DW-Interview. Und er ergänzt: "Ich glaube, wir müssen uns daran gewöhnen, dass man eigentlich keinem Bild im Internet trauen kann." 

Hinweis: Derzeit veröffentlicht die DW aus rechtlichen und journalistischen Gründen keine Bilder, die mit generativen KI-Programmen erstellt wurden. Ausnahme: Wir zeigen dann KI-Bilder, wenn sie Gegenstand der Berichterstattung sind, zum Beispiel wenn wir Fake News überprüfen oder über die Fähigkeiten von KI berichten. In diesem Fall weisen wir klar daraufhin, dass es sich um KI-Bilder handelt.

Dieser Artikel wurde nachträglich um den Random Face Generator ergänzt.

Den nächsten Abschnitt Mehr zum Thema überspringen