Faktencheck: Diese Kinder-Bilder aus Gaza sind nicht echt
31. Januar 2024
Kleine Kinder liegen aneinandergeschmiegt auf matschbedeckten Böden in oder vor Zelten - seit einigen Tagen sind Bilder mit diesem Motiv verstärkt in Umlauf auf X, Instagram, Tiktok & Co. Dabei zeigen Accountname, das Icon einer Palästinaflagge oder Kommentare meist an, dass es sich um palästinensische Kinder im Gazastreifen handeln soll.
Dass die Menschen - und insbesondere Kinder - im Gazastreifen in äußerst prekären Umständen leben, ist gut dokumentiert - durch Menschenrechtsorganisationen, internationale Medien und nicht zuletzt die Menschen selbst. Ihr Leid ist echt – und doch zirkulieren auch Fakes zur Situation vor Ort. Bei den folgenden drei Bildern, auf die DW Faktencheck online gestoßen ist, sind wir zu dem Schluss gekommen: sie wurden mithilfe Künstlicher Intelligenz (KI) erzeugt.
Zu wenige Zehen, ein seltsamer Hals und verdrehte Finger
Millionenfach gesehen wurde etwa das Bild von zwei Jungen in identischen Schlafanzügen in einem blauen Zelt. Sie kuscheln sich in eine türkisfarbene Decke und halten sich mit verschränkten Fingern an der Hand. Die Tragik der Szene liegt darin, dass der Boden aus Schlamm besteht, auf dem sich braunes Wasser zu Pfützen sammelt. Doch in den meisten Posts, wie auch diesem, fehlt der Hinweis darauf, dass das Bild mithilfe von KI erzeugt wurde.
Deutliche Hinweise haben wir eingekreist: Beide Jungen haben je einen Fuß mit nur vier Zehen - ein typischer KI-Fehler. Der rechte Fuß des Jungen links wirkt zudem sehr klobig und die ineinander gelegten Finger der Kinder wirken zu gleichförmig. Vor allem aber müssten sie in einem anderen Winkel zu sehen und ihre Handgelenke extrem abgeknickt sein. Auch mit dem Übergang vom Hals zum Hinterkopf des Jungen links im Bild stimmt etwas nicht: Die Partie verschmilzt mit der Zeltplane und verläuft sehr steil nach vorne Richtung Brustbein statt hinunter zur Wirbelsäule.
Inszenierte Belichtung und verschwimmende Körper
Auch die Beleuchtung des Bildes wirkt sehr inszeniert: Für eine Lampe, die offenbar an der Zeltdecke hängt, leuchtet sie die Szenerie sehr gleichmäßig aus mit einzelnen Reflexen. Solche Effekte lassen sich auch mithilfe von Bildbearbeitungsprogrammen erzielen. Doch tendenziell muss dafür auch die Aufnahme selbst schon gut ausgeleuchtet sein, was den Aufbau eines recht aufwendigen Equipments erfordern würde.
Das Gleiche gilt für das hier obenstehende Bild, das unter anderem auf X, Instagram und Tiktokauftauchte. Vor allem die Lichtreflexe am Boden der Flasche am unteren Bildrand wirken unnatürlich. Gleichwohl ist die Ästhetisierung hier deutlich subtiler. Die typischen KI-Fehler, die meist an den Extremitäten zu finden sind, fallen dezent aus. Aber der zweite Zeh am unteren Fuß des Mädchens rechts im Bild wirkt bei näherer Betrachtung sehr groß. Die jeweils linken Fußunterseiten der Mädchen sind ungewöhnlich gerade, als stünden sie auf dem Boden oder hätten extreme Plattfüße. Die Haut der Mädchen wirkt makellos - auch das ist typisch für KI-Bilder.
Beim dritten Bild, das wir uns näher angeschaut haben, wirkt das Licht recht natürlich. Auch die Haut der beiden engverschlungenen Mädchen mutet realistisch an. Hinzu kommt, dass die beiden sich nicht so ähnlich sehen wie die Kinderpaare auf den beiden anderen Bildern.
Dafür scheinen ihre Unterleiber miteinander zu verschmelzen. Das vordere Mädchen scheint keine Beine zu haben - was, insbesondere nach mehreren Monaten Bombardements durch Israel, tatsächlich der Fall sein könnte. Allerdings verschwimmen in dem eingekreisten Bereich auch die Muster der Stoffe, sodass wir zu der Überzeugung gelangen, dass es sich auch bei dieser Deformation um einen KI-Fehler handelt.
Zeigen die KI-Bilder tatsächliches Leid?
Zur Bebilderung realer Geschehnisse wie dem Israel-Hamas-Krieg sind KI-Bilder höchst zweifelhaft, zumal wenn sie nicht als solche gekennzeichnet werden. Doch genau dies geschieht nicht nur in sozialen Netzwerken, sondern auch auf Websites, die sich als Informationsportale präsentieren wie "The Palestinean Information Center" und "Nordhessen-Journal". Was sie dokumentieren, sind keine objektiven Fakten, sondern eher das, was sich jemand vorstellt und mithilfe Künstlicher Intelligenz verbildlicht. Die Veröffentlichung und Verbreitung solcher Werke ohne den deutlichen Hinweis auf ihre Herkunft fällt deshalb im DW-Faktencheck unter die Kategorie "Fake".
Dies bedeutet jedoch nicht, dass sich die durch KI generierten Szenen nicht in ähnlicher Form auch in der Realität abspielen könnten. Zahlreiche Hilfsorganisationen berichten täglich von den äußerst prekären Umständen, unter denen die Binnenflüchtlinge im Gazastreifen zurzeit leben. Internationale Medien wie CNN und Al Jazeera haben nach den heftigen Regenfällen vergangene Woche tatsächlich berichtet, wie Geflüchtete versuchen, ihre überfluteten Zelte mit Sand zu füllen, um die Pfützen einigermaßen trocken zu legen.
Mehrere von der DW kontaktierte Hilfeorganisationen mit Personal vor Ort teilten dem Faktencheckteam mit, dass Szenen, wie sie die Bilder zeigen, durchaus denkbar seien. "Kinder und ihre Familien leben im Gazastreifen in behelfsmäßigen Unterkünften, sie haben Schwierigkeiten, saubere Orte zum Übernachten zu finden und es fehlt an Toiletten oder Wasser zum Waschen. Viele leben auf den Bürgersteigen", berichtet etwa Matt Sugrue, der die Nothilfe für den Gazastreifen von "Save the Children" von Rafah im Süden des Gazastreifens aus leitet. Nach UN-Angaben von Mitte Januar sind rund 1,9 der 2,2 Millionen Einwohner innerhalb des Gazastreifens vertrieben, ein großer Teil davon lebt in Notunterkünften.
Dieser Artikel wurde am 2. Februar 2024 noch einmal überarbeitet, um deutlicher zu machen, dass gefälschte Bilder keinen Hinweis darauf geben, wie realistisch die Szenen darauf sind.