Google-Klage: Kampf gegen geleakte Sexbilder und Deepfakes
2. September 2025
Es hört sich wie ein Albtraum an - und könnte wohl vielen passieren: Unbekannte stehlen Nackt- und Sexaufnahmen aus der privaten Cloud einer jungen Deutschen und verbreiten sie auf Pornoseiten im Internet. Besonders schlimm: Die Inhalte, die sie und ihren Partner zeigen, sind sogar über Google auffindbar, inklusive ihres Klarnamens. Denn auch ein Ausweisdokument war in der geleakten Cloud. Die Frau wendet sich an HateAid, eine gemeinnützige Organisation, die Menschen hilft, die von Online-Hass und digitaler Gewalt betroffen sind.
Mit deren Hilfe kontaktiert sie viele der entsprechenden Seiten und meldet auch Google mehr als 2000 URLs, die über die Bildersuche der Suchmaschine auffindbar sind. Zwar entfernt Google die entsprechenden Suchtreffer in der Regel - doch tauchen die Bilder und Videos immer wieder neu im Internet und in den Google-Suchergebnissen auf - sowie auch Deepfakes, also mit Künstlicher Intelligenz (KI) erzeugte oder manipulierte Aufnahmen.
Der Fall wirft essentielle Fragen auf: Wie weit muss Datenschutz im Internet gehen? Welche Bedrohungsszenarien gibt es für Nutzende – vor allem für Frauen und weiblich gelesene Personen – und wie ist ihnen beizukommen?
Intime Aufnahmen, nie zur Veröffentlichung bestimmt
Die Frau, die ihren Namen in der Berichterstattung anonym halten möchte und die auf der Seite von HateAid pseudonym Laura genannt wird, erfuhr zufällig 2023 vom Klau ihrer Dateien, als sie ihren eigenen Namen googelte. Gegenüber dem Nachrichtenmagazin "Der Spiegel" sagte sie, es habe sich fast wie eine Vergewaltigung angefühlt, die nie zur Veröffentlichung bestimmten intimen Fotos und Videos im Netz zu finden. Der Vorfall hat Lauras ganzes Leben verändert: sie zog um, wechselte den Job und leidet an einer posttraumatischen Belastungsstörung.
Nachdem es außergerichtlich nicht gelungen ist, Google dazu zu bringen, die Aufnahmen dauerhaft aus der Suche herauszuhalten, hat Laura nun in Irland Klage gegen den Konzern eingereicht.
HateAid unterstützt sie dabei. "Wir tragen alle anfallenden Kosten und auch alle künftigen Kostenrisiken in dieser Sache, denn die wenigsten Betroffenen können sich tatsächlich vorstellen, auf eigenes Risiko so eine Klage gegen einen Konzern wie Google anzustrengen", erklärt Geschäftsführerin Josephine Ballon im DW-Gespräch. Sie erhofft sich ein Grundsatzurteil, um zu klären, ob Suchmaschinen rechtlich dazu verpflichtet sind, ein einmal gemeldetes Bild dauerhaft aus den Suchergebnissen zu entfernen, auch wenn es anderswo erneut hochgeladen wird.
Was kann von Google beim Datenschutz verlangt werden?
Datenschutzexpertin und Informatikerin Marit Hansen sagt dazu der DW: "Vor elf Jahren hat der EuGH mit dem Grundsatzurteil zum Recht auf Vergessenwerden Datenschutzgeschichte geschrieben. Der aktuelle Fall will daran anknüpfen." Das Recht auf Vergessenwerden erlaubt einer Person, die Löschung ihrer personenbezogenen Daten zu verlangen, wenn bestimmte Bedingungen erfüllt sind.
Hansen, Datenschutzbeauftragte des Bundeslandes Schleswig-Holstein, sagt, es sei im Sinne der EU-Datenschutzgrundverordnung DSGVO und des Grundrechts auf Datenschutz, dass die Verwendung der eigenen Daten kontrollierbar bleibe - und daher "keine Überraschung, dass daraus für globale Suchmaschinen-Anbieter Pflichten entstehen. Doch wie weit diese Pflichten gehen, muss jetzt in puncto Bilder entschieden werden."
Doch ist das Herausfiltern aus den Suchergebnissen technisch machbar? Bei exakten Kopien, in denen alle Bits der Bilddateien übereinstimmen, ist es laut Hansen relativ einfach.
Komplizierter dagegen ist der Expertin zufolge die Lage, wenn es um "kerngleiche" Inhalte geht - bei denen es Abweichungen zum Original gibt, etwa durch unterschiedliche Zuschnitte und auch Veränderungen etwa mithilfe von KI. Hansen erklärt: "Diese Frage ist verwandt mit den Möglichkeiten der Bilder-Rückwärts-Suche, die verschiedene Anbieter bereitstellen - darunter auch Google." Dabei werden Bilder hochgeladen und die Suchmaschine sucht nach ähnlichen Bildern – das funktioniert oft, ist aber nicht hundertprozentig zuverlässig, es gibt auch viele fehlerhafte Ergebnisse.
Deshalb könnten Suchmaschinenanbieter laut Hansen argumentieren, dass die Genauigkeit für das technische Filtern von kerngleichen Bildern bislang nicht ausreiche. Grundsätzlich müssten Plattformen wie Google jedoch in die Pflicht genommen werden. Google selbst ließ eine Anfrage der DW zum aktuellen Fall bislang unbeantwortet.
"Google profitiert von sexualisierter Gewalt gegen Frauen"
HateAid sieht in Lauras Fall nicht nur ein Beispiel für Datenschutz- und Privatsphäreprobleme im Internet. Sondern auch für bildbasierte sexualisierte Gewalt gegen Frauen und weiblich gelesene Personen. Und für den Profit, der damit seitens Konzernen wie Google gemacht wird. Denn "die Suchmaschine macht die Inhalte einer breiten Öffentlichkeit zugänglich und profitiert von den Zugriffen", so Ballon.
Deshalb begleitet HateAid ihre Klage mit einer Kampagne: Our nudes are #NotYourBusiness (auf Deutsch doppeldeutig: Unsere Nacktbilder sind nicht euer Geschäft / gehen euch nichts an). Ballon erläutert: "Vor allem Frauen und weiblich gelesene Personen erleben häufig den Missbrauch von intimen Bildern. Oder es werden mithilfe von KI gefälschte Bilder und Videos hergestellt - dafür braucht man heutzutage theoretisch nicht mehr als ein LinkedIn-Profilbild. Das ist ein gesamtgesellschaftliches Problem, und es wächst - das sehen wir auch in unserer Betroffenenberatung."
Es kann jede treffen
Das Phänomen bildbasierter sexualisierter Gewalt dürfte vielen vor allem im Hinblick auf Prominente bekannt sein. 2014 gab es etwa einen großangelegten Hackerangriff auf private Fotos von überwiegend weiblichen Stars, die dann online verbreitet wurden, Stichwort "Celebgate". Und von bekannten Frauen wie Taylor Swift oder Giorgia Meloni kursierten sexuell explizite Deepfakes. Aber Lauras Fall zeigt, dass so etwas auch Personen passieren kann, die nicht in der Öffentlichkeit stehen.
Während die mit ihrer Klage verbundene Kampagne etwa auch das Ziel verfolgt, dass bereits die Erstellung solcher Deepfakes als Straftat gelten soll, sofern die abgebildete Person nicht zugestimmt hat, soll der Gerichtsprozess Google dazu zwingen, besseren Schutz für Betroffene zu gewährleisten.
"Ohne diesen Anspruch müssen Betroffene eigentlich ihr Leben lang immer wieder nach ihren Bildern suchen, um dann händisch Auslistungsanträge zu stellen", so Ballon. "Das ist eine wahnsinnige psychische Belastung, die es nicht geben sollte und auch nicht geben muss."