1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Deepfakes: Braucht es neue Gesetze gegen Missbrauch?

25. Juli 2024

Deutschland diskutiert Gesetze, um bösartigen KI-generierten Inhalten im Internet entgegenzutreten. Strengere Regeln seien jedoch kein Allheilmittel, warnen Bürgerrechtler; sie könnten unbeabsichtigte Folgen haben.

Ein Demo-Video der Firma Polymath Synthetic Media Solutions zeigt, wie Gesichtszüge von Indiens Premierminister Modi analysiert werden, um einen Avatar von ihm zu erstellen.
Deepfake-Technologie verwischt die Grenze zwischen Realität und FiktionBild: Himanshu Sharma/dpa/picture alliance

Politiker, die scheinbar ungeheuerliche Aussagen machen. Kriminelle, die sich als vertrauliche Quellen ausgeben. Menschen, die in erniedrigenden Situationen gezeigt werden.

Neue "Deepfake"-Technologie macht es einfacher denn je, überzeugende Videos, Bilder oder Audioclips zu erstellen, in denen Menschen scheinbar Dinge sagen oder tun, die so nie stattgefunden haben. "Die Bedrohungslage durch Deepfakes für unsere demokratische Gesellschaft ist extrem hoch" warnt Franziska Benning von der Hilfsorganisation HateAid in Berlin, gegenüber der DW.

Digitale Deepfakes als Gefahr für die Europawahl

04:22

This browser does not support the video element.

Um das Problem in den Griff zu bekommen, diskutieren Gesetzgeber weltweit neue Regelungen, die speziell auf bösartige Deepfakes abzielen. In Deutschland hat ein im Juli veröffentlichter Gesetzesentwurf des Bundesrates die Diskussion angeheizt. Der Vorschlag der Länderkammer sieht härtere Strafen sowie die Einführung eines neuen Straftatbestandes "Verletzung des Persönlichkeitsrechts durch digitale Nachahmung" vor.

Bisher wird der Missbrauch von Deepfakes in Deutschland mit Gesetzen geahndet, die vor dem Aufstieg der Technologie geschrieben wurden. Sie reichen von Verstößen gegen das Persönlichkeitsrecht bis hin zu Urheberrechtsverletzungen. Das mache die Rechtslage "unklar, unübersichtlich und auch lückenhaft", so der bayerische Justizminister Georg Eisenreich (CSU), dessen Bundesland den Vorschlag eingebracht hat. Mit einem neuen Straftatbestand im Strafgesetzbuch würde "mehr Klarheit" geschaffen, so Eisenreich.

Neue Gesetzgebung - im Fall von KI-Deepfakes ein Balanceakt

Nicht jeder ist überzeugt. Freiheitsrechtler halten dagegen, dass die meisten Deepfake-Rechtsverstöße bereits heute geahndet werden könnten – und warnen davor, dass überbordende Regeln auch andere legitime Nutzungen der Technologie unter Strafe stellen könnte.

"Wir haben ein tatsächliches Problem mit Deepfakes. Aber die Schlussfolgerung darf nicht sein, das Strafrecht so zu verschärfen, das auch nicht strafwürdiges Verhalten kriminalisiert wird", sagt Benjamin Lück. Er ist Rechtsanwalt bei der Berliner Gesellschaft für Freiheitsrechte (GFF). "Sonst besteht die Gefahr, dass auch sozialadäquates Verhalten - oder die Verwendung zu satirischen oder künstlerischen Zwecken - illegal wird."

Die Regulierung von Deepfakes stellt die Politik vor neue HerausforderungenBild: Christian Ohde/CHROMORANGE/picture alliance

Die Debatte in Berlin verdeutlicht die Herausforderung in der Regulierung einer Technologie, die die Grenze zwischen Realität und Fiktion verwischt: Die Politik steht vor der Aufgabe, Menschen vor Missbrauch durch Deepfakes zu schützen ohne gleichzeitig bürgerliche Freiheiten wie die Meinungsfreiheit einzuschränken.

Verschiedene Formen des Missbrauchs

Mitte der 2010er Jahre begannen Forschende, mithilfe eines neuen KI-Ansatzes namens "Deep Learning" realistische Fake-Inhalte zu erstellen. Kurz darauf begannen im Internet pornografische Inhalte zu kursieren, bei denen die Gesichter von Prominenten auf fremde Körper montiert wurden. Seither hat sich die Technologie rasant weiterentwickelt. Heute ermöglichen "generative KI"-Programme es jedem, mit minimalen technischen Kenntnissen, gefälschte Inhalte zu erstellen.

Deepfake-Videos sind immer schwerer zu erkennen

02:20

This browser does not support the video element.

Dies hat verschiedene Formen des Missbrauchs hervorgebracht. Kriminelle nutzen Deepfake-Technologie zu Betrugszwecken, indem sie sich beispielsweise als Vorgesetzte ausgeben, um Mitarbeitende zur Überweisung von Geld oder zur Weitergabe vertraulicher Informationen zu bewegen. Im Internet werden Deepfakes auch von verschiedenen Akteuren eingesetzt, um Desinformationen zu verbreiten und die öffentliche Meinung zu beeinflussen.

Schutz vor bildbasierter sexueller Gewalt

In den allermeisten Fällen jedoch handelt es sich um nicht einvernehmlich hergestellte pornografische Deepfakes: Gefälschte Bilder oder Videos, die Menschen scheinbar nackt oder bei sexuellen Handlungen zeigen. Betroffen seien vor allem Frauen, so Benning von HateAid. Ihre Organisation berät Betroffene digitaler Gewalt. Früher habe sich bildbasierte sexuelle Gewalt vor allem gegen Prominente gerichtet. "Heute kommen immer mehr Privatpersonen zu uns", sagt sie.

Schon heute kann das Verbreiten solcher Deepfakes nach deutschem Recht strafbar sein. Aber "ob ein Gesetzesverstoß dann wirklich vorliegt, ist abhängig vom Einzelfall und der rechtlichen Bewertung", so Benning. Eine Grauzone sei beispielsweise, wenn Deepfakes in Direktnachrichten verschickt werden.

Franziska Benning von HateAid fordert mehr rechtliche KlarheitBild: HateAid

Solche Lücken will der Bundesrat mit seinem Gesetzentwurf schließen. Auch wenn dieser in seiner jetzigen Form wahrscheinlich nicht in Kraft treten wird, erwarten Fachleute, dass er Einfluss haben wird auf ein Gesetz gegen Cybergewalt, das derzeit vom deutschen Justizministerium erarbeitet wird und nach EU-Vorgabe bis zum Sommer 2027 in Kraft treten muss.

HateAid begrüßt die Einführung eines neuen Straftatbestandes für Deepfakes. Gleichzeitig solle dieser, so Benning, noch weiter gehen als der Bundesrat-Vorschlag. So solle schon die Erstellung von nicht-einvernehmlichen pornografischen Deepfakes unter Strafe gestellt werden; auch wenn diese nicht geteilt werden. "Das wäre für viele Betroffene ein großer Schritt nach vorne", sagt sie.

Gefahren einer Überkriminalisierung

Bürgerrechtler dagegen warnen davor, dass gut gemeinte Bemühungen zur Eindämmung von Missbrauch zu einer Überkriminalisierung von Deepfake-Technologie an sich führen könnten. "Nicht jeden Deepfake muss man unter Strafe stellen", sagt Anwalt Lück von der Gesellschaft für Freiheitsrechte: "Wenn Politikern harmlose Worte in den Mund gelegt werden, und das letztlich klar als Scherz erkennbar ist, ist es fraglich, ob man da wirklich mit dem scharfen Schwert hingehen und sagen muss, das ist strafrechtlich relevant."

Gleichzeitig würden schärfere Gesetze wenig gegen die zweite große Bedrohung durch Deepfakes ausrichten:ihre Nutzung, um Unwahrheiten über Politiker oder Ereignisse zu verbreiten, Unruhe zu stiften und Spaltungen in der Gesellschaft zu vertiefen. "Kein Verbot wird staatlich orchestrierte Desinformationskampagnen verhindern", so Lück.

Faktencheck: Sind diese Influencer echt oder virtuell?

07:58

This browser does not support the video element.

Vielmehr sei es wichtig, in allen gesellschaftlichen Bereichen das Bewusstsein dafür zu schärfen, dass alles, was man online sieht oder hört, gefälscht sein könnte. Die Verwendung von Deepfakes in Satire oder Kunst spiele bei einer solchen "Medienbildung" eine wichtige Rolle. Eine pauschale Kriminalisierung der Technologie hingegen könnte sich als kontraproduktiv erweisen und eine Sensibilisierung für die Risiken behindern. "Ich sehe bei einem pauschalen Verbot die Gefahr, dass wir am Ende dümmer werden als Gesellschaft", so Lück.