dpa

Warum sich Opfer von Deepfakes bisher kaum wehren können

Eine Mitarbeiterin der CDU-Fraktion soll Opfer eines sexualisierten KI-Videos geworden sein. Welche Konsequenzen der Fall hat, ist offen. Das liegt nicht zuletzt an der Gesetzeslage.

Von dpa

02.04.2026

Bisher gibt es keinen Straftatbestand für nicht einvernehmliche sexualisierte Deepfakes. (Symbolbild)Marcus Brandt/dpa

Bisher gibt es keinen Straftatbestand für nicht einvernehmliche sexualisierte Deepfakes. (Symbolbild)Marcus Brandt/dpa

© Marcus Brandt/dpa

Eine Mitarbeiterin der niedersächsischen CDU-Fraktion im Landtag ist mutmaßlich Opfer eines Deepfake-Videos mit sexualisiertem Inhalt geworden. Wie die Staatsanwaltschaft Hannover erklärte, wurde ein Bild der Frau vermutlich mit einer Software in das Video montiert. Zu sehen ist die Frau demnach lasziv und aufreizend tanzend in einem Bikini. Das Video soll in einer privaten WhatsApp-Gruppe mit Bezug zur Mitarbeiterschaft der CDU-Fraktion geteilt worden sein. 

Die Staatsanwaltschaft prüft die Vorwürfe, nachdem die CDU-Fraktionsführung die Behörde informiert hatte. Ermittelt wird gegen den mutmaßlichen Ersteller des Videos aber bisher nicht. Im Raum steht laut Staatsanwaltschaft eine mögliche Verletzung des Kunsturhebergesetzes – Ermittlungen dazu gebe es allerdings nur, wenn das Opfer einen Strafantrag stellt.

Warum ist die Erstellung von Deepfakes nicht strafbar?

Bisher gibt es keinen Straftatbestand für nicht einvernehmliche sexualisierte Deepfakes, wie die auf digitale Gewalt spezialisierte Beratungsstelle Hateaid mitteilte. Deepfakes sind täuschend echte, mit Künstlicher Intelligenz (KI) generierte oder manipulierte Bilder, Videos und Audioaufnahmen. Derzeit arbeitet das Bundesjustizministerium an einem Gesetz gegen digitale sexuelle Gewalt vor, das unter anderem das Erstellen und Verbreiten sexualisierter Deepfakes unter Strafe stellen soll. Der Bundestag könnte im Herbst darüber entscheiden.

Das ist nach Meinung von Hateaid auch dringend notwendig: „Wir merken seit Jahren einen Anstieg der Fälle in unserer Betroffenenberatung. Insbesondere seitdem KI-Tools leichter zugänglich sind“, teilte die Organisation mit. 

Wie können sich Betroffene wehren?

Sie können sich unter anderem auf eine Verletzung des Rechts am eigenen Bild nach dem Kunsturhebergesetz berufen, wie Hateaid mitteilte. Auch Beleidigung und Verleumdung könnten grundsätzlich infrage kommen. Der Straftatbestand der Verletzung des höchstpersönlichen Lebensbereiches werde juristisch diskutiert. Auch bestünden zivilrechtliche Ansprüche auf Unterlassung und Schadenersatz.

Welche Lücken gibt es bei derzeitigen Gesetzen?

Alle strafrechtlich infrage kommenden Tatbestände seien Bagatelldelikte, die häufig eingestellt würden, hieß es von Hateaid. „Das Problem ist: Das Strafrecht hinkt den technologischen Entwicklungen hinterher“, sagte die Mitgründerin der Beratungsstelle, Anna-Lena von Hodenberg. 

Die bloße Herstellung von Deepfakes sei zudem derzeit strafrechtlich überhaupt nicht erfasst. Dabei werde das Recht auf Intimsphäre und sexuelle Selbstbestimmung bereits dadurch verletzt. 

Spielt es eine Rolle, wie sexuell explizit ein Deepfake ist?

„Wo die Unterscheidung relevant werden kann, ist im Bereich der Strafzumessung“, sagte von Hodenberg. Bei den Straftatbeständen ist das hingegen kniffliger. Damit eine sexuelle Belästigung vorliegt, brauche es etwa eine „sexuell bestimmte Handlung“, die die Würde der betroffenen Person verletzt. Bei Deepfakes sei das juristisch aber schwierig, weil keine physische Handlung stattfindet. 

Wie sexualisiert ein Deepfake ist, könne zudem eine Rolle dabei spielen, ob eine Beleidigung oder Verleumdung angeklagt wird – „insbesondere, wenn das Material eindeutig sexualisiert und ehrverletzend ist“, sagte von Hodenberg. Es komme aber immer auf den Einzelfall an. 

Genügen die Pläne der Bundesregierung?

Die unerlaubte Herstellung und Verbreitung von Nacktbildern und von KI-manipuliertem Material – sogenannte Deepfakes – sollen laut Gesetzesentwurf bestraft werden. Beispielsweise, schreibt das Bundesjustizministerium in einer Erklärung, könne das „Abbild einer Person mit künstlich generierten nackten Körperteilen verbunden und im Falle der Erstellung von Videos mit künstlich generierten Lauten, Geräuschen oder Sätzen unterlegt werden“. Geldstrafen und Haftstrafen bis zu zwei Jahre stehen im Raum. 

Ob das reicht, hängt nach Ansicht von Hateaid von der konkreten Ausgestaltung ab. „Entscheidend ist, dass auch nicht vollständig nackte, aber eindeutig sexualisierte Deepfakes erfasst werden“, sagte von Hodenberg. Es brauche zudem Aufklärung über oder ein Verbot von Software, die Deepfakes erst ermögliche. Auch Pornoplattformen müssten in die Pflicht genommen und die Löschung derartiger Inhalte erleichtert werden.