Bildbasiert aber unsichtbar
Warum pornografische Deepfakes eigenständig verboten werden müssen
„Hey Grok, put her in a bikini“. Seitdem das KI-Tool Grok ermöglicht, Bilder in wenigen Sekunden zu generieren, wird Elon Musks Social-Media-Plattform X mit sexualisierten Bildfälschungen geflutet: Das Center for Countering Digital Hate schätzt anhand einer Stichprobe, dass Grok etwa 3 Millionen sexualisierte Bilder in weniger als zwei Wochen generiert hat. Im Januar wurde die Plattform X damit zur größten KI-Pornoseite im Internet. Als sich Musk mit internationalen Forderungen konfrontiert sah, das Erstellen von Nacktbildern auf X zu verbieten, provozierte er unverhohlen weiter: Er postete selbst ein von Grok generiertes Foto von sich im Bikini und machte sich über die öffentliche Aufregung lustig. Erst nachdem mehrere Länder Ermittlungen gegen die Website eingeleitet hatten, lenkte X ein und kündigte „technische Maßnahmen“ an.
Doch diese Maßnahmen werden den hunderttausenden Menschen, deren Persönlichkeitsrechte in den letzten Wochen auf X verletzt wurden, nicht mehr helfen. Diese Menschen werden außerdem nicht die letzten sein, die diese Form von digitaler Gewalt erfahren. Manche von ihnen werden sich an den deutschen Rechtsstaat wenden, um Schutz zu suchen. Sie werden – wie ich – frustriert feststellen, dass diese Gewalt für das Strafrecht bisher unsichtbar scheint: Im Dezember 2023 habe ich, damals 21 Jahre alt, Dutzende Deepnudes von mir auf einer großen Social-Media-Plattform gefunden. Als Jurastudentin und Rechtsstaat-Enthusiastin erstattete ich sofort Strafanzeige. Bereits hier gab es die erste große Enttäuschung, denn das Sexualstrafrecht erfasst pornografische Deepfakes in der Regel nicht. In den nächsten zwei Jahren fühlte ich mich von der Justiz allein gelassen. Sowohl die Debatte um Grok als auch meine Erfahrungen zeigen: Es braucht einen eigenen Straftatbestand, der pornografische Deepfakes bereits ab der Erstellung kriminalisiert.
Ein eigener Straftatbestand für Deepfakes
Bisher fehlt ein eigenständiger Straftatbestand für pornografische Deepfakes. Das führt zu einer unklaren Rechtslage, weil andere Straftatbestände nicht immer greifen. So ist das Verbreiten kinderpornographischer Inhalte (§ 184b I 1 Nr. 3 StGB) auf Deepfakes von Volljährigen nicht anwendbar, und die herrschende Meinung legt den Beleidigungstatbestand (§ 185 StGB) so restriktiv aus, dass sexualbezogene Deepfakes nur erfasst sind, wenn sie die Minderwertigkeit des Opfers zum Ausdruck bringen sollen (vgl. BGH 3 StR 318/92). Polizeibehörden und Staatsanwaltschaft reagieren deshalb zögerlich und stellen die meisten Verfahren zügig ein. Bei mir hat es etwa anderthalb Jahre gedauert, bis die Polizei beweissichernde Maßnahmen ergriffen hat, obwohl sie den mutmaßlichen Täter bereits nach wenigen Wochen ermittelt hatte.
Die Bundespolitik ist sich dieser Schutzlücke durchaus bewusst. Das zeigt bereits der Koalitionsvertrag:
„Wir reformieren das Cyberstrafrecht und schließen Strafbarkeitslücken, zum Beispiel bei bildbasierter sexualisierter Gewalt. Dabei erfassen wir auch Deep Fakes und schließen Lücken bei deren Zugänglichmachung gegenüber Dritten.”
Justizministerin Hubig erklärte kürzlich, dass sie das Strafrecht in diesem Bereich nachschärfen möchte. Um das allgemeine Persönlichkeitsrecht zu schützen, legte der Bundesrat inzwischen einen strafrechtlichen Gesetzesentwurf vor, der jetzt beim Bundestag liegt. Der Entwurf will einen neuen § 201b StGB einführen, der das Erstellen von Deepfakes erfasst, sofern diese Bilder oder Videos anschließend einem Dritten zugänglich gemacht werden und die Tathandlung nicht in Wahrnehmung überwiegender berechtigter Interessen erfolgt (etwa der Kunstfreiheit oder der Wissenschaftsfreiheit).
Die politische Debatte konzentriert sich also bislang fast ausschließlich darauf, ob und wie die Verbreitung von Deepfake-Medien strafbar sein soll. Währenddessen kriminalisieren viele andere Länder bereits die Erstellung pornografischer Deepfakes, etwa Südkorea, Texas, Australien und die Niederlande. In Großbritannien und Dänemark sind ähnliche Regelungen geplant.
Nicht alle Deepfakes sind gleich
Der Bundesrat will mit § 201b StGB-E wohl eine undifferenzierte Vielzahl von Deepfake-Sachverhalten in einen Topf werfen. In der Begründung erkennt er zu Recht an, dass das allgemeine Persönlichkeitsrecht auch technisch manipulierte oder künstlich erzeugte Medieninhalte erfasst und vor deren Verbreitung schützt. Doch pornografische Sachverhalte unterscheiden sich maßgeblich von nicht-pornografischen. Vor allem die Effekte pornografischer Deepfakes – als Ausdruck sexualisierter Gewalt – sind anders zu bewerten. Zwar erkennt der Entwurf an, dass Vorgänge im Bereich der Sexualität den „höchstpersönlichen Lebensbereich“ tangieren und damit „zu schwerwiegenden Beeinträchtigungen“ führen können (S. 17). Als eng konturierte Fallgruppe mit spezifischem Unrechtsgehalt sollten sie eigenständig erfasst sein. Sonst könnte der Versuch, alle Fallkonstellationen in einem einzigen Straftatbestand zu erfassen, zu einer entgrenzten Kriminalisierung führen.
Auf der anderen Seite versagt der Gesetzesentwurf des Bundesrates genau hier. Er berücksichtigt die pornografischen Fälschungen lediglich strafschärfend (§ 201b Abs. 2 StGB–E). Stattdessen wäre es sinnvoller, in Abs. 2 das Erstellen als eigenständige Tathandlung aufzunehmen. Denn bei pornographischen Deepfakes tritt die Rechtsgutverletzung nicht erst dadurch ein, dass der Inhalt einem Personenkreis zugänglich gemacht wird. In dem Moment, in dem ein täuschend echter Porno von mir erstellt wird, ist mein allgemeines Persönlichkeitsrecht in seinem würdehaltigen Kernbereich, der Intimsphäre, betroffen.1) Betroffene Teilaspekte von Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG sind das Recht auf sexuelle Selbstbestimmung sowie das Recht am eigenen Bild. Dabei handelt es sich – wie der Gesetzesvorschlag auch richtig erfasst – im höchstpersönlichen Lebensbereich um „Umstände, die unbeteiligten Dritten nicht oder nicht ohne Weiteres zugänglich sind und die gesteigerten Schutz vor dem Einblick Außenstehender verdienen“ (S.17).
Wer vor dem Einblick Außenstehender schützen will, muss verhindern, dass dieser Einblick überhaupt entsteht – also im Moment der Herstellung ansetzen. Indem der Gesetzesvorschlag erst das Zugänglichmachen kriminalisiert, berücksichtigt er also nicht das gesteigerte Schutzinteresse von Betroffenen wie mir. Außerdem könnte eine Strafbarkeit bereits der Erstellung pornografischer Deepfakes einer Verbreitung vorgreifen, etwa wenn die Polizei bei einer Hausdurchsuchung Dutzende oder Hunderte lokal gespeicherte Deepfakes von volljährigen Frauen finden würde. Bislang hätten diese Bilder keinerlei strafrechtliche Konsequenzen, weil sich eine Verbreitung durch den Täter nur selten beweisen lässt, etwa wenn sie über anonyme oder kurzlebige Accounts stattfindet oder per verschlüsselten Kommunikationsdiensten.
Es geht nicht um Politiker, sondern um Frauen
Der Bundesrat begründet seinen Gesetzentwurf vor allem damit, dass Deepfakes „sowohl für individuelle Persönlichkeitsrechte und Vermögenswerte als auch für den demokratischen Willensbildungsprozess“ eine Gefahr darstellen, und verweist insbesondere auf das Risiko für Desinformation. Daran zeigt sich wieder, dass eine allgemeine Regelung, die pornografische und nicht-pornografische Inhalte gleichsetzt, nicht aufgeht – sowohl kriminologisch als auch dogmatisch.
So wichtig das Bekämpfen von Desinformation ist, so verschoben ist deren Priorisierung im Kontext von Deepfakes. Denn Deepfakes betreffen nicht überwiegend Politiker*innen, sondern Frauen. So kam eine Studie aus dem Jahr 2019 zu dem Ergebnis, dass 96% der verfügbaren Deepfakes im Internet pornografischer Natur sind. Eine neuere Untersuchung stellte fest, dass etwa 98 % der nicht-konsensuellen Deepfakes im Jahr 2023 sexualisiert waren. Diesen Untersuchungen zufolge handelt es sich bei 99 bis 100 % dieser pornografischen Deepfakes um Darstellungen von Frauen oder Kindern. Auch wenn in den letzten zwei Jahren der allgemeine Gebrauch von KI zur Bildgenerierung massiv zugenommen hat, dürften die aktuellen Zahlen ähnlich sein. Für das KI-Tool Grok hat eine Untersuchung die erstellten Deepfakes im Zeitraum vom 5. bis zum 6. Januar 2026 ausgewertet. Pro Stunde wurden von den X-Nutzern über 7.800 Deepfakes erstellt, davon waren 85 % sexualisiert.
Tauchen manipulierte Bilder und Videos im Kontext von demokratischen Willensbildungsprozessen auf, zeigen sie oft Politiker*innen in humoristischer Form und sind unter Umständen sogar von der Kunstfreiheit oder der freien Meinungsäußerung geschützt. Wenn nicht-konsensuelle Deepfakes tatsächlich Desinformation verbreiten – etwa indem sie Politiker*innen Aussagen in den Mund legen, die diese nie getroffen haben – ist die dahinterstehende Desinformation zumeist geschlechtsspezifisch. Desinformationskampagnen betreffen überproportional Politikerinnen und Frauen in der politischen Öffentlichkeit und verwenden dabei misogyne Narrative. Oft werden in diesem Kontext auch pornografische Deepfakes erstellt und verbreitet.
Diese Form digitaler Gewalt ist also in den meisten Fällen ein Ausdruck geschlechtlicher Machthierarchien. Dabei haben pornografische Deepfakes einen erheblichen chilling effect auf die gesellschaftliche, vor allem politische Partizipation von Frauen. Sexualisierte digitale Gewalt wirkt sich also erheblich auf die politische Willensbildung aus, indem sie die betroffenen Frauen aus der politischen Öffentlichkeit drängt.2) So kam eine Studie von HateAid zu dem Ergebnis, dass 49 % der von digitaler Gewalt betroffenen Frauen langfristig darüber nachdachten, bewusst keine (politische) Position anzunehmen, die besonders häufig digitaler Gewalt ausgesetzt ist. Der Gesetzesvorschlag verkennt diese geschlechtsbezogene Dimension von Desinformation leider völlig. Dabei verlangt Art. 3 Abs. 2 S. 2 GG, Frauen nicht nur formal gleich zu behandeln, sondern auch auf die Beseitigung bestehender Nachteile hinzuwirken – fordert also tatsächlich wirksame Gleichberechtigung (s. BVerfGE 85, 191(206f.)). Zugleich verpflichtet die Istanbul-Konvention Deutschland, Gewalt gegen Frauen mit geeigneten Maßnahmen zu bekämpfen. Auch die EU-Gewaltschutzrichtlinie verlangt, dass Deutschland Schutzmaßnahmen umsetzt. Doch Frauen vor Gewalt zu schützen, scheint in der Bundesratsinitiative eher Nebensache zu sein.
Das Laster der ständigen Abwägung
Auch dogmatisch wirft der Gesetzesentwurf einige Fragen auf. § 201b Abs. 3 StGB-E nimmt Deepfakes aus dem Tatbestand aus, die mit überwiegendem berechtigten Interesse erstellt wurden. So verlagert der Entwurf die Abwägung zwischen der Kunstfreiheit der Ersteller*innen und dem allgemeinen Persönlichkeitsrecht der Dargestellten in den Tatbestand selbst. Damit wären – unnötig kompliziert – in der Praxis bereits im Strafverfahren umfangreiche verfassungsrechtliche Abwägungen nötig (Woerlein, MMR-Aktuell 2024, 01624).
Diese Tatbestandsausnahme ist ausdrücklich auf Abs. 2 und somit auf pornografische Deepfakes anwendbar. Die Kunstfreiheit aus Art. 5 Abs. 3 GG kann dabei grundsätzlich auch die Erstellung pornografischer Inhalte schützen, soweit diese Ergebnis freier schöpferischer Gestaltung sind (s. BVerfGE 83, 130). Nach dem offenen Kunstbegriff des Bundesverfassungsgerichts kommt es hierfür weder auf Qualität noch auf gesellschaftliche Akzeptanz an. In der Konsequenz lässt sich so tatbestandslos ein pornografischer Deepfake einer realen Person erstellen und verbreiten – unter Berufung auf die Kunstfreiheit. Das ist mehr als irritierend, denn bei Eingriffen in die menschenwürdenahe Intimsphäre gelten besonders strenge verfassungsrechtliche Rechtfertigungsanforderungen, die einer pauschalen, tatbestandlichen Öffnung für eine Abwägung regelmäßig entgegenstehen. Der Gesetzgeber könnte dies vermeiden, indem er in Abs. 2 das Erstellen pornografischer Deepfakes als eigenständige Tathandlung aufnimmt und von dem Tatbestandsausschluss in Abs. 3 ausnimmt, so wie bei Deepfakes von verstorbenen Personen, § 201b Abs. 2 StGB-E.
Abstrakt gefährlich
Wer bei der hier erhobenen Forderung reflexartig von einer „Vorverlagerung der Strafbarkeit“ spricht, übersieht, dass das Strafrecht vergleichbare Konstellationen längst erfasst: § 184b Abs. 1 Satz 1 Nr. 3 und § 184c Abs. 1 Satz 1 Nr 3 StGB stellen bereits das Herstellen „wirklichkeitsnaher“ sexualisierter Bilder von Kindern und Jugendlichen unter Strafe. Dafür verlangt der Gesetzgeber weder eine Rechtsgutsverletzung einer einzelnen Person noch eine objektiv zurechenbare Rechtsgutsverletzung. Die generierten Nudes oder Pornos müssten also nur Kinder und Jugendliche darstellen, nicht aber eine real existierende Person. Damit will der Gesetzgeber insbesondere verhindern, dass der Konsum von digitalen Gewaltdarstellungen zu einer Nachahmung im analogen Leben führt. Ziel ist es also, Missbrauch an Kindern und Jugendlichen zu verhindern. Die Regelung ist weiter gefasst als ein möglicher Straftatbestand für pornografische Deepfakes, der eine real existierende Person als KI-Input voraussetzt.
Die sehr weite Regelung im Bereich der Kinderpornografie wird vielfach kritisiert. Dennoch lohnt es sich, die Frage zu stellen, ob nicht auch generierte Gewaltdarstellungen von Erwachsenen die Gefahr einer Desensibilisierung bergen, der auch physische Übergriffe gegenüber Frauen folgen können. Immerhin berichten viele Betroffene, dass sie nach sexualisierten Deepfakes weitere Straftaten erleben mussten. Auch bei mir folgten den Deepfakes Drohungen, sexuelle Belästigungen und Stalking. Zudem normalisieren KI-Pornos regelmäßig sexualisierte Gewalt gegenüber Frauen. Sie tauchen immer wieder in Internetforen auf, in denen auch andere Formen sexualisierter Gewalt verherrlicht werden.
Plattformen profitieren
Deepfakes erweisen sich dabei nicht als isolierte Rechtsgutsverletzungen, sondern als Ausdruck systematischer Gewalt gegen Frauen. Das zeigt sich insbesondere auf der Plattform X. Wenn Musk sich über den Trend lustig macht, Frauen in sexualisierten Deepfakes abzubilden, sendet er ein Signal an die Täter, dass solche Praktiken geduldet werden oder sogar unterhaltsam sind. Die massenhafte Erstellung und öffentliche Sichtbarkeit sexualisierter Bildmanipulationen werden technisch erleichtert, ökonomisch verwertet und zugleich durch die kommunikative Rahmung der Plattform verharmlost.
Gerade diese Normalisierung ist für die menschenrechtliche Bewertung zentral. Der EGMR versteht geschlechtsspezifische Gewalt als strukturelles Problem, nicht nur als Summe einzelner Taten. Staaten müssten Gewaltkonstellationen frühzeitig erkennen und ihnen wirksam entgegenwirken (siehe etwa Opuz v. Turkey).
Deswegen genügt es nicht, einzelne Täter zu bestrafen. Auch die Plattformen und Programme, deren Geschäftsmodell im Generieren von nicht-konsensuellen pornografischen Bildern besteht (sog.: nudify apps), müssen verantwortlich gemacht werden können. Wer von sexualisierter, digitaler Gewalt auch finanziell profitiert, den darf der Staat nicht aus der Verantwortung entlassen, nur weil eine andere Person mit den letzten zwei Mausklicks die Tat vollendet hat: Der erste Klick generiert, der zweite Klick verbreitet. Doch nach dem Vorschlag des Bundesrats sind diese Apps lediglich Werkzeuge für die Straftat.
Das Beispiel Großbritanniens zeigt, dass Plattformen, die das Verbreiten pornografischer Deepfakes als Geschäftsmodell verfolgen, durchaus auf die Gesetzgebung reagieren. So sperrten nur zwei Tage nach der Ankündigung eines Gesetzes, das bereits die Erstellung erfasst, die zwei größten Porno-Websites für Deepfakes ihre Plattform für Großbritannien – Plattformen, die zusammen monatlich weltweit 16 Millionen Nutzer erreichen.
Auch klassische Social-Media-Plattformen profitieren derzeit von pornografischen Deepfakes durch Klicks, Reichweite und Interaktionen. Gleichzeitig hängt die Verfolgung von pornografischen Deepfakes viel zu oft von ihnen ab. Weil die Täter regelmäßig anonym handeln, ist ihre Identifizierung nur mithilfe der Plattformen möglich. Einige Plattformen wie Telegram oder X kooperieren dabei grundsätzlich nicht oder nur im Kontext schwerer Straftaten.
Ähnliches gilt bei der Löschung der Deepfakes. Auch hier trifft die Plattformen eine eindeutige Pflicht, die gemeldeten rechtswidrigen Inhalte zu löschen (gem. Notice-and-Action-Verfahren aus Art. 16 DSA). Viel zu oft gestalten die Plattform die Meldewege bereits absichtlich verwirrend. Nach der Meldung lassen sich Plattformen in meiner Erfahrung enorm viel Zeit oder reagieren überhaupt nur unter Androhung gerichtlicher Verfahren. Das vertieft die Grundrechtsverletzung, weil die Medien bis zur Löschung oft über die Google-Suche des Namens der abgebildeten Person zu finden sind. Das ist für Betroffene äußerst belastend. Sie leben mit der ständigen Angst, dass Freunde, Familie oder Arbeitgeber die generierten Nacktdarstellungen finden könnten.
Was wäre wenn?
Angesichts der wachsenden Zahl von pornografischen Deepfakes muss der Gesetzgeber einen Umgang mit dieser Form digitaler Gewalt finden. Denn die Bilder und Videos verletzen die Intimsphäre der betroffenen Person bereits bei ihrer Herstellung. Sie schreiben ihr eine sexuelle Handlung zu, die nie stattfand. Der Gesetzentwurf des Bundesrates erkennt das besondere Unrecht pornografischer Deepfakes zwar an, schützt Betroffene nur unzureichend, indem er lediglich die Zugänglichmachung kriminalisiert. Deshalb ist der Bundestag nun aufgerufen, den Entwurf so zu ändern, dass er dogmatisch konsistent und grundrechtlich angemessen vor pornografischen Deepfakes schützt. Das wäre ein großer Erfolg für die Betroffenen, die bisher allzu oft nur einen Satz zu lesen bekamen: Das Verfahren wurde eingestellt.
In meinem Fall habe ich nie Post von der Staatsanwaltschaft erhalten. Erst durch eine Recherche der ZEIT erfuhr ich im Januar 2026, dass das Gericht im August 2025 einen Strafbefehl in Form einer Geldstrafe wegen Verleumdung, Nachstellung und Verstöße gegen das Kunsturhebergesetz erließ. Damit handelt es sich um den ersten öffentlich bekannten Fall, bei dem es wegen der Verbreitung von Deepnudes überhaupt zu einer Verurteilung kam. Allerdings hat man mich nie darüber informiert, dass ein Strafbefehl erlassen wurde. Weil es bei einem Strafbefehl keine mündliche Hauptverhandlung gibt, konnte ich weder als Nebenklägerin auftreten noch ein Adhäsionsverfahren einleiten. Ich kann nur vermuten, was ein eigener Straftatbestand für pornografische Deepfakes für mich bedeutet hätte. Jedenfalls hätte ich nicht das Gefühl gehabt, dass meine bildbasierte Gewalterfahrung für den Staat unsichtbar ist.
References
| ↑1 | Siehe Valentiner, Das Grundrecht auf sexuelle Selbstbestimmung, 2021, S. 399 f.; Schmidt, “Missbrauchsdarstellungen” statt “Kinderpornographie”? Rechtliche Expertise zur Ersetzung der Begriffe der Kinder- und Jugendpornographie in den §§ 184b, 184c StGB, 2022, S. 26 f. |
|---|---|
| ↑2 | Ich selbst habe mehrfach überlegt, mich komplett aus der politischen Öffentlichkeit zurückzuziehen und kenne mehrere Frauen, die genau diese Konsequenz aus digitaler Gewalt gezogen haben. Ganz aktuell beschreibt Anna Moore dieses Phänomen im Guardian im Fall von Cara Hunter. Erfreulicherweise erkennt immerhin der europäische Gesetzgeber diese Dimension, vgl. Erwägungsgrund 2, RL 2024/1385. |



