KI ohne Verantwortung?
Grok, X und sexualisierte Deepfakes
Binnen weniger Tage zeigte sich auf X, wie nahtlos sich generative KI in soziale Medien einfügt – und wie schnell daraus ein System systematischer Rechtsverletzungen entsteht. Mithilfe des integrierten KI-Tools Grok ließen Nutzer Fotos in sexualisierte Darstellungen umarbeiten und diese unmittelbar veröffentlichen. Betroffen waren vor allem Frauen; zudem kursierten Berichte über entsprechende Darstellungen von Minderjährigen. Erst nach massiver öffentlicher Kritik erklärte Elon Musk am 15. Januar 2026, man habe technische Gegenmaßnahmen ergriffen. Kurz darauf ließ die Pariser Staatsanwaltschaft Räumlichkeiten von Musks Online-Plattformen durchsuchen und lud Musk sowie die frühere X-Chefin Linda Yaccarino zur Vernehmung vor.
Die enge Kopplung von generativer KI und sozialer Plattform eröffnet nicht nur neue Nutzungsmöglichkeiten, sondern verschiebt Verantwortlichkeit und Kontrolle. Wo KI-generierte Inhalte ohne nennenswerte Hürden in eine massenmediale Öffentlichkeit eingespeist werden, stellt sich nicht mehr allein die Frage nach individuellem Fehlverhalten, sondern nach der rechtlichen Einhegung einer technisch vermittelten Öffentlichkeit insgesamt.
Das soziale Medium und die KI
Das soziale Netzwerk X (vormals Twitter) fungiert heute als asynchrone Öffentlichkeit. Algorithmische Empfehlungen, Reposts und Trends sorgen dafür, dass Inhalte binnen kurzer Zeit massenhaft zirkulieren. X ist damit zu einer zentralen Infrastruktur für öffentlichen Austausch geworden, in der Sichtbarkeit und Reichweite wesentlich mitbestimmen, welche Themen sozial wirksam werden. Entsprechend folgenreich sind Entscheidungen über Produktgestaltung, Moderation und Zugang.
Betreiber der Plattform ist die X Corp; die strategische Steuerung liegt weitgehend bei Elon Musk, der X als Kern seiner „Everything-App“-Vision versteht. Davon formal getrennt, funktional aber eng verbunden, ist Grok, ein generatives KI-System des Unternehmens xAI. Als integriertes Feature von X ist es für Nutzer eine gewisse „Black Box“. Grok basiert auf einem Large Language Model (LLM) mit Bildfunktionen und ermöglicht – wie die hier relevanten Vorgänge zeigen – reale Fotos zu bearbeiten und in sexualisierte Darstellungen zu transformieren. Dass Ergebnisse von Grok-Anfragen direkt auf der Plattform veröffentlicht werden, ist Teil der bekannten und etablierten Funktionsweise von X und ist kein technischer Ausnahmefall, sondern vielmehr Idee des Designs.
Die öffentliche Reaktion auf diese Vorgänge fiel entsprechend deutlich aus. Behörden nahmen Ermittlungen auf, etwa in Kalifornien, begleitet von intensiver Medienberichterstattung und Petitionen. Erst später kündigten xAI und X an, entsprechende Bildbearbeitungen künftig zu blockieren, jedenfalls dort, wo entsprechende Inhalte als illegal einzustufen sind.
Wer hat die bildbasierte sexualisierte Gewalt ausgeübt?
Die öffentliche Verbreitung verfremdeter Bilder realer Frauen und Minderjähriger stellt eine Form bildbasierter sexualisierter Gewalt dar. Sie wirkt auch ohne physischen Übergriff gewaltsam, weil sie den Betroffenen die Kontrolle über die Darstellung ihres eigenen Körpers entzieht, ihre sexuelle Selbstbestimmung gegen ihren Willen überschreibt und sie öffentlich entwürdigt. Der Eingriff trifft damit nicht nur die Privatsphäre, sondern greift tief in personale Integrität und soziale Existenz ein – in einer Weise, die klassischen Gewaltformen vergleichbar ist, auch wenn sie nicht körperlich erfolgt.
Ausgeübt wurde diese Gewalt nicht durch „die KI“ selbst. Gehandelt haben Nutzer, die Grok gezielt einsetzten, um entsprechende Bilder zu erzeugen und öffentlich zu verbreiten. Möglich wurde dies durch die konkrete Ausgestaltung von Grok. Obwohl die Vorgänge bekannt waren, griffen die Verantwortlichen von X zunächst nicht ein.
Zwar wird im Zusammenhang mit KI häufig über Verantwortungsdiffusion diskutiert.1) Eine solche Konstellation liegt hier jedoch nicht vor. Es handelte sich nicht um unvorhersehbare, autonome Entscheidungen eines Systems, sondern um den gezielten Einsatz eines technischen Werkzeugs. Spätestens nach den ersten Fällen stand fest, dass Grok auf entsprechende Prompts zuverlässig sexualisierte Darstellungen erzeugte und diese öffentlich verbreitete.
Im Hintergrund: Tech-Bro-Culture
Nutzer von X handeln nicht im luftleeren Raum. Sie bewegen sich innerhalb eines gestalteten Systems von Öffentlichkeit, dessen Betreiber Reichweite, Sichtbarkeit und Schutzmechanismen festlegen. Wer diese Struktur schafft und trotz erkennbarer Risiken auf angemessene Sicherungen verzichtet, trägt Verantwortung für die Bedingungen, unter denen systematische Rechtsverletzungen ermöglicht werden.
Diese Verantwortung lässt sich nur vor dem Kontext einordnen, in dem sich die Vorgänge ereignen. Im Zusammenspiel von Grok und X kumuliert erhebliche private Macht: Technische Erzeugungsmacht (KI), infrastrukturelle Verbreitungsmacht (Plattform) und normative Gestaltungsmacht (Regeln, Defaults, Sichtbarkeit) liegen in den Händen der Tech-Oligarchie.2) Diese Machtkonzentration prägt nicht nur Nutzungsoptionen, sondern auch soziale Erwartungen und Grenzziehungen.
Soziale Medien sind längst mehr als private Kommunikationsdienste. Sie sind Orte politischer Teilhabe, beruflicher Sichtbarkeit und sozialer Anerkennung. Wird in diese Räume ein KI-System integriert, mittels dessen sich unter anderem sexualisierte Bildmanipulationen mit minimaler Hürde erzeugen und verbreiten lassen, verschiebt sich die gesellschaftliche Risikolage. Auffällig ist, wie schnell daraus auch misogyne Machtausübung entsteht. Betroffene Frauen hören nicht selten, sie hätten eben „keine Bilder posten“ sollen. Das ist mehr als „bloßes“ Victim Blaming. Es wirkt wie eine informelle Verhaltensnorm, die Frauen den Preis der öffentlichen Sichtbarkeit vorrechnet und ihnen nahelegt, sich aus der digitalen Öffentlichkeit zurückzuziehen.
In dieser Gemengelage wird deutlich, dass Recht – auch das Strafrecht – nicht nur individuelle Rechtsgüter schützt, sondern soziale Räume einhegt: Es setzt unter anderem Grenzen dafür, wie Menschen einander in der Öffentlichkeit begegnen dürfen. Private Plattformen stellen diese Einhegung auf die Probe. Sie erfüllen öffentliche Funktionen, ohne selbst öffentliche Institutionen zu sein, und entziehen sich zugleich häufig dem effektiven Zugriff nationaler Rechtsordnungen. Die Wirksamkeit bestehender Schutzregeln hängt damit zunehmend von technischen Gestaltungsentscheidungen privater Akteure ab.3)
Strafrechtliche Verantwortlichkeiten
Was bedeutet das alles strafrechtsdogmatisch? Können deutsche Staatsanwaltschaften sowohl die Grok nutzenden Personen als auch die Verantwortlichen von Grok/X verfolgen?
Dafür ist zunächst zu klären, ob das geltende Strafrecht einen einschlägigen Tatbestand bereithält. In Betracht kommt § 201a StGB, der dem Schutz des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen dient. Dessen Anwendungsbereich ist jedoch von vornherein begrenzt. Für eine Strafbarkeit nach Absatz 1 wird bei synthetischen Bildern schon ein „Herstellen“ verneint.4) Auch § 201a Abs. 2 StGB, der das unbefugte Zugänglichmachen einer Bildaufnahme mit der Eignung einer Ansehensschädigung unter Strafe stellt, wird bei synthetischen sexualisierten Abbildungen überwiegend verneint.5) Erstens weil ein Deepfake nicht als „Bildaufnahme“ angesehen wird, zweitens weil die Eignung zur Ansehensschädigung bei sexualisierenden Aufnahmen verneint wird, drittens weil § 201a Abs. 3 StGB Nacktbilder ausdrücklich nur unter weiteren Voraussetzungen – etwa bei Minderjährigkeit oder Entgeltlichkeit – erfasst.
Außerhalb des StGB bleibt allerdings die Strafbarkeit nach § 33 KUG in Verbindung mit §§ 22 f. KUG. Danach ist das Verbreiten oder öffentliche Zur-Schau-Stellen eines Bildnisses ohne Einwilligung strafbar, sofern kein Erlaubnistatbestand des § 23 KUG greift. Erscheinen die dargestellten Personen für einen Durchschnittsbetrachter als Kinder oder Jugendliche, treten zudem die Pornographiedelikte der §§ 184b f. StGB hinzu.
Da Deepfakes de lege lata im StGB also jedenfalls nur lückenhaft erfasst sind, überrascht es nicht, dass der Gesetzgeber reagiert. Mit dem geplanten § 201b StGB-E soll das Phänomen ausdrücklich reguliert werden. Ungeachtet handwerklicher Fragen erscheint die Stoßrichtung des Entwurfs grundsätzlich nachvollziehbar. Die Problematik der Gesetzeslücke wird eingängig von Theresia Crone diskutiert, die eine recht weitgehende, auch die Erstellung pornographischer Deepfakes erfassende Strafbarkeit fordert.
Verantwortung jenseits der Nutzer: KI-Integration als aktiv gesetztes, unerlaubtes Risiko
Vor dem Hintergrund der beschriebenen Machtverschiebungen stellt sich de lege lata nicht nur die Frage nach der Verantwortlichkeit einzelner Nutzer. Zu klären ist ebenso, wer für die Ermöglichung dieses Unrechts einzustehen hat.
Die damit gestellte Zurechnungsfrage ist neuartig und vielschichtig. Schon über den etwas breiter diskutierten Grundfall (Nutzer erstellen extern sexualisierte Abbildungen und verbreiten sie auf X) herrscht kein Konsens: Anknüpfungspunkt ist hier nach allgemeinen strafrechtlichen Grundsätzen das Unterlassen der Löschung, nicht der aktive (Weiter-)Betrieb der Plattform, da das mit dem Betrieb insgesamt verbundene Risiko rechtswidriger Inhalte die neutrale Nutzung nicht überwiegt. Entscheidend ist dann die Kenntnis des konkreten Inhalts. Diese liegt regelmäßig erst nach einer Meldung bei Contentmoderatoren vor, nicht aber bei den für Infrastruktur und Produktdesign Verantwortlichen. Umstritten und in der Strafverfolgungspraxis bislang ungeklärt ist schließlich die Garantenpflicht der Betreiber – bzw. abgeleitet ihrer Contentmoderatoren – für eine Löschung der Beiträge.6)
Mit der Integration von Grok in X ändern sich derweil entscheidende Aspekte. So etwa schon bezüglich der möglichen Anknüpfungspunkte für eine strafrechtliche Verantwortlichkeit: Neben die unterlassene Löschung eines strafrechtswidrigen Beitrags tritt nun die Programmierung und die Integration von Grok. Diese auf das gesamte Produktdesign gerichteten Begehungsstrafbarkeiten wären gegenüber der unterlassenen Löschung einzelner Inhalte vorrangig zu betrachten. Und wieder wäre zu fragen: Handelt es sich bei der Programmierung und Integration um die Setzung erlaubter Risiken? Unseres Erachtens, mit Blick auf die spezifischen Gefahrgeneigtheiten vergleichbarer Bildgeneratoren (wie etwa ChatGPT/Dall-E), eher nicht. Denn zum Zeitpunkt der Integration wurden bei diesen Anwendungen, anders als bei Grok, entsprechende Bildgenerierungen den anfragenden Nutzern längst verwehrt.
Diese Einordnung findet ihre regulatorische Entsprechung in den Wertungen des Digital Services Act. Art. 6 DSA statuiert eine Haftungsprivilegierung für Host-Provider, die – auch mit Blick auf das Strafrecht – eine Verantwortlichkeit ausschließt, solange keine konkrete Kenntnis von rechtswidrigen Inhalten besteht oder nach Kenntniserlangung unverzüglich reagiert wird. Plattformen wie X fallen grundsätzlich in den Anwendungsbereich dieser Regelung. Offen ist aber bislang, wie Large Language Models wie ChatGPT oder Grok einzuordnen sind. Als Host-Provider lassen sich die Betreiber der LLMs jedenfalls nicht ohne Weiteres qualifizieren, da bei ihnen nicht die bloße Speicherung fremder Informationen, sondern die aktive Verarbeitung und Generierung von Inhalten im Zentrum steht. Allenfalls käme eine analoge Anwendung der Haftungsprivilegierung in Betracht. Selbst dann stellt sich jedoch die Frage, ob von einer vergleichbaren Interessenlage gesprochen werden kann, wenn der Dienst nicht neutral operiert, sondern die Erzeugung rechtsverletzender Inhalte ermöglicht oder jedenfalls nicht wirksam verhindert.7) Das gilt für die Grok-Anwendung als solche. Für die Plattform X als Host-Provider ließe sich in Bezug auf den gespeicherten Inhalt ebenfalls bezweifeln, ob noch eine neutrale, passive Rolle anzunehmen ist. Es spricht also vieles für eine Ablehnung des Haftungsprivilegs.
Vorsatz und Zurechnung bei infrastruktureller Mitwirkung
Der Fokus der strafrechtlichen Prüfung verlagert sich damit auf die Vorsatzanforderungen der Programmierer und der für Grok verantwortlichen Entscheidungsträger. Hier liegt ein Kernproblem der strafrechtlichen Zurechnung. Maßgeblich ist, wie konkret die Vorstellung von der späteren Tat beschaffen sein muss, um noch einen Eventualvorsatz annehmen zu können.
Weit überwiegend wird diese Frage nicht abstrakt, sondern differenziert nach der jeweiligen Beteiligungsform beantwortet. Für den Gehilfen – eine Rolle, die für die Verantwortlichen bei Grok naheliegen dürfte – genügt es, dass er die wesentlichen Merkmale der Haupttat erkennt, insbesondere deren Unrechts- und Angriffsrichtung. Für die Strafverfolgungspraxis wäre also im Einzelnen zu klären, wann für die jeweiligen X/Grok-Akteure die Möglichkeit bekannt war, mithilfe von Grok auf X sexualisierte Bilder anderer Nutzer generieren zu lassen.8) Ab diesem Zeitpunkt kommt ein Vorsatz in Betracht, auch wenn weder konkrete Haupttäter noch einzelne Tatopfer oder der genaue Tatzeitpunkt Teil der Vorstellung waren.
Diese Verengung des Vorstellungsbildes stellt im Medienstrafrecht allerdings eher die Ausnahme dar. Typischerweise finden sich dort Konstellationen (z.B. DarkNet-Plattformen), in denen die Betreiber mit einer Nutzung für unterschiedlichste Delikte und Unrechtsarten rechnen, ohne dass sich das Vorstellungsbild im Vorhinein derart verdichtet.
Weltweite Geltung des deutschen Medienstrafrechts?
Selbst wenn eine strafrechtliche Verantwortlichkeit dem Grunde nach in Betracht kommt, bleibt schließlich zu klären, ob überhaupt deutsches Strafrecht anwendbar ist. Nach § 9 Abs. 2 S. 1 StGB gilt die Teilnahme jedenfalls auch an dem Ort als begangen, an dem die Haupttat begangen wird. Der Tatort bestimmt sich sowohl nach dem Handlungs- als auch nach dem Erfolgsort (§ 9 Abs. 1 StGB).
Steuert der Nutzer als Haupttäter den Grok-Chatbot von Deutschland aus an, dürfte deutsches Strafrecht daher auch gegenüber im Ausland handelnden Gehilfen Anwendung finden. Schwieriger ist die Konstellation, in der sich der Nutzer bei der Tat im Ausland befindet. In diesen Fällen kommt es entscheidend darauf an, wo der tatbestandliche Erfolg der Verbreitungsdelikte eintritt – und damit darauf, ob sich der Angriff auf das geschützte Rechtsgut im Inland realisiert.
Insofern ist zu beachten, dass der dritte Strafsenat des BGH sich schon wiederholt auf den (umstrittenen) Standpunkt stellte, dass abstrakte Gefährdungsdelikte und Eignungsdelikte gar keinen Erfolgsort aufwiesen.9) Um ein solches Eignungsdelikt handelt es sich beispielsweise auch bei § 201a Abs. 2 StGB, nicht aber bei § 201b Abs. 1 StGB-E und auch nicht bei § 33 KUG. Unabhängig davon stellt sich die grundsätzliche Frage, ob die Handlungen des Zugänglichmachens oder Verbreitens einen ausreichenden Erfolgssachverhalt aufweisen.10) Bejaht man die Frage, droht bekanntlich eine völkerrechtlich und außenpolitisch bedenkliche weltweite Geltung deutschen Strafrechts für Internetsachverhalte.11)
Fazit
Der Fall Grok/X zeigt, wie sehr sich das Verhältnis von Öffentlichkeit, Technik und Verantwortlichkeit verschiebt, wenn generative KI nicht nur Inhalte erzeugt, sondern diese auch direkt über eine Plattform mit massiver Reichweiten- und Sichtbarkeitsmacht in den öffentlichen Raum gelangen. Das Unrecht – hier in Form bildbasierter sexualisierter Gewalt – geht zwar von Nutzern aus, wird jedoch durch eine bewusst gestaltete Infrastruktur systematisch begünstigt. Die nachträglich eingeführten technischen Begrenzungen und ein Blick auf Beschränkungen funktionsähnlicher Anwendungen legen nahe, dass Missbrauch durchaus früher begrenzbar gewesen wäre.
Aktuelles Strafrecht muss weiterhin individuelle Grenzüberschreitungen erfassen, ohne blind zu sein für die strukturelle Machtkonzentration, in deren Schatten sich solche Taten massenhaft ereignen. Entscheidend ist daher nicht allein, ob das einzelne Deepfake strafbar ist oder künftig strafbar sein sollte. Zur Debatte steht vielmehr, ob das Strafrecht den digitalen öffentlichen Raum als solchen noch wirksam einhegen kann, wenn dieser faktisch von wenigen Plattformbetreibern geformt wird. Im Fall von Grok/X spricht einiges dafür, dass die Strafbarkeit (ausnahmsweise?) auch jene treffen kann, die über die architektonische Gestaltung dieser digitalen Marktplätze entscheiden.
Zugleich bleiben die Grenzen offensichtlich. Nicht nur die Reichweite des deutschen Strafrechts ist begrenzt, sondern auch seine praktische Durchsetzbarkeit stößt angesichts globaler Plattformmacht auf erhebliche politische Hürden. Diese faktische Machtabhängigkeit der staatlichen Rechtsdurchsetzung von privaten Infrastrukturen markiert ein weiteres wichtiges Problem, das weit über den Fall Grok/X hinausweist – und weiterer, vertiefter Diskussion bedarf.
References
| ↑1 | Etwa wenn eine Arbeitnehmerin nicht selbst darüber entscheiden kann, dass sie im beruflichen Kontext eine KI nutzen soll, vgl. Beck, MschrKrim 2023, 29. |
|---|---|
| ↑2 | Zu den vielen Problemen dieser Entwicklung vgl. etwa Chang, Brotopia, 2019; Mühlhoff, Künstliche Intelligenz und der neue Faschismus, 2025; Schaake, The Tech Coup, 2024. |
| ↑3 | Zum Verhältnis privater und staatlicher Normen Beck/Nussbaum, Neue Formen regulativer Kooperation – Zum Verhältnis technischer Normen und Gemeinschaftsstandards sozialer Netzwerke zu staatlichem Strafrecht, in: Beck/Meder (Hrsg.), Jenseits des Staates? Über das Zusammenwirken von staatlichem und nicht-staatlichem Recht, 2021, S. 35 ff. |
| ↑4 | Lantwin, MMR 2020, 78 (79). |
| ↑5 | Eisele/Duman, ZfIStw 2025, 69 (77); van Bergen, Abbildungsverbote im Strafrecht, Berlin 2018, S. 256; Greif, Bildbasierte sexualisierte Belästigung, 2023, S. 138. Ausführlich zu den Einwänden gegen die Erfassung von Deep Nudes von § 201a Abs. 2 StGB Nussbaum, In den Fesseln des Ehrschutzes? – Zur Strafbarkeit der Verbreitung synthetischer intimer Bildinhalte (im Erscheinen). |
| ↑6 | Ausführlich Nussbaum, Die strafrechtliche Verantwortlichkeit von Anbietern (innerhalb) sozialer Netzwerke, Berlin 2025, S. 186 ff. (Verhaltensformfrage), 247 ff. (erlaubtes Risiko und DSA), 434 ff. (Garantenpflicht). |
| ↑7 | Zum außertatbestandlichen Neutralitätskriterium im DSA Nussbaum, Anbieter, S. 144 ff. |
| ↑8 | Die Feststellung des Zeitpunkts, zu dem Eventualvorsatz entsteht, wirkt auf die Frage zurück, ob weiterhin eine Begehungsstrafbarkeit wegen der Integration oder weiterer aktiver Betriebshandlungen vorliegt. Liegt der Zeitpunkt, in dem die vorsatzbegründenden Umstände eintreten, hinter der Integration und fehlt es an aktiven Anknüpfungspunkten, bleibt nur eine Unterlassensstrafbarkeit wegen fehlender Anpassung oder Desintegration der Grok-Anwendung. Die Garantenstellung könnte sich dann aus der Herrschaft über eine Gefahrenquelle ergeben. Ein ähnlich komplexes Bild hinsichtlich der Verhaltensform lässt sich bei der massenhaften Pervertierung einer zuvor neutralen Plattform beobachten (vgl. dazu Nussbaum, Anbieter, S. 193 ff.). |
| ↑9 | Zu § 130 Abs. 3 StGB BGH NStZ 2017, 146; zu § 86a StGB BGH NStZ 2015, 81; anders hinsichtlich § 130 Abs. 3 StGB zuvor noch BGH NStZ 2001, 305. |
| ↑10 | Popp, in: NK-Medienstrafrecht, § 9 Rn. 18 spricht insofern von „unsicheren Kandidaten“. |
| ↑11 | Statt vieler Popp, in: NK-Medienstrafrecht, § 9 Rn. 17. |



