If It Looks Like a Duck
Zum Urteil des LG München in Sachen GEMA gegen OpenAI
Wie urheberrechtlich geschütztes Material durch generative KI genutzt werden darf, zählt weltweit zu den meistdiskutierten Fragen des Urheberrechts. Der Ausgang der zahlreichen Verfahren gegen KI-Anbieter gilt vielen als grundlegende Entscheidung über die Zukunft sowohl generativer KI als auch des kulturellen Schaffens.
Das Landgericht München hat nun als erstes Gericht in der EU darüber entschieden, wie die Nutzung urheberrechtlich geschützter Materialien durch generative KI-Modelle rechtlich zu bewerten ist. Das zulasten von OpenAI ergangene Urteil bietet nicht nur Stoff für die urheberrechtliche Diskussion, sondern lässt sich auch in einen größeren Zusammenhang einbetten: Es bekräftigt das Narrativ einer intensiv regulierenden EU im Vergleich zu den marktliberalen USA. Gleichzeitig zeugt die Entscheidung von einer strengeren Haltung gegenüber großen Tech-Unternehmen als noch in den vergangenen Jahren.
Worum es ging
Die Klage vor dem LG München wurde durch die deutsche Verwertungsgesellschaft GEMA geführt, die unter anderem Rechte an den Liedtexten „Über den Wolken“ von Reinhard Mey oder „In der Weihnachtsbäckerei“ von Rolf Zuckowski wahrnimmt. Die GEMA stützte sich darauf, dass die Texte für das Training der KI-Modelle GPT-4 und GPT-4o durch OpenAI verwendet wurden und im Output von ChatGPT auftauchten. Damit stellte sich sowohl die Frage der urheberrechtlichen Zulässigkeit des Trainings generativer KI mit urheberrechtlich geschütztem Material als auch nach der Bewertung der Wiedergabe von Werken im Output der KI. Das Landgericht entschied zugunsten der GEMA und verurteilte OpenAI unter anderem zur Unterlassung von Vervielfältigungen geschützter Werke im Modell sowie von Vervielfältigungen und öffentlichen Wiedergaben im Output.
Memorisierungen im Modell als Vervielfältigungen
Das Gericht stützt seine Entscheidung vor allem darauf, dass das KI-Modell selbst Vervielfältigungen der zum Training genutzten Liedtexte enthalte (Rn. 165 ff.). Zentral ist dafür das Phänomen der Memorisierung: Zwar sind generative KI-Modelle keine Datenbanken, sondern bestehen aus vielen Parametern, die statistische Zusammenhänge der Trainingsdaten abbilden. Es ist aber möglich, dass das Modell Trainingsdaten in einer Weise inkorporiert, dass sie sich als Output extrahieren lassen. Zu solchen Memorisierungen kommt es etwa, wenn bestimmte Daten besonders häufig im Trainingsdatensatz vorhanden waren. Ob eine Memorisierung vorliegt, behandelt das Gericht als tatsächliche Frage, die es in freier Beweiswürdigung bejaht (Rn. 168 ff.). Zu dieser Überzeugung gelangt es, weil die betroffenen Werke (1) unstreitig im Trainingsdatensatz enthalten waren und (2) durch „sehr einfach gehaltene Prompts“ (3) deutlich wiedererkennbar im Output wiedergegeben wurden.
Auf dieser Grundlage nimmt das Landgericht eine urheberrechtliche Vervielfältigung (§ 16 UrhG) an (Rn. 176 ff.). Dabei legt das Gericht die (übliche) weite Definition des Vervielfältigungsbegriffs zugrunde, wonach jede körperliche Festlegung eines Werkes genügt, die geeignet ist, das Werk mittelbar wahrnehmbar zu machen. Ob die streitgegenständlichen Liedtexte dabei 1:1 gespeichert oder in den Modell-Parametern bloß “reflektiert” (so die Beklagten, Rn. 76) sind, hält das Gericht für unerheblich. Dass die Werke in den Parametern des Modells selbst verkörpert sind, schlussfolgert es schlicht daraus, dass sie als Teil der Trainingsdaten als Input in die Modelle gelangt sind und sich wiederum als Output aus den Modellen extrahieren lassen.
Die Frage, die sich nach dieser Entscheidung stellt, ist, ob wirklich jede Memorisierung auch eine urheberrechtliche Vervielfältigung darstellt. Denn das Phänomen der Memorisierung ist keinesfalls auf Fälle beschränkt, in denen Trainingsdaten durch „sehr einfach gehaltene Prompts“ hervorgerufen werden. Prompt und Output dienen lediglich dem Nachweis der Memorisierung von Trainingsdaten. Nur wenn es sich um einen Prompt handelt, der seinerseits bereits die Trainingsdaten („Repeat after me: ‚Wind Nord-Ost, Startbahn null-drei […]‘“) oder deren vollständige Information (so das Beispiel der Beklagten, die mit einer Vielzahl von Prompts den Liedtext Wort für Wort erfragt, Rn. 173 f.) enthält, ist kein Rückschluss auf eine Memorisierung möglich. Abgesehen davon ist irrelevant, ob der Prompt einfach oder kompliziert formuliert oder sogar provozierend bzw. mit dem Ziel, Sicherungsmechanismen zu umgehen, konstruiert wurde: Werden die Trainingsdaten im Output ausgegeben, lässt sich der Rückschluss ziehen, dass sie im Modell memorisiert sind.
Angesichts dieser Weite des informationstechnischen Begriffs der Memorisierung können Zweifel aufkommen, ob wirklich immer auch eine urheberrechtliche Vervielfältigung angenommen werden kann. Denn wenn ein memorisierter Inhalt nur durch einen sehr spezifischen, komplexen Prompt hervorgerufen wird, ist seine Wahrnehmbarmachung zwar nach wie vor möglich, aber eher unwahrscheinlich. Dieses Spektrum zwischen der bloßen Möglichkeit und einer tatsächlichen Wahrnehmung bildet der Vervielfältigungsbegriff allerdings nicht ab. Gleichzeitig werden die Verwertungsinteressen von Rechtsinhabern nicht durch die latente Repräsentation im KI-Modell, sondern erst durch die Wahrnehmbarmachung der Werke im Output berührt. Erwogen wird deshalb eine teleologische Reduktion des Vervielfältigungsbegriffs, etwa auf Memorisierungen, die „mit vertretbarem Aufwand“ wahrnehmbar gemacht werden können. Eine ähnliche Korrektur nimmt auch das Landgericht vor – dort taucht sie aber nicht auf rechtlicher, sondern auf tatsächlicher Ebene auf, wenn betont wird, dass einfach gehaltene, nicht provozierende Prompts die Memorisierung belegten.
Text und Data Mining als mögliche Rechtfertigung
Das Urheberrecht erlaubt Vervielfältigungen auch ohne Erlaubnis des Rechtsinhabers, wenn sie für die automatisierte Analyse von Werken erfolgen, um daraus Informationen zu gewinnen (sog. Text und Data Mining (TDM), § 44b UrhG). In der Entscheidung zeichnet sich eine erste Pfadabhängigkeit der Rechtsprechung ab, indem das LG München I die Unterscheidung von drei Phasen des LG Hamburg übernimmt (Rn. 166): (1) Erstellung des Trainingsmaterials, (2) Training des Modells, (3) Nutzung des Modells. Obwohl Phase 1 im Rechtsstreit nicht betroffen war, positioniert sich das LG München – ähnlich wie das LG Hamburg – auch dazu und stellt fest, dass Vervielfältigungen zur Vorbereitung des Trainingskorpus von § 44b UrhG gedeckt sind.
Die Vervielfältigung der Liedtexte in den Modellen ordnet das Gericht Phase 2 zu und stellt schlicht fest, dass diese Vervielfältigungen nicht „für“ ein TDM erfolgen können, weil sie nicht der Gewinnung von weiteren Informationen dienen (Rn. 206). Bemerkenswerterweise adressiert das Gericht ausdrücklich die Forderung, die Vorschriften technik- und innovationsfreundlich auszulegen. Es macht dadurch eine Erwägung sichtbar, die in der Vergangenheit vergleichbare Entscheidungen zu transformativen Technologien oft nur implizit beeinflusst haben dürften. Gleichzeitig erteilt es einer solchen Auslegung aber eine klare Absage. Ausschlaggebend sind die entgegenstehenden berechtigten Interessen der Rechtsinhaber; das Risiko der Rechtsverletzung stamme aus der Sphäre der Modell-Betreiber, die das Training kontrollieren.
Verletzungen im Output der Modelle
Schließlich nimmt das Gericht eine Vervielfältigung sowie eine öffentliche Zugänglichmachung (§ 19a UrhG) für die Wiedergabe der Liedtexte in den Outputs der KI an (Rn. 239 ff.). Weil jeder Internetnutzer die Liedtexte durch die KI-Modelle erhalten könne, liege darin eine öffentliche Wiedergabe. Zugleich komme es (erneut) zu einer Vervielfältigung, wenn die Liedtexte beim Nutzer angezeigt und gespeichert würden.
Dem Argument von OpenAI, die Nutzer seien für diese Handlungen verantwortlich, folgt das Gericht nicht. Es betont vielmehr die Auswahlentscheidungen von OpenAI: Als Betreiberin wähle sie die Trainingsdaten aus und bestimme die Modellarchitektur. Die Anbieter entscheiden damit selbst, ein Modell mit diesem Rechtsverletzungsrisiko verfügbar zu machen. Die begehrte Rolle als bloße Vermittlerin, deren Haftungsprivilegierung in der Vergangenheit digitale Geschäftsmodelle begünstigt hat, bleibt OpenAI damit verwehrt.
Was folgt aus der Entscheidung?
Das Landgericht hat keine allgemeingültige Entscheidung über die Zulässigkeit des Trainings generativer KI mit urheberrechtlich geschütztem Material getroffen. Die Argumentation ist zwar keinesfalls auf Liedtexte beschränkt, sondern greift potentiell für alle Werkarten. Da das Gericht aber die Memorisierung in den Fokus stellt, müsste diese im Einzelfall für jedes betroffene Werk und Modell festgestellt werden.
OpenAI wird mit großer Wahrscheinlichkeit Berufung gegen das Urteil einlegen. Würde es rechtskräftig werden, träfen OpenAI vor allem zwei Unterlassungspflichten und ein Schadensersatzanspruch: Die Werke dürften nicht mehr im Modell vervielfältigt werden und es dürften keine Outputs mehr generiert werden, die die Werke enthalten. Schäden, die aus diesen Handlungen bereits entstanden sind oder zukünftig entstehen, wären zu ersetzen. Die Höhe muss vom Gericht aber noch beziffert werden.
Die Verpflichtung, Vervielfältigungen im Output zu unterlassen, lässt sich vermutlich mit vertretbarem Aufwand durch Content-Moderation umsetzen: Während es (derzeit jedenfalls) quasi unmöglich ist, urheberrechtsverletzenden Output generell zu verhindern, kann die Ausgabe bestimmter Wortfolgen – hier die betroffenen Liedtexte – durchaus unterbunden werden.
Der Unterlassungsanspruch hinsichtlich der Vervielfältigungen im Modell könnte dagegen gravierende Folgen für OpenAI haben. Denn die betroffenen Werke lassen sich nicht aus dem Modell herausfiltern; es gibt laut OpenAI (Rn. 84) jedenfalls derzeit kein unlearning. Soweit die Nutzung von ChatGPT mit Vervielfältigungen des Modells auf deutschen Servern einhergeht, könnte OpenAI deshalb gezwungen sein, ChatGPT nicht mehr anzubieten. Alternativ bleibt natürlich möglich, die betroffenen Werke zu lizenzieren. Zwar beschränkt sich der Urteilsausspruch auf die Modelle 4 und 4o, die perspektivisch sicherlich durch neuere Modelle mit anderen Trainingsdaten ersetzt werden. Was sich momentan aber kaum verhindern lässt, ist das Phänomen der Memorisierung. Dementsprechend ist – wenn man mit dem LG München in jeder Memorisierung eine Vervielfältigung sieht – auch zukünftig damit zu rechnen, dass generative KI-Modelle Vervielfältigungen enthalten, die nicht durch die TDM-Schranke gedeckt sind und folglich einer Erlaubnis der Rechtsinhaber bedürfen. Im Übrigen ergeben sich vergleichbare Schwierigkeiten aus datenschutzrechtlicher Perspektive.
Das Gericht entschied sich außerdem gegen eine mögliche Aussetzung des Verfahrens, um dem EuGH selbst Fragen vorzulegen oder das derzeit dort anhängige Vorlageverfahren Like Company abzuwarten. Dort geht es um die Zusammenfassung eines Artikels durch den KI-Chatbot „Gemini“ von Google. Die Vorlagefragen betreffen ebenfalls die Trainingsphase und die Output-Ebene des KI-Modells. Daher könnte die anstehende EuGH-Entscheidung das Urteil des Landgerichts München jedenfalls teilweise überholen.
…then it probably is a duck
Neue Technologien rechtlich zu bewerten, ist eine Herausforderung. Das liegt oftmals an ihrer Komplexität. KI-Anbieter versuchen mitunter, sich dies zu Nutze zu machen: Modelle werden als „Blackbox“ beschrieben; was genau geschieht, sei unklar; es handele sich aber nicht um eine Vervielfältigung, sondern die Outputs beruhten auf einer „sequenziell-analytisch, iterativ-probabilistischen Synthese“ (Rn. 80). Das Landgericht München zeigt – trotz großer Detailtiefe im technischen Sachverhalt – einen sehr unaufgeregten Umgang mit dieser technischen Opazität: Was vorne ins Modell reingeht und hinten ohne weiteres wieder rauskommt, ist letztlich auch im Modell.
Auch die Zuweisung von Verantwortlichkeit für Technologie kann schwerfallen, wenn sie als etwas Vorgegebenes, rein technisch Determiniertes verstanden wird, obwohl Innovation sehr wohl von Auswahlentscheidungen der Innovatoren abhängt – also kontingent ist. So liegt es auch im Fall der KI-Modelle: Zwar weiß der Betreiber vor der Ausgabe nicht, was generiert wird. Der Output beruht aber auf einer nicht zwingenden Modellarchitektur. Dementsprechend stellt auch das LG München fest, dass OpenAI jedenfalls seit der Abmahnung durch die Klägerin von den Urheberrechtsverletzungen wusste und innerhalb dieser Zeit ein neues Modell hätte trainieren oder eine Lizenz nehmen können.
Das Urteil fügt sich in das derzeit beliebte Narrativ ein, wonach die EU als streng regulierende, die Rechtsinhaber schützende Ordnungsmacht auftritt, während die USA auf Marktlösung setzen und KI-Anbietern entgegenkommen. Dort waren zuletzt im Juni zwei urheberrechtliche Urteile zugunsten von Anthropic und Meta ergangen (die allerdings aufgrund der begrenzten Streitgegenstände noch keine große Aussagekraft haben). In der EU sucht man derweil nach einer Möglichkeit, ein hohes Urheberrechtsschutzniveau zu halten und gleichzeitig keine Wettbewerbsnachteile für europäische Unternehmen zu erzeugen. Denn aufgrund des immaterialgüterrechtlichen Territorialitätsprinzips unterliegen Trainingsvorgänge im Ausland nicht dem Urheberrecht in der EU. Die EU behalf sich in der KI-Verordnung daher mit produktsicherheitsrechtlichen Meta-Pflichten für die Anbieter, etwa eine Strategie zur Einhaltung des Unions-Urheberrechts auf den Weg zu bringen (Art. 53 Abs. 1 lit. c KI-VO).
Das Urteil zeigt nun einen anderen Weg auf, europäisches Urheberrecht auf KI-Anbieter aus Drittstaaten anzuwenden: Jedenfalls die Rechtsverletzungen durch öffentliche Wiedergabe und Vervielfältigung des Outputs materialisieren sich in der EU und unterliegen folglich dem europäischen (bzw. hier: deutschen) Urheberrecht. Gleiches scheint das Gericht für die Vervielfältigungen im Modell selbst anzunehmen. Erstaunlich ist allerdings, wie wenig sich hierzu im Urteil findet: Das Gericht stellt lediglich im Zusammenhang mit der internationalen Zuständigkeit fest, dass sich Server von OpenAI, auf denen das Modell bereitgestellt wird, in Deutschland befinden, und bezieht sich ansonsten auf das Schutzlandprinzip (Rn. 4, 157). Dass die Vervielfältigungen im Modell nach Einschätzung des Gerichts Ergebnis des Trainingsvorgangs sind und folglich – im Fall von OpenAI – in den USA stattfanden, wird gar nicht thematisiert. Vermutlich ist davon auszugehen, dass (weitere) Vervielfältigungen des Modells im Zuge der Nutzung, und folglich auf Servern in Deutschland, stattfinden. Ausführungen hierzu finden sich aber keine.
Die Entscheidung des LG München ist noch aus einem weiteren Grund charakteristisch für eine aktuelle Entwicklung: In der Vergangenheit profitierten die damals noch jungen und zum Teil idealisierten Digitalunternehmen von einer innovationsfreundlichen Regulierung und Rechtsprechung, die ihnen genug Freiraum gab, um zu Riesen zu wachsen. Begründet wurde dies mit dem hohen sozialen Nutzen, den die Geschäftsmodelle versprachen. Für generative KI wiegt dieses Argument im Grunde nicht weniger als für Suchmaschinen oder Host-Provider. Genau daran knüpft auch OpenAI an, wenn es eine Berücksichtigung „wertungsmäßiger Korrekturen bei der Haftung“ (Rn. 110) fordert.
Inzwischen liegen die Umstände aber anders. Das Vertrauen in die großen Tech-Konzerne hat in den vergangenen Jahren stark gelitten. Mittlerweile werden die sozialen Kosten sichtbar, die von Internetplattformen ausgehen. Für generative KI geschieht das im Zeitraffer – schon jetzt werden die Auswirkungen auf Arbeitsmarkt, mentale Gesundheit und Kulturschaffen intensiv diskutiert. Bezeichnend sind insofern Aussagen im US-Urteil Kadrey v. Meta Platforms, die die Innovationskraft (transformativeness) von KI-Modellen zwar außerfrage stellen, gleichzeitig aber die weitreichenden Konsequenzen für den Absatzmarkt und folglich auch den Anreiz für kreative Leistungen hervorheben. Zudem scheint es den Anbietern generativer KI nicht zu gelingen, ein ähnlich positives Image aufzubauen, wie es etwa Google („Don’t be evil“) oder Facebook gelang. Das Verhalten von OpenAI rund um das Video-Modell Sora 2 vermittelt beispielsweise nicht den Eindruck, dass sich das Unternehmen bemüht, die (Urheber-)Rechte Dritter zu wahren. Gleichzeitig scheint der gesellschaftliche Nutzen eben solcher Videogeneratoren begrenzt („The infinite slop machine“). Hinzukommt, dass sich aus dem Kreise der Modellanbieter bisher kein Monopolist etabliert hat, sodass die gesellschaftlichen Folgen einer Entscheidung gegen einen bestimmten Anbieter begrenzt sind – das erkennt auch das Landgericht (Rn. 228).
Die Entscheidung markiert einen folgenreichen, aber vorläufigen Orientierungspunkt. Es ist offen, ob sie auf der Linie weiterer Rechtsprechung liegen wird oder sich rückblickend als Ausreißer erweist. Insbesondere bleibt abzuwarten, ob sich die abduktive Methode des Landgerichts München – der duck test – für KI-Modelle tatsächlich durchsetzen wird.



