02 May 2022

Wieviel Automatisierung verträgt die Meinungsfreiheit?

Mit seinem Urteil über die grundrechtliche Bewertung des umstrittenen Artikel 17 der EU-Urheberrechtsrichtlinie (Rechtssache C-401/19) definiert der Europäische Gerichtshof enge Schranken für den Einsatz von Filtersystemen zur automatischen Sperrung mutmaßlich illegaler Inhalte. Das Urteil ist weit über das Urheberrecht hinaus von Bedeutung, da es den Sinngehalt des Verbots allgemeiner Überwachungspflichten präzisiert. Dieses Verbot ist auch Gegenstand einer aktuellen gerichtlichen Auseinandersetzung zwischen Grünen-Politikerin Renate Künast und dem Meta-Konzern über die Frage, inwieweit Facebook dafür verantwortlich ist, gegen Falschzitate auf der Plattform vorzugehen.

Uploadfilter nur in engen Grenzen

Gegenstand des EuGH-Urteils war eine Nichtigkeitsklage der Regierung Polens in Bezug auf Teile von Artikel 17 der Urheberrechtsrichtlinie, die bestimmte Online-Plattformen zum Einsatz von Uploadfiltern zwingen. Polen hatte geltend gemacht, dass diese Regelung den Kerngehalt des Rechts auf Meinungs- und Informationsfreiheit verletze. In der mündlichen Anhörung hatte die Gegenseite – die EU-Institutionen unterstützt durch die Regierungen von Frankreich, Spanien und Portugal – die Auffassung vertreten, Artikel 17 schreibe den Einsatz von Uploadfiltern nicht vor. Uneinigkeit bestand über die Frage, ob der Eingriff in die Meinungsfreiheit von Nutzer*innen der Plattformen schon dadurch gerechtfertigt sei, dass etwaige Sperrungen legaler Inhalte durch automatische Filtersysteme im Anschluss durch ein Beschwerdesystem revidiert werden können, oder ob Artikel 17 vielmehr so auszulegen sei, dass die Sperrung legaler Inhalte von vornherein technisch verhindert werden müsse.

In beiden Fragen hat der Europäische Gerichtshof nun Klarheit geschaffen. Demnach bietet Artikel 17 den betroffenen Plattformen in aller Regel keine andere Möglichkeit, als Uploadfilter einzusetzen. Diese Verpflichtung stellt einen besonders schweren Eingriff in das Recht auf Meinungs- und Informationsfreiheit dar, da sie die Sperrung von Inhalten vor ihrer Veröffentlichung erfordert, eine Form der Vorzensur (prior restraint). Mit Verweis auf die Meinungsfreiheits-Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte erklärt der EuGH, dass ein solcher Eingriff nicht a priori grundrechtswidrig ist, aber mit effektiven Schutzvorkehrungen versehen sein muss, um die Sperrung legaler Inhalte auszuschließen. Eine nachträgliche Wiederherstellung fälschlicherweise gesperrter Inhalte reicht demnach nicht aus.

Der Europäische Gerichtshof kommt zu dem Schluss, dass Artikel 17 grundrechtskonform so auszulegen ist, dass er den Einsatz von Uploadfiltern ausschließt, die nicht zuverlässig zwischen legalen und illegalen Inhalten unterscheiden. Die Aufgabe, die Filterung so auszugestalten, dass legale Inhalte wie etwa Nutzungen im Rahmen von Urheberrechtsschranken nicht beeinträchtigt werden, sieht der Gerichtshof klar bei den Gesetzgebern der Mitgliedstaaten und den nationalen Gerichten, nicht bei den Plattformen. Der Eingriff in die Meinungsfreiheit ist dem Unionsgesetzgeber zuzurechnen und seine grundrechtliche Verantwortung kann der Staat nicht dadurch abschütteln, dass er die Durchsetzung des Urheberrechts an private Unternehmen delegiert. Das bedeutet, dass die meisten Mitgliedstaaten, die Artikel 17 lediglich wortgleich in ihr nationales Urheberrecht übernommen haben, ohne ex-ante-Schutzvorkehrungen gegen die Sperrung legaler Inhalte zu definieren, werden nachbessern müssen.

Autonome Bewertung durch Mensch oder Maschine

Die Schlussfolgerungen des Europäischen Gerichtshofs lassen sich auf Situationen außerhalb des Urheberrechts übertragen, da er seine Auslegung von Artikel 17 insbesondere auf das Verbot allgemeiner Überwachungspflichten stützt, das nicht nur in Artikel 17 selbst, sondern auch in der horizontal gültigen E-Commerce-Richtlinie und dem kommenden Digitale Dienste-Gesetz verankert ist. Der Generalanwalt im Artikel-17-Verfahren sieht im Verbot allgemeiner Überwachungspflichten eine Garantie für den Wesensgehalt der Meinungsfreiheit, die sich also unmittelbar aus dem Primärrecht ergibt.

Das Verbot allgemeiner Überwachungspflichten hat laut dem Generalanwalt in der jüngsten Rechtsprechung des Europäischen Gerichtshofs eine Uminterpretation erfahren. Waren Verpflichtungen zur automatischen Überprüfung aller Uploads aller Nutzer*innen zunächst gänzlich ausgeschlossen, ist ihr Einsatz seit dem Glawischnig-Urteil (Rechtssache C-18/18) unter engen Voraussetzungen möglich, nämlich wenn der Gegenstand der Sperrung vorab durch ein Gerichtsurteil so klar definiert wurde, dass Plattformen diese technisch umsetzen können, ohne eine autonome Bewertung der Rechtmäßigkeit einzelner Inhalte vorzunehmen. In seinem Urteil zu Artikel 17 setzt der EuGH unter Verweis auf das Glawischnig-Urteil diese Rechtsprechung fort und überträgt sie auf eine Situation, in der eine gesetzliche Sperrverpflichtung auf Grundlage von Informationen erfolgt, die Rechteinhaber*innen den Plattformen übermitteln. Diese Sperrverpflichtung muss so ausgestaltet sein, dass Plattformen keine Inhalte „im Hinblick auf die von den Rechteinhabern bereitgestellten Informationen sowie etwaige Ausnahmen und Beschränkungen in Bezug auf das Urheberrecht eigenständig inhaltlich beurteilen müssten, um ihre Rechtswidrigkeit festzustellen“ (Rn. 90). Die Anforderungen an die Rechteinformationen sind also hoch, reine Verweise auf geschützte Werke ohne Berücksichtigung etwaiger gesetzlich oder vertraglich erlaubter Nutzungen reichen also nicht aus.

Der Europäische Gerichtshof geht davon aus, dass diese Sperrung von Inhalten in aller Regel automatisiert ablaufen muss. Plattformen sind demnach „gezwungen, auf Instrumente zur automatischen Erkennung und Filterung zurückzugreifen“ (Rn. 54). Das bedeutet, dass auch für die Frage, welche Sperrungen ohne eine autonome Bewertung der Rechtmäßigkeit vorgenommen werden können, die Fähigkeiten eines Algorithmus nach dem aktuellen Stand der Technik maßgeblich sind, nicht die Fähigkeiten eines Menschen.

Das kann in der Praxis einen erheblichen Unterschied machen. In seinem jüngsten, noch nicht rechtskräftigen Urteil im Fall Künast gegen Facebook hat das Landgericht Frankfurt am Main festgestellt, dass Facebook zur Unterscheidung zwischen solchen Nutzer*innen-Uploads in der Lage ist, die Renate Künast ein Falschzitat in den Mund legen und andererseits solchen, die darüber aufklären, dass es sich um ein Falschzitat handelt. Diese Unterscheidung erfordere keine autonome Bewertung der Rechtmäßigkeit, obwohl zwischen den Parteien unstrittig ist und auch das Gericht offenbar anerkennt, dass eine automatische Unterscheidung zwischen diesen Arten von Postings nicht möglich ist. Vielmehr sei es Facebook zuzumuten, in einem ersten Schritt alle Uploads automatisch zu identifizieren, die Varianten des streitgegenständlichen Zitats in Form von Memes enthalten, und in einem zweiten Schritt die Unterscheidung zwischen Falschzitaten und legalen Einordnungen des Zitats durch menschliche Moderator*innen vorzunehmen. Für Menschen erfordere diese Unterscheidung – im Gegensatz zu automatischen Filtern – keine autonome Bewertung der Rechtmäßigkeit.

Angesichts der besonders hohen finanziellen Mittel des Meta-Konzerns mögen die Schlussfolgerungen des Gerichts unter dem Gesichtspunkt der Zumutbarkeit eines solchen zweistufigen Verfahrens für Facebook zunächst einleuchten – insbesondere wenn dieses Urteil ein Einzelfall bleibt. Im Fall von kleineren Plattformen oder einer größeren Zahl solcher Sperraufforderungen würde diese Vorgehensweise dagegen schnell die Grenzen der Zumutbarkeit für die Plattformunternehmen erreichen. Problematischer aus Sicht der Nutzer*innen ist jedoch, dass das Künast-Urteil keineswegs geeignet ist sicherzustellen, dass Facebook tatsächlich zu einer solchen menschlichen Überprüfung im Interesse der Meinungsfreiheit greifen wird.

Das Urteil des Landgerichts Frankfurt begründet nämlich lediglich einen Unterlassungsanspruch von Renate Künast gegen Facebook, die Wiedergabe aller zum Zeitpunkt des Urteils auf der Plattform befindlichen Falschzitate zu beenden. Es begründet dagegen keinen Anspruch – weder von Renate Künast noch von Dritten – dass legale Einordnungen des Falschzitats tatsächlich online verbleiben. Es ist unwahrscheinlich, dass Facebook in diesem und etwaigen ähnlich gelagerten zukünftigen Fällen freiwillig zu der äußerst kostspieligen Kombination von automatischen Erkennungssystemen und menschlichen Moderator*innen greifen wird, wenn es bei automatisierter Sperrung aller Nennungen des Falschzitats – unabhängig von ihrer Rechtmäßigkeit – keine Sanktionen zu befürchten hat. Einerseits ist die Wahrscheinlichkeit gering, dass einzelne Nutzer*innen, deren legale Inhalte infolge eines solchen automatisierten Verfahrens gesperrt werden, den Rechtsweg gegen Facebook beschreiten. Andererseits hat der Europäische Gerichtshof in seinem Urteil zu Artikel 17 klargestellt, dass eine solche prozedurale Schutzvorkehrung, im Nachhinein gegen eine fälschliche Sperrung vorgehen zu können, nicht ausreicht, um dem Schutz der Meinungsfreiheit Genüge zu tun.

Das Landgericht Frankfurt ist demnach – genau wie der nationale Gesetzgeber bei der Umsetzung von Artikel 17 – selbst dazu verpflichtet, Schutzvorkehrungen gegen Overblocking zu treffen, indem es verhindert, dass Facebook die Rolle der Richterin übernimmt. Es reicht dabei nicht aus, in der Urteilsbegründung darauf zu verweisen, dass Facebook Overblocking verhindern kann, ohne dies tatsächlich sicherzustellen. Das gilt insbesondere dann, wenn das Unternehmen den Unterlassungsanspruch viel kostengünstiger umsetzen kann, indem es Overblocking in Kauf nimmt.

Es ist Renate Künast und der Organisation HateAid, die sie bei der Klage unterstützt hat, zugute zu halten, dass sie bei der Klageformulierung darauf geachtet haben, zwischen rechtswidrigen und rechtmäßigen Verwendungen des streitgegenständlichen Falschzitats zu unterscheiden. Ebenfalls vorbildlich ist in diesem Zusammenhang, dass die Klage sich auf die Sperrung von Inhalten beschränkt, die zum Zeitpunkt des Urteils auf der Plattform befindlich sind. So wird auf die Forderung nach Einsatz eines Uploadfilters verzichtet, der bereits vor der Veröffentlichung eines Inhalts interveniert. Insofern hat die Klägerin bereits mehr Sensibilität für den Schutz der Meinungsfreiheit Dritter bewiesen als das Landgericht, das die grundrechtliche Problematik zwar in seiner Urteilsbegründung thematisiert, aber dennoch ein Urteil spricht, das einseitig die Sperrung illegaler Inhalte einfordert, ohne den Schutz legaler Inhalte vor Overblocking sicherzustellen.

Schutz der Meinungsfreiheit nicht den Plattformen überlassen

In dem Rechtsstreit zeigt sich ein strukturelles Problem von Verfahren der Intermediärhaftung, nämlich dass die Nutzer*innen, die in ihrer Meinungsfreiheit von Sperrentscheidungen betroffen sind, nicht Partei dieser Gerichtsverfahren sind. Weder von der Klägerin, der völlig zu Recht an der Durchsetzung ihrer Persönlichkeitsrechte gelegen ist, noch von der Plattform, die ihre unternehmerischen Interessen vertritt, kann erwartet werden, freiwillig die Rechte der Plattformnutzer*innen zu priorisieren. Hier zeigt sich der eigentliche Kern des Verbots allgemeiner Überwachungspflichten als Schutz des Wesensgehalts der Meinungsfreiheit. Das Verbot allgemeiner Überwachungspflichten schützt nicht in erster Linie das Plattformunternehmen vor unverhältnismäßigen Pflichten, es schützt die Nutzer*innen vor den eigennützigen Entscheidungen der Plattform. Wie der Generalanwalt es in seinen Schlussanträgen im Artikel-17-Verfahren ausgedrückt hat:

„Obwohl Vermittler technisch gut aufgestellt sind, um gegen die Verbreitung mancher unzulässiger Informationen über ihre Dienste vorzugehen, kann von ihnen nicht verlangt werden, „autonom zu beurteilen“, ob die betreffenden Informationen zulässig sind. Diese Vermittler verfügen in der Regel nicht über die dafür notwendige Sachkenntnis und vor allem nicht über die insoweit gebotene Unabhängigkeit – erst recht, wenn sie erheblichen Haftungsrisiken ausgesetzt sind. Sie können daher nicht zu Schiedsrichtern der Online-Rechtmäßigkeit gemacht werden“ (Rn. 197).

Der Generalanwalt erklärt hier, dass Unternehmen ihre eigenen Interessen über die ihrer Nutzer*innen stellen und angesichts einer Haftungsgefahr lieber zu viel als zu wenig sperren. Dasselbe gilt, wenn die korrekte Unterscheidung zwischen legalen und illegalen Inhalten zusätzliche Kosten verursacht, indem eine Plattform hierfür auf menschliche Moderator*innen zurückgreifen muss – selbst wenn diese Unterscheidung einem Menschen deutlich leichter fallen mag als einem Algorithmus. Dieser Argumentation schließt sich der Europäische Gerichtshof in seinem Urteil im Wesentlichen an, indem er den nationalen Gesetzgebern, den Behörden und Gerichten aufträgt, bei der praktischen Umsetzung von Artikel 17 für die Verwirklichung der Grundrechte zu sorgen, anstatt diese Aufgabe den Plattformen zu überlassen.

Das Verbot allgemeiner Überwachungspflichten schließt also die vom Landgericht Frankfurt angeordnete Unterlassungsverpflichtung aus, weil es dabei im Ermessen der Plattform liegt, ob und inwieweit sie durch eine Kombination von technischen und menschlichen Überprüfungsschritten sicherstellt, dass legale Inhalte auf der Plattform verbleiben. Der einseitige Unterlassungsanspruch – verbunden mit den erheblichen Mehrkosten, die eine präzise Unterscheidung zwischen legalen und illegalen Inhalten durch menschliche Moderator*innen erfordern würde – schafft aber einen starken Anreiz für das Unternehmen, auf ein solches Verfahren zu verzichten und stattdessen Overblocking zu betreiben. Dieser Anreiz wird unmittelbar durch den Urteilsspruch erzeugt und ist damit der staatlichen Auslegung der Gesetze zuzurechnen. Wenn das Plattformunternehmen nicht zur Richterin über die Rechtmäßigkeit einzelner Uploads gemacht werden darf, dann darf ihr auch nicht die Entscheidung überlassen werden, ob überhaupt Schutzvorkehrungen gegen die Sperrung legaler Inhalte zum Einsatz kommen. Dafür sind laut EuGH Gesetzgeber und Gerichte verantwortlich.


SUGGESTED CITATION  Reda, Felix: Wieviel Automatisierung verträgt die Meinungsfreiheit?, VerfBlog, 2022/5/02, https://verfassungsblog.de/wieviel-automatisierung-vertragt-die-meinungsfreiheit/, DOI: 10.17176/20220502-182111-0.

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.




Explore posts related to this:
Automatisierung, EU-Urheberrechtsrichtlinie, Facebook, Meinungsfreiheit, Uploadfilter


Other posts about this region:
Europa