13 December 2022

Schutz vor Verletzung von Persönlichkeitsrechten und „Desinformation“ in sozialen Medien unter Bedingungen der politischen Polarisierung

Für ein netzspezifisches Äußerungsrecht jenseits des NetzDG

Für den Schutz vor Persönlichkeitsverletzungen in Medien wie Twitter und Facebook gilt im Wesentlichen und kaum verändert das auf den Schutz des Individuums eingestellte Äußerungsrecht, wie es seit vielen Jahrzehnten besteht. Das deutsche NetzDG und der europäische Digital Services Act (DSA) ergänzen dies um eine quantitative kollektive Dimension: Für den Schutz gegen die große Zahl der rechtswidrigen Äußerungen im Internet wird eine Art Rasenmäher-Prinzip entwickelt, das vor allem schnelle Löschungen durch Provider erzwingen soll. Dies ist nicht der richtige Ansatz. Stattdessen müsste auf eine strategisch-prozedurale Regulierung umgestellt werden, die auf die spezifischen Risiken der neuen fragmentierten Medienordnung zielt.

Wie wird nach dem NetzDG über Beanstandungen von Kommunikationen entschieden?

Vor dem Hintergrund der Abwägungserfordernisse akzentuierenden Rechtsprechung des BVerfG muss man sich ausmalen, wie über Zehntausende von Beanstandungen von als „rechtswidrig“ angesehenen Internetkommunikationen nach dem NetzDG entschieden werden soll.

Das NetzDG wird von einem Geheimnis umwittert: Wie wird eigentlich praktisch entschieden? Besteht eine Praxis des „Overblocking“, mit der sich die Provider die Abwägung erleichtern? Die Arbeiten zur Evaluation der Praxis können dazu keine Auskunft geben (Liesching et al., 2021; Eifert et al., 2020). Es ist also völlig unbekannt, wie in der Praxis der Provider über Beanstandungen entschieden wird! „Maßnahmen“ sind nach § 3 Abs. 3 NetzDG zu „dokumentieren“? Umfasst das auch Begründungen? Wer darf Einsicht nehmen? Die Entscheidungen über die Entfernung von Inhalten sind nur für zehn Wochen zu speichern (§ 3 Abs. 2 Nr. 4 NetzDG). Nach Art. 24 Abs. 5 des DSA sind demgegenüber die Entscheidungen der Provider über die Beanstandung von als rechtswidrig angesehenen Inhalten in einer öffentlich zugänglichen Datenbank zu speichern. Das ist ein Fortschritt. Allerdings gilt dies nicht für Entscheidungen, die eine Beanstandung ablehnen (vgl. Art. 17 Abs. 1 Buchst. a). Hier besteht die frühere Unterscheidung von Entscheidungen zu Lasten des Persönlichkeitsschutzes und zu Lasten der Meinungsfreiheit fort. Das ist unter dem Gesichtspunkt der Transparenz nicht akzeptabel. Zu speichern sind gleichfalls nicht Entscheidungen im außergerichtlichen Streitbeilegungsverfahren nach Art. 21; auch dies ist bedenklich, da höchstwahrscheinlich in diesem Verfahren über besonders wichtige Beurteilungen entschieden wird.

Auch nach dem DSA stellt sich die Frage, wie die Masse von Entscheidungen je analysiert werden kann. Wer soll das tun, und wie? Es müsste ein Gremium gebildet werden, das dafür sorgt, dass Entscheidungen von besonderer Bedeutung auf einer von den Providern einzurichtenden Seite veröffentlicht werden. Auch Dritte sollten die Möglichkeit haben, die Veröffentlichung von Entscheidungen zu verlangen.

Mediengerechter Persönlichkeitsschutz bedarf der Umstellung auf einen prozeduralen Modus

Der stark an den Rechten des Individuums orientierte Weg des herkömmlichen Rechtsschutzes hat für Online-Medien nur einen symbolischen Wert: Für den durchschnittlichen Bürger ist er unbrauchbar. Der Weg des NetzDG (oder künftig des DSA) bietet nur eingeschränkten Individualschutz, vor allem aber zielt er auf die Masse der im Internet erfolgenden Verletzungen von Persönlichkeitsrechten (neben anderen Verstößen gegen das StGB, die nicht den Individualschutz bezwecken) – und primär auf die „Entfernung“ eines rechtswidrigen Inhalts, aber nicht auf eine gegenüber der Öffentlichkeit begründete Entscheidung im Einzelfall. Ein mediengerechter Persönlichkeitsschutz muss prozedural-strategisch konzipiert werden (Bowers/Zittrain, 2020).

Die sozialen Medien erzeugen im Vergleich zu den klassischen Medien neue Risiken und verschärfen alte. Der Rechtsschutz sollte darauf eingestellt werden und selektiver sein. Das heißt: man muss in Rechnung stellen, dass zum Beispiel Twitter und partiell Facebook Medien der Polarisierung sind. Wer sich auf Kontroversen in diesen Medien einlässt, muss vielleicht Beleidigungen in Rechnung stellen und akzeptieren. Die Regulierung muss aber stärker die Funktionsbedingungen des jeweiligen Forums im Blick haben. Deshalb sollte die Inhaltskontrolle bei sozialen Medien nach spezifischem Medienrecht (NetzDG, DSA) auf besonders gravierende Formen der Persönlichkeitsverletzung beschränkt werden. Für die anderen bleibt der Rechtsschutz durch die Gerichte. Für Foren, die sich ausdrücklich als Regel den Verzicht auf aggressive Formen der Kommunikation setzen, könnte ein digitales Hausrecht in Anspruch genommen werden, das die Provider durchzusetzen hätten. Oder die Provider setzen eigene AGB-Regeln, die die die Grundrechte der Beteiligten zu beachten hätten. Im Übrigen müssen aber die Schwierigkeiten der Beurteilung nach den herkömmlichen Standards berücksichtigt werden, wenn es darum gehen soll, eine akzeptable „Verkehrsordnung“ für soziale Medien zu entwickeln.

Für die klassischen Medien hat sich im Laufe der Jahrzehnte eine Vielzahl von Regeln durch die Rechtsprechung, nicht durch die Gesetzgebung entwickelt (z. B. zur Verdachtsberichterstattung, Privilegierung spezifisch öffentlicher Kommunikation, Vermutungen für das Verhältnis von Tatsachenbehauptung und Wertung etc.). Das ist auch nicht anders möglich: Diese Regeln sind kooperativ in der wechselseitigen Beobachtung von insbesondere journalistischer und richterlicher Praxis „am Fall“ experimentell erprobt worden. Es kommt vor allem darauf an, dazu ein funktionales Äquivalent für die sozialen Medien zu entwickeln, das die Entwicklung neuer praktischer Regeln fördert. Es muss ein neues, ebenfalls auf Kooperation zwischen Providern und Rechtsprechung angelegtes Vorgehen gefunden werden, das die Regelbildung fördert. Dazu ist es aber erforderlich, dass die Praxis (der Provider) sich erklären, also Begründungen geben muss, die auch öffentlich zugänglich gemacht werden. Darauf ist das NetzDG als Regulierungsrecht der neuen Medien nicht eingestellt. Die Entscheidungspraxis der Provider nach dem NetzDG bleibt deshalb intransparent. Das DSA ist hier schon weiter (Art. 24 Abs. 5), aber in unstrukturierter Form können die Entscheidungen in der Öffentlichkeit kaum verstanden werden.

Eine neue medienspezifische „Verkehrsordnung“ sollte als Ziel die Vermeidung von Exklusionseffekten haben

Der Zweck des Persönlichkeitsschutzes in den sozialen Medien müsste stärker auf mögliche Exklusionseffekte durch einen bestimmten aggressiven Kommunikationstypus zugeschnitten sein: Darunter sollten solche Kommunikationen verstanden werden, die die in der „allgemeinen Öffentlichkeit“ existierenden Exklusionsrisiken verstärken können. Das wären zum Beispiel rassistische Beleidigungen, aggressive geschlechtsbezogene Kränkungen von Frauen oder Herabsetzungen wegen sexueller Orientierung oder Bezeichnungen, die eine politische Exklusionswirkung jenseits des benutzten Mediums haben können. Dies würde auch für die starke Abwertung professioneller Leistungen (z. B. von Richtern) gelten.

Es ist verfehlt, generell hier eine größere Freiheit der Wertung zu unterstellen („Sozialspäre“). Unspezifische Schmähungen („Formalbeleidigungen“) sollten gerade umgekehrt nicht als Gefährdung der „Verkehrsordnung“ der sozialen Medien gelten, es sei denn, sie hätten eine menschenverachtende Wirkung auch in der allgemeinen Öffentlichkeit. Solche Schmähungen sind leichter erträglich – sie könnten im Übrigen aber nach allgemeinem Recht vor Gericht angegriffen werden.

Im Ergebnis würde dies darauf hinauslaufen, zum Beispiel Twitter als eine „Gefahrenzone“ rechtlich anzuerkennen, innerhalb deren jedenfalls im Hinblick auf die netzspezifische Kontrolle nach NetzDG/DSA andere soziale Regeln gelten als in der allgemeinen Öffentlichkeit, aber bestimmte medienspezifische Gefährdungen genauer beobachtet und sanktioniert werden. Das Ziel einer solchen Strategie bestünde in der Erhaltung eines unumgänglichen Maßes an sozialem Vertrauen.

Einrichtung von Cyber Courts und Erfordernis der Begründung von Entscheidungen

Die Zahl der nach NetzDG/DSA zu untersuchenden rechtswidrigen Kommunikationen würde nach dieser Konzeption erheblich reduziert, aber erweitert würde der Schutz vor aggressiven Exklusionsstrategien, die sich in der fragmentierten Gesellschaft häufen. Das würde zugleich die Möglichkeit eröffnen, den Providern die Pflicht aufzuerlegen, die verbleibenden Fälle genauer zu untersuchen und auf Begründungen zu achten, die in ein produktives Netzwerk von, strukturiert nach Schwerpunkten, zu veröffentlichenden Entscheidungen als Unterscheidungen eingehen könnten. Dies könnte ein Beitrag dazu sein, dass im Netz durch Rückkopplung an die Öffentlichkeit Regeln erzeugt werden, die die Kommunikation in fragmentierten Medien gesellschaftlich produktiver werden ließe. Durch gesetzliche Regeln allein könnte dies nicht erreicht werden. Dazu könnte aber weiter ein ausdifferenziertes gerichtsähnliches Schlichtungsverfahren („Cyber Court“) beitragen, das über den einzelnen Fall hinaus auch auf die Entwicklung von Fairness-Regeln angelegt sein würde. Es wäre daran zu denken, allen Providern die Pflicht aufzuerlegen, eine Art „Cyber Court zweiter Instanz“ gemeinsam aufzubauen, der über wichtige Konflikte entscheiden würde. Facebook hat ein weltweit zuständiges „Oversight Board“ geschaffen, das durchaus wichtige Entscheidungen getroffen hat. Das ist ein richtiger Ansatz. Jedoch ist die globale Zuständigkeit problematisch: Es müssten viel mehr Einzelentscheidungen auf regionaler Ebene gefällt werden, aus deren Zusammenwirken Regeln entstehen könnten (zur zivilgerichtlichen Regulierung Wielsch JZ 2020, 105), die dem administrativen Staat aus verfassungsrechtlichen Gründen nicht übertragen werden darf.

Was heißt „Prozeduralisierung“ des Streits über die Rechtswidrigkeit von Kommunikationsinhalten?

Pietro Ortolani bringt in seinem Beitrag zum einschlägigen Symposium des Verfassungsblogs auch die Möglichkeit ins Spiel, dass die Institutionen der Kontrolle der Verbreitung rechtswidriger Inhalte durch Plattformen nach der weit gefassten allgemeinen Vorschrift des Art. 20 DSA auch einen quasi-justiziellen Charakter annehmen könnten, auch wenn dies mangels detaillierter Regelung nicht von vornherein erkennbar werde.

Ansonsten muss man anerkennen, dass der Gedanke der Prozeduralisierung auch bei der Regulierung der Beschwerde im Einzelnen in Art. 20 produktiv entwickelt worden ist. Es ist auch sinnvoll, dass Art. 17 das Spektrum der Entscheidungsmöglichkeiten über die der bloßen Entfernung/Löschung von Inhalten hinaus erweitert und die Anforderungen an die Begründung erhöht (Art. 17 Abs. 3 Buchst. d) und e)).

Positiv zu bewerten ist zunächst die Regelung der Einrichtung einer Art zweiter Instanz durch eine externe Schlichtungsinstanz, Art. 21. Hier würden aber meine grundsätzlichen Einwände ansetzen. Nach dem hier zu entwickelnden Verständnis des Konzepts der „Prozeduralisierung“ ist ein weiterer Entwicklungsschritt erforderlich: Es geht auch um den notwendigerweise kooperativen, privat-öffentlichen Charakter der Entwicklung von nur „am Fall“ explizit werdenden, sonst einem Praxisfeld implizit bleibenden sozialen Normen durch Institutionen eines netzspezifischen Rechtsschutzes, die eine andere Bedeutung haben als die explizit gesetzten situations- und fallabstrakten Normen eines Gesetzgebers. Die impliziten Normen sind primär Anwendungsregeln, zu denen Interpretationspraktiken, Netzwerke von Entscheidungen, Modelle der Konstruktion von „Sachverhalten“ und ähnliches gehören.

Anwendungsregeln haben eine Eigenrationalität, die mit ihrem experimentell-situativen Charakter zusammenhängt (vgl. auch auch Carvalho/Negocio, Rechtswissenschaft 12 (2021), 452, 462): Sie müssen immer „am Fall“ entwickelt und dann am nächsten Fall weiter beobachtet und variiert werden. Diese Sichtweise basiert auf einem erweiterten Verständnis der Prozeduralisierung des Rechts: Es geht nicht um eine einfache Alternative zwischen Materialisierung („Sachnormen“) vs. Prozeduralisierung („Verfahrensnormen“). Mit dem Konzept verbindet sich vielmehr die Idee, dass durch eine bestimmte Verfahrensgestaltung ein Prozess der Emergenz von (Anwendungs-)Normen organisiert werden kann, die „von selbst“ – anders als bei den bestehenden staatlichen Gerichten – nicht ohne weiteres entstehen werden. Deshalb ist für die hier vertretene Konzeption die Konstruktion eines Aufsichtsgremiums gerade als „Cyber Court“ relevant. Es wird davon ausgegangen (und erhofft), dass eine gerichtsähnliche Struktur geschaffen wird, die in einem neuen sozialen Feld, das stark von „Unordnung“ geprägt ist, einen Prozess in Gang setzen kann, der Normen findet, die vor der Entscheidung nicht existieren (können). Erwartet wird, dass die „Richter“, die für eine gewisse Dauer beauftragt werden müssten, aufgrund der Beobachtung einer Vielzahl von Konstellationen Verknüpfungen zwischen Entscheidungen herstellen, die Gegenstand der Korrektur, Erweiterung, Einschränkung werden können, und dass jenseits der expliziten Kontrollnormen eine Praxis der Anwendungsregeln entsteht, die erst ein Regime des Entscheidens herausbilden, das zu den sozialen Medien und ihrem fluiden Charakter passt. Dazu ist die Entwicklung juristischer Argumentationen und öffentliche Kontrolle durch strukturierte Publikation von Entscheidungen erforderlich. Dass dies gelingt, ist nicht sicher – möglicherweise ist die Fragmentierung so dominant, dass Regeln in der Praxis der Akteure nicht akzeptiert werden. Der fragmentierte Charakter der sozialen Medien könnte auch ein multipolares Rechtsregime verkraften, das Räume der regelhaften „zivilisierten“ Kommunikation neben einer nur schwach geregelten „unzivilisierten“ Sphäre der Kommunikation zuließe, die nur unter dem Gesichtspunkt der Gefahrenabwehr reguliert würde. Dann bedürfte es einer „Kollisionsordnung“, die Überwirkungen begrenzen sollte und ebenfalls durch Cyber Courts gestaltet werden sollte.

Ein praktisches Beispiel für das Gelingen einer prozeduralen Konzeption der Erzeugung von Anwendungsnormen “from zero” bietet der WTO Appellate Body, der innerhalb der WTO als eine Art zweite Instanz der Entscheidung über Konflikte in der WTO institutionalisiert worden ist. In erster Instanz entscheiden Panels als Schlichter; die Panels sind in der Regel nicht kontinuierlich besetzt – anders als der Appellate Body, dessen Wandel zu einem (Quasi-)Gericht zunächst nicht beabsichtigt war. Aufgrund seiner kontinuierlichen Befassung mit Streitfällen hat er aber nach und nach immer stärker juristisch argumentiert und dafür typische Formen wie die Verknüpfung zwischen Fällen durch Musterbildung und ähnlichem entwickelt (allg. Shaffer et al., Law and Contemporary Problems 79 (2016), 237). So könnte man sich auch die Funktionsweise eines “Cyber Court“ vorstellen.

Das Problem der „Desinformation“ und „Manipulation“ der Öffentlichkeit in der liberalen Demokratie

Desinformation ist in einer liberalen Kultur nicht leicht zu bekämpfen, weil die Abschwächung der orientierungsbildenden Konventionen sich auch bei der Interpretation dieses Begriffes selbst zeigen. Auch das „alte“ Mediensystem hat viel Manipulation zugelassen. Und eine kontextfreie Bestimmung dessen, was „Desinformation“ ist, scheint an enge Grenzen zu stoßen. Der Staat ist jedenfalls als „Wahrheitsagentur“ verfassungsrechtlich undenkbar. Dass der DSA sich bei der Bekämpfung von rechtswidriger Kommunikation allgemein selbst Grenzen setzt (Kritik bei Buchheim, in: Spiecker gen. Döhmann, aaO, S. 257), erscheint sinnvoll. Unklar werden diese Grenzen allerdings bei der Suche nach und der Bestimmung von problematischen Formen der Desinformation und Manipulation. Hier belässt es der DSA bei sehr allgemeinen Anforderungen an die Risikoanalyse und Risikominderung (Artt. 34, 35). Die Regulierung verlässt sich hier ganz auf die Provider. Das ist angesichts der Undurchsichtigkeit der Risiken der Desinformation zu unspezifisch (allg. Wardle, Scientific American, Sonderheft: Truth vs. Lies, Herbst 2022, 58ff.; Mina, Memes to Movements, 2019, S. 98ff., 124ff.)

Vor allem sollte man sich nicht zu viel von der Unterscheidung zwischen Tatsachen und Meinung (Wertung) für die Regulierung von „Misinformation“ erhoffen (vgl. aber Buchheim, in: Spiecker gen. Döhmann et al., aaO, S. 249, 263; ders., Der Staat 59 (2020), 159, 161, 166). Den Text der „Tatsachen“ gibt es in vielen Fällen nicht ohne Kontext – und das heißt nicht ohne Konvention über ihren Gebrauch (Poovey, A History of Modern Fact, 1998, S. 56, 58). Die eindeutige Tatsache ist ein Grenzfall. Zu Zeiten stabiler Kommunikationsverhältnisse gab es sicher mehr „Tatsachen“, die als solche „brauchbar“ waren. In Zeiten der Fragmentierung pluralisiert sich auch der Sprachgebrauch. Das Recht ist allgemein mit der Bewertung von Tatsachen zurückhaltend. Eine Technik besteht im Rekurs auf subjektive Voraussetzungen oder den Schaden eines Dritten als Indiz der Rechtswidrigkeit (§§ 186, 187 StGB; 824 BGB). Dann reicht auch eine Tatsachenäußerung, die „nicht erweislich wahr“ ist. Ein an die subjektive Seite anknüpfendes Kriterium für die Internetkommunikation könnte in der wiederholten organisierten Einwirkung auf sensible Bereiche der öffentlichen Meinung bestehen (Bots, die auf den Wahlkampf einwirken sollen u. ä.). Dies könnte als eine „böse Absicht“ angesehen werden, die auch die Regulierung von problematischen Tatsachenbehauptungen rechtfertigen könnte. Dies wäre als eine neue medienspezifische Variante des Vielfaltgebots zu verstehen. Massenhafte wiederholte Einwirkung auf die Meinungsbildung mit den gleichen Inhalten, die als „Desinformation“ angesehen werden kann, wäre als Verletzung von Fairness-Regeln anzusehen. Was eine störende „Wiederholung“ ist, könnte durch neue Anwendungsregeln bestimmt werden. Ähnliches gilt auch für Trolle, die die, Aufmerksamkeit durch Wiederholung zu konzentrieren versuchen (Carvalho/Negocio, aaO, 463).

Ausblick

Dass angemessen gelöscht wird, ist allein kein sinnvolles Ziel. Es muss geprüft werden, ob es möglich ist, Regeln zu generieren – vielleicht auch nur sehr rudimentäre.

Eine strategische Regulierung, wie sie hier erwogen wird, kann nur als experimentelles Gesetz konzipiert werden, das ein Scheitern nicht ausschließt, aber Lernen ermöglicht.


SUGGESTED CITATION  Ladeur, Karl-Heinz: Schutz vor Verletzung von Persönlichkeitsrechten und „Desinformation“ in sozialen Medien unter Bedingungen der politischen Polarisierung, VerfBlog, 2022/12/13, https://verfassungsblog.de/personlichkeitsrecht-soziale-medien/, DOI: 10.17176/20221214-001658-0.

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.




Explore posts related to this:
DSA, Desinformation, Digital Services Act, Disinformation, NetzDG, Netzwerkdurchsetzungsesetz


Other posts about this region:
Deutschland, Europa, Germany