Politische Werbung und Desinformation
Will die EU politische Jedermann-Tweets de-amplifizieren?
Zum Verordnungs-Entwurf der Europäischen Kommission über die Transparenz und das Targeting politischer Werbung (COM(2021) 731 final) liegt inzwischen die Gemeinsame Ausrichtung des Rats der Europäischen Union als auch die gemeinsame Position des Europäischen Parlaments vor. Nun beginnen die abschließenden Trilog-Verhandlungen.
Aufhorchen lassen Stimmen aus der Zivilgesellschaft, die eine zu weitgehende Erfassung auch privater oder unabhängiger politischer Meinungskundgabe fürchten (z.B. hier und hier). Deutlich wurden die YouTuber RobRubble („Was die EU gerade macht, ist einfach nur absurd”) und Rezo. Beide argumentieren eng an den Regelungsvorschlägen und fragen, ob das nächste „Die Zerstörung der CDU”-Video bald nicht mehr viral gehen dürfte. MEP Tiemo Wölken hat für diese Bedenken zumindest teilweise Verständnis geäußert. Was ist da los?
Cambridge Analytica als Weckruf
Mit dem VO-Entwurf geht es um die Eindämmung von Gefahren durch politische Online-Desinformationskampagnen, u.a. wenn dies mittels targeted-ads oder viraler Verbreitung von User-generated content (UGC) auf Online-Plattformen geschieht. Der Cambridge-Analytica-Skandal war hier für die EU ein Weckruf. Die Enthüllungen um das „Team Jorge” aktualisieren den Handlungsbedarf.
Lange hatte die EU vor allem auf Selbstverpflichtungen (etwa Code of Practice on Disinformation) gesetzt. Mit dem gerade verabschiedeten Digital Services Act (DSA) wurden horizontale Regelungen für Online-Plattformen eingeführt, die auch gegen politische Online-Desinformation wirken können. Der VO-Vorschlag zu politischer Werbung soll nun sehr spezifische Regelungen einführen.
Verständlich wird der Vorschlag erst über Politiker:innen-Statements, z.B. bei MEP Alexandra Geese, die auf drei wesentliche Regelungsziele aufmerksam macht:
- Desinformations-Agenturen: „Spezielle PR-Agenturen, häufig mit Sitz in London, erarbeiten ganze Kampagnen auf Grundlage von Datenprofilen – besonders gerne für rechtsextreme Parteien.”
- Targeting: „Die Plattformen sitzen auf Bergen von persönlichen (…) Daten (…) Profile können (…) missbraucht werden, um (…) die (…) politische Debatte zu fragmentieren. Damit können Parteien (…) unterschiedliche Botschaften an unterschiedliche Gruppen ausspielen, z.B. ‚freie Fahrt für Dieselfahrer‘ an ältere Männer oder ‚Wir machen Klimaschutz‘ an jüngere Frauen.”
- Algorithmen/Amplifizierung: Online-Plattformen optimieren ihre Empfehlungs-Algorithmen oft zur Aufmerksamkeitsbindung. Inhalte, bei denen die Nutzer interagieren (Like) oder auch nur innehalten (z.B. verstörender Tweet), gehen dadurch eher viral. MEP Geese schreibt hierzu: „Dieses System führt dazu, dass sich Lügen und rechte Propaganda schneller verbreiten und mehr Menschen gezeigt werden als Fakten und demokratische Inhalte”.
Adressaten des VO-Vorschlags: Team Jorge, aber auch Facebook & Co.
Der VO-Vorschlag definiert Anbieter von sog. „politische[r] Werbedienstleistung“ (Agenturen, aber auch Online-Plattformen bei Erhalt von Entgelt für eine Werbung). Für diese Anbieter politischer Werbedienstleistungen werden gesonderte Prüfungs-, Dokumentations- und Transparenzpflichten eingeführt.
Zudem definiert der VO-Vorschlag „Herausgeber politischer Werbung“, die politische Werbung senden, bereitstellen oder öffentlich zugänglich machen. Die „Herausgeber” müssen eigene Anstrengungen unternehmen, damit die Transparenzangaben zur Werbung, die sie über ihr „Medium“ verbreiten, richtig sind.
Neben diese adressatenbezogenen Pflichten treten in Art. 12 (adressatenunabhängig) Vorgaben zum „Targeting und Amplifizieren politischer Werbung“. Hervorzuheben ist – und darum geht es vorliegend – die Beschränkung des „Targetings oder Amplifizierens” im Zusammenhang mit „politischer Werbung” in Art. 12(1), welche sich de facto vor allem an Online-Plattformen richtet, da das algorithmische Targeting und Amplifizieren von Inhalten dort heute eine Kernfunktion der Dienste bildet beziehungsweise vom Algorithmus geschmähte Inhalte dort nur selten substantiell rezipiert werden.
Was ist „politische Werbung”?
Aufgrund der Vorgabe zum „Targeting und Amplifizieren” von politischer Werbung ist von zentraler Bedeutung, was unter diesen Begriff überhaupt fällt. Ist Rezos „Zerstörung der CDU“ politische Werbung?
Erfasst sind einmal Äußerungen von politischen Akteuren (Art. 2(2)(a) der Entwürfe). Erfasst sind aber – über die weitere Definition in Art. 2(2)(b) – auch Botschaften jeglicher sonstiger Akteure. „Politische Werbung” wird dort definiert als jegliche Botschaft, die geeignet ist, politische Abstimmungsverhalten zu beeinflussen (any message liable to influence the outcome of an election or referendum, a legislative or regulatory process or voting behaviour).
Auf die Hintergründe, ob privat, geschäftlich, bezahlt oder unabhängig kommt es nicht an. Dies entspricht auch gerade dem Regelungsanliegen, jene Desinformation zu de-amplifizieren, die sich als unbezahlter UGC „tarnt”. Denn mit der genannten Definition würde politischer Verschwörungs- und borderline-Content, den die Algorithmen scheinbar so lieben, unabhängig von einer Gegenleistung erfasst. Das Problem ist natürlich: politische Jedermann-Tweets und eben Rezos „Zerstörung der CDU” wären danach auch „politische Werbung“.
Lösung durch die Werbe-Definition im Rats-Entwurf?
Offenbar empfinden sowohl der Rat als auch das EP (zu dessen Lösung unten) dieses Ergebnis als zu einschneidend, wenngleich beide unterschiedliche „Lösungen“ vorschlagen.
Der Rat möchte die Definition der politischen Werbung modifizieren. Die Mitgliedstaaten schlagen hier eine Rückausnahme zu Art. 2(2)(b) des Entwurfs vor: „political opinions expressed in any media under editorial responsibility” sollen ausgenommen sein.
Auffallend ist, dass diese Rückausnahme nur für Meinungen (opinions) gelten würde. Dies ist enger als der Oberbegriff der Botschaft (message). Wenn also etwa Rezo (oder jedermann) politisch relevante Tatsachen verbreitet (Beispiel: Treffen von Bundeskanzler Scholz mit Vertretern der Warburg Bank) wäre dies wohl weiterhin als „politische Werbung” erfasst.
Zudem muss ein Inhalt, um doch nicht als politische Werbung zu gelten, nach dem Rats-Vorschlag unter redaktioneller Verantwortung (editorial responsibility) geäußert worden sein.
Dieser Begriff ist rechtlich nicht geklärt. ErwGr 19 im Rats-Entwurf verweist (nicht abschließend) auf die AVMD-RL. Dort ist „redaktionelle Verantwortlichkeit” in Art. 1(c) definiert als „Ausübung einer wirksamen Kontrolle sowohl hinsichtlich der Zusammenstellung der Sendungen als auch hinsichtlich ihrer Bereitstellung entweder anhand eines chronologischen Sendeplans im Falle von Fernsehsendungen oder mittels eines Katalogs im Falle von audiovisuellen Mediendiensten auf Abruf”.
Meines Erachtens passt diese Definition (Sendeplan, Katalog) nicht in den breiten Kontext des VO-Vorschlags. Denn der VO-Vorschlag ist nicht auf Video-Sharing-Plattformen oder Rundfunkanbieter beschränkt: Tweets auf Twitter folgen keinem Sendeplan; Creators auf TikTok haben meist weder Sendeplan noch Katalog, sondern geben den Content in die Hände des Algorithmus.
„Redaktionelle Verantwortlichkeit” im VO-Vorschlag muss daher eigenständig, und zwar schlicht als „Ausübung einer wirksamen Kontrolle über die Verbreitung des Inhalts” verstanden werden. Dabei kann es nicht auf Förmlichkeiten ankommen, wie etwa eine redaktionelle Betreuung durch eine dritte Person. Es kann auch nicht auf materielle Qualitätsstandards (z.B. Recherche) ankommen. Denn im Medienrecht sind solche Standards bekannt (z.B. § 19 MStV: journalistisch-redaktionelle Sorgfalt), sie tauchen im Rats-Vorschlag aber gerade nicht auf.
Am plausibelsten scheint, dass die „redaktionelle Verantwortlichkeit” des Rats-Vorschlags eben vorliegt, wenn eine natürliche Person wirksam die Verantwortlichkeit für die Verbreitung des Inhalts übernimmt. Die Person muss nicht mit dem Autor identisch sein, aber Kontrolle über das „ob” der Veröffentlichung haben, z.B. der Account-Inhaber. Diese Person müsste entweder mit Klarnamen oder zumindest leicht identifizierbar auftreten, da wohl nur dann Verantwortung übernommen wird. Ausnahmen erscheinen denkbar bei Strohmannkonstruktionen. Das hiesige Verständnis (grundsätzlich kann jeder redaktionelle Verantwortung übernehmen) wäre wohl schon im Lichte der Kommunikationsfreiheiten geboten: Eine Diskriminierung von Normalnutzern unter Klarnamen gegenüber etwa professionellen Redaktionen usw. erscheint nicht rechtfertigungsfähig.
De-Amplifizierung und De-Targeting politischer Äußerungen: Die verschiedenen Entwürfe im Vergleich
Was folgt hieraus nun für die angesprochenen Plattform-Algorithmen und ihren Umgang mit „politischer Werbung“?
Nach Art. 12(1) des KOM-Entwurfs darf das „Targeting oder Amplifizieren” im Zusammenhang mit „politischer Werbung” nicht mit der Verarbeitung sensitiver Daten nach Art. 9(1) DS-GVO einhergehen, das heißt YouTube beispielsweise dürfte dann politische Werbung (nach dem KOM-Entwurf auch: politische Jedermann-Botschaften) nicht mehr anhand von Merkmalen wie politischer Meinung, ethnischer Herkunft u.ä. sortieren und empfehlen. Twitter könnte einen Jedermann-Tweet zum Thema Vergesellschaftung von Wohnraum nicht mehr gezielt an „links” eingeordnete Nutzer ausspielen – aber noch an Nutzer mit dem Merkmal „niedriges Einkommen”. Zwar sieht Art. 12(2) wiederum mit Verweis auf Art. 9(2)(a) und (d) DS-GVO eine Rückausnahme vor: Gerade wenn eine Einwilligung vorliegt, wäre das Targeting und Amplifizieren doch wieder voll erlaubt. Dieser Einwilligungsvorbehalt hilft Rezo & Co. aber nur begrenzt. Denn im Zweifel werden Nutzer ihre Werbeeinwilligungen restriktiv einstellen. Art. 26(1)(d) DSA fördert dies sogar. „Politische Werbung” werden Nutzer wohl oft abstellen. Dass sie damit dann aber auch (kontra-intuitiv) politische Jedermann-Äußerungen de-amplifizieren, dürfte selten bekannt sein.
Der Rats-Entwurf folgt für das hier interessierende „Targeting oder Amplifizieren” grundsätzlich dem KOM-Entwurf. Allerdings fällt dies im Rats-Entwurf marginal zurückhaltender aus, weil ja die Definition von politischer Werbung geringfügig enger ausfällt als im KOM-Entwurf. Mit dem Rats-Entwurf wären immerhin „opinions” unter „editorial responsibility”, also – nach meinem Verständnis – vor allem Meinungen unter Klarnamen von der De-Amplifizierung ausgenommen.
Das Europäische Parlament schlägt komplizierte Regelungen zu Art. 12 vor. Das Kapitel III, in dem sich Art. 12 befindet, soll allerdings insgesamt neu überschrieben werden mit „Targeting … of Political Advertising Services”. Dadurch würde Art. 12 nicht mehr für jegliche politische Werbung im Sinne der VO-Definition, sondern nur noch im Zusammenhang mit Dienstleistungen gelten, das heißt vor allem bei Gegenleistungen (bezahlten Kampagnen usw.). Der EP-Entwurf stellt damit eine Abkehr von KOM- und Rats-Entwurf dar, denn (unbezahlte) politische Jedermann-Äußerungen wären von Art. 12 nicht mehr erfasst: Sowohl unabhängigen Influencern (Rezo) als auch politischen Jedermann-Tweets droht nach dem EP-Vorschlag keine De-Amplifizierung.
Fazit: Was ist von alledem zu halten?
Der VO-Vorschlag zu politischer Werbung soll einerseits „politische Werbung” im klassischen Sinne, d.h. Platzierung von Botschaften gegen Entgelt, regulieren. Der Vorschlag soll aber auch das Targeting und Amplifizieren von politischem UGC-Content, also unabhängige und unbezahlte politische Aussagen wie Rezos Zerstörung der CDU oder politische Jedermann-Tweets erfassen. Ehrlicherweise müsste der Name des VO-Vorschlags daher lauten: „über die Transparenz und das Targeting politischer Werbung und politischer Aussagen”.
Dies war von den Entwurfsverfassern offenbar so gewollt. Auf diesem Weg soll politischer borderline-content, Verschwörungstheorien & Co., d.h. Inhalte, welche die Algorithmen scheinbar so lieben und unter denen versteckte Desinformationskampagnen (Kreml-Trolle & Co.) offenbar gerne „mitschwimmen“, auf Online-Plattformen geschwächt werden, und zwar auch dann, wenn die Plattformen hierfür kein Geld erhalten.
Der KOM-Entwurf geht insofern am weitesten, da der Algorithmus diese politischen Äußerungen nicht mehr so zielgruppengenau ansteuern dürfte. Das EP nimmt die gegensätzliche Haltung ein: Unbezahlter oder schlicht unabhängiger UGC soll nicht mehr unter die Vorgabe zur De-Amplifizierung fallen. Das Ziel, Kreml-Trolle usw. zu de-amplifizieren, sofern sich diese unter „Normalnutzer“ mischen, gibt der EP-Entwurf damit freilich auf.
Der Rat, d.h. die Mitgliedstaaten, versuchen einen Mittelweg, der aber tatsächlich viel näher am KOM-Entwurf liegt als beim EP. Nach dem Rat bleiben nur Meinungen (opinions) unter redaktioneller Verantwortlichkeit von der De-Amplifizierung verschont. Diese Rückausnahme erscheint wenig gelungen: Sie auf Meinungen (opinions) zu beschränken, ist schwer verständlich – auch Tatsachenäußerungen sollten erfasst sein. Der weitere Ansatz des Rates, wonach es auf eine redaktionelle Verantwortlichkeit ankommen soll, führt in Richtung Zwei-Klassen-Nutzerschaft: Wer unter Klarnamen, jedenfalls identifizierbar auftritt, kann danach weiterhin voll-amplifiziert politische Meinungen tweeten; anonyme Postings hingegen werden de-amplifiziert. Ich persönlich halte einen solchen Ansatz (Privilegierung Klarnamennutzung) für eine sinnvolle Ausrichtung in der Online-Regulierung. Aber: Indirekte Klarnamenpflichten sind bisher eher nicht mehrheitsfähig, sie sollten offen diskutiert werden!
Auf einem ganz anderen Blatt steht, wie effektiv es gegen Desinformation dann wirklich ist, anonyme oder Fake-Profile bei der Verbreitung politischer Inhalte zu de-amplifizieren. Vielleicht sind die Hoffnungen des Gesetzgebers hier zu groß, mit einer einzigen knackigen Vorgabe („De-Amplifiziere!”) Probleme zu lösen, für die es eine silver bullet nun einmal nicht gibt. Zu beachten ist, dass die sensitiven Daten, an welche Art. 12(1) VO-Vorschlag anknüpft, beim Amplifizieren und Targeten gar nicht entscheidend sein müssen. Die wichtigen interaktions-basierten kollaborativen Filtermethoden brauchen solche Daten noch weniger.
Bliebe zu fragen: Was denn dann?
Zunächst einmal: Gegen Desinformation helfen nur viele kumulative Maßnahmen, die hier nicht abschließend diskutiert werden können. Vorgaben für Online-Plattformen sind ein wichtiger Teilaspekt.
Ein Ansatz bei Online-Plattformen wäre, Empfehlungssysteme normativ redaktionellen Entscheidungen gleichzustellen, d.h. die algorithmische Empfehlung von Inhalten (jedenfalls in Risikofällen, z.B. bei anonymen Nutzern oder bei Viralität) als eigene Inhalteverbreitung der Plattformen zu behandeln. Aber: Das wird (so schnell) nicht kommen, zumal auch dieser Vorschlag keine silver bullet wäre. Es ist leider komplex!
Daneben gibt es – zum Teil gerade erst eingeführt – bereits Instrumentarien für die Behörden, die es auszuschöpfen gilt. Die Landesmedienanstalten könnten versuchen, Verletzungen der journalistischen Sorgfaltspflichten (§ 19 MStV) zu sanktionieren (Geldbuße gegen Ken Jebsen wegen Verschwörungstheorien?). Die Kommission könnte über das Risikominderungsregime in Art. 34 f. DSA Plattformen gezielt zur Anpassung der Algorithmen auffordern, wenn diese Desinformation zu stark amplifizieren. Weiter müsste die Umsetzung des Code of Practice on Disinformation gestärkt werden. Danach verpflichten sich u.a. Online-Plattformen dazu, Desinformation zu de-monetarisieren und Fact-Checking zu stärken. Die Bedeutung des Code of Practice dürfte zunehmen, da die Befolgung im DSA als naheliegende Maßnahme konzipiert ist, vgl. Art. 45, 63, 75(2) DSA.
Die genannten Instrumentarien sind allerdings mühsam und erfordern starke und auch mutige Behörden – der Vorwurf vom Wahrheitsministerium ist zu erwarten. Gleichzeitig ist eine gute parlamentarische und gerichtliche Kontrolle wichtig – weil es ja tatsächlich nicht ungefährlich ist, wenn Behörden in die Inhalteverbreitung auf Online-Plattformen, zumal jenseits klarer Kategorien wie „rechtswidrig/rechtmäßig“ eingreifen.
Klar ist: Es bleibt kompliziert. Der VO-Vorschlag zur politischen Werbung wird dem (noch) nicht gerecht, weil die derzeitigen Entwürfe unbeabsichtigte Folgen für politische Jedermann-Tweets haben könnten, was einer breiteren Debatte bedarf.