16 Januar 2017

Social Bots: Wegbereiter der Maschinokratie

Die Digitalisierung des öffentlichen Raumes galt lange Zeit als Quelle für ein Mehr an Demokratie. Mit der Etablierung sozialer Medien gehe eine intensivere Teilhabe weiter Bevölkerungsschichten an öffentlichen Diskursen einher, so das gängige Credo. Facebook, Twitter und Co. böten damit einen Resonanzraum für politische Entscheidungsprozesse, den die Kommentarspalten in der traditionellen Printpresse bisher nicht bieten konnten.

In den letzten Monaten und Jahren traten indes vermehrt die Gefahren zutage, welche sich aus dem Missbrauch der neuen kommunikationstechnischen Möglichkeiten ergeben. Eine der größten Gefahren resultiert dabei aus dem vermehrten Einsatz von sogenannten Social Bots im Rahmen der öffentlichen Meinungsbildung. Es handelt sich dabei um komplexe Algorithmen, die in sozialen Netzwerken mittels fiktiver Identitäten automatisch erzeugte Meinungs- und Nachrichtenbeiträge verbreiten. Im „Idealfall“ sind diese Systeme heute bereits so weit ausgereift, dass sie ihre – der politischen Couleur ihrer Urheber entsprechenden – Meldungen, unabhängig von einer menschlichen Eingabe und dennoch passgenau auf die gerade aktuelle Debatte bezogen, selbst generieren und verbreiten können. Ob eine natürliche Person oder ein Social Bot die Meldung verfasst und auf Twitter oder Facebook geteilt hat, soll für andere Nutzer der sozialen Netzwerke dann nicht mehr erkennbar sein. Die Idee dahinter greift gruppendynamische Prozesse auf. Es wird erwartet, dass die Mehrzahl der User geneigt ist, mit dem Strom zu schwimmen und von Bot-geschaffenen Stimmungslagen in ihrer Meinungsbildung beeinflusst zu werden.

In den deutschen Medien konnte in den letzten Wochen viel über sogenannte Fake News und die diesbezüglichen Pläne der Bundesregierung, ein Abwehrzentrum gegen Desinformation einzurichten, gelesen werden. Dabei werden die Begriffe Social Bots und Fake News in der medialen Berichterstattung häufig nicht klar voneinander getrennt. Während Fake News ihre Bezeichnung aufgrund ihres täuschenden oder gar falschen Inhalts erhalten, ist der Social Bot das technische Instrument zur massenhaften Verbreitung von Information – ganz gleich, ob die Nachricht inhaltlich wahr oder falsch ist.

Zahlreiche weltpolitische Ereignisse stehen mittlerweile in dem Verdacht, durch den Einsatz von Social Bots beeinflusst worden zu sein: die öffentliche Debatte im Vorfeld des Brexit-Referendums, die Informationskampagnen rund um die russische Annexion der Krim und den Ukrainekonflikt sowie zuletzt auch der US-Wahlkampf. Laut einer Studie der Universität Oxford setzten sowohl Donald Trump als auch Hillary Clinton auf Social Bots, um im Kampf um die Wählergunst Vorteile zu erreichen. Im Hinblick auf die im September 2017 auch in Deutschland bevorstehende Bundestagswahl, ist dieser Befund alarmierend. Alice Weidel, Mitglied des AfD-Bundesvorstandes, kündigte Ende letzten Jahres gegenüber dem SPIEGEL an, dass ihre Partei selbstverständlich auch Social Bots in ihre Wahlkampfstrategie einbeziehen werde. Wenngleich sich die AfD kurze Zeit später bemühte, diese Aussage zu relativieren, und auch die etablierten Bundestagsparteien den Einsatz von Social Bots einheitlich ablehnen, bleibt die aus dem Einsatz von Social Bots resultierende Gefahr weiterhin bestehen. Denn schlussendlich ist aktuell nicht absehbar, ob es seitens der konkurrierenden Parteien doch zu einem offenen oder auch verdeckten Einsatz kommen wird.

Während auf der neu gegründeten Internet-Plattform „botswatch“ aktuelle Diskussionen in verschiedenen sozialen Netzwerken auf ihren Bot-Anteil hin technisch analysiert und transparent gemacht werden, haben die Bots mittlerweile auch Einzug in die rechtswissenschaftliche Debatte gehalten: auf dem JuWissBlog des Jungen Wissenschaft im Öffentlichen Recht e.V. haben kürzlich Jens Milker, Tobias Brings-Wiesen sowie Florian Zumkeller-Quast die Diskussion über den verfassungsrechtlichen Umgang mit Social Bots aufgenommen.

Der vorliegende Beitrag will an diese Diskussion anknüpfen. Im Zentrum der Betrachtung stehen dabei die verfassungsrechtliche Stellung der Parteien und das Prinzip eines funktionsfähigen, demokratischen Parteienwettbewerbs. Aus ihnen folgt im Ergebnis zweierlei: Der Einsatz von Social Bots ist den Parteien von Verfassungs wegen untersagt. Den Staat trifft eine Schutzpflicht zur Gewährleistung eines fairen Parteienwettbewerbs, der nicht durch den Einsatz von Social Bots manipuliert wird.

Als Reaktion auf die Lehren aus Weimarer Zeiten wurden die Parteien durch das Grundgesetz in den Rang verfassungsrechtlicher Institutionen gehoben. Seither sind sie als Scharniere zwischen Staat und Gesellschaft fundamentale Bestandteile des Verfassungsaufbaues (BVerfGE 20, 56, 100 f.). Gem. Art. 21 Abs. 1 Satz 1 GG wirken die Parteien bei der Willensbildung des Volkes mit. Diese verfassungsmäßige Aufgabe nehmen die Parteien wahr, indem sie die in der Bevölkerung vorhandenen Meinungen als Medium in den Staat transportieren. Dabei übernehmen die Parteien auch eine Filter- und Verstärkerfunktion und werden somit selbst Akteur im öffentlichen Meinungsbildungsprozess. Diese aktive Rolle als Meinungsbildungsinstanzen dient nicht nur der Selbstbestätigung ihrer schon vorhandenen Anhänger, sondern soll darüber hinaus zur Gewinnung neuer Wählergruppen führen. Die Parteien dienen demnach auf der einen Seite sich selbst, indem sie mit ihren Positionen um die Gunst der Wähler und somit um die Macht im Staat buhlen. Auf der anderen Seite besitzen sie auch eine zentrale Funktion für die Verfassungsordnung, die sie als Bindeglied zwischen Bevölkerung und Staat konstituiert hat. Daraus ergibt sich für die Parteien ein komplexes Spannungsverhältnis, in dem sie sich bewegen und bewähren müssen. Den Rahmen gibt insoweit Art. 21 Abs. 1 Satz 1 vor. Aus ihm lässt sich zum einen die partielle Grundrechtsfähigkeit der Parteien ableiten. Zugleich bindet Art. 21 Abs. 1 Satz 1 GG die Parteien bei ihrer Tätigkeit an das Demokratieprinzip. Denn wenn die Norm von der Mitwirkung an der politischen Willensbildung spricht, so kann aufgrund der Strahlkraft des Art. 20 Abs. 2 GG auf das gesamte Grundgesetz nur eine Mitwirkung an demokratischer Willensbildung gemeint sein. Demokratische Willensbildung hat jedoch – trotz aller Wechselwirkungen – eine klare Flussrichtung: sie führt von unten nach oben. Ausgangspunkt des unter Mitwirkung der Parteien in Gesetze gegossenen Staatswillens ist die inhaltliche Überzeugung der (Mehrheits-)Bevölkerung. Dieses Prinzip bedarf insbesondere im Hinblick auf Wahlen als Grundakt demokratischer Legitimation ein Höchstmaß an Integrität (vgl. BVerfGE 44, 125, 139).

Genau an dieser Stelle wird offenbar, warum der Einsatz von Social Bots durch Parteien verfassungsrechtlich bedenklich ist: Er missachtet das demokratische Willensbildungsprinzip des „Von-unten-nach-oben“. Mit Hilfe von Social Bots wird in der sozial-medialen Öffentlichkeit zwar der Eindruck erweckt, dass eine Meinung von vielen individuellen Bürgern stammt. In Wahrheit jedoch hat sie ihren einzigen Ausgangspunkt in einer Parteizentrale. Sie ist eine von oben in die Bot-Profile diktierte Meinung. Der Rückkopplungsprozess zwischen Partei und Bevölkerung und schließlich auch mit dem Staat wird dadurch zumindest marginalisiert. Denn mit den Bots schafft man sich nicht nur eine eigene fiktive Anhängerschaft in den sozialen Medien. Vielmehr untergräbt man damit auch die Stimmen der menschlichen Anhänger, indem ihre Meinungsbeiträge in der Masse an vorgegebenen Bot-Meinungsbeiträgen unterzugehen drohen.

Viele „Lügenpresse“-Krakeeler werden nun anmerken, dass auch etablierte Zeitungs- und Fernsehformate häufig nur ein bestimmtes Meinungsbild vermitteln. Das mag teilweise auch stimmen. Anders als solche herkömmlichen Medien geben Social Bots aber vor, die von ihnen transportierte Meinung stamme von vielen einzelnen, identifizierbaren Individuen aus der Mitte der Bevölkerung. In dieser direkten Herkunftsverschleierung liegt die eklatante Täuschung, die in der Meinungsbildung durch auflagen- oder quotenstarke Medien nicht anzutreffen ist. Denn die in einer Zeitung dargelegte Meinung ist einem individuellen Journalisten regelmäßig ohne weiteres zuordenbar. Mutmaßungen darüber, dass auch diese als Marionetten von Hintermännern gesteuert seien, gehören in die Schublade der Verschwörungstheorien. Beim Einsatz von Social Bots kommt es aber offenbar gerade darauf an, vorzuspielen, dass ein Individuum aus der Mitte der Bevölkerung eine entsprechende Meinung vertritt und nicht etwa eine etablierte, dem öffentlichen Gebilde zugehörige Institution. Andernfalls könnte die dahinter stehende Organisation auch eine Presseaussendung oder einen Twitter-Beitrag auf ihrem offiziellen Profil erstellen und diesen dann verbreiten lassen. Es geht also nicht nur um eine Identitätstäuschung, sondern besonders um eine Herkunftstäuschung. Die Identität der hinter einem Social-Media-Profil stehenden Person ist nämlich nicht von besonderem Interesse. Wichtig für den, der Social Bots einsetzt, ist hingegen in erster Linie, dass bei den am Diskurs aktiv und passiv Beteiligten der Eindruck entsteht, die Meinung komme nicht von „denen da oben“, sondern „vom kleinen Mann“ aus der Mitte der Gesellschaft.

Im Lichte des Demokratieprinzips jedoch ist die Herkunft einer Aussage im politischen Diskurs von immanenter Wichtigkeit. Denn wenn Aussagen und Meinungen, die schlussendlich in verbindliche Staatsentscheidungen umgelegt werden, tatsächlich nicht mehr in der Mitte der Bevölkerung ihren geistigen Ursprung haben, droht sich die demokratische Legitimationskette von ihrem Anker zu lösen.

Dystopisch und gänzlich post-demokratisch ist dann auch die Vorstellung von verschiedenen parteiengelenkten Bot-Armeen, die den „Meinungs“-kampf und die „Willens“-bildung am Ende unter sich ausmachen und das Wahlvolk nur noch als Publikum zusehen lassen. Der Staat wäre von der Demokratie in einen digitalen Totalitarismus abgerutscht.

Mit dieser nicht gänzlich undenkbaren Vorstellung vor Augen, erscheint es mindestens fragwürdig, wenn teilweise behauptet wird, die Grenze des legitimen Bot-Einsatzes sei erst dann überschritten, wenn der Diskursraum tatsächlich von Bots derart überschwemmt ist, dass der tatsächlich menschliche Beitrag überhaupt keine Beachtung mehr finde. Gänzlich absurd ist der anderorts angedachte Lösungsweg, man könne das Problem durch einen Rechtsanspruch auf positive Waffengleichheit lösen, wonach jede Partei Bots in der Zahl ihrer Kontrahenten ins Rennen schicken darf.

Ausgehend von Art. 21 Abs. 1 Satz 1 GG ist das Urteil vielmehr eindeutig: Der Einsatz von Social Bots verletzt Prinzipien der demokratischen Willensbildung. Unter dem Grundgesetz ist er politischen Parteien untersagt.

Neben politischen Parteien stehen in den letzten Wochen aber vor allem Akteure außerhalb des öffentlichen Politikbetriebes in dem Verdacht, politische Debatten durch den Einsatz von Social Bots zu manipulieren. So wird insbesondere vermutet, dass russische Geheimdienste den US-Wahlkampf zugunsten des zukünftigen Präsidenten Trump beeinflusst haben. Der erst Anfang Januar veröffentlichte Bericht des Direktors der US-amerikanischen Nachrichtendienste geht zwar davon aus, dass die Einflussnahme primär durch sogenannte professionelle Trolle erfolgte – reale Personen, die die Meinungsbildung auf Diskussionsplattformen gezielt durch besonders polarisierende Beiträge prägen. Es bedarf jedoch nicht allzu viel Phantasie um sich vorzustellen, dass eine solche Einflussnahme auch unter Zuhilfenahme automatisierter Social Bots praktiziert wird.

Verfassungsrechtlich betrachtet zeichnet auch hier Art. 21 Abs. 1 Satz 1 GG die Verantwortlichkeiten vor: Der Staat hat derartige Manipulationsversuche abzuwehren.

Denn über die bloße Aufgabenzuweisung hinaus ist in ständiger Rechtsprechung des Bundesverfassungsgerichts anerkannt, dass Art. 21 Abs. 1 Satz 1 GG ein grundrechtsgleiches, subjektiv-öffentliches Recht der politischen Parteien auf freie, gleiche Teilhabe im politischen Wettbewerb begründet (vgl. BVerfGE 111, 382). Es entspricht gefestigter Grundrechtsdogmatik, dass mit diesem Recht eine staatliche Schutzpflicht einhergeht, die den Staat zur Gewährleistung der Chancengleichheit der Parteien im Rahmen eines fairen Parteienwettbewerbs verpflichtet. Die staatliche Rolle entspricht insoweit derjenigen eines Schiedsrichters. Der Staat hat die Funktionsbedingungen herzustellen, unter denen der offene, mit demokratischen Mitteln geführte Meinungskampf um die Wählergunst geführt werden kann.

Gerade auch diese Funktionsbedingungen gefährdet der Einsatz von Social Bots massiv:

Sie schaffen virtuelle Stimmungsbilder, erzeugen verzerrte Diskussionsdynamiken und manipulieren damit den öffentlichen Diskurs auf nachhaltige Weise. Denn Teil der wahlrelevanten Informationen sind nicht nur Aussagen zur inhaltlichen Positionierung der Parteien selbst. Vergleichbare Erheblichkeit besitzen daneben auch Informationen über den aktuellen öffentlichen Meinungs- und Diskussionsstand in der Bevölkerung. Sie erlauben es der Wählerin, die eigene Position vor dem Hintergrund der gegebenen Meinungslandschaft zu entwickeln und auf vorhandene Mehrheitsverhältnisse durch ein bestimmtes Wahlverhalten zu reagieren. Im Ergebnis zerstört der massenhafte Einsatz von Social Bots in sozialen Netzwerken damit die Informationsgrundlage, die das Fundament für den im individuellen Wahlakt zum Ausdruck kommenden Wählerwillen bildet und zugleich seine legitimatorische Wirkung bedingt. Neben dem bereits oben dargestellten Umstand, dass Meinungsbilder originär durch die Bot-Nutzer gesät werden, anstatt sich in der Bevölkerung auszubilden, gefährdet der Einsatz von Social Bots parallel auch die funktionsfähige Willensbildung in der Bevölkerung selbst. Letztere ist aber gerade Voraussetzung dafür, dass der vom Staat zu gewährleistende demokratische Meinungskampf chancengleicher Parteien überhaupt erst geführt werden kann. Die staatlichen Institutionen sind damit gemäß Art. 21 Abs. 1 Satz 1 GG im Rahmen ihrer Schutzpflicht gegenüber den politischen Parteien und ihren Wahlbewerbern gehalten, die Manipulation des politischen Diskurses durch den Einsatz von Social Bots seitens Dritter – seien es ausländische Nachrichtendienste, Unternehmen oder Einzelpersonen – zu verhindern.

Zwar kommt dem Staat bei der Auswahl tauglicher Mittel zur Wahrnehmung seiner Schutzpflicht eine Einschätzungsprärogative zu. Gegenwärtig bleibt aber offen, wie die Organe des Bundes ihre Verpflichtung zum Schutz des durch einen fairen Parteienwettbewerb gekennzeichneten Wahlkampfes wirksam wahrnehmen wollen. Aktuell wird in Regierungskreisen verschiedentlich die Einführung eines Straftatbestandes für das Veröffentlichen und Verbreiten sogenannter Fake News gefordert. Entsprechende Vorschläge können im Kampf gegen eine missbräuchliche Nutzung sozialer Medien zu politischen Zwecken aber nur eine Teillösung sein. In erster Linie wird man die Betreiber sozialer Netzwerke wie Facebook und Twitter in die Pflicht nehmen müssen, um effektiv gegen die Betreiber von Social Bots mit politischer Zielrichtung vorgehen zu können.

Es bleibt abschließend zu bedenken, dass sich die öffentliche Kommunikation der Bevölkerung bereits heute zu einem beträchtlichen Teil in die digitale Sphäre verschoben hat. Dies wird sich auf absehbare Zeit nicht ändern. Die moderne Meinungsbildung findet zu einem erheblichen Teil auf den Agoren des Internets statt. Der Probleme, die sich aus den Möglichkeiten internetbasierter Identitäts- und Herkunftsverschleierung für den öffentlichen Diskurs ergeben, ist nicht allein mit der Frage nach der Rechtmäßigkeit der Meinungsäußerung unter falscher Identität beizukommen. Sie erfordern vielmehr einen grundlegenderen Blick auf das für das Grundgesetz schlechterdings identitätsstiftende Demokratieprinzip. Die Zeit ist reif für eine staatliche Regulierung bzw. Untersagung der Nutzung von Social Bots zur Meinungsmanipulation. Es gilt auch hier der oft verwendete Ausspruch „wehret den Anfängen“. Dabei geht es nicht um staatliche Zensur einer bestimmten Meinung, sondern darum, den von den sozialen Medien eröffneten Diskursraum auch in Zukunft aktiv für das Wechselspiel tatsächlicher Meinungsbeiträge von Bürgern zu erhalten.


SUGGESTED CITATION  Gasser, Lucas; Kraatz, Matthias: Social Bots: Wegbereiter der Maschinokratie, VerfBlog, 2017/1/16, https://verfassungsblog.de/social-bots-wegbereiter-der-maschinokratie/, DOI: 10.17176/20170116-164507.

11 Comments

  1. Social Bot Mo 16 Jan 2017 at 11:56 - Reply

    Was bedeutet das für dieses Forum? Darf ich in Zukunft nicht mehr kommentieren? Schade.

  2. Leser Mo 16 Jan 2017 at 15:05 - Reply

    Ich find’s klasse, wie kommerzieller Spam durch die Politik jahrelang still hingenommen und der Webseitenbetreiber auf technische Mittel verwiesen wurde, aber beim Aufkommen politischen Spams plötzlich die volle Breitseite des Rechtsstaats aufgefahren wird.

    Natürlich verteidigt die Politik hier die Demokratie. Nicht etwa eigene Interessen. Es geht nicht etwa um Schutz der etablierten Parteien vor rechter Konkurrenz. Nein, so etwas käme uns nie in den Sinn. Natürlich sind da nur hehre Motive im Spiel.

    Die Motive dahingestellt, fände ich persönlich es begrüßenswert, wenn man beides radikal verbieten und dieses Verbot dann auch wirksam durchsetzen würde.

    Letzteres aber dürfte das tatsächliche Problem sein: Will man in Moskau ermitteln, ob ein Kommentar bei spiegel.de von einem Menschen oder einer Maschine erstellt wurde? Und dann ggf., wer die Maschine betrieben hat? Und den/die dann ausliefern lassen? Oder wie soll das gehen? Wir bekommen doch nicht einmal eine Reaktion hin, wenn das Mobiltelefon der Kanzlerin abgehört wurde. Übernehmen wir uns da mit Spam nicht etwas?

  3. Megabot Mo 16 Jan 2017 at 17:34 - Reply

    Ich würde auch gerne weiterhin kommentieren.

  4. Leon Di 17 Jan 2017 at 10:22 - Reply

    Das erscheint mir , sorry, doch reichlich undifferenziert.

    Der Beitrag geht viel zu wenig darauf ein, ob der „Bot“ nun sachlich richtige oder falsche Informationen liefert, ob er informiert oder manipuliert.

    Solange sachlich richtige Informationen (nach-)geliefert werden, gefährdet der „Bot“ nicht die demokratische Willensbildung, sondern ermöglicht sie erst.

    Es ist ja keineswegs so, dass im Diskurs immer objektiv informiert werden würde.

    Ganz im Gegenteil wird durch Auswahl und gezieltes Weglassen von Informationen oft, viel zu oft die demokratische Meinungsbildung sabotiert.

    Hier könnten „Bots“, die automatisch fehlende Informationen nachliefern, die informierte Wllensbildung deutlich befördern.

    P.s.: Man könnte ja auch Nachrichten von „Bots“ obligatorisch kennzeichnen.

  5. Hella Di 17 Jan 2017 at 11:06 - Reply

    „Es handelt sich dabei um komplexe Algorithmen, die in sozialen Netzwerken mittels fiktiver Identitäten automatisch erzeugte Meinungs- und Nachrichtenbeiträge verbreiten.“

    Offenbar handelt es sich hier um Fake News. Algorithmen erzeugen niemals automatisch irgendwas. Vermutlich meinen Sie hier Software, die vermittels eines Computers bestimmte Effekte in der ‚Realwelt‘ bewirkt. Algorithmen werden in Software abgebildet. Das ist wie im Mathematikunterricht: die Kenntnis der Lösungsformel für quadratische Gleichungen hat Ihnen in der Prüfung keine Punkte eingebracht, wenn Sie sie nicht auf die gestellte Aufgabe angewendet haben.
    Wenn Sie sich schon disziplinübergreifend Begriffe zueigen machen, dann sollten Sie diese doch auch verstanden haben.

  6. R2D2 Di 17 Jan 2017 at 11:52 - Reply

    @Leon: Juristen können alles verbieten, müssen aber nichts verstehen. Merken Sie sich das.

  7. Die Verfasser Di 17 Jan 2017 at 21:47 - Reply

    Vielen Dank für Ihre Anmerkungen.

    @Leser:
    Auch uns ist bewusst, dass die Wahrnehmung dieser Schutzpflicht den Staat vor erhebliche faktische Herausforderungen stellt. Ähnliche Probleme auf der Ebene der Umsetzung ergeben sich etwa bei der Bekämpfung von Internetkriminalität in ihren verschiedensten Ausformungen. Diese Hürden entbinden den Staat aber nicht von seiner Verantwortung.

    @Leon:
    Natürlich ist es in Zukunft theoretisch denkbar, dass Bots auch sachlich zutreffende Informationen zum Diskurs beitragen. Real in Erscheinung getreten sind diese Werkzeuge bisher – siehe die Dokumentation auf botswatch.de – aber mit einer anderen Zielrichtung: Sie dienten der manipulativen Meinungsbildung. Mit diesem Problem haben wir uns in dem Beitrag auseinander gesetzt.

    @Hella:
    Herzlichen Dank für Ihren überaus fachkundigen Hinweis. Lesen Sie den zitierten Satz in Zukunft doch bitte wie folgt: „Es handelt sich dabei um Software, die auf Grundlage komplexer Algorithmen und mittels fiktiver Identitäten in sozialen Netzwerken automatisch erzeugte Meinungs- und Nachrichtenbeiträge verbreitet.“ Wir hoffen damit den informationstechnischen Realitäten eher gerecht zu werden.

    @R2D2:
    Juristen können ohne entsprechende Vorgaben des Gesetzgebers nichts verbieten. Und wenn Juristen mal wieder etwas nicht verstanden haben, dann können Sie sicher mit Rat und Tat zur Seite stehen.

  8. Hella Mi 18 Jan 2017 at 00:23 - Reply

    @Verfasser: Diesen Satz lese ich gerne wie vorgeschlagen. Damit komme ich dann zur zweiten Fake News in diesem Satz: „auf Grundlage komplexer Algorithmen“.
    Was zu beweisen wäre! Was genau meinen Sie denn mit „komplex“? Ohne eine empirische Quellcode-Analyse vorgenommen zu haben, behaupte ich mit einiger Überzeugung, dass die zugrundeliegenden Algorithmen in der ganz überwiegenden Zahl der Fälle ausgesprochen simpel gestaltet sind. Sie Sie sich sicher, dass „komplexe Algorithmen“ nicht vielmehr „irgendwas mit Computern“ bezeichnen?

    Ohnehin scheint mir die ganze Debatte zu sog. „Social Bots“ ausgesprochen postfaktisch, d.h. nach gefühlter Erkenntnislage geführt zu werden. Das Phänomen Astroturfing ist jedenfalls seit mindestens 10 Jahren allgemein bekannt. Die Grundlagen dazu wurden bereits in den 1920ern von Edward Bernays gelegt.
    Die Automatisierung derartiger Methoden ist ebenfalls nicht neu und wurde spätestens 2010 anlässlich der Wahl zum US-amerikanischen Senat ausdrücklich thematisiert (Mustafaraj, Eni and Metaxas, Panagiotis, „From Obscurity to Prominence in Minutes“ und Ratkiewicz et al, Truthy: Mapping the Spread of Astroturf in Microblog Streams). Als Bezeichner dienten damals nur „automated scripts“ oder „automated accounts“. Nun wird die schon domestizierte Sau unter anderem Namen erneut durchs Dorf gejagt. Erkenntnisreich wäre daher wohl vielmehr die Frage, ob nicht spezifische politisch-gesellschaftliche Umstände eine so aufgeregte, von gefühlten Bedrohungen geprägte Debatte formen.

  9. Melina Fr 20 Jan 2017 at 11:37 - Reply

    Bullshit.

  10. Felix R. Mi 1 Feb 2017 at 15:44 - Reply

    Interessanter Beitrag und Herangehensweise an das Problem.

    Ich habe allerdings einige Bauchschmerzen dabei. Mit dem Ansatz, die Meinungsbildung „von Unten“ nach „Oben“ sei gefährdet, eine auf grundrechtlichen Schutzpflichten gestütztes Verbotspflicht des Gesetzgebers herzuleiten, ist ein starkes Stück uns steht m.E. nicht auf einer gestützten grundrechtlichen Dogmatik. Korrigiert mich, wenn ich falsch liege, aber der Schluss von Freiheit auf Strafe wurde bisher vom BVerfG nur in den Schwangerschaftsabtreibungsentscheidungen vertreten?

    Hier muss man sich schon im Gegenzug die Frage gefallen lassen, ob man nicht eher „den Anfängen“ einer Verbotskultur wehren sollte?

    Der Beitrag legt ein Idealbild von Kommunikation und demokratischen Meinungsbildung zugrunde welches nicht existiert (und wohl auch nicht existieren kann). In letzter Konsequenz wäre damit auch das Hintergrundgespräch zwischen Journalisten und Polieren („unter zwei“ oder „unter drei“) zu verbieten. Das Ziel, der Meinungsbildung durch Medien – ohne Angabe der Quelle – zu betreiben, wäre nicht legitim.
    Ebenfalls fragwürdig wäre die Praxis innerparteilicher „Sprachregelungen“, die oftmals im kleinen Kreis festgelegt („Oben“) und dann von vielen Stimmen („Unten“) verbreitet werden.

  11. Felix R. Mi 1 Feb 2017 at 15:45 - Reply

    ich meinte natürlich: „Politikern“

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.




Explore posts related to this:
Art. 21 GG, Meinungsvielfalt, Parteien, Social Bots, Wahlkampf


Other posts about this region:
Deutschland

Explore posts related to this:
Art. 21 GG, Meinungsvielfalt, Parteien, Social Bots, Wahlkampf


Other posts about this region:
Deutschland
11 comments Join the discussion