Search
Generic filters
21 February 2024

Human Rights Outsourcing and Reliance on User Activism in the DSA

Article 14(4) of the Digital Services Act (DSA) places an obligation on providers of intermediary services, including online platforms hosting user-generated content (see Article 3(g) DSA), to apply content moderation systems in “a diligent, objective and proportionate manner.” Against this background, the approach taken in Article 14(4) DSA raises complex questions. Does the possibility of imposing fundamental rights obligations on intermediaries, such as online platforms, exempt the state power from the noble task of preventing inroads into fundamental rights itself? Can the legislator legitimately outsource the obligation to safeguard fundamental rights to private parties? Continue reading >>
0
20 February 2024
,

Towards a Digital Constitution

The DSA exemplifies the EU's efforts to create a fairer, more responsible digital environment. Through the DSA, the EU appears to be advancing a process of constitutionalisation of Internet governance, as an important milestone in the evolving landscape of “digital constitutionalism”, aiming to establish a unified framework of rights, principles, and governance norms for the digital space, while also contributing to the development of new governance structures and regulatory bodies dedicated to effectively safeguarding fundamental rights online. Continue reading >>
0
19 February 2024

A Hobgoblin Comes for Internet Regulation

Recent laws in the US, along with the Digital Services Act (DSA), seek to provide “due process” for individual content moderation decisions. Due process, understandably enough, often contains a component of treating like cases alike. It seems to follow, then, that if two relevantly similar users are treated differently, there is a problem of inconsistency, and that problem might be addressed by requiring more “due process” in the forms of appeals and clear rules and explanations of those rules to offenders. But it is said that consistency is the hobgoblin of small minds. In internet regulation, it is a damaging goal if taken as a mandate to make individual decisions uniformly consistent with each other. Continue reading >>
0
19 February 2024

From the DMCA to the DSA

On 17 February 2024, the Digital Services Act (DSA) became fully applicable in Europe. The DSA's new approach fundamentally reshapes the regulation and liability of platforms in Europe, and promises to have a significant impact in other jurisdictions, like the US, where there are persistent calls for legislative interventions to reign in the power of Big Tech. This symposium brings together a group of renowned European and American scholars to carry an academic transatlantic dialogue on the potential benefits and risks of the EU’s new approach. Continue reading >>
0
13 February 2024

Das Bundeskriminalamt als überdimsensionierte Plattformpolizei

Das von der Bundesregierung vorgeschlagene Digitale-Dienste-Gesetz (DDG-E) soll im Bundestag bis zum März abschließend verhandelt werden und dann schon im April in Kraft treten. Ein wichtiger Aspekt des Gesetzentwurfs erhält bisher zu wenig Aufmerksamkeit: Was genau soll eigentlich das Bundeskriminalamt (BKA) nach § 13 DDG-E - der nationalen „Begleitgesetzgebung” zu Art. 18 Digital Services Act (DSA) - machen? Ist diese Rolle im gegenwärtigen Entwurf hinreichend abgesichert? Und bedarf es dafür wirklich - wie geplant - 450 Stellen? Continue reading >>
0
08 January 2024

Community Notes auf dem Prüfstand

Die größten Social Media Plattformen haben ein Problem mit Desinformation. Insbesondere auf X, vormals Twitter, war nach dem Terroranschlag der Hamas am 07.10.2023 und dem Beginn des Krieges in der Ukraine eine Flut an Falschinformationen feststellbar. Daher hat die EU-Kommission vor Kurzem mitgeteilt, dass sie ein förmliches Verfahren nach Art. 66 Abs. 1 Digital Services Act (DSA) gegen X eingeleitet hat. Gegenstand der Untersuchung ist unter anderem, ob die Plattform hinreichend gegen dieses Problem vorgeht. X setzt dabei alles auf eine Karte: Wie aus dem X Transparency Report vom 03.11.2023 geschlossen werden kann, unterliegen Desinformationen nicht der sog. Content Moderation, sondern ihnen soll allein durch den Einsatz eines neuen Tools entgegengewirkt werden. Das heißt, dass die Nutzerinhalte auf X von Seiten des Betreiberunternehmens weder durch Algorithmen noch durch dazu beauftragte Personen auf Falschinformationen kontrolliert werden. Continue reading >>
0
13 November 2023
,

A Primer on the UK Online Safety Act

The Online Safety Act (OSA) has now become law, marking a significant milestone in platform regulation in the United Kingdom. The OSA introduces fresh obligations for technology firms to address illegal online content and activities, covering child sexual exploitation, fraud, and terrorism, adding the UK to the array of jurisdictions that have recently introduced new online safety and platform accountability regulations. However, the OSA is notably short on specifics. In this post, we dissect key aspects of the OSA structure and draw comparisons with similar legislation, including the EU Digital Services Act (DSA). Continue reading >>
0
09 November 2023
,

We Don’t Need No Education?

Artificial Intelligence doesn't know what's 'true'. Especially, generative AI models like chatbots veer from the truth, i.e. “hallucinate”, quite regularly. Chatbots simply invent information at least 3 percent of the time and sometimes as high as 27 percent. Given the (future) use of such systems in nearly all domains, we might want such systems to follow more stringent rules of accuracy. And those truth-related rules are not the only rules for AI systems that warrant societal scrutiny. How those systems are trained will be crucial. In this blog post, we argue that a new perspective is key to tackle this challenge: “Hybrid Speech Governance”. Continue reading >>
0
24 October 2023

Politisches Microtargeting vs. Rechtsaufsicht

In der letzten Woche ist bekannt geworden, dass die EU-Kommission, konkret der amtliche Account der Kommissarin für Inneres, Microtargeting auf X (vormals Twitter) nutzte, um Schwung in ein festgefahrenes Gesetzgebungsvorhaben zu bringen. Es handelt sich um eine gezielte Beeinflussung der gesellschaftlichen Debatte rund um die sogenannte „Kinderschutzverordnung“, auch bekannt als „Chatkontrolle“ durch datenbasierte Zielgruppenansprache (zur Berichterstattung und Analyse). Diese Posts sollten Druck auf mitgliedsstaatliche Regierungen ausüben, um doch noch eine Mehrheit für das Vorhaben zu beschaffen. Dieser Vorgang ist auch abseits der inhaltlichen Debatte um die „Chatkontrolle“ bemerkenswert, schließlich zeigt er neben den systemischen Risiken von Plattformen und dem Bedürfnis nach effektiver Durchsetzung von Plattformregulierung auf, dass die Kommission sich in einem Spannungsverhältnis der Funktionen als Aufsichtsbehörde und als politische Akteurin befindet und somit das systeminhärente Risiko besteht, dass sie ihre Funktion als Aufsichtsbehörde zugunsten politischer Ziele vernachlässigt. Continue reading >>
0
24 October 2023

Who Decides What Counts as Disinformation in the EU?

Who decides what counts as “disinformation” in the EU? Not public authorities, because disinformation is not directly sanctioned in the Digital Service Act (DSA) or other secondary legislation. Nor Very Large Online Platforms (VLOPs) and Very Large Online Search Engines (VLOSes), which avoid editorial decisions to maintain their legal status as intermediaries with limited liability. Instead, the delicate task of identifying disinformation is being undertaken by other private organisations whose place of administration and activity, purpose, funding and organizational structure appear problematic in terms of the legitimacy and even legality of the fight against disinformation. This blog post maps out the relevant (private) actors, namely the ad industry, fact checking organizations and so-called source-raters. Continue reading >>
0
Go to Top