Daten, Werte und der AI Act
Warum wir mehr Ethik für bessere KI-Regulierung brauchen
In der letzten Woche erschien hier ein Text mit dem unterstützenswerten Anliegen, auf die Problematik von Ethics-Washing in der Diskussion um die Regulierung Künstlicher Intelligenz und Datenschutz hinzuweisen. Wir meinen, dass dazu andere Fragen gestellt werden müssen, als diejenigen, die der Beitrag aufwirft, und zweitens die angesprochenen Aspekte differenziert werden sollten. Angesichts zahlreicher legislativer Desiderate des KI-Verordnungsvorschlags und des nicht abgeschlossenen Gesetzgebungsprozesses sind diese Diskussionen zu Grundlagen von Technologie-Regulierung aktuell auch dringend geboten.
Wir plädieren dafür, Ethik und Werte nicht als Gegensätze zu einer demokratischen Gesetzgebung zu verstehen, sondern als notwendige Komponenten einer informierten regulatorischen Debatte, insbesondere in einem Regulierungsfeld, welches sich nicht allein durch juristische Argumentation bespielen lässt, sondern die nicht rechtlich determinierten, hoch komplexen Charakteristika von KI und Big Data zwingend berücksichtigen sollte.
Regulatory Capture anstatt Ethics Washing
Zunächst ist die Strategie von Big Tech Unternehmen, sich ethische Leitlinien zu eigen zu machen, um damit von „echter“ Regulierung abzulenken, tatsächlich ein großes Problem für die gesellschaftliche Beherrschung der Risiken durch KI-Technologie. Ethics washing, wie der Begriff in der Literatur etabliert ist, bezeichnet die strategische Platzierung und Betonung ethischer Prinzipien oder Leitlinien durch industrielle Akteure zum Zweck der Imagepflege. Ähnlich wie beim greenwashing wird beim ethics washing also nur PR-strategisch suggeriert, ethische Prinzipien seien für ein Unternehmen leitend. Dies kann das Ziel haben Kosument:innen-Entscheidungen oder die wahrgenommene Dringlichkeit regulatorischer Eingriffe zu beeinflussen.
Während all dies seit längerem zu beobachten ist, liegt ein noch größeres Problem inzwischen allerdings ganz woanders: Big Tech Unternehmen formulieren zwar immer noch ethische Leitlinien, sie wirken darüber hinaus aber auch gezielt auf Regulierungsprozesse ein. Aktuell zeigt sich, dass es tatsächlich in ihrem ökonomischen Eigeninteresse zu liegen scheint, solche Regulierung aktiv zu fordern, insbesondere wenn sie diese dabei als first movers beeinflussen können – ein Vorgehen, bei dem vor allem die große Industrie versucht, sich kleine Konkurent:innen vom Hals zu halten. Auch der viel erwähnte offene Brief des Future of Life Instituts mit der Forderung eines “KI-Moratoriums”, den zahlreiche Größen aus der Tech-Industrie unterschrieben haben, geht in diese Richtung und ist zu einem wahren PR-Stunt für das vermeintliche Verantwortungsbewusstsein der Industrie geworden.
Die Trennung zwischen „ethischen Grundsätzen“, die Big-Tech-Unternehmen für sich kultivieren, und „echter Regulierung“ suggeriert fälschlicherweise, dass letztere von Einflüssen der Industrie gefeit sei. Der KI-Verordnungsvorschlag wird allerdings die DSGVO als „most lobbied piece of legislation in the history of the EU“ ablösen. Die gezielte Einflussnahme von Interessengruppen auf demokratische Gesetzgebungsprozesse oder auch Vollzugsentscheidungen (regulatory capture) ist kein neues Phänomen, aber zurzeit in der Digitalgesetzgebung besonders sichtbar. Ganz aktuell: Die Regulierung von foundation models in der Version des KI-Verordnungsvorschlags, die in der Nacht vom 8. auf den 9. Dezember verkündet wurde, ist unzureichend. Im Nachgang dieses Erfolgs seiner eigenen Lobbyarbeit hat das französische Startup Mistral AI bereits zwei Tage später sein leistungsfähiges large language model Mixtral 8x7B open source zur Verfügung gestellt.
Epistemic Capture
Neben den offenen Forderungen nach Regulierung, die in der Interessenlogik der Big-Tech-Unternehmen primär auf die für ihre ökonomischen Bestrebungen „richtige“ Regulierung zielen, tritt noch ein zweiter Aspekt von regulatory capture durch Big-Tech- Firmen, der wesentlich weniger sichtbar ist: die Einflussnahme durch Wissensproduktion, insbesondere durch wissenschaftliche Beiträge. In als besonders technisch wahrgenommenen Regulierungsfragen ist wissenschaftliche Expertise besonders gefragt, dies wurde beispielsweise in der Covid-19-Pandemie sehr deutlich. Die Beiträge der Forschungsabteilungen der globalen Tech-Firmen im Bereich Informatik, aber auch zu ethischen und anderen normativen Fragen digitaler Technologie, sind inzwischen unüberschaubar. Dieses spezielle Fachwissen erlangt in Regulierungsdebatten dann zusätzlich ein besonderes Gewicht, wenn nur eine überschaubare Anzahl an Firmen die Produkte entwickeln können, die Regulierungsobjekte sind – wie im Fall der großen foundation models als Grundlage für die populären generativen KI-Anwendungen. Den industriellen Akteuren kommt hier ein erheblicher Wissensvorsprung zu. So zeichnet der Stanford AI Index nach, dass bis 2014 die meisten wichtigen Machine Learning Modelle von Universitäten veröffentlicht wurden, 2022 waren es nur noch 3 im Vergleich zu 32 aus der privaten Wirtschaft.
So haben Big Tech Unternehmen einen erheblichen Einfluss auf die Produktion regulierungsrelevantem Wissens in der Form wissenschaftlicher Publikationen. Das ökonomische Machtübergewicht von Big Tech setzt sich folglich in einer Unterspielart des regulatory capture, die man “epistemic capture” nennen könnte, im Bereich der wissenschaftlichen Publikationen fort, da universitäre Forschung hier nicht mithalten und kleinere Unternehmen sich entsprechende Forschungsabteilungen schlicht nicht leisten können. Viele Beiträge der großen Tech-Unternehmen befassen sich vordergründig kritisch mit sozialen und gesellschaftlichen Implikationen der von ihnen entwickelten Technologien (z.B. hier oder hier). Der Fall von Timnit Gebru, die Google wegen eines Streits über die Veröffentlichungsfreigabe eines Papers, das für die heutige regulatorische Diskussion im Übrigen erhebliche Brisanz enthält (On the Dangers of Stochastic Parrots: Can Large Language Models Be Too Big?), zeigt aber, dass Firmen grundsätzlich Forschung betreiben, die nicht dem öffentlichen Interesse, sondern ihrem ökonomischen Gewinnstreben verpflichtet ist. Diese Mechanismen führen zu einer Knowledge-Closure, die konservative und orthodoxe Regulierungsansätze bevorzugt und mit dem Rückbezug auf eine Kultivierung unbestimmter und nicht vollziehbarer ethischer Vorgaben nicht hinreichend adressiert ist.
KI Regulierung und demokratische Defizite
Wie andere bereits dargelegt haben, beantwortet der AI Act in seinem Normtext die „hard normative questions“ in Bezug auf die gesellschaftlich tragfähige Verwendung von KI-Technologie nicht und wird dies vermutlich auch in der finalen Version nicht tun. Dies liegt weniger an einem übermäßigen, sondern an einem zu spärlichen Rückgriff auf ethische Prinzipien in der Regelungs- und Vollzugsstruktur, die dem Verordnungsvorschlag zugrunde liegt. So kommt es zu einem demokratischen Defizit, das sich darin manifestiert, dass die privaten Standardisierungsorganisationen CEN und CENELEC erheblichen Einfluss auf die Auslegung des AI Acts haben werden. Denn Art. 40 sowohl des Kommissions- als auch des Parlamentsvorschlags sieht vor, dass bei einer Übereinstimmung mit den harmonisierten Standards vermutet wird, dass die Pflichten des 2. Kapitels für Hochrisikosysteme (und foundation models im Parlamentsvorschlag) bereits erfüllt sind.
Standardisierungsprozesse sind aus anderen Regulierungsbereichen bekannt und erprobt, im Bereich der KI-Regulierung stellen sich aber besondere Wertungsfragen (Was ist effektive menschliche Aufsicht? Welche Diskriminierungen sind sanktionswürdig? Welche Kontexte und Formen der personalisierten Werbung stellen eine ungebührliche Manipulation dar?), die durch die Skalierung der Technologie in fast alle Lebensbereiche einen grundlegenden demokratischen Konsens erfordern. Diese normativen Fragen sind von genuin ethischer und politischer Natur, ihre Entscheidung sollte faktisch weder den Geschäftsmodellen von globalen Firmen noch privaten Standadisierungsorganisationen überantwortet werden. Gerade deshalb brauchen wir eine gesellschaftsweite ethische Problematisierung dessen, was mit diesen Standardisierungsprozessen auf dem Spiel steht.
Bei der Aushandlung der mit KI verbundenen komplexen normativen Fragen steckt der Teufel wie immer im Detail: Der politische Prozess auf Unionsebene erschwert es, sich in einem Verordnungsformat auf präzise Vorgaben in normativ höchst anspruchsvollen Fragen zu einigen. Ethische Prinzipien könnten in diesem Rahmen aber zu einem „Mehr“ statt einem „Weniger“ an demokratischer Einflussnahme führen. Denn eine ethische Debatte würde im Idealfall zur allgemeinen Bewusstseinsbildung auch der Wahlbevölkerung beitragen und der Technokratisierung der anstehenden normativen Fragen entgegenwirken. Ethische Argumente können darüber hinaus für eine Offenlegung der politischen Entscheidungsprozesse in Stellung gebracht werden. Bestimmte Wertungsentscheidungen könnten so auf unterschiedliche Akteure verlagert werden, um in partizipatorischen Prozessen den sich aus wenig präzisen Rechtsvorgaben ergebenden Entscheidungsspielraum der Anbieter:innen durch Vorgaben einzugrenzen.
Ethisierung der Datenschutzaufsicht?
Der vorangegangene Beitrag verfolgt die These, dass sich Datenschutzaufsichtsbehörden in einem Akt naturrechtlicher Selbstermächtigung auf “Werte, die neben oder über dem Recht gelten”, berufen würden. Ob die nationalen Datenschutzbehörden als KI-Aufsichtsbehörden nach Art. 59 KI-VO-E benannt werden ist offen; das ungeklärte Verhältnis von KI und Datenschutz ist jedenfalls kein Gegenargument. Für die Benennung der Datenschutzbehörden spricht vielmehr, dass dort Expertise in grundrechtsrelevanten Fragen von Technologie-Regulierung angesiedelt ist, die angesichts des verpflichtenden “fundamental rights impact assessments” dringend gebraucht wird.
Ethische Aspekte sind in der Diskussion des grundlegenden Konflikts zwischen dem Datenschutzrecht de lege lata und den neuen Möglichkeiten und Herausforderungen von KI-Technologie keine Ablenkung von “echten” Regulierungsfragen, sondern neben grundrechtlichen, demokratischen und sozialen Erwägungen notwendige Argumentationsstränge in einem multipolaren und komplexen Feld verschiedener Interessen, Werte und Prozesse. Deshalb entwickeln die Datenschutzbehörden durch Beteiligung an ethischen Erwägungen aus unserer Sicht keine Zuständigkeiten, die ihren gesetzlichen Auftrag übersteigen. Insbesondere ist die Berücksichtigung anderer (rechts-!)normativer Vorgaben wie des grundrechtlichen Diskriminierungsverbots keine ethische Überfrachtung juristischer Dogmatik, sondern rechtlich geboten. Datenschutzrecht ist Grundrechtsschutz; Diskriminierungsschutz ist bspw. durch Art. 9 DSGVO rechtspositiv im Datenschutzrecht verankert. Auch die abwägungsoffenen Prinzipien des Datenschutzrechts sind keine Besonderheit dieses Rechtsgebiets.
Zum Verhältnis von Ethik und Recht
So führt die Kritik des vorangegangenen Beitrags zu der Frage, wie sich Ethik und Recht in Normsetzungsprozessen und Aufsichtsstrukturen zueinander verhalten. Dabei ist die Ausgangslage der Ethik durch die viel kritisierten Praktiken des industriellen ethics washing zur Zeit denkbar schlecht. Dennoch wäre es falsch – denn es würde ja paradoxerweise genau die Intentionen industrieller Akteure verstärken –, Ethik und Recht gegeneinander auszuspielen. Die sehr berechtigte Kritik der Tendenz des ethics washings läuft in der Weise, wie sie diskursiv überbetont wird, darauf hinaus, das Kind mit dem Bade auszuschütten und Ethik insgesamt in der gesellschaftlichen Wahrnehmung und in ihrer Rolle als kritisches Korrektiv zu diffamieren. Aus ethics washing wird dann ethics bashing, wenn eine Jahrtausende alte philosophische Disziplin in ihrer gesellschaftlichen und demokratischen Relevanz verkannt wird.
Schon bei Aristoteles ist zu lesen, dass ethische Exzellenz die Charaktertugend der guten Politiker:in ist, und ethischer Diskurs der Weg und Prozess, diese Exzellenz zu erlangen. Angesichts neuer Technologien, deren gesellschaftliche Auswirkungen zum Teil unabsehbar und mitunter nicht im Repertoire hergebrachter politischer Prinzipien kritisierbar sind, ist eine kritische, machtbewusste und unabhängige ethische Debatte eine wesentliche Voraussetzung für die intelligente und treffende Konstruktion von Regulierungsmechanismen. Genauso hängt übrigens die ethische Debatte von einer grundlegenden Bezugnahme zur Rechtslage und Rechtsdogmatik ab, um umsetzbare und an die Geschichte der rechtlichen Normierung anschlussfähige Prinzipien zu erarbeiten. Im Fall von Datenschutz und Privatheit zeigt sich die ethische wie regulatorische Neuartigkeit des Problems zum Beispiel an der kollektiven Wirksamkeit unserer Datenpraktiken, die den individualistischen und liberalen Zuschnitt des tradierten Datenschutzrechts unterläuft, wie hier, hier, hier und hier argumentiert.
Das ungeklärte Verhältnis zwischen Datenschutzrecht und KI-Regulierung resultiert zudem auch daraus, dass im Digitalisierungsbereich eine Vielzahl von neuen Rechtsakten erlassen wurde, deren Interdependenzen sich erst in der praktischen Anwendung zeigen werden. Im Wege dieser Umsetzung sollten ethische, technische und soziale Fragen eine Rolle spielen und von den zuständigen Aufsichtsbehörden auch berücksichtigt werden.
Conclusio
Effektive Regulierung durch demokratisch legitimierte Normsetzung ist im Bereich KI und Daten dringend erforderlich. Ethische Argumente streiten aus unserer Sicht aber nicht gegen, sondern für eine effektive und progressive Regulierung. Recht braucht die Ethik insbesondere im Bereich neuer Technologien mit ihren in klassischen Begriffen nicht erfassbaren Herausforderungen für Daten- und Privatheitsschutz. Die ethischen und philosophischen Debatten beispielsweise um Privatheit haben maßgeblich dazu beigetragen, die demokratischen Dimensionen dieses Schutzguts, überindividuelle Risiken und Machtdimensionen offenzulegen. Das wichtige Schutzgut der Privatheit ist nicht rechtlich determiniert, es besitzt einen anderen Status als Eigentum, Ehe oder Vereine, und ist anders als Leben oder körperliche Unversehrtheit auch nichts Natürliches (siehe hier). Ethische Erwägungen können rechtliche Regulierungsdebatten sowohl im Entstehungsprozess prägen, als auch in der Rechtsanwendung beeinflussen. Wir halten dies für ebenso geboten, wie technische, soziale und politische Aspekte zu berücksichtigen.