This article belongs to the debate » Digitale Rechtssubjekte?
02 October 2019

Digitale Rechtssubjekte, Handlungsfähigkeit und Verantwortung aus philosophischer Sicht

Gunther Teubner hat mit seinem Artikel „Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten“ (AcP 2018) einen wegweisenden Beitrag zur Debatte um die rechtlichen Auswirkungen der Digitalisierung vorgelegt. Im Folgenden werden die grundlegenden philosophischen Voraussetzungen seiner Position und ihre Auswirkungen auf seine rechtlichen Vorschläge diskutiert. Im Zentrum stehen hierbei die Konzepte der Handlungsfähigkeit und der Verantwortung. Diese Überlegungen werden von einem dezidiert philosophischen und nicht juristischen Standpunkt aus angestellt.

Verantwortungslücken durch autonome Softwareagenten

Teubners Ausgangspunkt ist das Entstehen von Verantwortungslücken durch digitale Technologien. Er unterscheidet (1) das Autonomierisiko auf der Grundlage der eigenständigen Entscheidungsfähigkeit von Softwareagenten, (2) das Verbundrisiko, welches aus der engen Kooperation von Mensch und Maschine erwächst sowie (3) das Vernetzungsrisiko, welches seinen Ursprung in der engen Verflechtung des Handelns vieler Computer hat. Der Schwerpunkt seiner Ausführungen liegt auf dem Autonomierisiko, auf welches sich auch der vorliegende Beitrag konzentriert.

Wie Teubner an verschiedenen Stellen seines Artikels in Übereinstimmung mit der philosophischen Debatte feststellt, hat das Autonomierisiko seinen Ursprung in einem Mangel an Vorhersehbarkeit und Kontrolle des Verhaltens autonomer Systeme. So lassen sich bereits die einzelnen Züge eines Schachprogramms weder von den Entwicklern noch von den weltbesten Schachspielern vorhersagen, was sicherlich zum Spielerfolg solcher Systeme beiträgt. Das steigert sich bei künstlichen Systemen wie Alpha Go und Alpha Go Zero, das keinerlei menschliche Expertise in Go mehr benötigt, sondern allein auf der Grundlage der Kenntnis der Spielregeln operiert.

Aus philosophischer Sicht erfordert die Zuschreibung moralischer Verantwortung an einen Handelnden, dass dieser die Konsequenzen seines Tuns beabsichtigt hat oder sie zumindest hätte vorhersehen müssen und außerdem einen kausalen Einfluss auf ihr Eintreten besaß. Diese Bedingungen sind bei autonomen Softwareagenten nicht erfüllt. Selbst wenn weder die Entwickler noch die Vertreiber oder Anwender Böses im Sinn hatten, kann es passieren, dass die Systeme im Einzelfall zu moralisch fragwürdigen Entscheidungen kommen, obwohl kein technischer Fehler vorlag und niemand diese Entscheidung vorhersehen oder kontrollieren konnte. In der Folge kann keiner der menschlichen Beteiligten verantwortlich gemacht werden, es entsteht eine Verantwortungslücke.

Verantwortungslücken im ethischen und rechtlichen Sinn

Wie Teubner darlegt, ergeben sich aus Verantwortungslücken juristisch gesehen auch Haftungslücken. Dennoch muss zunächst einmal zwischen dem Entstehen von Verantwortungslücken im ethischen Sinn sowie dem rechtlichen Umgang damit etwa in Haftungsfragen unterschieden werden. Teubner ist in diesem Punkt begrifflich gelegentlich nicht ganz präzise.

So stellt er die Behauptung auf: „Entweder verleiht [das Zivilrecht] autonomen Softwareagenten einen eigenständigen Rechtsstatus und behandelt sie selbst als verantwortliche Akteure oder es häufen sich immer mehr ‚Unfälle‘, ohne dass ein Verantwortlicher dafür einsteht.“ (Digitale Rechtssubjekte?, S. 157)

Diese Passage scheint aus dem Auftreten von Verantwortungslücken im ethischen Sinn unmittelbar darauf zu schließen, dass man Softwareagenten als verantwortliche Akteure mit einem eigenständigen Rechtsstatus behandeln müsse, um überhaupt jemanden zur Verantwortung ziehen zu können. Doch diese Inferenz enthält zwei Schwachstellen.

Erstens wäre es ein Kurzschluss, das Argument von der Verantwortungslücke dadurch umgehen zu wollen, dass man einfach Maschinen die Verantwortung gibt. Denn eine unausgesprochene Voraussetzung des Arguments von der Verantwortungslücke ist gerade, dass Maschinen selbst keine Verantwortung im ethischen Sinn übernehmen können, weil sie nicht über Bewusstsein, die Fähigkeit zur Selbstreflexion und in der Folge Willensfreiheit verfügen. Doch diese Eigenschaften sind für die Zuschreibung von moralischer Verantwortung essentiell.

Zweitens ist die Zuschreibung eines Personenstatus im ethischen und im rechtlichen Sinn zweierlei. So ist es grundsätzlich denkbar, einem autonomen Softwareagenten im rechtlichen Sinn einen Personenstatus zuzuschreiben, auch wenn es sich im ethischen Sinn nicht um ein verantwortungsfähiges Subjekt handelt. Wie ich argumentieren möchte, sollte Teubner diese Ansicht vertreten, die im Einklang mit seinen rechtlichen Vorschlägen steht, zumal er den Maschinen ja nicht den Status vollwertiger Rechtssubjekte zugesteht, sondern sie nur als partielle Rechtssubjekte betrachtet. Der Subjektbegriff, den Teubner hierbei zugrunde legt, ist allerdings erheblichen Einwänden ausgesetzt.

Kritik an Teubners systemtheoretischem Akteursbegriff

Der rein juristische Diskurs kommt an der eigentlich philosophischen Frage nach der Natur von Akteuren an seine Grenzen. Teubner selbst bedient sich der soziologischen Systemtheorie, doch der systemtheoretisch hergeleitete Personenbegriff ist einerseits zu anspruchsvoll und droht andererseits den Personenbegriff zu unterbieten und Rechtssubjekte auf anonyme Prozesse zu reduzieren.

So heißt es, ein Kollektivakteur sei eine Kette an Mitteilungen. Dies setze voraus, dass eine solche „Kommunikationskette über sich selbst kommuniziert, also eine Selbstbeschreibung herstellt.“ (Digitale Rechtssubjekte?, S. 165/Blog, S. 1) Doch jenseits der Zwänge des systemtheoretischen Ansatzes erschließt sich nicht, wieso eine solche Form der Selbstreflexivität für Handlungsfähigkeit erforderlich sein sollte und inwiefern die autonomen Softwareagenten, um die es hier geht, diese überhaupt aufweisen.

Auf der anderen Seite ist die Rede davon, dass Softwareagenten nichts anderes sind „als bloße Informationsströme, die dann zu ‚Personen‘ (oder Teilpersonen) werden, wenn sie im Kommunikationsprozess eine soziale Identität aufbauen (…)“ (Digitale Rechtssubjekte?, S. 168). Kommunikationsketten und Informationsströmen gehen jedoch die charakteristischen Merkmale von Personen ab. Deshalb ist es folgerichtig, dass Teubner die Rede von Personen in Anführungszeichen setzt. Sie ist bestenfalls metaphorisch zu verstehen. Doch es ist fraglich, ob das für die von Teubner vorgeschlagene Neuordnung des rechtlichen Status von Softwareagenten als (partielle) Rechtssubjekte hinreichend ist.

Der Aufbau einer sozialen Identität gehört wieder in die Reihe der zu anspruchsvollen Anforderungen. Hier stellt sich die Frage, ob dazu nicht, wie etwa Axel Honneth darlegt, Anerkennungsbeziehungen gehören, die Softwareagenten nicht genießen. Honneth unterscheidet drei Grundformen der Anerkennung: Liebe, Respekt und soziale Wertschätzung.

Sofern es tatsächlich technische Artefakte gibt, zu denen wir solche Beziehungen unterhalten, handelt es sich – im Unterschied zu unseren intersubjektiven Anerkennungsbeziehungen – um rein menschliche Projektionen und es hieße das Recht auf eine problematische Form der Fiktion zu gründen, wenn dies die Basis für die Zuschreibung (teilweiser) Rechtssubjektivität wäre.

Insgesamt setzt sich Teubners systemtheoretische Rekonstruktion des Begriffs des Rechtssubjekts der gegen die Systemtheorie des Rechts generell vorgebrachten Kritik aus, dass sie für Akteure und ihre Handlungen keinen Platz habe. Überspitzt formuliert könnte man darin eine Form des „Question-Begging“ sehen: Man deflationiert zunächst den Begriff der rechtlichen Person, um dann zu argumentieren, dass auch Softwareagenten im Sinn von „Informationsströmen“ oder „Kommunikationsketten“ als Rechtspersonen gelten können.

Es ist klar, dass diese Kritikpunkte einen eingefleischten Systemtheoretiker wie Teubner nicht umstimmen werden. Aber für diejenigen, die dieser theoretischen Strömung nicht anhängen, könnte darin ein Grund bestehen, die von Teubner daraus abgeleiteten Konsequenzen für den rechtlichen Status von Softwareagenten als digitale Rechtssubjekte abzulehnen.

Das wäre bedauerlich, da er zu Recht konstatiert, dass autonome Softwareagenten eine juristische Herausforderung darstellen und seine rechtlichen Vorschläge durchaus Plausibilität beanspruchen können. Aus diesem Grund soll nun gezeigt werden, dass sich diese Schlussfolgerungen auch auf einer anderen philosophischen Grundlage entwickeln lassen, die den Kritikpunkten gegen die Systemtheorie nicht unterliegt. Allerdings ergeben sich daraus auch Modifikationen seines Ansatzes, insbesondere was die Zuschreibung von Verantwortung angeht.

Eine Alternative: Handlungsfähigkeit ohne Verantwortung

Der hier vertretene Ansatz (ausführlich: Misselhorn 2019) beruht darauf, autonomen Softwareagenten zwar in einem funktionalen Sinn Handlungsfähigkeit zuzuschreiben, aber keine Verantwortung. Eine solche Unterscheidung ist nicht nur philosophische Begriffshuberei. Sie erlaubt es, die Einwände derjenigen bis zu einem gewissen Grad zu inkorporieren, die es contra Teubner sogar für verfassungswidrig halten, Softwareagenten den Status von Rechtssubjekten zu geben und sich dabei auf Willensfreiheit und Menschenwürde berufen (Digitale Rechtssubjekte? S. 181).

Da diese Themen nicht nur die Jurisprudenz im engeren Sinn, sondern das menschliche Selbstverständnis grundlegend betreffen, ist es für den gesellschaftlichen Konsens und die Akzeptanz des Rechts wichtig, diesen Einwänden mit einer metaphysisch abgespeckten Version zu begegnen, die Softwareagenten zwar für handlungsfähig erachtet, die Domäne der Verantwortung aber den Menschen vorbehält.

Weiterhin ist die Unterscheidung von Handlungsfähigkeit und Verantwortungszuschreibung auch rechtsdogmatisch von Bedeutung. Denn sie stellt das begriffliche Instrumentarium dafür bereit, die rechtlichen Differenzen zu erklären, die für Teubner etwa zwischen menschlichen und digitalen Stellvertretern bzw. Erfüllungsgehilfen bestehen. Teubner konstatiert diese lediglich, ohne sie zu begründen.

Funktionale versus vollumfängliche Handlungsfähigkeit

Teubner macht die besonderen Akteursqualitäten autonomer Softwareagenten an drei Kriterien fest: „Wenn (1) ein Softwareagent so programmiert ist, dass er zwischen Alternativen zu entscheiden hat, wenn (2) er diese Entscheidung als Optimierung verschiedener Kriterien treffen muss und (3) ein Programmierer das Verhalten des Softwareagenten weder nachträglich erklären noch für die Zukunft voraussagen kann, sondern nur noch ex post korrigieren kann, dann sollte das Recht von Autonomie, d.h. von Entscheidungsfähigkeit und Verantwortungsfähigkeit des Softwareagenten ausgehen.“ (Digitale Rechtssubjekte?, S. 714)

Diese Bedingungen erfassen die besonderen Akteursqualitäten autonomer Softwareagenten zutreffend. Sie beschreiben allerdings nur eine funktionale Form der Handlungsfähigkeit (Misselhorn 2019). Über vollumfängliche Handlungsfähigkeit wie Menschen verfügen Softwareagenten jedoch nicht. Dazu mangelt es ihnen insbesondere an (Selbst-)Bewusstsein sowie der Fähigkeit zur Reflexion und Begründung ihrer eigenen Entscheidungen, die für Willensfreiheit wesentlich ist.

Kritisch ist deshalb der von Teubner vollzogene Übergang von der Autonomie zur Verantwortungsfähigkeit zu sehen. Er ist wohl bedingt durch die anspruchsvollen Konnotationen, die der deutsche Autonomiebegriff (im Unterschied zum Englischen) mit sich führt. Dies verleitet zur Gleichsetzung von Autonomie und Verantwortungsfähigkeit, obwohl bei Softwareagenten eine deutlich schwächere Form der Autonomie vorliegt.

Man kann von autonomen Softwareagenten nicht verlangen die Konsequenzen ihres Tuns vorauszusehen. Sie können diese auch nicht im relevanten Sinn beeinflussen, wenn dies über ihre Programmierung hinausgeht. Deshalb verfügen sie zwar über Handlungsfähigkeit, sind aber nicht verantwortlich für ihr Tun. Folgerichtig können autonome Softwareagenten nur über eine beschränkte und nicht über eine vollwertige Rechtssubjektivität verfügen.

Rechtliche Konsequenzen

Die Entkoppelung von Handlungsfähigkeit und Verantwortung im Fall digitaler Rechtssubjekte könnte eine Erklärung dafür bieten, warum gewichtige Unterschiede zu menschlichen Repräsentanten oder Erfüllungsgehilfen bestehen. So hält Teubner fest, dass bei der Annahme einer deliktischen Veranlasserhaftung für autonome Algorithmen, gewisse Ähnlichkeiten mit dem Haftungsmodell des § 831 BGB bestünden, „jedoch mit dem gravierenden Unterschied, dass dem Geschäftsherrn kein Entlastungsbeweis offensteht und es auf Weisungsgebundenheit nicht ankommt.“ (Digitale Rechtssubjekte, S. 196).

Die Erklärung dafür ist, dass die Verantwortung beim Geschäftsherrn verbleibt, auch wenn der Softwareagent stellvertretend für ihn oder als Erfüllungsgehilfe handelt. Dass eine Trennung von Handeln und Verantwortung rechtlich nicht grundsätzlich ausgeschlossen ist, könnte das Beispiel nicht zurechnungsfähiger, also verschuldensunfähiger Gehilfen zeigen, das Teubner heranzieht. Denn deren Handeln muss sich der Geschäftsherr ebenfalls zurechnen lassen, diese selbst können die Verantwortung dafür nicht übernehmen.

Umgang mit der Verantwortungslücke

Die zentrale philosophische Frage ist, ob durch die Trennung von Handlungsfähigkeit und Verantwortung nicht nur die privatrechtliche Haftungslücke, sondern auch die ethische Verantwortungslücke geschlossen werden kann. Dies ist der Fall, insofern die rechtliche Konstruktion des Stellvertreters bzw. Erfüllungsgehilfen exemplarisch vorführt, wie die Verantwortung klar beim Menschen als Prinzipal verbleiben kann, während zugleich die besonderen Akteursqualitäten autonomer Softwareagenten berücksichtigt werden.

Vorsicht ist jedoch bei der Übertragung dieser Vorstellung auf andere Anwendungsbereiche autonomer Softwareagenten geboten. So ist die Trennung von Handlungsfähigkeit und Verantwortung etwa dann ethisch problematisch, wenn es um Tötungsentscheidungen geht, wie sie etwa autonome Waffensysteme treffen müssten, aber möglicherweise auch selbstfahrende Autos im Umgang mit Dilemmasituationen.

Fazit

Die Trennung von Handlungsfähigkeit und Verantwortung kann philosophisch Plausibilität für sich beanspruchen und erlaubt einen überzeugenden Umgang mit der Verantwortungslücke in bestimmten Bereichen. Sie ist darüber hinaus in der Lage, Teubners juristische Vorschläge zu stützen und einige der Besonderheiten des Status digitaler Rechtssubjekte zu erklären, die Teubner geltend macht.

Zudem kann diese Sichtweise der Befürchtung entgegentreten, dass die Menschen sich mit dem Verweis auf autonome Softwareagenten aus der Verantwortung stehlen.Schließlich trägt diese Alternative den Bedenken der Gegner einer solchen Ausgestaltung des Rechts Rechnung, die den Mangel an Bewusstsein oder Willensfreiheit autonomer Softwareagenten geltend machen, um ihnen den Status partieller Rechtssubjekte abzusprechen. Denn diese Eigenschaften sind zwar für die Zuschreibung von Verantwortung unerlässlich, aber nicht für die Handlungsfähigkeit.

In Teubners Beitrag finden sich einige Hinweise, die dafür sprechen, dass eine solche Trennung von Handlungsfähigkeit und Verantwortung mit dem deutschen Privatrecht nicht grundsätzlich unvereinbar ist. Doch diese Frage geht über die Reichweite dieses Kommentars aus philosophischer Sicht hinaus.

Zu betonen ist allerdings, dass es sich um eine privatrechtliche Debatte handelt. Eine Übertragung auf andere Rechtsgebiete ist nicht ohne weiteres möglich, da eine Trennung von Handeln und Verantwortung etwa dann moralisch fragwürdig ist, wenn es um Tötungsentscheidungen geht.


Weiterführend: Catrin Misselhorn: Grundfragen der Maschinenethik, Reclam-Verlag: Stuttgart, 3. Auflage 2019.