This article belongs to the debate » Digitale Rechtssubjekte?
03 Oktober 2019

Digitale Rechtssubjekte? Ja, aber nur teilweise

Können autonome Systeme Rechtssubjekte sein? Als Nischenthema gestartet, hat die Debatte mittlerweile an Fahrt aufgenommen, selbst das Europäischen Parlament hat sich eingeschaltet. 2017 forderte es von der Kommission „für die ausgeklügeltsten autonomen Roboter ein[en] Status als elektronische Personen“ zu schaffen; ähnliche Gedanken zu einem e-person Status finden sich in der Literatur. Auch Gunther Teubner will autonome Systeme als Rechtssubjekte einordnen, allerdings formuliert er deutlich vorsichtiger: Es geht nicht um Rechtspersönlichkeit, sondern „partielle Rechtssubjektivität“ oder „strikt funktional definierte Rechtssubjektivität“. Aber was genau ist damit gemeint? Gibt es einen handfesten Unterschied zwischen der Kategorie „elektronische Person“ und dem Status „partieller“ bzw. „funktionaler Rechtssubjektivität“ – oder handelt es sich nur um Begriffsklauberei? Ich meine, es macht nicht nur einen terminologischen Unterschied, der Unterschied ist geradezu fundamental: Wir sollten uns tunlichst davor hüten, autonomen Systemen Rechtspersönlichkeit einzuräumen – denn mit der Promotion zur „Person“ gehen zahlreiche Gefahren einher, die sich mit dem Status partieller Rechtssubjektivität vermeiden lassen.

Entdeckung der Person

Um dies zu verstehen, müssen wir uns die Ideengeschichte der Person näher ansehen. Sie ist die zentrale Kategorie des Rechts, vor allem des deutschen Privatrechts. Ihre Entdeckung ist mit der „Wende zum Subjekt“ verknüpft. Mit Pufendorf, Locke und vor allem Kant rückt ab dem 16. Jahrhundert das Individuum in den Mittelpunkt der praktischen Philosophie. Nicht äußerer Zwang oder Autorität, sondern der Mensch als Moralwesen, seine Fähigkeit sich aus Freiheit Pflichten selbst aufzuerlegen, ist fortan Quelle jeder Normativität. Ethik und Staat werden vom Einzelnen her gedacht, alle Ordnung muss letztlich auf das Individuum zurückgehen.

Als im 19. Jahrhundert das Zeitalter der großen Systementwürfe anbricht, wird deshalb auch das moderne Privatrecht um das Individuum herum konstruiert. Allseits – ganz gleich, ob man sich am römischen oder germanischen Recht orientiert – wird dazu auf die Kategorie der Person gesetzt. Sie dient als Referenzpunkt im Beziehungsgeflecht der Rechtsverhältnisse. Dass der „Begriff der Person“ mit dem „Begriff des Menschen“ zusammenfallen muss (Savigny), bzw. dass „jedes menschliche Individuum als Person“ anzuerkennen ist (Gierke), ist seinerzeit eine sittliche Selbstverständlichkeit. Anders gewendet: Weil der Mensch sich nicht zuletzt durch das Privatrecht als Freiheitswesen manifestiert, kann das Privatrecht gar nicht anders, als ihm den zur Freiheitsausübung nötigen Personenstatus zu verleihen. Der Schluss ist moralisch vorgegeben, der Personenstatus des Menschen deshalb ein „natürlicher“. An diesem Grundsatz hat sich bis heute nichts geändert, allein die Begründungsebene ist eine andere: Statt durch ein vorpositives Freiheitsideal wird der Personenbegriff nun durch das Verfassungsprinzip der Menschenwürde aufgeladen.

Rechtsfähigkeitsvermutung als Clou

Der Einfluss der Moral erschöpft sich aber nicht nur in dem Anerkennungsimperativ, sondern hat auch Auswirkungen auf die jedem Individuum zustehenden rechtlichen Gestaltungsmöglichkeiten – die sog. Rechtsfähigkeit. Besonders prägnant hat das Gustav Radbruch in seiner „Rechtsphilosophie“ formuliert: Es ist gerade „die rechtliche Gleichheit, die gleiche Rechtsfähigkeit, die das Wesen der Person ausmacht“. Die normative Sprengkraft der Entdeckung der Person folgt mit anderen Worten nicht allein aus der Einordnung als Bezugspunkt privatrechtlicher Rechtsverhältnisse. Sondern sie entfaltet ihre volle Wirkung erst dadurch, dass jeder Mensch als Bezugspunkt aller Rechtsverhältnisse vorgesehen ist. Jahrhundertelang hatten sich Gesellschaften über soziale, kulturelle und gerade auch rechtliche Exklusion definiert, nun musste jedes Individuum als Freiheitswesen auch alle Freiheiten haben, also im Ausgangspunkt gleich und vollumfänglich rechtsfähig sein. Kurz: Die volle moralische Dimension des Personenstatus entfaltet sich erst durch die ihm anhaftende Vermutung, dass jede Person auch grundsätzlich unbeschränkt rechtsfähig ist. Hier liegt der tiefere Grund für den uns wohlbekannten Rechtfertigungsmechanismus: Sollen einem Menschen bestimmte Rechte und Pflichten nicht zustehen, dann müssen sie entzogen, aberkannt oder verwehrt werden – es muss also begründet werden, warum der aus dem Personenstatus folgende Grundsatz ausgehebelt wird, warum bestimmte Rechte und Pflichten ausnahmsweise nicht gelten.

Juristische Personen auf dem Trittbrett

Nun gibt es im Recht aber neben natürlichen Personen auch juristische Personen. Die Kategorie der Person ist mit anderen Worten nicht exklusiv dem Menschen vorenthalten, sondern steht auch anderen Entitäten zur Verfügung – im privatrechtlichen Kontext vor allem Unternehmen. Und auch hier spielt die moralische Aufladung eine große Rolle: Weil es keinesfalls selbsterklärend ist, Unternehmen oder andere Zusammenschlüsse rechtlich als Personen zu fassen, rückte man jene Verbände argumentativ möglichst nah an den Menschen heran. Neben den Einzelmenschen sollte auch die Gemeinschaft Handlungs- und Willensmacht haben, ja nicht nur Real-, sondern gerade auch Moralwesen sein. Und einmal so konstruiert, musste auch die aus dem Personenstatus resultierende Rechtsfähigkeitsvermutung für sie gelten. Obwohl heute der Blick auf die juristische Person deutlich nüchterner ausfällt, ist die historische Prägung weiterhin aktuell: Der Begriff der juristischen Personen, so lautet eine typische Formulierung, sei „durch die prinzipiell unbeschränkte Rechtsfähigkeit gekennzeichnet“. Auch hier will also begründet sein, warum bestimmte Rechte und Pflichten der juristischen Person versagt werden. Für diese Sichtweise mag es gute Gründe geben, aber sie bereitet einem Automatismus den Boden, der den Blick auf das eigentliche Problem verstellen kann. Aus der Rechtsprechung gibt es zahlreiche warnende Beispiele: In Deutschland brauchte der BGH Jahrzehnte bevor er das erste Mal fragte, ob es wirklich so selbstverständlich ist, dass juristische Personen den gleichen Persönlichkeitsschutz wie natürliche Personen genießen. Und den USA wären wohl einige ihrer gesellschaftlichen Probleme erspart geblieben, wenn der Supreme Court nicht kurzerhand Unternehmen, weil sie nun einmal „persons“ sind, Grundrechte (vor allem das Recht auf free speech) zugestanden hätte. In beiden Fällen war mit dem Status als Person die Lösung entscheidend vorgezeichnet – wer juristischen Personen jene Rechte versagen oder sie zumindest modifizieren wollte, war argumentativ von vornherein in der Defensive.

Vermenschlichungs-Falle

Genau hier liegt die Gefahr einer „elektronischen Persönlichkeit“ oder eines Status als „e-person“. Erstens wären wegen der moralischen Überwölbung des Personenbegriffs außerrechtliche Rückkopplungen unvermeidlich. Experimente zeigen, dass Menschen davor zurückschrecken, humanoide Roboter gegen ihren „Willen“ auszuschalten; machen die Roboter dagegen eher einen funktional-technischen Eindruck, stellen die Probanden ohne großes Zögern die Stromversorgung ab. Dieser Effekt wird sicherlich nicht kleiner, wenn wir autonome Systeme durch eine Promotion zur Person konzeptionell auf eine Stufe mit dem Menschen stellen. Ob eine Vermenschlichung aber überhaupt zielführend ist, erscheint sehr fraglich, in jedem Fall sollten nicht vorschnell Fakten geschaffen werden. Zweitens würde mit der Einordnung als Person die den Status kennzeichnende Vermutung prinzipiell unbegrenzter Rechtsfähigkeit einhergehen. Es würde also dem Grundsatz entsprechen, autonome Systeme als Inhaber von Arbeitnehmer- oder anderen Schutzrechten anzusehen; umgekehrt müsste begründet werden, warum autonomen Systemen etwas vorenthalten wird, was anderen Personen zusteht. Kurzum: Einmal als „Person“ kategorisiert, schnappt die Vermenschlichungs-Falle zu. Aus Sicht der kognitiven Linguistik ist das auch wenig verwunderlich: Es hängt sehr viel von der verwendeten Metapher ab. Erfassen wir ein komplexes technisches Etwas als „Person“, dann hilft dieses Bild vielleicht beim intuitiven Verstehen. Aber zugleich geraten wir in ein Netz metaphorischer Ableitungen, in dem – ethisch, rechtlich, ja generell – verdunkelt wird, dass autonome Systeme (genauso wie Unternehmen) schlicht keine Menschen sind.

Besser: Teilrechtsfähigkeit

Und hier liegt die entscheidende Stärke von Teubners Ansatz, der autonome Systeme nicht als „Personen“, sondern als „partielle Rechtssubjekte“ einordnen will. Ich selbst plädiere für den Begriff „teilrechtsfähige Subjekte“, der Sache nach ist damit aber das gleiche gemeint. Die Idee ist nicht neu: Die Kategorie der Teilrechtsfähigkeit kennt das deutsche Privatrecht seit Jahrzehnten, mit ihrer Hilfe wurden so unterschiedliche Dinge wie der ungeborene Mensch im Mutterleib, Gesellschaften im Gründungsstadium oder Wohnungseigentümergemeinschaften zu rechtlichen Kommunikationseinheiten. Damit ist gemeint, dass sie als Bezugspunkte für Rechten und Pflichten in Betracht kommen, sie also als Rechtssubjekte adressierbar sind. Das haben sie mit Personen gemein, allerdings besteht ein fundamentaler Unterschied: Anders als bei Personen verläuft die Argumentation nicht top-down, sondern bottom-up: Es wird nicht von einem moralischen Ideal auf einen eine rechtliche Kategorie geschlossen, sondern ausgehend von einer praktischen oder dogmatischen Problemlage ein speziell darauf zugeschnittener, funktional eng begrenzter Rechtsstatus konstruiert. Folgerichtig spielt auch die von Personen bekannte Vermutung unbeschränkter Rechtsfähigkeit keine Rolle, stattdessen geht es von vornherein immer um eine positive Zuweisung von konkreten Rechten und Pflichten. Sowohl ungeborene Menschen als auch entstehenden Gesellschaften lassen sich so vor ihrer eigentlichen rechtlichen Geburtsstunde bereits Rechte und Pflichten zuweisen, aber nur soweit dies zur Bewältigung praktischer oder dogmatischer Probleme erforderlich ist. Auf eine Formel gebracht, lässt sich der Unterschied daher so ausdrücken: Personen stehen für Barock, teilrechtsfähige Subjekte für Bauhaus. Im ersten Fall folgt das Privatrecht einem höheren Ideal und baut die Personenkategorie zum prächtigen Spiegelsaal der Moral aus – form follows idea. Im zweiten Fall reagiert das Privatrecht nüchtern und sachlich auf ein praktisches Problem und schafft einen passenden Akteur – form follows function. Und Barock versus Bauhaus setzt sich auch auf Ebene der Rechtsfähigkeit fort: Die Kategorie der Person ist prachtvoll ausgeschmückt, ein Detail lässt sich nur entfernen, wenn dabei das Gesamtkunstwerk nicht entstellt wird. Teilrechtsfähige Subjekte beginnen dagegen am leeren Reißbrett, jedes zusätzliche Detail will mit zwingenden Funktionalitätserwägungen begründet sein.

Autonome Systeme als fremdnützige Hilfskraft

Was folgt daraus für autonome Systeme? Gegenwärtig übernehmen sie Gehilfentätigkeiten, der in Yale lehrende Jack Balkin spricht insofern treffend von einem substitution-effect: Autonome Systeme führen Tätigkeiten aus, die Menschen entweder nicht übernehmen wollen (oder sollen) oder zu denen sie nicht in der Lage sind. Die Systeme agieren aber nicht für sich, sondern für ihre Nutzer, sei es eine Privatperson oder ein Unternehmen. Aus funktionaler Perspektive kann es momentan also nur darum gehen, autonomen Systemen einen Subjektstatus als fremdnützige Hilfskraft – z.B. als rechtsgeschäftlicher Stellvertreter, Erfüllungsgehilfe oder Besitzdiener – einzuräumen. Das hätte den Vorteil, dass wir autonomen Systemen auf Basis der allgemeinen BGB-Regeln begegnen können. Für Arbeitnehmer- oder andere Schutzrechte besteht dagegen gegenwärtig kein Bedürfnis. Und sollte sich dies einmal ändern, müsste es freilich ausführlich und gesondert begründet werden – denn zugunsten teilrechtsfähiger Subjekte greift die Rechtsfähigkeitsvermutung ja gerade nicht ein.

Von Mäusen und Maschinen

Aber wie ließe sich ein solcher Status praktisch umsetzen? In der Vergangenheit war es typischerweise die höchstrichterliche Rechtsprechung, die Entitäten als teilrechtsfähige Subjekte einordnete. Hinsichtlich autonomer Systeme werden wir wohl aber (zu) lange auf einen richterlichen Machtspruch warten müssen – der sehr ernüchternde Ertrag mit Blick auf den Rechtsstatus von Tieren oder Natursystemen zeigt, dass Gerichte offenbar große Vorbehalte haben, nicht-menschenbezogenen Entitäten Rechtssubjektivität zuzuerkennen.

Hilfreich scheint deshalb ein Wink des Gesetzgebers. Wie könnte so ein Signal aussehen? Meines Erachtens wäre es vielversprechend, sich an einem bislang eher kritisch beäugten Vorbild zu orientieren: § 90a BGB. Danach sind Tiere keine Sachen, werden aber wie Sachen behandelt. Die für leblose Sachen konzipierten Bestimmungen dürfen nicht pauschal übertragen werden, sondern es muss stets geprüft werden, ob für Tiere Ausnahmen zu machen oder Modifikationen nötig sind. Letztlich verlangt § 90a BGB also nach einer funktionalen Anwendung der für Sachen geltenden Bestimmungen im Lichte des Tierschutzes.

Genau dieser Gedanke lässt sich – unter umgekehrten Vorzeichen – für autonome Systeme fruchtbar machen. Wie gesehen geht es hier um einen Subjektstatus als fremdnützige Hilfskraft. Demnach könnte man dem § 90a BGB einen § 90b BGB zur Seite stellen, der inhaltlich etwa wie folgt lauten könnte: 

„Autonome Systemen sind keine Personen. Auf sie sind die für Hilfspersonen geltenden Vorschriften entsprechend anzuwenden, soweit nicht etwas anderes bestimmt ist.“

Damit wäre dreierlei klargestellt: Erstens sind autonome Systeme keine Personen, die mit dieser Stellung verbundenen Implikationen – Stichwort: Vermenschlichungs-Falle – werden verhindert. Allerdings kann man, zweitens, ihnen dennoch die Rechte und Pflichten von Hilfspersonen zuordnen. Drittens macht es die Norm weiterhin möglich, autonome Systeme als Rechtsobjekte zu begreifen. Sie bleiben also insoweit dem Rechtsverkehr zugänglich, als dass sie (bis auf weiteres) verkauft, verfügt oder abhandenkommen können. Autonome Systeme sind nur dort Rechtssubjekte, wo der Status praktische oder dogmatische Probleme lindert; sie sind es dort nicht, wo der Status erst Probleme schaffen würde. Mehr form follows function geht nicht. Das deutsche Privatrecht wäre so in der Lage, die technische und gesellschaftliche Entwicklung passgenau, aber auch mit der nötigen Portion Vorsicht zu begleiten.


Der Beitrag basiert auf einer aktuellen Publikation in der Juristenzeitung (JZ 2019, 711)


SUGGESTED CITATION  Schirmer, Jan-Erik: Digitale Rechtssubjekte? Ja, aber nur teilweise, VerfBlog, 2019/10/03, https://verfassungsblog.de/digitale-rechtssubjekte-ja-aber-nur-teilweise/, DOI: 10.17176/20191003-112348-0.

6 Comments

  1. St. Ivo Do 3 Okt 2019 at 12:08 - Reply

    Was ist das nur für eine aus dem Ruder gelaufene Diskussion! Auch teilautonom agierende Roboter sind und bleiben Maschinen. Klar stellen sich bei deren Einsatz Haftungs- und Zurechnungsprobleme (die u.U. eine Analogie zu menschlichen Stellvertretern nahelegen). Sie bleiben aber auch in der technisch kompexesten Form, die wir uns heute vorstellen können, doch ohne Zweifel Rechtsobjekte iSv § 903 BGB, und die Erwägungen, die uns bei Tieren veranlassen, hier Grenzen zu setzen, sind auf Roboter nicht im Mindesten übertragbar. Nebenbei auch nicht die für juristische Personen, die ihre Rechtssubjektsqualität doch den dahinter stehenden Menschen verdanken.

  2. Sylvia Kaufhold Mo 7 Okt 2019 at 00:30 - Reply

    Ich bin 100%ig der Meinung von St. Ivo.

    Die Diskussion um eine (Teil-)Rechtsfähigkeit und letztlich (vermögensrechtliche!) Haftung von Robotern und anderen „autonomen Systemen“ (AS – was auch immer das sein mag) ist getrieben von einer falsch verstandenen Innovationsfreudigkeit und dem Wunsch der sogen. Industrie 4.0, die eigene Haftung für potenziell unbeherrschbare Technologien einzuschränken oder ihr sogar ganz zu entgehen!

    Das gilt auch für die Überlegungen Teubners über eine lediglich „partielle Rechtssubjektivität“, die der Autor – ungeachtet seiner rechtsphilosophischen Kritik – über die Figur der Teilrechtsfähigkeit im Ergebnis teilt. Anders als beim nasciturus und den entsprechenden Fallgruppen des Gesellschaftsrechts besteht jedoch bei autonomen Systemen ÜBERHAUPT KEIN BEDÜRFNIS, sie auch nur teilweise zur Trägern von eigenen Rechten und Pflichten zu machen, im Gegenteil.

    Der Autor selbst führt aus, dass die Systeme nicht „für sich“ agierten, „sondern für ihre Nutzer, sei es eine Privatperson oder ein Unternehmen.“ Danach sind sie aber auch bei maximaler Automatisation immer nur funktionale Hilfsmittel, wie die softwaregesteuerten Maschinen der heutigen Generation auch. Sie sind und bleiben Hilfssachen und keine Hilfspersonen. Sie agieren oder „handeln“ auch nicht, weder im biologischen noch im philosophischen Sinne, sie FUNKTIONIEREN allenfalls (oder auch nicht). Sie werden durch Menschen gemacht und gesteuert und sei es auch nur, indem sie irgendjemand (ein Mensch) zum gegebenen Zeitpunkt ein- oder ausschaltet.

    Wenn wir dem Vorschlag des Autors folgen und auf AS tatsächlich „die für Hilfspersonen geltenden Vorschriften entsprechend“ anwenden würden, hätte dies keineswegs „den Vorteil, dass wir autonomen Systemen auf Basis der allgemeinen BGB-Regeln begegnen können.“ Im Gegenteil, wir verlören diesen Vorteil.

    Wenn der Roboter de lege als rechtsgeschäftlicher Stellvertreter, Erfüllungsgehilfe, Verrichtungsgehilfe oder Besitzdiener anzusehen wäre, käme es für die „Hauptperson“ im Hintergrund zu ungeahnten Exkulpationsmöglichkeiten. Und zwar ohne dass der Geschädigte auf das (struktur- und vermögenslose) Hilfssystem Rückgriff nehmen könnte. Wir müssten mit Willensmängeln, Kennen / Kennenmüssen und vor allem mit einem Verschulden des AS, das wir ja gerade nicht vermenschlichen wollen, umgehen und es auch sonst in die auf natürliche Personen zugeschnittenen Zurechnungsnormen des BGB hineinpressen (man lese unter diesem Gesichtspunkt z.B. einmal §§ 166 oder 278 BGB). Was soll damit „gewonnen“ sein außer Chaos, Rechtsunsicherheit und Haftungslücken?

    Wenn es im Hinblick auf KI und AS Handlungsbedarf geben sollte, dann liegt er sicherlich nicht darin, ihre technische Autonomie (im Sinne insbes. ihrer potenziellen Unbeherrschbarkeit) im Wege zweifelhafter Analogien haftungsrechtlich zu verstärken, sondern umgekehrt darin, sie durch spezielle Haftungs-, Sorgfalts- und Zurechnungsnormen wieder einzugrenzen. Neben einer Konkretisierung der Herstellerhaftung nach dem Produkthaftungsgesetz denkbar wäre etwa eine spezielle Gefährdungshaftung des Halters (analog der Tierhalterhaftung gem. § 833).

    Jedenfalls dürfen wir Juristen uns nicht in den Dienst einer vermeintlich innovationsfreundlichen Pervertierung des Rechts stellen. Bei der Digitalisierung ebenso wenig wie bei anderen Themen. Die institutionelle Nähe der Juristen zur (politischen und wirtschaftlichen) Macht erfordert strikte innere Unabhängigkeit und echte Wissenschaftlichkeit. Ich erspare mir weitere Andeutungen über die Rolle „furchtbarer Juristen“ bei der Fortbildung des Rechts im Dienste der Politik. Nicht selten aber beginnt Totalitarismus mit Naivität, gerade unter Politikern und willfährigen Juristen. Recht jedoch ist mehr als ein Mittel und ein Produkt der Politik. Es hat seinen eigenen Wertekanon, seine eigenen Qualitätsansprüche, auch wo es (noch) keine verfassungsrechtlichen Vorgaben gibt. Die Qualität des Rechts, und nicht nur der Justiz, ist entscheidend für die Herrschaft des Rechts und einen funktionierenden Rechtstaat. In Deutschland und Europa.

  3. Thomas Riehm Mi 9 Okt 2019 at 08:56 - Reply

    Ich stimme den beiden vorstehenden Kommentaren zu: Rechtsfähigkeit für autonome Systeme halte ich für einen Irrweg, der zu ungerechtfertigten Entlastungen der Betreiber führt, ohne dass die entsprechenden Haftungs- und Verantwortungslücken durch die autonomen Systeme selbst angemessen geschlossen werden könnten.
    Die Idee einer „Teilrechtsfähigkeit“ findet in der gesamten Dogmatik des BGB keine Stütze – es gibt kein Beispiel einer solchen. Weder nasciturus noch WEG noch GbR sind tatsächlich in der von Teubner und Schirmer (und anderen) für autonome Systeme geforderten Weise „teilrechtsfähig“: Der nasciturus ist nicht rechtsfähig, sondern erwirbt volle Rechtsfähigkeit bei der Geburt, davor gibt es noch keine irgendwie geartete Rechtsfähigkeit, sondern nur aufschiebend bedingte Rechtserwerbe. WEG und GbR sind nach der Rechtsprechung tatsächlich voll rechtsfähig, auch wenn in einzelnen Urteilen gelegentlich noch der Begriff „Teilrechtsfähigkeit“ durchrutscht – in der gesellschaftsrechtlichen Literatur hat noch niemand einen Aspekt gefunden, unter welchem WEG oder GbR nicht rechtsfähig sein sollten.
    Die von Teubner, Schirmer u.a. propagierte „Rosinentheorie der Rechtsfähigkeit“ führt zu gravierenden Systembrüchen wegen der fehlenden (realisierbaren) Eigenhaftung der autonomen Systeme und in der Folge deren fehlende Ansprechbarkeit für Haftungsrecht.
    (näheres dazu demnächst im DGRI-Jahrbuch 2018, 2019, sowie im Rechtshandbuch Künstliche Intelligenz und Machine Learning, hrsg. von Braegelmann/Kaulartz, 2020).

  4. Gunther Teubner Mi 9 Okt 2019 at 14:41 - Reply

    Liebe Kritiker, was tun, wenn Computer Amok laufen …. Sollte man – wie Bora, Misselhorn, Schirmer und ich es in diesem Blog versuchen – den Amok selbst bekämpfen oder sollte man – wie Sie – das Problem dadurch aus der Welt schaffen, indem man behauptet, dass Amok gar nicht existiert? Anstatt die Gefahren von Fehlentscheidungen autonomer Algorithmen selbst zu bekämpfen, verweigern Sie ihre realitätsgerechte Analyse und halten die Illusion aufrecht, dass die Algorithmen stets, wie Sie sagen, „durch Menschen gesteuert“ sind. Genau dadurch aber entstehen die Verantwortungslücken, wenn nämlich die Menschen ihre Pflichten korrekt erfüllt haben, die autonomen Algorithmen aber dennoch Amok laufen.

    Welch ein Widerspruch, dass Sie auf der einen Seite klammheimlich durch autonome Algorithmen abgeschlossene Verträge als rechtsgültig anerkennen oder weitreichende Aufgabendelegationen an sie akzeptieren, auf der anderen Seite aber nicht bereit sind, aus der faktischen Delegation von wesentlichen Vertragsentscheidungen an Softwareagenten die notwendigen haftungsrechtlichen Konsequenzen zu ziehen. Stattdessen beruhigen Sie sich mit der kontrafaktischen Versicherung, dass es immer noch die Menschen seien, die das Vertragsgeschehen beherrschen. Schlimmer noch, Sie beschwören die Gefahren des Totalitarismus, um jede Art von Rechtssubjektivität für Softwareagenten als Kopfgeburt „furchtbarer Juristen“ zu denunzieren. Zugleich aber – und darin steckt die Ironie – geben Sie angesichts der faktischen Delegation wesentlicher Entscheidungen an seelenlose Maschinen Ihre hohen ethischen Ansprüche, wonach menschliche Subjekte das Vertragsgeschehen eigenverantwortlich beherrschen sollen, schlicht auf und verbergen dies mit Hilfe einer unhaltbaren Fiktion.

    Herzlich

    Gunther Teubner

    • Mittelwert Do 17 Okt 2019 at 16:18 - Reply

      Computer laufen nicht Amok.

      Entweder sie haben eine Fehlfunktion, sei es durch einen Hardwaredefekt oder aufgrund eines Programmierfehlers – in diesem Fall hängt die Haftungsfrage insbesondere von der Einhaltung der nötigen Sorgfalt bei Konstruktion und Programmierung sowie im Betrieb des Gerätes ab.

      Oder das Computersystem verhält sich entsprechend seiner Konstruktion und Programmierung, bloß in einer Weise, die nicht vorhergesehen wurde.

      Das könnte an einer falschen Bedienung oder fehlerhaften Eingabedaten liegen. Welche Mechanismen zur Vorbeugung dieses Problems ein System enthalten sollte, hängt nicht zuletzt von seiner Spezifikation ab. Funktionieren diese Mechanismen nicht wie vorgesehen, kann auch das Programm wiederum als fehlerhaft gelten, anderenfalls ist offenbar nicht das Computersystem die Problemursache.

      Die verbleibende Möglichkeit ist, dass das Systemverhalten aufgrund seiner Konstruktion prinzipiell nicht vorhersehbar ist. Wer ein solches System ohne eine hinreichende menschliche oder vorhersehbar-automatische Kontrolle einsetzt, geht ein erhebliches Risiko ein und sollte selbstverständlich für die resultierenden Gefahren haften. Eines besonderen Rechtsstatus für „autonome Systeme“ bedarf es dazu nicht.

      Wer beispielsweise Entscheidungsmöglichkeiten einem Computersystem auf der Grundlage von Machine Learning und neuronalen Netzen überträgt – sodass übrigens nicht nur das Verhalten unvorhersehbar, sondern auch eine gezielte Korrektur spezieller Fehler unmöglich ist –, muss die volle Verantwortung für die Entscheidungen dieses Systems übernehmen, auch wenn sie sich im Nachhinein als unbeabsichtigt oder gar rechtswidrig herausstellen.

    • Sylvia Kaufhold Do 17 Okt 2019 at 18:40 - Reply

      Ich sehe, Herr Teubner, dass wir im Grunde die gleiche Besorgnis haben, nämlich dass Haftungslücken durch den Einsatz von KI (was ich jetzt einfach einmal mit Softwareagenten, autonomen Systemen und Robotern gleichsetze) entstehen könnten.

      Ihre These „Ein eigener Rechtsstatus für Softwareagenten ist nötig, um die Gefahr einer ständig wachsenden Verantwortungslücke abzuwenden“ begründen Sie aber nicht überzeugend, jedenfalls nicht für alle Fälle gleichermaßen. Im Bereich der Vertragsschluss-Theorie und vertraglichen Haftung kann ich mich mit dem von Ihnen favorisierten Ergebnis durchaus anfreunden, jedoch genügt für die nötige Zurechnung (ein schon für sich anerkannter Rechtsbegriff) die Heranziehung der Rechtsgedanken etwa von §§ 164, 166, 278 BGB, gerne auch in Form einer klarstellenden Spezialregelung.

      Ein eigener Rechtsstatus, eine eigene Rechtspersönlichkeit für den Algorithmus aber bringt doch erst Recht Haftungslücken – wenn die Zurechnung scheitert. Auf diese Argumente gehen Sie leider nicht ein.

      Im Bereich der deliktischen Haftung gehe ich insofern mit Ihnen konform als die Gefährdungshaftung nicht wirklich passt. Wie gesagt ist hier aber die Halterhaftung (§ 833 BGB, 7 StVG) das richtige Vorbild. Das ist im Übrigen auch die Meinung der Versicherungswirtschaft.

      Gesetzgeberischer Handlungsbedarf ist also durchaus gegeben, aber eher im Sinne von Klarstellungen. Nicht im Sinne einer Neuerfindung des Rades namens E-Person. Denn der Schuss dürfte nach hinten losgehen.

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.