Tesla und die Sicherheit autonomer Fahrzeuge
Im Juni 2022 hat die US-amerikanische National Highway Traffic Safety Administration (NHTSA) eine Untersuchung von Tesla angeordnet, die nicht weniger als 830.000 Fahrzeuge sämtlicher Produktlinien betrifft. Die Behörde ist das amerikanische Pendant zum Kraftfahrtbundesamt und unter anderem für die Sicherheit der zum Straßenverkehr zugelassenen Kraftfahrzeuge zuständig. Die Untersuchung von Tesla betrifft das von diesem Unternehmen eingesetzte Computerprogramm namens „Autopilot“. Anlass ist eine Häufung von Unfällen, bei denen ein Tesla auf ein Einsatzfahrzeug prallt, das nach einem Unfall auf oder neben der Fahrbahn steht. Obwohl ein menschlicher Fahrer das Hindernis bereits acht Sekunden vor dem Aufprall erkannt hätte, „wartete“ Autopilot bis zur letzten Sekunde, um sich abzuschalten und die Kontrolle über das Fahrzeug „zurück“ in die Hände des Fahrers zu legen. Letzterer ist in diesem Zeitpunkt offensichtlich außerstande, den Aufprall noch abzuwenden. Wenn nicht alles täuscht, ermittelt NHTSA in zwei Richtungen. Die erste Frage lautet also: Warum reagiert das System so spät auf die bereits früher erkennbaren Hindernisse? Die zweite Frage betrifft das Abschalten des Autopiloten „in letzter Sekunde“, also zu einem Zeitpunkt, in dem der Fahrer ohnehin nicht mehr erfolgversprechend intervenieren kann.
Wie Tesla seine Unfallstatistiken frisiert
Die zweite Problematik – also die Kontrollübergabe eine Sekunde vor dem Aufprall – ist offensichtlich weniger schwerwiegend als die erste. Wenn das Unternehmen diese Vorgehensweise überhaupt beabsichtigt hat, scheint es primär darum zu gehen, dass Tesla die Bilanz der eigenen Assistenzsoftware möglichst „rein“ halten will. Das Unternehmen will Schlagzeilen der folgenden Art vermeiden: „Tesla Autopilot verursacht tödlichen Unfall“. Wird der Autopilot Sekundenbruchteile vor dem Aufprall abgeschaltet, scheint es so, als habe der menschliche Pilot den Unfall verursacht, obwohl in Wahrheit der Autopilot versagt hat.
Diese Art der Kommunikation über Chancen und Risiken des autonomen Fahrens passt gut zur Strategie von Tesla. Schon die Bezeichnung der eigenen Software als „Autopiloten“ ist streng genommen eine grobe Irreführung. In Wahrheit ist die Tesla-Software nicht mehr als ein Fahrerassistenzsystem der sogenannten Stufe (Level) 2, bei dem das System die Längs- und Querführung des Fahrzeugs auf einer vorgegebenen Spur übernimmt. Von echtem autonomem Fahren im Sinne der Stufe 5 ist das meilenweit entfernt. Fahrassistenzsysteme ermöglichen gerade kein autonomes Fahren, sondern erfordern die fortwährende Kontrolle durch den Fahrer. Folglich ist letzterer beim Fahrzeugbetrieb auf Stufe 2 nicht dazu berechtigt, sich vom Verkehrsgeschehen abzuwenden. Vielmehr muss er sich ständig dafür bereithalten, in kritischen Situationen eingreifen zu können. In Deutschland ist dies in § 1b StVG ausdrücklich so festgeschrieben. In den USA gilt nichts anderes. Und irreführend ist es erst recht, wenn die Unfallstatistik des eigenen Fahrerassistenzsystems auf die Weise geschönt wird, dass es sich ein Augenzwinkern vor dem Aufprall abschaltet. Derartige Manipulationen gehen zu Lasten der Mitbewerber, also anderer Autohersteller, die ebenfalls Fahrerassistenzsysteme anbieten, ohne ihnen den Titel „Autopilot“ umzuhängen und ohne die Unfallstatistik zu den eigenen Gunsten zu frisieren. Und sie wiegen die Käufer-Fahrer von Tesla-Automobilen in falscher Sicherheit: Sie vertrauen sich einem „Autopiloten“ an, der anspruchsvollen Fahraufgaben gar nicht gerecht werden kann, der gewissermaßen keinen gültigen Führerschein hat. Dass Tesla die Unfallstatistik gezielt herunterregelt, bestärkt Tesla-Fahrer in dem – irrigen – Glauben, sie könnten die Pflichten des § 1b StVG getrost ignorieren und während der Fahrt Zeitung lesen oder einen Film schauen. Und dann nähern sie sich einem Einsatzfahrzeug…
Wie gefährlich ist autonomes Fahren?
Aber ist die Sache nicht noch viel schlimmer? Zeigt sich am Beispiel Tesla nicht das ganze Drama des autonomen Fahrens? Autonomes Fahren, so scheint es, ist in Wahrheit gar nicht so sicher, wie immer behauptet wird, sondern brandgefährlich. Immer wieder passieren schreckliche Unfälle auf den Straßen derjenigen US-amerikanischen Bundesstaaten, die den Testbetrieb voll automatischer Fahrzeuge von Waymo, einer Tochtergesellschaft der Google-Holding Alphabet, von Uber aber eben auch von Tesla ermöglichen. Im März 2018 starb Elaine Herberg in Temple, Arizona an den Folgen eines Verkehrsunfalls. Sie wurde von einem autonom gesteuerten Testwagen des Unternehmens Uber erfasst, als sie mit ihrem Fahrrad eine vierspurige Straße überquerte. Ein menschlicher Fahrer hätte sie erkannt und den Unfall vermieden. Bereits im Mai 2016 lenkte „Autopilot“ einen Tesla praktisch ungebremst in, beziehungsweise unter, einen weißen Truck, der die Straße überquerte, weil er im Sonnenlicht nicht als Hindernis erkannt worden war. Und nun zeigt sich, dass das Fahrassistenzsystem von Tesla nicht dazu in der Lage ist, den Aufprall des Fahrzeugs auf Einsatzfahrzeuge zu verhindern, die von weitem erkennbar auf oder neben der Straße stehen.
Doch dieser Reflex, das autonome Fahren zu denunzieren, weil beim Betrieb computergesteuerter Fahrzeuge Unfälle passieren und Menschen verletzt oder sogar getötet werden, ist voreilig. Alle Prognosen gehen davon aus, dass die Ersetzung menschlicher Fahrer durch Computerprogramme zu einer drastischen Reduktion der Zahl und Schwere der Verkehrsunfälle führen wird. Und es steht viel auf dem Spiel: Pro Jahr lassen in Deutschland immer noch ca. 2.700 Menschen ihr Leben im Straßenverkehr. Die USA haben – bei einer um den Faktor vier größeren Bevölkerung – sage und schreibe ca. 43.000 Verkehrstote zu beklagen. Eine Halbierung der Zahl der tödlichen Unfälle würde in Deutschland demnach 1.350 Menschenleben und in den USA 21.500 Menschenleben pro Jahr „retten“. Wer wollte es verantworten, darauf zu verzichten?
Die optimistischen Prognosen über die segensreichen Wirkungen des autonomen Fahrens scheinen durch die immer wieder vorkommenden Unfälle mit autonomen Autos widerlegt zu werden. Allerdings werden bei diesem Schluss spektakuläre Einzelfälle mit der statistisch gemessenen Leistung pro Kilometer oder Meile verwechselt. Niemand hat versprochen, dass der Einsatz autonomer Fahrzeuge die Unfallzahlen auf null senken wird. Die Einsicht, dass absolute Sicherheit im Sinne vollkommener Unfallvermeidung nicht zu haben ist, gilt auch für das autonome Fahren. Der Umstand allein, dass ein autonomes Fahrzeug einen Unfall verursacht, beweist keineswegs, dass es besonders unsicher ist. Schon gar nicht beweist es, dass ein Mensch besser abschneiden würde als die digitale Technik.
Die Hersteller sollten für ihre Assistenzprogramme haften
Gleichwohl erregen Unfälle mit autonomen Autos die Öffentlichkeit ganz besonders – so selten sie aufs Ganze auch sein mögen. Dies dürfte an einer Eigenschaft liegen, die der Tesla-Fall aufs Neue beleuchtet: Fahralgorithmen machen andere Fehler als Menschen und verursachen daher Unfälle, die jeder menschliche Fahrer ohne jede Mühe vermieden hätte. Ein Mensch, der in weitem Abstand vor sich einen Rettungswagen auf der Fahrbahn stehen sieht, weicht aus oder bringt sein eigenes Fahrzeug zum Stehen. Ein autonomes Fahrzeug, das den Rettungswagen nicht erkennt oder einen weiß gestrichenen Truck im Gegenlicht übersieht, rast ungebremst in das Hindernis. Der springende Punkt ist, dass autonome Fahrzeuge zwar mitunter solche unbegreiflich scheinenden Unfälle produzieren, „dafür“ aber eine Vielzahl anderer Unfälle vermeiden, die menschliche Fahrer verursachen würden. Die allermeisten Verkehrsunfälle sind nämlich auf menschliches Versagen zurückzuführen, insbesondere auf Fahren unter Alkoholeinfluss und auf Verstöße gegen Verkehrsregeln, nämlich zu schnelles Fahren, die Nichteinhaltung des Mindestabstands, die Missachtung der Vorfahrt und Fehler beim Wenden, Abbiegen und Überholen. Ein ordnungsgemäß programmiertes digitales Verkehrssystem trinkt nicht, fährt niemals zu schnell und hält auch im Übrigen alle Verkehrsregeln ein. Dadurch – und nicht durch überlegene technische Fertigkeiten – vermeidet es die meisten Unfälle, die menschliche Fahrer verursachen.
Unfälle wie die Tesla-Fälle zeigen allerdings, dass digitale Systeme ihre eigenen Schwachpunkte haben, die den Menschen mehr oder weniger unbegreiflich scheinen. Es gilt, diesen Schwachstellen so schnell und so gut es geht aufzuklären und abzustellen und den Ursachen für eine auffällige Häufung von Unfällen eines bestimmten Musters auf den Grund zu gehen. Damit dies geschieht, muss der betroffene Fahrzeughersteller mit den Kosten der Verkehrsunfälle belastet werden, die durch die eigenen Fahrzeuge beziehungsweise den von diesen eingesetzten Fahralgorithmus verursacht werden. Sowohl in den USA als auch in Deutschland ist der Hersteller einer Ware für deren Sicherheit nach den Regeln des sogenannten Produkthaftungsrechts verantwortlich. Das gilt auch für computergesteuerte Automobile. Kommt es infolge eines Fehlers des „Autopiloten“ oder sonstigen Assistenzprogramms zu einem Unfall, haftet der Hersteller auf Schadensersatz. Bei Verkehrsunfällen trifft die Haftung jedoch zuallererst den Nutzer des Fahrzeugs, also Halter und Fahrer, und das Zurückwälzen des Schadens auf den Hersteller ist eine Frage des Regresses. Die Europäische Union will die Haftung des Betreibers künstlich-intelligenter Systeme noch verschärfen. Wie der Tesla-Fall zeigt, gehen diese Bemühungen aber in die falsche Richtung, weil die Schadensersatzpflicht besser an den Hersteller adressiert wird. Dieser muss darüber hinaus zur ehrlichen und transparenten Kommunikation über die Unfallstatistiken der eigenen Produkte verpflichtet werden, damit der Kunde – anders als offenbar bei Tesla – weiß, woran er ist und seine eigenen Vorsichtsmaßnahmen darauf einstellen kann: Wer einen Tesla mit angeblichen „Autopiloten“ fährt, sollte die Hände besser am Steuer und seine Aufmerksamkeit auf der Straße lassen. Eine solche Regelung könnte entweder in die unionsrechtlichen Zulassungsvoraussetzungen für Kraftfahrzeuge integriert oder im Rahmen der KI-Regulierung normiert werden. Selbst die Produkthaftungs-Richtlinie 85/374/EWG kommt in Betracht – der Hersteller hätte die erhöhten Versicherungskosten des Kunden zu ersetzen, falls er falsche Angaben über die erwarteten Unfallkosten gemacht hat (Geistfeld, 105 (2007) Cal. L. Rev. 1611, 1654 ff.).
Komplementär zur Haftung bedarf es des Einsatzes von Überwachungsbehörden wie NHTSA, die auf die nur aus Statistiken ablesbare Häufung bestimmter Unfallmuster reagieren, Untersuchungen anordnen und die Hersteller auf bessere technische Lösungen verpflichten können. Softwarelösungen sind nie perfekt und sollten verbessert werden, wo immer dies möglich und zu vertretbaren Kosten machbar ist. Mit den dann verbleibenden Risiken wird die Menschheit leben müssen. Denn sie sind immer noch kleiner als das Restrisiko des Menschen.