autokarma - Um Auto und das Reisen. Für Männer mit Kind und Familie.

Willkommen bei autokarma. Hier geht es um Autos, Elektromobilität und mehr. Dieser Beitrag hat Tesla zum Thema.

Warum der Autopilot von Tesla eine falsche Versprechung ist, autonome Autos aber nicht aufzuhalten sind

Warum der Autopilot von Tesla eine falsche Versprechung ist. Und: Ethik-Kommission des deutschen Verkehrsministeriums soll Richtlinien für autonome Autos entwickeln. Gesetz für vollautonome Autos auf dem Weg.

Für diesen Artikel benötigst Du ca. 05:53 Minuten Lesezeit.

Tesla kämpft nach dem Bekanntwerden des ersten tödlichen Unfalls mit einem (teil-)autonomen Auto um das Vertrauen von Kritikern und Behörden. Anfang Mai hatte das ‚Autopilot‘ getaufte Fahrassistenz-System eines Tesla Model S den Auflieger eines Lkw mit einem Verkehrsschild verwechselt – und raste ungebremst unter diesem hindurch. Der Fahrer kam dabei ums Leben.

Erstmals musste Tesla im Rahmen der Berichterstattung über den Unfall dann auch eingestehen, dass es bereits zahlreiche – wenn auch weniger fatale – Unfälle mit seinem ‚Autopilot‘ gab. Eigentlich keine Überraschung. Bisher jedoch hatte das Unternehmen immer wieder betont, wie sicher das System sei.

Der Ärger um den Autopilot ist Teslas größter anzunehmender Unfall. Er zeigt, dass in dem Unternehmen Marketing und Hype zuweilen stark vom technischen Ist-Stand abweichen.
Der im Oktober per Software-Update verteilte ‚Autopilot‘ ist inzwischen in rund 70.000 Fahrzeugen von Tesla installiert – weltweit. Und obwohl das System eigentlich nicht dafür gedacht ist, ein Fahrzeug ohne Eingriff des Fahrers zu führen, wächst die Zahl von YouTube-Videos, auf denen Tesla-Fahrer sich bei hohem Tempo mit anderen Dingen beschäftigen (oder gar nicht auf dem Fahrersitz sitzen) stetig.
Sie verlassen sich auf den Namen ‚Autopilot‘ und das Marketing von Tesla, welches ein autonomes Fahrerlebnis impliziert – ob gewollt oder nicht, sei dahin gestellt.

In den vergangenen Monaten hat es Tesla schlichtweg unterlassen, sich von Videos zu distanzieren, die derlei unbesorgte Fahrer zeigen. Im konkreten Fall könnte dies dazu geführt haben, dass der Fahrer schlichtweg zu unbekümmert dem System vertraute.

Tesla selbst bezeichnet den Autopilot noch immer als Beta-Version. Eine vorläufige Version einer Software also, die in den Händen von Konsumenten eigentlich wenig zu suchen hat. In der Regel werden Beta-Versionen ausschließlich an Entwickler verteilt. Nutzer, welche die Software einsetzen, tun dies auf eigene Gefahr hin. Bei einem Smartphone oder Computer bedeutet dies: Für den Fall eines Datenverlustes oder einer Beschädigung an der Hardware übernimmt der Hersteller der Beta-Software keine Garantie. Tesla will für Schäden, die auf den Einsatz des teil-autonomen Systems zurück zu führen ebenso weder verantwortlich noch versichert sein.

Allerdings: Beta-Software gehört nicht in die Hände von Nutzern, wenn sie damit ein zwei Tonnen schweres Fahrzeug bewegen, welches der Hersteller mit „beispielloser Leistung“ und einer Beschleunigung „von 0 auf 100 km/h in gerade mal 2,8 Sekundenbewirbt. Der verantwortliche Fahrer kann damit schlichtweg nicht nur – wie im konkreten Fall – sich selbst Schaden zufügen, sondern auch seiner Umgebung.
Wie wären die Schlagzeilen wohl ausgefallen, wenn nicht nur der Fahrer bei dem Unfall ums Leben gekommen wäre, sondern auch ein Passant?
Natürlich aber können wir uns auch auf diese Meldung schon einmal vorbereiten. Der erste von einem autonomen Fahrzeuge getötete Passant ist nur eine Frage der Zeit. Ganz unabhängig vom Beta- oder Final-Stadium eines entsprechenden autonomen Autos bleibt festzustellen, dass auch computergesteuerte Autos keine 100 %ige Sicherheit gewähren.

Tesla steht nach dem Unfall nun einer breiten Front von Kritikern und Kontrolleuren gegenüber. Journalisten hinterfragen das Verhalten und die Technologie bei Tesla, Behörden widmen sich der Zuverlässigkeit der Software.
So überprüft mittlerweile nicht nur die US-Verkehrsbehörde NHTSA den Unfall. Auch im deutschen Bundesverkehrsministerium ist man hellhörig geworden. Hier überlegt man einem Bericht des SPIEGEL zufolge, ob der ‚Autopilot‘ überhaupt von der für den Betrieb auf deutschen Straßen notwendigen Typzulassung gedeckt und damit rechtlich legal einzusetzen sei. Das Ministerium betont, in Deutschland hätte man das System in dieser Form nie erlaubt. Zuständig für die europaweite Zulassung seien die niederländischen Behörden gewesen.

Die 5 Stufen des autonomen Fahrens

Teslas Fehler ist keineswegs der für das Silicon Valley so typische vorbehaltlose Glaube in Technologie. Es ist vielmehr die Kommunikation – sowohl jene, die das Können des aktuellen Systems anbelangt; als auch die Reaktionen auf die Meldungen der letzten Tage.

Teslas Autopilot trägt den falschen Namen. Im Vergleich zu anderen Systemen wie dem „Fahrassistent“ der neuen Mercedes E-Klasse oder dem „Driving Assistant Plus“ von BMW impliziert der Tesla einen höheren autonomen Grad, obwohl alle drei Systeme recht vergleichbar in der Funktion sind. Sie alle können den Fahrer maximal unterstützen – mehr ist rechtlich überhaupt noch nicht erlaubt.
Kritisch bei Tesla: Für viele – auch potentielle – Nutzer impliziert der Name ‚Autopilot‘ jedoch ein hochautomisiertes bis vollautomisiertes System, dass er nicht ist.
Zudem stattet Tesla seine Fahrzeuge aktuell mit weniger Überwachungssensoren aus als der Wettbewerb.

Vor allem aber gehört die Beta-Version eines Fahr-Roboters nicht in die Hände von Endkunden, deren Vertrauen in die teil-autonome Technologie mindestens ebenso hoch ist, wie bei Tesla selbst. Autos sind keine Smartphones.

Bei all dem ist der tödliche Unfall übrigens kein Rückschlag für autonome Fahrzeuge insgesamt. Auch ein Roboter kann nicht in die Zukunft schauen und irreguläres Verhalten von Menschen voraus ahnen. Aber er kann durch schnellere Reaktionen vielleicht dort einen Unfall verhindern, wo ein Mensch als Reaktion auf ein Ereignis noch in Schockstarre verharrt. Satte 94 Prozent aller Unfälle (in den USA) gehen auf menschliches Versagen zurück. Jeder Autofahrer weiß: Es gibt eine gewisse Anzahl unberechenbarer Fahrer. Genau hier könnten (teil-)autonome Fahrzeuge den Mit-Verkehr zumindest etwas berechenbarer machen.

Elon Musk indes twitterte, all die Kritiker würden „Beta“ einfach falsch verstehen:

Mit „Beta“ meine Tesla nur, dass der Autopilot bisher weniger als eine Milliarde Meilen (1,6 Milliarden Kilometer) absolviert habe.
Das macht die Kritik nicht schwächer, denn nach wie vor „missbraucht“ Tesla damit die Fahrer zu eigenen Tests.

Unterdessen etabliert das deutsche Verkehrsministerium nun eine Ethik-Kommission für Fragen zum voll-autonomen Fahren. Unter Vorsitz des früheren Bundesverfassungsrichter Udo di Fabio soll diese sich dem moralischen Dilemma autonomer Systeme widmen und Rahmenbedingungen festlegen: „was die Algorithmen in den Fahrcomputern berücksichtigen müssen, beziehungsweise was die Programmierer dürfen und was nicht„, erklärt Verkehrsminister Alexander Dobrindt in der Bild am Sonntag vom 10. Juli 2016.

Parallel dazu bereite das Ministerium eine Änderung der gesetzlichen Grundlage vor. Derzeit sind vollautonome Systeme, die ohne Eingriff des Fahrers noch nicht erlaubt. Das soll sich rasch ändern: Noch in diesem Jahr will Dobrindt die Änderungen auf den Weg bringen. Automatische Systeme mit voller Kontrolle über ein Fahrzeug sollen dem menschlichen Fahrer dann rechtlich gleichgestellt sein.
„Die Haftung für automatisierte Systeme liegt dann beim Hersteller“, so der Verkehrminister in der Bild am Sonntag weiter.

Die Hersteller investieren derweil weiter massiv in die neue Technologie. So kündigte der Autobauer BMW erst vor wenigen Tagen eine weitreichende Allianz mit dem Chip-Hersteller Intel und dem auf autonome Technologie spezialisierten Start-up Mobileye an. Ziel: Die Entwicklung einer offenen Plattform für autonomes Fahren.
Mobileye ist auch einer der Zulieferer für Teslas ‚Autopilot‘.
Und auch der Volkswagen stürzt sich in digitale Welt – verkündete jetzt die Allianz mit LG Electronics, um eine Plattform für das Connected Car zu entwickeln.