„Vorsätzliches Fehlverhalten und grobe Fahrlässigkeit“: Richter entscheidet, dass Tesla von einem Autopilot-Defekt wusste, der 2019 zum tödlichen Unfall führte


Während er das als „Autopilot“ vermarktete Fahrerassistenzsystem in seinem roten Tesla Model 3 nutzt an einem dunklen Morgen im Jahr 2019 in Delray Beach, Florida., nahm Jeremy Banner die Hände vom Lenkrad und vertraute darauf, dass das System für ihn fuhr. Man hatte ihm das System als ein System vorgestellt, das genau das leisten könnte. Doch die Sensoren des Systems übersahen einen Traktoranhänger, der vor ihm beide Fahrspuren überquerte, und das Auto fuhr mit voller Geschwindigkeit unter die Seite des Anhängers. Das Dach wurde vom Auto gerissen, Banner wurde sofort getötet und das Auto fuhr fast eine Minute lang weiter, bevor es an einem Bordstein zum Stehen kam. Ein Richter entschied letzte Woche, dass die Klage von Banners Frau wegen Fahrlässigkeit erhoben wurde gegen Tesla kann vor Gericht gehen.

Bryant Walker Smith, Juraprofessor an der University of South Carolina, erzählt Reuters dass die Zusammenfassung des Richters aussagekräftig ist denn „es deutet auf alarmierende Widersprüche zwischen dem, was Tesla intern wusste, und dem, was es in seinem Marketing sagte, hin.“

„Diese Stellungnahme öffnet die Tür für einen öffentlichen Prozess, in dem der Richter geneigt zu sein scheint, viele Zeugenaussagen und andere Beweise zuzulassen, die für Tesla und seinen CEO ziemlich unangenehm sein könnten“, fuhr Smith fort. „Und jetzt könnte das Ergebnis dieses Prozesses ein Urteil mit Strafschadenersatz sein.“

Als Teil seiner Begründung zitierte der Richter Teslas Video-Enthüllung seines sogenannten „Autopilot Full Self-Driving“-Fahrerassistenzprogramms. „In diesem Video gibt es keinen Hinweis darauf, dass das Video ehrgeizig ist oder dass diese Technologie derzeit nicht auf dem Markt existiert“, schrieb er.

„Es liegt nahe, den Schluss zu ziehen, dass sich der beklagte Tesla über seinen CEO und seine Ingenieure des Problems bewusst war, dass der ‚Autopilot‘ Querverkehr nicht erkennen konnte“, so das Urteil des Richters.

Der Kläger sollte vor einer Jury argumentieren können, dass Tesla nicht ausreichend gewarnt hat, dass Autopilot und vollautomatisches Fahren die Aufmerksamkeit des Fahrers erfordern, um im Notfall die Kontrolle zu übernehmen. Selbst heute, nach Dutzenden von Todesfällen in diesem Zusammenhang, höre ich immer noch von Tesla-Fahrern, die darauf vertrauen, dass FSD sie nach Hause fährt, wenn sie beeinträchtigt sind (entweder aufgrund von Müdigkeit oder Alkohol) oder einfach anderen Aktivitäten am Steuer nachgehen.

Entsprechend TechCrunch:

Der Richter verglich Banners Unfall mit einem ähnlichen tödlichen Unfall im Jahr 2016 mit Beteiligung von Joshua Brown, bei dem der Autopilot querende Lastwagen nicht erkennen konnte, was dazu führte, dass das Fahrzeug mit hoher Geschwindigkeit gegen die Seite eines Sattelschleppers prallte. Der Richter stützte seine Feststellung auch auf Aussagen des Autopilot-Ingenieurs Adam Gustafsson und Dr. Mary „Missy“ Cummings, Direktorin des Autonomy and Robotics Center an der George Mason University.

Gustafsson, der sowohl bei den Unfällen von Banner als auch bei Brown als Ermittler fungierte, sagte aus, dass der Autopilot in beiden Fällen den Sattelanhänger nicht erkannte und das Fahrzeug nicht anhielt. Der Ingenieur sagte weiter aus, dass, obwohl Tesla sich des Problems bewusst war, vom Datum von Browns Unfall bis zu Banners Unfall keine Änderungen am Querverkehrswarnsystem vorgenommen wurden, um den Querverkehr zu berücksichtigen.

Der Richter schrieb in seinem Urteil, dass die Aussagen anderer Tesla-Ingenieure zu der vernünftigen Schlussfolgerung führen, dass Musk, der „eng an der Entwicklung des Autopiloten beteiligt“ war, sich des Problems „sehr bewusst“ war und es nicht schaffte, es zu beheben

Der Fall – Nr. 50-2019-CA-009962 – wird vor dem Bezirksgericht für Palm Beach County, Florida, verhandelt.

source-117

Leave a Reply