NHTSA schließt Untersuchung zum Tesla-Autopiloten ab, nachdem das System mit 14 Todesfällen in Verbindung gebracht wurde


Die National Highway Traffic Safety Administration (NHTSA) hat eine Untersuchung abgeschlossen in das Autopilot-Fahrerassistenzsystem von Tesla, nachdem Hunderte von Unfällen untersucht wurden, darunter 13 tödliche Vorfälle, die zu 14 Todesfällen führten. Die Organisation hat entschieden, dass diese Unfälle auf den Missbrauch des Systems durch den Fahrer zurückzuführen waren.

Allerdings stellte die NHTSA auch fest, dass „Teslas schwaches Fahrereinbindungssystem nicht für die freizügigen Betriebsfähigkeiten des Autopiloten geeignet war.“ Mit anderen Worten: Die Software hat der Aufmerksamkeit des Fahrers keine Priorität eingeräumt. Fahrer, die Autopilot oder die Full Self-Driving-Technologie des Unternehmens nutzten, „waren nicht ausreichend engagiert“, weil Tesla „nicht ausreichend dafür gesorgt hat, dass die Fahrer ihre Aufmerksamkeit auf die Fahraufgabe richten.“

Die Organisation untersuchte von Januar 2018 bis August 2023 fast 1.000 Unfälle, bei denen insgesamt 29 Menschen starben. Die NHTSA stellte fest, dass für etwa die Hälfte (489) dieser Unfälle „nicht genügend Daten für eine Bewertung vorlagen“. In einigen Vorfällen war die andere Partei schuld oder die Tesla-Fahrer nutzten das Autopilot-System nicht.

Am schwerwiegendsten waren 211 Unfälle, bei denen „die Frontalebene des Tesla auf ein Fahrzeug oder Hindernis auf seinem Weg prallte“, und diese Unfälle waren oft mit Autopilot oder FSD verbunden. Diese Vorfälle führten zu 14 Todesfällen und 49 schweren Verletzungen. Die Behörde stellte fest, dass die Fahrer bei 78 dieser Vorfälle genügend Zeit zum Reagieren hatten, dies aber nicht taten. Diese Fahrer versäumten es, zu bremsen oder zu lenken, um der Gefahr auszuweichen, obwohl sie mindestens fünf Sekunden Zeit hatten, sich zu bewegen.

Hier kommen Beschwerden gegen die Software ins Spiel. Die NHTSA sagt, dass die Fahrer einfach zu selbstgefällig würden, wenn sie davon ausgingen, dass das System alle Gefahren bewältigen würde. Als es an der Zeit war zu reagieren, war es zu spät. „Unfälle ohne oder mit späten Ausweichversuchen des Fahrers wurden bei allen Tesla-Hardwareversionen und Unfallumständen festgestellt“, schrieb die Organisation. Das Ungleichgewicht zwischen den Erwartungen des Fahrers und den Betriebsfähigkeiten des Autopiloten führte zu einer „kritischen Sicherheitslücke“, die zu „vorhersehbarem Missbrauch und vermeidbaren Unfällen“ führte.

Auch die NHTSA empörte sich über das Branding von Autopilot, bezeichnete es als irreführend und suggerierte, dass Fahrer davon ausgehen könnten, dass die Software die vollständige Kontrolle habe. Zu diesem Zweck verwenden Konkurrenzunternehmen in der Regel Marken mit Wörtern wie „Fahrerassistenz“. Autopilot weist auf einen autonomen Piloten hin. Der kalifornische Generalstaatsanwalt und das Kraftfahrzeugministerium des Bundesstaates ermitteln ebenfalls gegen Tesla wegen irreführender Marken- und Marketingpolitik.

Tesla hingegen sagt, dass es Kunden warnt, dass sie bei der Verwendung von Autopilot und FSD vorsichtig sein müssen. entsprechend Der Rand. Das Unternehmen gibt an, dass die Software über regelmäßige Indikatoren verfügt, die den Fahrer daran erinnern, die Hände am Lenkrad zu lassen und den Blick auf die Straße zu richten. Die NHTSA und andere Sicherheitsgruppen haben erklärt, dass diese Warnungen nicht weit genug gehen und „nicht ausreichen, um Missbrauch zu verhindern“. Trotz dieser Aussagen von Sicherheitsgruppen versprach CEO Elon Musk kürzlich, dass die Das Unternehmen wird weiterhin bestehen „Wir setzen uns für Autonomie ein.“

Die Ergebnisse könnten nur einen kleinen Bruchteil der tatsächlichen Anzahl von Unfällen und Unfällen im Zusammenhang mit Autopilot und FSD darstellen. Die NHTSA wies darauf hin, dass „Lücken in den Telematikdaten von Tesla zu Unsicherheit hinsichtlich der tatsächlichen Häufigkeit führen, mit der Fahrzeuge, die mit eingeschaltetem Autopiloten fahren, in Unfälle verwickelt sind.“ Das bedeutet, dass Tesla nur Daten von bestimmten Arten von Unfällen erhält, wobei die NHTSA behauptet, dass das Unternehmen Daten zu rund 18 Prozent der der Polizei gemeldeten Unfälle sammelt.

Mit all diesem Verstand hat die Organisation eröffnete eine weitere Sonde in Tesla. Hier geht es um einen aktuellen OTA-Software-Fix, der im Dezember nach dem Rückruf von zwei Millionen Fahrzeugen veröffentlicht wurde. Die NHTSA wird prüfen, ob die von Tesla implementierte Autopilot-Rückruflösung wirksam genug ist.

source-115

Leave a Reply