Autofahrer sagt, dass Teslas vollständiger Selbstfahrmodus zum Absturz des Modells Y geführt hat

EIN Tesla Der Fahrer des Model Y hat eine Beschwerde eingereicht und behauptet, sein Auto sei im Full Self-Driving (FSD)-Modus gewesen, als es in ein anderes Fahrzeug kollidierte. FSD ist trotz seines Namens kein wirklich autonomes Fahrsystem. Stattdessen ist es Teslas neueste Version seiner Premium-Technologie für assistiertes Fahren, die auf seinen Autopilot- und Enhanced Autopilot-Angeboten aufbaut. Derzeit als Beta-Produkt verfügbar, beinhaltet FSD alle Features der unteren Ebenen und verspricht darüber hinaus zusätzliche Funktionalitäten wie die automatische Lenkung auf Stadtstraßen und die Möglichkeit, sich an Ampeln selbst zu stoppen.

Die US-amerikanische National Highway Traffic Safety Administration (NHTSA) verwendet eine sechsstufige Skala, um fahrerlose Fahrzeuge zu beschreiben. Level 0 bedeutet keine autonomen Funktionen, während Level 5 sich auf die Vollautomatisierung bezieht, bei der kein menschlicher Fahrer erforderlich ist, damit ein Fahrzeug sicher auf öffentlichen Straßen fährt. Basierend auf seinen gegenwärtigen Eigenschaften klassifiziert FSD als Level 2, was eine Teilautomatisierung ist. Tatsächlich fordert Tesla alle Benutzer seiner autonomen Systeme auf, beim Fahren die Hände am Lenkrad zu lassen.

Verbunden: Elon Musk und Tesla sind sich nicht einig, wann vollautonomes Fahren Realität wird

Anfang dieses Monats wurde in Brea, Kalifornien, ein 2021er Model Y von einem anderen Fahrzeug angefahren, als der Fahrer nach links abbog. Wie bemerkt von Das nächste Web, eine Aussage über die Website der NHTSA erklärt, dass der namenlose Fahrer behauptet, sein Auto sei im FSD-Modus gewesen und habe in der Kurve auf die falsche Spur gelenkt. Die Person sagt, das Model Y habe auf halbem Weg des Manövers eine Warnung abgegeben, aber ihr Versuch, die Flugbahn zu korrigieren, war erfolglos und das Fahrzeug wurde auf der Fahrerseite getroffen. Glücklicherweise gab es keine gemeldeten Verletzungen, aber die NHTSA sagt, dass sie den Vorfall jetzt untersucht.

Der Vorfall ereignet sich, nachdem Tesla letzten Monat fast 12.000 Autos wegen eines FSD-Problems zurückgerufen hat. Das Unternehmen veröffentlichte am 23. Oktober ein FSD-Beta-Update 10.3, aber einige Fahrer entdeckten bald Probleme im Zusammenhang mit der Vorwärtskollisionswarnung und den Notbremsfunktionen ihrer Fahrzeuge. Das Unternehmen hat die Benutzer vorübergehend auf einen früheren Build zurückgesetzt, bevor ein Patch veröffentlicht wird. Natürlich wird Teslas Software explizit als Beta angeboten, daher ist unklar, ob das Unternehmen haftbar gemacht werden kann oder wird.

Welche Standards Tesla für seine aufkommende Technologie auch einhalten wird, es ist erwähnenswert, dass die Aufsichtsbehörden darauf achten. Diese jüngste Aktion der NHTSA folgt einer Untersuchung von Tesla-Autos, die Berichten zufolge im Autopilot-Modus mit Rettungsfahrzeugen zusammengestoßen sind. Bemerkenswert ist auch, dass dies nicht einmal die erste Untersuchung in Bezug auf FSD ist – das kalifornische Department of Motor Vehicles untersucht Tesla über die Verwendung des Ausdrucks „voll selbstfahrend“ und ob es sich um falsche Werbung handelt.

Next: Tesla Model 3 und Y sind fast 10.000 US-Dollar teurer als vor einem Jahr

Quellen: NHTSA, Das nächste Web

source site

Leave a Reply