Der Tesla-Autopilot war einzigartig riskant – und könnte es immer noch sein


Ein heute veröffentlichter Bundesbericht ergab, dass das Autopilotsystem von Tesla an mindestens 13 tödlichen Unfällen beteiligt war, bei denen Fahrer das System auf eine Weise missbrauchten, die der Autohersteller hätte vorhersehen und mehr tun müssen, um dies zu verhindern. Darüber hinaus bezeichnete der Bericht Tesla als „Ausreißer der Branche“, da seinen Fahrerassistenzfunktionen einige der grundlegenden Vorsichtsmaßnahmen fehlten, die seine Konkurrenten getroffen hatten. Jetzt fragen sich die Aufsichtsbehörden, ob ein Tesla-Autopilot-Update, das diese grundlegenden Designprobleme beheben und tödliche Vorfälle verhindern soll, weit genug gegangen ist.

Bei diesen tödlichen Unfällen kamen den Angaben zufolge 14 Menschen ums Leben und 49 wurden verletzt Daten gesammelt und veröffentlicht von der National Highway Traffic Safety Administration, der Bundesbehörde für Straßenverkehrssicherheit in den USA.

Mindestens die Hälfte der 109 von Regierungsingenieuren genau untersuchten „Frontalflugzeugabstürze“ – solche, bei denen ein Tesla direkt in seinem Weg mit einem Fahrzeug oder Hindernis prallte – beinhalteten Gefahren, die fünf Sekunden oder länger vor dem Aufprall sichtbar waren. Das ist genug Zeit, damit ein aufmerksamer Fahrer in der Lage gewesen wäre, den schlimmsten Aufprall zu verhindern oder zumindest zu vermeiden, kamen die Ingenieure der Regierung zu dem Schluss.

In ein solcher AbsturzBei einem Vorfall im März 2023 in North Carolina wurde ein Teenager, der mit Autobahngeschwindigkeit unterwegs war, beim Aussteigen aus einem Schulbus angefahren. Der Teenager wurde zur Behandlung seiner schweren Verletzungen in ein Krankenhaus geflogen. Die NHTSA gelangte zu dem Schluss, dass „sowohl der Bus als auch der Fußgänger für einen aufmerksamen Fahrer sichtbar gewesen wären und es dem Fahrer ermöglicht hätten, diesen Unfall zu vermeiden oder dessen Schwere zu minimieren.“

Regierungsingenieure schrieben, dass sie im Laufe ihrer Untersuchung „einen Trend zu vermeidbaren Unfällen mit Gefahren beobachtet haben, die für einen aufmerksamen Fahrer sichtbar gewesen wären“.

Tesla, das seine Abteilung für öffentliche Angelegenheiten im Jahr 2021 auflöste, reagierte nicht auf eine Bitte um Stellungnahme.

Verdammenderweise bezeichnete der Bericht Tesla in seinem Ansatz für automatisierte Fahrsysteme als „einen Branchenausreißer“. Im Gegensatz zu anderen Automobilunternehmen, heißt es in dem Bericht, ließ Tesla den Autopiloten in Situationen arbeiten, für die er nicht konzipiert war, und versäumte es, ihn mit einem Fahrereinbindungssystem zu koppeln, das seine Benutzer dazu zwang, auf die Straße zu achten.

Die Aufsichtsbehörden kamen zu dem Schluss, dass bereits der Produktname Autopilot ein Problem darstellte, und ermutigten die Fahrer, sich auf das System zu verlassen, anstatt mit ihm zusammenzuarbeiten. Automobilkonkurrenten verwenden laut dem Bericht häufig Ausdrücke wie „Assistenz“, „Sinn“ oder „Team“, insbesondere weil diese Systeme nicht darauf ausgelegt sind, vollständig selbst zu fahren.

Letztes Jahr haben die Aufsichtsbehörden des Bundesstaates Kalifornien beschuldigte Tesla der falschen Werbung seine Autopilot- und Full Self-Driving-Systeme und behauptete, Tesla habe die Verbraucher in die Irre geführt, indem sie glaubten, die Autos könnten selbst fahren. In einer AkteTesla sagte, dass das jahrelange Versäumnis des Staates, Einwände gegen das Autopilot-Branding zu erheben, eine stillschweigende Zustimmung zur Werbestrategie des Autoherstellers darstelle.

Die NHTSA-Untersuchung ergab außerdem, dass Autopilot im Vergleich zu Konkurrenzprodukten resistenter war, wenn Fahrer versuchten, ihre Fahrzeuge selbst zu steuern – ein Design, so die Agentur schrieb in seiner Zusammenfassung einer fast zweijährigen Untersuchung zu Autopilot, die Fahrer davon abhält, sich an der Arbeit am Fahren zu beteiligen.

Eine neue Autopilot-Sonde

Diese Abstürze ereigneten sich, bevor Tesla Anfang des Jahres seine Autopilot-Software zurückrief und per Over-the-Air-Update aktualisierte. Aber mit dem Abschluss dieser Untersuchung haben die Aufsichtsbehörden begonnen öffnete auch eine neue Sonde in ob die im Februar veröffentlichten Tesla-Updates ausreichend dazu beigetragen haben, zu verhindern, dass Fahrer den Autopiloten missbrauchen, missverstehen, wann die Funktion tatsächlich verwendet wurde, oder sie an Orten verwenden, für die sie nicht vorgesehen ist.

Die Rezension folgt einem Fahrer aus dem US-Bundesstaat Washington letzte Woche sagte, sein Tesla Model S sei auf Autopilot geschaltet – während er sein Telefon benutzte –, als das Fahrzeug einen Motorradfahrer angefahren und getötet habe.

source-114

Leave a Reply