Elon Musk behauptet, der tödliche Unfall eines Tesla-Mitarbeiters habe nichts mit völlig autonomem Fahren zu tun


Elon Musk hat Einwände gegen einen Bericht der Washington Post am Dienstag veröffentlicht und beschreibt detailliert, was die Zeitung als potenziell ersten Todesfall bezeichnete Teslas Full-Self-Driving-Funktion im Jahr 2022. Musk behauptet, dass die autonome Fahrfunktion nie heruntergeladen wurde, obwohl der milliardenschwere CEO keine Beweise für seine Behauptung vorgelegt hat.

„Er war nicht bei FSD. Die Software wurde leider nie heruntergeladen. „Ich sage ‚leider‘, denn der Unfall wäre wahrscheinlich nicht passiert, wenn FSD engagiert gewesen wäre“, sagte Musk schrieb auf X frühen Mittwoch als Antwort auf einen Tweet eines Benutzers, der fragte, was wirklich passiert sei.

An dem tödlichen Autounfall im Jahr 2022 war ein Tesla-Mitarbeiter namens Hans von Ohain beteiligt, der etwas außerhalb von Denver, Colorado, mit einem überlebenden Passagier unterwegs war. Der Passagier, von der Post als Erik Rossiter identifiziert, behauptet von Ohain, dass er zum Zeitpunkt des Unfalls auf einer Bergstraße vollständig selbstfahrend war, und zitiert sogar den überlebenden Passagier über einen angeblichen Vorfall kurz vor dem Unfall.

Von der Washington Post Bericht:

Die Fahrerassistenzsoftware des Wagens, „Full Self-Driving“, hatte Mühe, die Bergkurven zu bewältigen, und zwang von Ohain ihn immer wieder dazu, ihn wieder auf Kurs zu bringen.

„Als es das erste Mal passierte, dachte ich: ‚Ist das normal?‘“, erinnert sich Rossiter, der die fünf Meilen lange Fahrt am Stadtrand von Denver als „unangenehm“ beschrieb. „Und er meinte: ‚Ja, das passiert hin und wieder.‘“

Berichten zufolge teilte Rossiter den Einsatzkräften mit, dass das Tesla Model 3 eine „Auto-Drive-Funktion des Tesla“ nutzte, die „einfach von der Straße abkam“, zitiert aus der Post, die in einem Notruf nach dem Vorfall auftauchte. Gizmodo konnte die im Anruf verwendeten Wörter nicht unabhängig überprüfen.

Um die Sache noch komplizierter zu machen, waren sowohl von Ohain als auch Rossiter in der Nacht des Unfalls betrunken, wobei von Ohain einen Blutalkoholspiegel von 0,26 registrierte, der deutlich über dem gesetzlichen Grenzwert von 0,08 lag. Aber von Ohains Witwe besteht darauf, dass es keine Rolle spielt, ob ihr verstorbener Ehemann zum Zeitpunkt des Unfalls betrunken war.

„Unabhängig davon, wie betrunken Hans war, hat Musk behauptet, dass dieses Auto selbst fahren kann und im Wesentlichen besser als ein Mensch ist“, sagte die Witwe Nora Bass der Post.

Ermittler in Colorado haben den Absturz untersucht, allerdings war es angesichts der Intensität des Feuers schwierig, Informationen zu erhalten.

Aus der Washington Post:

Dem Untersuchungsbericht zufolge war die Polizei von Colorado aufgrund der Intensität des Feuers nicht in der Lage, auf die Daten des Autos zuzugreifen, und Tesla sagte, es könne nicht bestätigen, dass ein Fahrerassistenzsystem im Einsatz gewesen sei, weil es „keine Daten über mehrere Tage empfangen“ habe. die Luft für diesen Vorfall.“ Madden sagte, der abgelegene Standort habe möglicherweise die Kommunikation behindert.

Vollständig autonomes Fahren sorgte in den letzten Jahren für heftige Kontroversen. Technisch gesehen müssen Fahrer während der Nutzung von FSD aufmerksam auf die Straße achten und tragen die alleinige Verantwortung für etwaige Unfälle. Aber allein der Name erweckt bei den Kunden den Eindruck, dass die Tesla-Funktion bedeutet, dass das Auto selbst fährt – eine verständliche Erwartung bei einem Namen wie „Full Self-Driving“.

Kritiker von FSD weisen darauf hin, dass sein experimenteller Charakter jeden auf öffentlichen Straßen zu Versuchskaninchen für eine völlig neue Technologie macht, unabhängig davon, ob wir uns für das Experiment entschieden haben oder nicht. Und im ganzen Land wurden mehrere Klagen wegen der aufstrebenden Technologie eingereicht.

Aber Tesla und Musk haben die Technologie zuvor als sicherer als menschliche Fahrer verteidigt. Und das bringt uns zu einer der großen Fragen rund um die autonome Fahrtechnologie, noch bevor Tesla seine FSD-Software herausbrachte: Wenn jedes Jahr etwa 40.000 Amerikaner auf unseren Straßen sterben, wie viele Todesfälle sind dann akzeptabel, wenn alle selbstfahrende Autos nutzen? Eine Reduzierung auf 30.000 oder sogar nur Hunderte von Todesfällen wäre eine Verbesserung, aber wer ist dann verantwortlich, wenn etwas schief geht? Zu Recht oder zu Unrecht wird erwartet, dass Roboterfahrer perfekt sein müssen. Auch diese Frage wurde vorweggenommen lange bevor Selbstfahrende Autos wurden Realität.

Tesla antwortete nicht sofort auf Fragen, die am Mittwoch per E-Mail gestellt wurden.



source-113

Leave a Reply