Dies ist keine Anlageberatung. Der Autor hat keine Position in einer der genannten Aktien. Wccftech.com hat eine Offenlegungs- und Ethikrichtlinie.
Es gibt eine wachsende Wahrnehmung, dass die Full Self-Driving (FSD)-Fähigkeit von Teslas Autopilot-System viel zu wünschen übrig lässt, wenn man geneigt wäre, hier Euphemismen zu verwenden. Nach einer Reihe beunruhigender Verkehrsunfälle – die Vorläufer einer Reihe von laufenden FSD-bezogenen Untersuchungen in den USA – und der Tatsache, dass die „Meilen pro Ausstiegsrate bei FSD Beta tatsächlich schlechter wird“, wie in a Tabellierung von Taylor Ogan, dem CEO von Snow Bull Capital, dass bei Tesla eindeutig etwas nicht richtig funktioniert. Unterdessen hat die Absetzung eines Autopilot-Managers im Sommer 2022 (und erst jetzt öffentlich gemacht) dem EV-Giganten eine wahre Dose voller Würmer geöffnet.
Hallo Institution $TSLA Investoren:
Inwiefern unterscheidet sich Ihre Investition in ein Unternehmen, das von jemandem geführt wird, der ein vollständig gefälschtes Video verwendet hat, um sogenanntes „Full Self Driving“ zu verkaufen, von der Investition in ein Unternehmen, das gefälschte Tests verwendet, um Blutgeräte zu verkaufen?
Genießen Sie die Due-Diligence-Klagen!
— Stanphyl Hauptstadt ❌ (@StanphylCap) 18. Januar 2023
Ashok Elluswamy, Teslas Leiter der Autopilot-Software, nahm im Juli 2022 an einer eidesstattlichen Aussage im Zusammenhang mit einem tödlichen Unfall im Jahr 2018 teil. Während sich die meisten Medien auf den saftigen Leckerbissen konzentriert haben, der Teslas FSD-Werbevideo von 2016 war inszeniert Im Stil von Nikola hebt die Abschrift der Aussage auch die sehr beunruhigenden Wissenslücken des Tesla-Managers hervor.
Ich weiß nicht, ob ich in Worte fassen kann, wie schrecklich das ist, aber ich werde es versuchen.
Dieses Zitat stammt aus einer Aussage von Ashok Elluswamy, Teslas Leiter der Autopilot-Software, im Zusammenhang mit dem tödlichen Autopilot-Absturz von Walter Huang im Jahr 2018.
Er weiß nicht, was eine Operational Design Domain (ODD) ist. pic.twitter.com/SqeE7xp2m4
– Mahmood Hikmet (@MoodyHikmet) 15. Januar 2023
Der Twitter-Account @MoodyHikmet hat diesen Aspekt der Hinterlegung wirkungsvoll zusammengefasst. Auf die Frage nach Operational Design Domain (ODD) – den Bedingungen, unter denen ein automatisiertes System arbeitet – sagte Herr Elluswamy:
“Ich habe diese Worte schon einmal gehört, aber an mehr kann ich mich nicht erinnern.”
Teslas Autopilot-Chef bestritt auch die Erinnerung, jemals ein Dokument über ODD gesehen zu haben, während er bei dem EV-Riesen arbeitete. Die Tatsache, dass Mr. Elluswamy sich eines so grundlegenden Aspekts eines automatisierten Systems völlig unbewusst zu sein scheint, ist ziemlich beunruhigend. Natürlich ist es durchaus möglich, dass Tesla eine andere Umgangssprache verwendet, um die ODD des Autopiloten darzustellen. Seine Unkenntnis der grundlegenden Branchensprache ist jedoch sehr faszinierend. Doch es kommt noch schlimmer.
Was die Sicherheit betrifft, so ist der Tesla Autopilot so konzipiert, dass er von einem Menschen übernommen werden kann, bevor er in eine gefährliche Situation gerät.
Sie würden denken, dass die Wahrnehmungs-Reaktionszeit eine wichtige Überlegung dafür wäre …
ABER ER WEIß NICHT EINMAL, WAS DAS IST. pic.twitter.com/5KxIRdFqj1
– Mahmood Hikmet (@MoodyHikmet) 15. Januar 2023
Die Wahrnehmungs-Reaktionszeit beschreibt die Zeitspanne, die der Mensch benötigt, um einen bestimmten Reiz – seien es auditive oder visuelle Reize – wahrzunehmen und darauf zu reagieren. Herr Elluswamy verneinte jedoch die Erinnerung, jemals ein Training zur Wahrnehmungs-Reaktionszeit erhalten zu haben! Er gab auch zu, erraten zu haben, „was diese Worte bedeuten“.
Dieser Artikel, in dem mehrere Tesla-Stans selbstbewusst anbieten, einem Journalisten zu zeigen, wie er selbst fährt, um zu beweisen, dass es funktioniert, und dann still werden, wenn es immer wieder scheitert, ist erstaunlich https://t.co/qT9uTN3BRX pic.twitter.com/hDMQbxAk3Y
— Seele Nate (@MNateShyamalan) 18. Januar 2023
Angesichts dieser Zustände bei Tesla ist es kaum verwunderlich, dass der Autopilot den Hype, den Elon Musk so fleißig erzeugt, konsequent hinter sich lässt. In einer komischen Entwicklung berichtete die New York Times kürzlich über ein Treffen, bei dem ihr Reporter die FSD-Fähigkeit des Autopiloten in Anwesenheit einiger eingefleischter Tesla-Fans testete, die jedes Mal, wenn das System ins Stocken geriet, ratlos waren.
Während die Chancen gegen Elon stehen und $TSLA BOD in der finanzierungsgesicherten Studie, die am Dienstag in SFO begann, sollte der Fall für den TSLA-Wert irrelevant sein, da jeder Schiedsspruch gegen BOD als einmaliges Ereignis angesehen werden sollte und von zukünftigen Einnahmen ausgeschlossen ist. Elon sagt am Freitag aus. https://t.co/vpaTEjCWvy
– Gary Black (@garyblack00) 19. Januar 2023
In der Zwischenzeit öffnet Teslas laufende Studie „Finanzierung gesichert“ auch eine Dose mit Würmern für die FSD-Fähigkeit des Autopiloten. Während Gary Black vom Future Fund zu Recht feststellt, dass diese Klage nur minimale Auswirkungen auf die Finanzen des Unternehmens hat, lässt sie den sprichwörtlichen Weg für Folgeklagen im Zusammenhang mit FSD weit offen.
Diese konsequenten Behauptungen, die direkt gegenüber Anlegern erhoben werden, sind meiner Meinung nach in zukünftigen FSD-Klagen von Anlegern haftbar. Wenn der Aktienkurs dauerhaft niedrig bleibt, sind die Chancen für solche Anzüge hoch. Die Verteidigung werde “vorausschauend” argumentieren.
— KSalberta @[email protected] (@k_salberta) 15. Januar 2023
Was halten Sie von Teslas Autopilot-Strategie? Teilen Sie uns Ihre Gedanken im Kommentarbereich unten mit.