Tesla verlangt von voll selbstfahrenden Benutzern, dass sie der Crash-Videosammlung zustimmen

Tesla führt die neueste Beta-Version seiner Full Self-Driving (FSD)-Software ein und bittet die Fahrer um Zustimmung, im Falle eines Unfalls fahrzeugidentifizierbares Filmmaterial zu sammeln. FSD ist ein Fahrerassistenzsystem, das auf Teslas Autopilot-Technologie aufbaut. Obwohl der Name vermuten lässt, dass das Auto die volle Kontrolle hat, handelt es sich tatsächlich um ein halbautonomes Programm, bei dem der Fahrer jederzeit die Kontrolle über das Fahrzeug behalten muss.

Der Autohersteller hat im Oktober letzten Jahres seine FSD-Beta als Premium-Stufe von Autopilot auf den Markt gebracht. Tesla stellte die Software zunächst zur Auswahl „fachkundig und vorsichtig“-Fahrer, die ihnen 10.000 US-Dollar für das Privileg in Rechnung stellen. Das Unternehmen hat FSD seitdem mehr Fahrern zur Verfügung gestellt, indem es ein monatliches Abonnement von 199 US-Dollar anbietet. FSD-Benutzer erhalten Zugriff auf alle standardmäßigen Autopilot- und Enhanced Autopilot-Funktionen sowie auf die Autolenkung für Stadtstraßen sowie auf die automatische Verkehrs- und Stoppschildsteuerung. Das Unternehmen sagt, dass es weitere Funktionen geplant hat und FSD ständig überarbeitet, indem es regelmäßige Punktversions-Updates für die Technologie veröffentlicht.

Verwandte: Beobachten Sie, wie ein selbstfahrender Tesla fast abstürzt und beweisen Sie, wie Beta es immer noch ist

Mit FSD 10.5 fordert Tesla die Benutzer auf, bei einer Kollision Videos von Kameras innerhalb und außerhalb des Fahrzeugs zu sammeln. Tesla nimmt die Sprache in seine 10.5-Nutzungsvereinbarung auf, und laut Elektrik, müssen Kunden zustimmen, wenn sie die neueste Version der Beta-Software verwenden möchten. Der Hinweis erklärt auch, dass die Clips an die Fahrzeugidentifikationsnummer (VIN) gebunden sind, wodurch Tesla genau wissen kann, welches Auto – und wahrscheinlich welcher Fahrer – an einem Unfall beteiligt war.

Es ist wichtig zu beachten, dass Tesla seit langem Filmmaterial und andere Daten aus den Autos von Kunden abgerufen hat, diese jedoch immer anonymisiert und nicht an bestimmte Fahrer gebunden waren. Das EV-Unternehmen sagt, dass es diesen Fundus an Informationen verwendet, um die Leistung und Sicherheit seiner Fahrzeuge zu verbessern, aber es ist unvermeidlich, dass jedes System, das mit einem Remote-Server verbunden ist, gehackt werden kann. Das kann für ein vernetztes Auto genauso gelten wie für einen PC. Tatsächlich hat ein ethischer Hacker zuvor gezeigt, wie Teslas Kameras durchbrochen werden können.

Vor diesem Hintergrund kann man sich leicht vorstellen, dass Tesla die damit verbundenen Risiken versteht, Clips zu sammeln, die mit einem bestimmten Fahrzeug und seinem Besitzer verbunden sind. Die Firma wurde jedoch kürzlich unter die Lupe genommen, nachdem ein Fahrer behauptet hatte, sein Auto habe ein unberechenbares Manöver durchgeführt, während FSD eingeschaltet war. Dieser Vorfall hat eine Untersuchung der US-amerikanischen National Highway Traffic Safety Administration (NHTSA) ausgelöst, einer Behörde, die den Autohersteller zuvor wegen seines Ansatzes zur autonomen Fahrtechnologie kritisiert hatte. Für Tesla wird es wahrscheinlich von unschätzbarem Wert sein, identifizierbare visuelle Beweise aus den Momenten um einen Unfall herum zu sammeln. Wird nicht nur Tesla um besser verstehen zu können, was schief gelaufen ist und warum, wird es wahrscheinlich auch in der Lage sein, sich selbst zu verteidigen, sollte die NHTSA oder eine andere Stelle eine zukünftige Untersuchung ihrer Technologie durchführen.

Weiter: Tesla-Besitzer konnten ihre Autos nach einem Serverausfall nicht mehr fahren

Quelle: Elektrik

source site

Leave a Reply