Veröffentlicht inNews

Tesla: Autopilot verursacht Unfall mit 9 Verletzten

Ein Tesla im FSD-Modus bremst plötzlich stark ab.

Bild vom Unfallszenario des Tesla Model S
© California Highway Patrol

Neun Verletzte – darunter ein zweijähriges Kind, acht beschädigte Fahrzeuge, Massenkarambolage. Das ist die unglückliche Bilanz, die die Einsatzkräfte aus einem Unfall am letzten Thanksgiving ziehen mussten. Verursacht wurde er von einem Tesla-Fahrzeug, das laut dem Fahrer im Selbstfahrermodus unterwegs war. Neue Aufnahmen auf Twitter machen den Unfallhergang jetzt nachvollziehbarer.



Phantombremsungen bei FSD von Tesla

Full Self-Driving – kurz FSD – nennt sich der Selbstfahr-Modus von Tesla. Die Idee dahinter ist, dass Fahrende sich von ihrem Auto kutschieren lassen können, um eine komfortable Fahrt ohne eigene Anstrengungen zu erleben. In der Nacht auf Thanksgiving 2022 hatte Elon Musk, der CEO des Unternehmens, die Beta-Version der Funktion über Twitter für alle Tesla-Fahrenden freigegeben.

Auf Twitter ist nun ein neues Video erschienen, auf dem der Unfall des Tesla-Fahrzeugs zu sehen ist. Eine Sicherheitskamera am Unfallort hat die Massenkarambolage gefilmt. Der Vorfall ereignete sich nur einige Stunden nach Musk’s Post. Auf der vielbefahrenen, mehrspurigen Brückenunterführung im Bereich der Bay Bridge von San Francisco sieht man den Tesla abrupt auf die Überholspur wechseln und dann bis zum Stillstand bremsen. Kurz darauf fahren mehrere Autos in das Fahrzeug hinein. Laut der California Highway Patrol hatte der Fahrer des Tesla angegeben, dass er in seinem Model S mit dem Autopiloten gefahren war. Er erklärte außerdem, dass unvermittelt der Blinker und die Bremse des Tesla aktiviert worden waren. Bei Tesla gehen monatlich viele Beschwerden über solche Phantombremsungen durch den FSD-Autopiloten ein.

An dieser Stelle befindet sich ein externer Inhalt von Twitter, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.

Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden.

Es stellt sich die Frage, ob ein Unternehmen und seine Kunden die Macht haben sollten, die Sicherheit im Verkehr in die Hände einer für Laien undurchsichtigen Künstlichen Intelligenz zu legen. Mit dem Vorfall hat Tesla jedenfalls viel Kritik und Misstrauen geerntet.

Das Video zeigt außerdem, dass nur ein einziges Auto von vielen dutzenden anhält, um den Unfallopfern zu helfen. Die Vorbeifahrenden sind ihrer Pflicht zur Ersten Hilfe an ihren Mitmenschen nicht nachgekommen.

IMTEST berichtete außerdem darüber, dass es Sicherheitsforschenden gelungen ist, diverse neuere Fahrzeuge zu hacken.


Katja Widmann hat an der Universität Mannheim einen Bachelor und Master of Arts für Kultur- und Wirtschaftswissenschaft gemacht. Daneben hat sie Praktika im Social Media Bereich, in Print- und Radio-Redaktionen absolviert und ist so auf den Geschmack für die Medienwelt gekommen. Als Volontärin bei Imtest schreibt sie Artikel und testet unterschiedlichste Produkte.