Neun Verletzte – darunter ein zweijähriges Kind, acht beschädigte Fahrzeuge, Massenkarambolage. Das ist die unglückliche Bilanz, die die Einsatzkräfte aus einem Unfall am letzten Thanksgiving ziehen mussten. Verursacht wurde er von einem Tesla-Fahrzeug, das laut dem Fahrer im Selbstfahrermodus unterwegs war. Neue Aufnahmen auf Twitter machen den Unfallhergang jetzt nachvollziehbarer.
Mercedes, BMW & Co. gehackt – auch Einsatzwagen betroffen
Sicherheitsforscher haben diverse Autos gehackt.
Phantombremsungen bei FSD von Tesla
Full Self-Driving – kurz FSD – nennt sich der Selbstfahr-Modus von Tesla. Die Idee dahinter ist, dass Fahrende sich von ihrem Auto kutschieren lassen können, um eine komfortable Fahrt ohne eigene Anstrengungen zu erleben. In der Nacht auf Thanksgiving 2022 hatte Elon Musk, der CEO des Unternehmens, die Beta-Version der Funktion über Twitter für alle Tesla-Fahrenden freigegeben.
Auf Twitter ist nun ein neues Video erschienen, auf dem der Unfall des Tesla-Fahrzeugs zu sehen ist. Eine Sicherheitskamera am Unfallort hat die Massenkarambolage gefilmt. Der Vorfall ereignete sich nur einige Stunden nach Musk’s Post. Auf der vielbefahrenen, mehrspurigen Brückenunterführung im Bereich der Bay Bridge von San Francisco sieht man den Tesla abrupt auf die Überholspur wechseln und dann bis zum Stillstand bremsen. Kurz darauf fahren mehrere Autos in das Fahrzeug hinein. Laut der California Highway Patrol hatte der Fahrer des Tesla angegeben, dass er in seinem Model S mit dem Autopiloten gefahren war. Er erklärte außerdem, dass unvermittelt der Blinker und die Bremse des Tesla aktiviert worden waren. Bei Tesla gehen monatlich viele Beschwerden über solche Phantombremsungen durch den FSD-Autopiloten ein.
Es stellt sich die Frage, ob ein Unternehmen und seine Kunden die Macht haben sollten, die Sicherheit im Verkehr in die Hände einer für Laien undurchsichtigen Künstlichen Intelligenz zu legen. Mit dem Vorfall hat Tesla jedenfalls viel Kritik und Misstrauen geerntet.
Das Video zeigt außerdem, dass nur ein einziges Auto von vielen dutzenden anhält, um den Unfallopfern zu helfen. Die Vorbeifahrenden sind ihrer Pflicht zur Ersten Hilfe an ihren Mitmenschen nicht nachgekommen.
IMTEST berichtete außerdem darüber, dass es Sicherheitsforschenden gelungen ist, diverse neuere Fahrzeuge zu hacken.