NHTSA-Untersuchung: Tesla-Autopilot und vollständiges autonomes Fahren stehen im Zusammenhang mit Hunderten von Unfällen
Die US-amerikanische National Highway Traffic Safety Administration (NHTSA) führte eine umfassende Untersuchung zu Unfällen mit Tesla-Elektrofahrzeugen durch, die mit Autopilot- und Full Self-Driving-Funktionen (FSD) ausgestattet waren und sich zwischen Januar 2018 und August 2023 ereigneten.
Tesla-Unfälle
NHTSA-Untersuchung
NHTSA untersuchte 956 Unfälle mit Tesla-Fahrzeugen mit aktiviertem Autopiloten und vollständig autonomem Fahren ( FSD)-Systeme. Die Untersuchung umfasste Vorfälle, die sich zwischen Januar 2018 und August 2023 ereigneten, die Zahl der Unfälle war jedoch groß.
Ursachen der Vorfälle
Die Behörde leitete eine Untersuchung nach einer Reihe von Tesla-Kollisionen mit ein stationäre Krankenwagen, geparkt am Straßenrand. Die meisten dieser Unfälle ereigneten sich nachts, als die Fahrzeugsoftware Warnsignale wie Warnsignale, Kegel und Lichtpfeile ignorierte.
Verletzte und Verletzte
Infolge dieser Verkehrsunfälle, einige davon Auch andere Fahrzeuge waren beteiligt und 29 Menschen kamen ums Leben. Darüber hinaus wurden 211 Unfälle registriert, bei denen der Tesla frontal mit einem anderen Fahrzeug oder einem Hindernis im Weg kollidierte. Bei diesen schwersten Unfällen kamen 14 Menschen ums Leben und 49 wurden verletzt.
Systemmängel
Basierend auf seiner Untersuchung stellte NHTSA fest, dass die Systeme Autopilot und FSD waren nicht darauf ausgelegt, eine ordnungsgemäße Einbindung des Fahrers in den Fahrvorgang sicherzustellen. Trotz der Warnungen von Tesla, bei der Nutzung dieser Funktionen wachsam zu bleiben, wurden Fahrer in vielen Fällen zu selbstsicher und ließen ihre Wachsamkeit nach. Wenn eine schnelle Reaktion erforderlich war, war es oft zu spät.
Unfallstatistik
Den Daten zufolge hatten Tesla-Fahrer bei 59 Unfällen mindestens 5 Sekunden Zeit, um vor der Kollision zu reagieren, und in 19 Fällen bestand die Gefahr 10 und mehr als Sekunden vor dem Vorfall sichtbar. Nach Durchsicht der Unfallprotokolle und der von Tesla bereitgestellten Daten stellte die NHTSA fest, dass die Fahrer bei den meisten analysierten Vorfällen keinen Versuch unternahmen, zu bremsen oder zu manövrieren, um der Gefahr auszuweichen.
Vergleich mit anderen Herstellern
NHTSA verglich die Automatisierungsfunktionen der Stufe 2 (L2) von Tesla mit ähnlichen Systemen anderer Autohersteller. Im Gegensatz zur Konkurrenz entzieht der Autopilot dem Fahrer die Kontrolle, anstatt ihn zu unterstützen, und hindert ihn daran, sich am Fahrvorgang zu beteiligen. Der Name „Autopilot“ täuscht Verbraucher über die tatsächlichen Fähigkeiten des Systems und weckt übermäßig optimistische Erwartungen.
Untersuchungsergebnisse
NHTSA kam zu dem Schluss, dass Fahrer, die Autopilot oder vollständiges Selbstfahren nutzten, „nicht ausreichend in die Fahraufgabe involviert waren“ und die Technologie von Tesla „nicht ausreichend beteiligt war“. ausreichend sicherstellen, dass sich die Fahrer auf die Fahraufgabe konzentrieren.“
Mögliche Datenlücken
Die NHTSA räumt jedoch ein, dass ihre Studie aufgrund von „Lücken“ in den Tesla-Telemetriedaten möglicherweise unvollständig ist, was eine viel höhere Zahl bedeuten könnte Anzahl der Unfälle mit Autopilot und FSD, als die Verwaltung ermitteln konnte.
Glossar
- NHTSA (National Highway Traffic Safety Administration) ist die US-Bundesbehörde, die für die Festlegung und Durchsetzung von Fahrzeugsicherheitsstandards zuständig ist.
- Tesla ist ein amerikanisches Unternehmen, Hersteller von Elektrofahrzeugen und Entwickler autonomer Fahrtechnologien.
- Autopilot ist ein Fahrerassistenzsystem von Tesla, das teilautonomes Fahren auf Level 2 (L2) ermöglicht.
- Full Self-Driving (FSD) ist ein fortschrittlicheres autonomes Fahrsystem von Tesla, das als vollständig autonomes Fahrsystem vermarktet wird, obwohl es in der Praxis auch als Level 2 (L2) eingestuft wird.
Links
Antworten auf Fragen
Was ist NHTSA und welche Unfälle mit Tesla wurden untersucht?
Welche Hauptprobleme wurden während der Untersuchung festgestellt?
Welche Kommentare wurden zu Autopilot und vollständigem Selbstfahren abgegeben?
Welche Schlussfolgerungen wurden aus der Untersuchung gezogen?
Welche Folgen hatten die untersuchten Unfälle?
Hashtags
Den Link zu diesem Artikel speichern
Diskussion über das Thema – NHTSA-Untersuchung: Tesla-Autopilot und vollständiges autonomes Fahren stehen im Zusammenhang mit Hunderten von Unfällen
Die US-amerikanische National Highway Traffic Safety Administration (NHTSA) untersuchte 956 Unfälle mit Tesla-Fahrzeugen, die mit Autopilot- und Full Self-Driving-Systemen (FSD) ausgestattet waren. Die Vorfälle ereigneten sich zwischen Januar 2018 und August 2023.
Letzte Kommentare
8 Kommentare
Kommentar schreiben
Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind angekreuzt *
FrankB
Wow, diese Statistiken sind einfach schockierend! 🤯 Tesla scheint die Bedeutung der Fahrereinbindung ernsthaft zu unterschätzen. Technologie ist großartig, aber sie sollte helfen und den Menschen nicht vollständig ersetzen.
JuanS
Ja, das ist so. Der Autopilot von Tesla erzeugt definitiv ein falsches Sicherheitsgefühl. Wenn sich der Fahrer entspannt und nicht mehr auf die Straße achtet, kann dies tragische Folgen haben. 💀 Das Unternehmen sollte das System interaktiver gestalten und eine ständige Aufmerksamkeit des Fahrers erfordern.
LucyF
Wie wäre es, solche Systeme gänzlich zu verbieten, bis sie wirklich sicher sind? 😬 Durch Autopilot-Fehler sind bereits zu viele Menschen ums Leben gekommen. Sicherheit sollte oberste Priorität haben.
GrzegorzW
Ich stimme LucyF voll und ganz zu. Die Technologie ist noch primitiv und ihre vorzeitige Umsetzung hat zu zahlreichen Unfällen geführt. 😤 Tesla sollte den Einsatz des Autopiloten aussetzen, bis 100 % Sicherheit für Fahrer und Fußgänger gewährleistet ist.
OldGrouchKarl
Knall, dieser ganze Modekram ist ein einziger großer Betrug! 😠 Zu meiner Zeit haben wir uns auf den gesunden Menschenverstand und die Aufmerksamkeit im Straßenverkehr verlassen. Keine Computer während der Fahrt, danke! Diese neumodischen Spielzeuge lenken nur ab und gefährden das Leben der Menschen.
AnnaK
Könnte es sein, dass das Problem nicht nur beim Autopiloten liegt, sondern bei Teslas allgemeinem Sicherheitsansatz? 🤔 Sie scheinen sich zu sehr auf die Förderung neuer Technologien zu konzentrieren und den Risiken nicht genügend Aufmerksamkeit zu schenken.
MarioR
Ich stimme zu, AnnaK. Es scheint, dass Tesla seine Fahrerassistenzsysteme zu aggressiv forciert, ohne deren Grenzen zu berücksichtigen. 😕 Sie sollten in ihren Aussagen vorsichtiger und transparenter sein, um die Menschen nicht in die Irre zu führen.
ElenaP
Vergessen wir auch nicht die Rolle der Fahrer selbst. Viele Menschen ignorieren Sicherheitsregeln einfach und verlassen sich blind auf die Technologie. 🚗 Es besteht Bedarf, das Bewusstsein zu schärfen und die Menschen im richtigen Umgang mit solchen Systemen zu schulen.