Dochodzenie NHTSA: Autopilot Tesli i w pełni autonomiczna jazda powiązane z setkami wypadków
Amerykańska Krajowa Administracja ds. Bezpieczeństwa Ruchu Drogowego (NHTSA) przeprowadziła szeroko zakrojone dochodzenie w sprawie wypadków z udziałem pojazdów elektrycznych Tesli wyposażonych w autopilota i funkcje w pełni autonomicznej jazdy (FSD), które miały miejsce w okresie od stycznia 2018 r. do sierpnia 2023 r.
Wypadki Tesli
Dochodzenie NHTSA
NHTSA zbadała 956 wypadków z udziałem pojazdów Tesli z aktywnym autopilotem i systemem całkowicie autonomicznym ( systemy FSD). Dochodzeniem objęto zdarzenia, które miały miejsce w okresie od stycznia 2018 r. do sierpnia 2023 r., jednak liczba wypadków była duża.
Przyczyny incydentów
Agencja rozpoczęła dochodzenie po serii kolizji Tesli z karetki stacjonarne, zaparkowane na poboczu drogi. Większość tych wypadków miała miejsce w nocy, kiedy oprogramowanie pojazdu ignorowało sygnały ostrzegawcze, w tym sygnały ostrzegawcze, stożki i świetlne strzałki.
Ofiary i obrażenia
W wyniku tych wypadków drogowych, z których część W zdarzeniu uczestniczyły także inne pojazdy, w wyniku czego zginęło 29 osób. Ponadto zanotowano 211 wypadków, w których Tesla zderzyła się czołowo z innym pojazdem lub przeszkodą na drodze. W tych najpoważniejszych wypadkach zginęło 14 osób, a 49 zostało rannych.
Niedociągnięcia systemu
Na podstawie dochodzenia NHTSA stwierdziła, że systemy autopilota i FSD nie miały na celu zapewnienia odpowiedniego zaangażowania kierowcy w proces prowadzenia pojazdu. Pomimo ostrzeżeń Tesli, aby zachować czujność podczas korzystania z tych funkcji, w wielu przypadkach kierowcy stali się zbyt pewni siebie i stracili czujność. Gdy wymagana była szybka reakcja, często było już za późno.
Statystyki wypadków
Według danych w 59 wypadkach kierowcy Tesli mieli co najmniej 5 sekund na reakcję przed kolizją, a w 19 przypadkach niebezpieczeństwo było widoczne na 10 i więcej sekund przed zdarzeniem. Po zapoznaniu się z rejestrami wypadków i danymi dostarczonymi przez Teslę NHTSA stwierdziła, że w większości analizowanych wypadków kierowcy nie podejmowali żadnych prób hamowania ani wykonywania manewrów, aby uniknąć zagrożenia.
Porównanie z innymi producentami
NHTSA porównała funkcje automatyzacji poziomu 2 (L2) Tesli z podobnymi systemami innych producentów samochodów. W przeciwieństwie do konkurencji, Autopilot zamiast pomagać kierowcy, pozbawia go kontroli, uniemożliwiając mu zaangażowanie się w proces prowadzenia pojazdu. Nazwa „Autopilot” wprowadza konsumentów w błąd co do rzeczywistych możliwości systemu, kreując zbyt optymistyczne oczekiwania.
Wyniki dochodzenia
NHTSA stwierdziła, że kierowcy korzystający z autopilota lub w pełni autonomicznej jazdy „nie byli wystarczająco zaangażowani w zadanie prowadzenia pojazdu”, a technologia Tesla „nie zapewnić odpowiednią koncentrację kierowców na zadaniu związanym z prowadzeniem pojazdu.”
Możliwe luki w danych
NHTSA przyznaje jednak, że jej badanie może być niekompletne ze względu na „luki” w danych telemetrycznych Tesli, co może oznaczać znacznie większą liczbę wypadków z udziałem autopilota i FSD, niż administracja była w stanie zidentyfikować.
Słownik
- NHTSA (Krajowa Administracja Bezpieczeństwa Ruchu Drogowego) to amerykańska agencja federalna odpowiedzialna za ustalanie i egzekwowanie norm bezpieczeństwa pojazdów.
- Tesla to amerykańska firma, producent pojazdów elektrycznych i twórca technologii jazdy autonomicznej.
- Autopilot to system wspomagania kierowcy firmy Tesla, który zapewnia częściową jazdę autonomiczną na poziomie 2 (L2).
- Full Self-Driving (FSD) to bardziej zaawansowany system jazdy autonomicznej firmy Tesla, sprzedawany jako system jazdy w pełni autonomicznej, chociaż w praktyce jest on również klasyfikowany jako poziom 2 (L2).
Linki
Odpowiedzi na pytania
Czym jest NHTSA i jakie wypadki z udziałem Tesli badała?
Jakie główne problemy zidentyfikowano podczas dochodzenia?
Jakie uwagi pojawiły się na temat autopilota i pełnej autonomiczności?
Jakie wnioski wyciągnięto z dochodzenia?
Jakie były badane konsekwencje wypadków?
Hashtagi
Zapisz link do tego artykulu
Dyskusja na ten temat – Dochodzenie NHTSA: Autopilot Tesli i w pełni autonomiczna jazda powiązane z setkami wypadków
Amerykańska Krajowa Administracja ds. Bezpieczeństwa Ruchu Drogowego (NHTSA) zbadała 956 wypadków z udziałem pojazdów Tesla wyposażonych w autopilota i systemy w pełni autonomicznego prowadzenia (FSD). Do incydentów doszło w okresie od stycznia 2018 r. do sierpnia 2023 r.
Najnowsze komentarze
8 komentarzy
Napisz komentarz
Twój adres e-mail nie zostanie opublikowany. Wymagane pola są zaznaczone *
FrankB
Wow, te statystyki są po prostu szokujące! 🤯 Wygląda na to, że Tesla poważnie nie docenia znaczenia zaangażowania kierowców. Technologia jest świetna, ale powinna pomóc, a nie całkowicie zastąpić człowieka.
JuanS
Tak, dokładnie. Autopilot Tesli zdecydowanie stwarza fałszywe poczucie bezpieczeństwa. Jeśli kierowca odpuści i przestanie zwracać uwagę na drogę, może to prowadzić do tragicznych w skutkach. 💀 Firma powinna uczynić system bardziej interaktywnym i wymagać ciągłej uwagi kierowcy.
LucyF
A może całkowicie zakazać takich systemów, dopóki nie będą naprawdę bezpieczne? 😬 Zbyt wiele istnień ludzkich zginęło już z powodu błędów autopilota. Bezpieczeństwo powinno być priorytetem nr 1.
GrzegorzW
Całkowicie zgadzam się z LucyF. Technologia ta jest wciąż prymitywna, a jej przedwczesne wdrożenie doprowadziło do licznych wypadków. 😤 Tesla powinna zawiesić korzystanie z Autopilota do czasu zapewnienia 100% bezpieczeństwa dla kierowców i pieszych.
OldGrouchKarl
Bang, cała ta moda to jedno wielkie oszustwo! 😠 Za moich czasów bazowaliśmy na zdrowym rozsądku i uwadze na drodze. Żadnych komputerów podczas jazdy, dziękuję! Te nowomodne zabawki tylko odwracają uwagę i zagrażają życiu ludzi.
AnnaK
Czy to możliwe, że problem nie dotyczy tylko autopilota, ale ogólnego podejścia Tesli do bezpieczeństwa? 🤔Wydaje się, że są zbyt skupieni na promowaniu nowych technologii i nie zwracają wystarczającej uwagi na zagrożenia.
MarioR
Zgadzam się, AnnaK. Wygląda na to, że Tesla zbyt agresywnie forsuje swoje systemy wspomagania kierowcy, nie biorąc pod uwagę ich ograniczeń. 😕 Powinni zachować większą ostrożność i przejrzystość w swoich wypowiedziach, aby nie wprowadzać ludzi w błąd.
ElenaP
Nie zapominajmy także o roli samych kierowców. Wiele osób po prostu ignoruje zasady bezpieczeństwa i ślepo polega na technologii. 🚗 Istnieje potrzeba podnoszenia świadomości i szkolenia ludzi w zakresie prawidłowego korzystania z takich systemów.