Расследование NHTSA: Tesla Autopilot и Full Self-Driving причастны к сотням аварий
Национальная Администрация Безопасности Дорожного Движения США (NHTSA) провела масштабное расследование аварий с участием электромобилей Tesla, оснащенных функциями Autopilot и Full Self-Driving (FSD), произошедших в период с января 2018 года по август 2023 года.
Происшествия с Tesla
Расследование NHTSA
NHTSA изучила 956 дорожно-транспортных происшествий, в которых фигурировали автомобили Tesla с активированными системами Autopilot и Full Self-Driving (FSD). Расследование охватывало инциденты, произошедшие в период с января 2018 года по август 2023 года, однако количество аварий было большим.
Причины инцидентов
Ведомство начало проверку после серии столкновений Tesla с неподвижными машинами скорой помощи, припаркованными на обочине. Большинство таких происшествий случались в темное время суток, когда программное обеспечение транспортных средств игнорировало предупреждающие сигналы, включая световые маячки, конусы и световые стрелы.
Жертвы и травмы
В результате этих дорожно-транспортных происшествий, в некоторых из которых также участвовали другие транспортные средства, погибли 29 человек. Кроме того, зафиксировано 211 аварий, в которых Tesla фронтально столкнулась с другим транспортным средством или препятствием на пути. В таких наиболее серьезных авариях погибли 14 человек, а 49 получили травмы.
Недостатки систем
По результатам расследования, NHTSA выявила, что системы Autopilot и FSD не были разработаны для обеспечения должного вовлечения водителя в процесс управления автомобилем. Несмотря на предупреждения Tesla о необходимости сохранять внимательность при использовании этих функций, во многих случаях водители становились излишне самоуверенными и теряли бдительность. Когда требовалась быстрая реакция, зачастую было уже слишком поздно.
Статистика аварий
Согласно данным, в 59 авариях водители Tesla имели не менее 5 секунд для реагирования перед столкновением, а в 19 случаях опасность была видна за 10 и более секунд до происшествия. Изучив журналы аварий и данные, предоставленные Tesla, NHTSA обнаружила, что в большинстве проанализированных инцидентов водители не предпринимали попыток затормозить или маневрировать для избежания опасности.
Сравнение с другими производителями
NHTSA сравнила функции автоматизации уровня 2 (L2) Tesla с аналогичными системами других автопроизводителей. В отличие от конкурентов, Autopilot скорее отстраняет водителя от управления, чем оказывает ему помощь, препятствуя его вовлечению в процесс вождения. Название "Autopilot" вводит потребителей в заблуждение относительно реальных возможностей системы, создавая излишне оптимистичные ожидания.
Выводы расследования
NHTSA пришла к заключению, что водители, использующие Autopilot или Full Self-Driving, "не были достаточно вовлечены в задачу управления", а технология Tesla "не обеспечивала должным образом сосредоточенности водителей на задаче вождения".
Возможные пробелы в данных
Вместе с тем, NHTSA признает, что ее исследование может быть неполным из-за "пробелов" в телеметрических данных Tesla, что может означать гораздо большее количество аварий с участием Autopilot и FSD, чем удалось выявить Администрации.
Глоссарий
- NHTSA (Национальная Администрация Безопасности Дорожного Движения США) - федеральное агентство США, отвечающее за установление и соблюдение стандартов безопасности для транспортных средств.
- Tesla - американская компания, производитель электромобилей и разработчик технологий автономного вождения.
- Autopilot - система помощи водителю от Tesla, обеспечивающая частичное автономное вождение на уровне 2 (L2).
- Full Self-Driving (FSD) - более продвинутая система автономного вождения от Tesla, позиционируемая как система полностью автономного вождения, хотя на практике она также относится к уровню 2 (L2).
Ссылки
Ответы на вопросы
Что такое NHTSA и какие аварии с участием Tesla она расследовала?
Какие основные проблемы были выявлены в ходе расследования?
Какие замечания были высказаны в отношении систем Autopilot и Full Self-Driving?
Какие выводы были сделаны по итогам расследования?
Каковы были последствия расследованных аварий?
Хештеги
Сохрани ссылку на эту статью
Обсуждение темы – Расследование NHTSA: Tesla Autopilot и Full Self-Driving причастны к сотням аварий
Национальная Администрация Безопасности Дорожного Движения США (NHTSA) провела расследование 956 ДТП с участием автомобилей Tesla, оборудованных системами Autopilot и Full Self-Driving (FSD). Инциденты произошли в период с января 2018 года по август 2023 года.
Последние комментарии
8 комментариев
Написать комментарий
Ваш адрес электронной почты не будет опубликован. Обязательные поля отмечены *
FrankB
Ого, статистика просто шокирующая! 🤯 Похоже, что Tesla серьезно недооценивает важность участия водителя в управлении. Технология - это здорово, но она должна помогать, а не полностью заменять человека.
JuanS
Да, именно так. Autopilot Tesla определенно создает ложное чувство безопасности. Если водитель расслабляется и перестает следить за дорогой, это может привести к трагическим последствиям. 💀 Компания должна сделать систему более интерактивной и требовать постоянного внимания водителя.
LucyF
А как насчет того, чтобы вообще запретить такие системы, пока они не станут по-настоящему безопасными? 😬 Слишком много жизней уже унесено из-за ошибок в работе Autopilot. Безопасность должна быть приоритетом №1.
GrzegorzW
Полностью согласен с LucyF. Технология еще сырая, и ее преждевременное внедрение привело к многочисленным авариям. 😤 Tesla должна приостановить использование Autopilot до тех пор, пока не будет гарантирована 100% безопасность для водителей и пешеходов.
OldGrouchKarl
Бах, все эти модные штучки - одна большая афера! 😠 В мое время мы полагались на здравый смысл и внимание на дороге. Никаких компьютеров за рулем, спасибо! Эти новомодные игрушки только отвлекают и ставят под угрозу жизни людей.
AnnaK
Может быть, проблема не только в Autopilot, но и в общем подходе Tesla к безопасности? 🤔 Кажется, они слишком сосредоточены на продвижении новых технологий и недостаточно внимания уделяют рискам.
MarioR
Согласен, AnnaK. Похоже, что Tesla слишком агрессивно продвигает свои системы помощи водителю, не учитывая их ограничения. 😕 Они должны быть более осторожными и transparentными в своих заявлениях, чтобы не вводить людей в заблуждение.
ElenaP
Давайте также не будем забывать о роли самих водителей. Многие просто игнорируют правила безопасности и слепо полагаются на технологию. 🚗 Нужно повышать осведомленность и обучать людей правильному использованию таких систем.