Розслідування NHTSA: Tesla Autopilot та Full Self-Driving причетні до сотень аварій
Національна Адміністрація Безпеки Дорожнього Руху США (NHTSA) провела масштабне розслідування аварій за участю електромобілів Tesla, оснащених функціями Autopilot та Full Self-Driving (FSD), що відбулися в період із січня 2018 року до серпня 2023 року.
Пригоди з Tesla
Розслідування NHTSA
NHTSA вивчила 956 дорожньо-транспортних пригод, в яких фігурували автомобілі Tesla з активованими системами Autopilot та Full Self-Driving (FSD). Розслідування охоплювало інциденти, що сталися в період із січня 2018 року до серпня 2023 року, проте кількість аварій була великою.
Причини інцидентів
Відомство почало перевірку після серії зіткнень Tesla з нерухомими машинами швидкої допомоги, припаркованими на узбіччі. Більшість таких подій траплялися в темну пору доби, коли програмне забезпечення транспортних засобів ігнорувало попереджувальні сигнали, включаючи світлові маячки, конуси та світлові стріли.
Жертви і травми
В результаті цих дорожньо-транспортних пригод, в деяких з яких також брали участь інші транспортні засоби, загинуло 29 осіб. Крім того, зафіксовано 211 аварій, у яких Tesla фронтально зіткнулася з іншим транспортним засобом чи перешкодою на дорозі. У таких найбільш серйозних аваріях загинуло 14 людей, а 49 отримали травми.
Недоліки систем
За результатами розслідування, NHTSA виявила, що системи Autopilot і FSD не були розроблені для забезпечення належного залучення водія у процес керування автомобілем. Незважаючи на попередження Tesla про необхідність зберігати уважність при використанні цих функцій, у багатьох випадках водії ставали надмірно самовпевненими та втрачали пильність. Коли була потрібна швидка реакція, часто було вже занадто пізно.
Статистика аварій
Згідно з даними, у 59 аваріях водії Tesla мали не менше 5 секунд для реагування перед зіткненням, а в 19 випадках небезпека була видна за 10 і більше секунд до події. Вивчивши журнали аварій та дані, надані Tesla, NHTSA виявила, що у більшості проаналізованих інцидентів водії не робили спроб загальмувати чи маневрувати для уникнення небезпеки.
Порівняння з іншими виробниками
NHTSA порівняла функції автоматизації рівня 2 (L2) Tesla з аналогічними системами інших автовиробників. На відміну від конкурентів, Autopilot швидше усуває водія від керування, ніж надає йому допомогу, перешкоджаючи його залученню до водіння. Назва "Autopilot" вводить споживачів в оману щодо реальних можливостей системи, створюючи надмірно оптимістичні очікування.
Висновки розслідування
NHTSA дійшла висновку, що водії, які використовують Autopilot або Full Self-Driving, "не були достатньо залучені до завдання управління", а технологія Tesla "не забезпечувала належним чином зосередженості водіїв на задачі керування".
Можливі прогалини в даних
Разом з тим, NHTSA визнає, що її дослідження може бути неповним через "прогалини" в телеметричних даних Tesla, що може означатиме набагато більше аварій за участю Autopilot і FSD, ніж вдалося виявити Адміністрації.
Глосарій
- NHTSA (Національна Адміністрація Безпеки Дорожнього Руху США) - федеральне агентство США, що відповідає за встановлення та дотримання стандартів безпеки для транспортних засобів .
- Tesla - американська компанія, виробник електромобілів та розробник технологій автономного водіння.
- Autopilot - система допомоги водію від Tesla, що забезпечує часткове автономне керування на рівні 2 (L2).
- Full Self-Driving (FSD) - більш просунута система автономного водіння від Tesla, що позиціонується як система повністю автономного водіння, хоча на практиці вона також відноситься до рівня 2 (L2).
Посилання
Відповіді на питання
Що таке NHTSA і які аварії за участю Tesla вона розслідувала?
Які основні проблеми були виявлені в ході розслідування?
Які зауваження були висловлені щодо систем Autopilot та Full Self-Driving?
Які висновки були зроблені за підсумками розслідування?
Якими були наслідки розслідуваних аварій?
Хештеги
Збережи посилання на цю сторінку
Обговорення теми – Розслідування NHTSA: Tesla Autopilot та Full Self-Driving причетні до сотень аварій
Національна Адміністрація Безпеки Дорожнього Руху США (NHTSA) провела розслідування 956 ДТП за участю автомобілів Tesla, обладнаних системами Autopilot та Full Self-Driving (FSD). Інциденти сталися в період із січня 2018 року до серпня 2023 року.
Останні коментарі
8 коментарів
Написати коментар
Ваша адреса електронної пошти не буде опублікована. Обов'язкові поля відмічені *
FrankB
Ого, статистика просто шокуюча! 🤯 Схоже, що Tesla серйозно недооцінює важливість участі водія в управлінні. Технологія – це здорово, але вона має допомагати, а не повністю замінювати людину.
JuanS
Так, саме так. Autopilot Tesla напевно створює хибне почуття безпеки. Якщо водій розслабляється та перестає стежити за дорогою, це може призвести до трагічних наслідків. 💀 Компанія має зробити систему більш інтерактивною та вимагати постійної уваги водія.
LucyF
А як щодо того, щоб взагалі заборонити такі системи, допоки вони не стануть по-справжньому безпечними? 😬 Занадто багато життів вже забрано через помилки в роботі Autopilot. Безпека має бути пріоритетом №1.
GrzegorzW
Цілком згоден із LucyF. Технологія ще сира, і її передчасне використання призвело до численних аварій. 😤 Tesla повинна призупинити використання Autopilot доти, доки не буде гарантована 100% безпека для водіїв та пішоходів.
OldGrouchKarl
Бах, всі ці модні штучки – одна велика афера! 😠 У мій час ми покладалися на здоровий глузд і увагу на дорозі. Жодних комп'ютерів за кермом, дякую! Ці новомодні іграшки лише відволікають та ставлять під загрозу життю людей.
AnnaK
Можливо, проблема не тільки у Autopilot, але й у загальному підході Tesla до безпеки? 🤔 Здається, вони надто зосереджені на просуванні нових технологій і недостатньо уваги приділяють ризикам.
MarioR
Згоден, AnnaK. Схоже, що Tesla надто агресивно просуває свої системи допомоги водію, не враховуючи їх обмежень. 😕 Вони повинні бути більш обережними та transparentними у своїх заявах, щоб не вводити людей в оману.
ElenaP
Давайте також не забуватимемо про роль самих водіїв. Багато хто просто ігнорує правила безпеки і сліпо покладається на технологію. 🚗 Потрібно підвищувати обізнаність та навчати людей правильному використанню таких систем.