Enquête de la NHTSA : le pilote automatique et la conduite entièrement autonome de Tesla sont liés à des centaines d'accidents
La National Highway Traffic Safety Administration (NHTSA) des États-Unis a mené une enquête approfondie sur les accidents impliquant des véhicules électriques Tesla équipés des fonctionnalités de pilote automatique et de conduite entièrement autonome (FSD) survenus entre janvier 2018 et août 2023.
Accidents de Tesla
Enquête de la NHTSA
La NHTSA a examiné 956 accidents impliquant des véhicules Tesla avec pilote automatique activé et conduite entièrement autonome ( FSD). L’enquête a porté sur des incidents survenus entre janvier 2018 et août 2023, mais le nombre d’accidents était important.
Causes des incidents
L'agence a ouvert une enquête après une série de collisions entre Tesla et ambulances stationnaires, garées au bord de la route. La plupart de ces accidents se sont produits la nuit lorsque le logiciel du véhicule ignorait les signaux d'avertissement, notamment les balises, les cônes et les flèches lumineuses.
Victimes et blessés
À la suite de ces accidents de la route, dont certains D'autres véhicules ont également été impliqués et 29 personnes ont été tuées. En outre, 211 accidents ont été enregistrés dans lesquels la Tesla est entrée en collision frontale avec un autre véhicule ou avec un obstacle sur le chemin. Dans ces accidents les plus graves, 14 personnes ont été tuées et 49 ont été blessées.
Défauts du système
Sur la base de son enquête, la NHTSA a découvert que les systèmes Autopilot et FSD n'étaient pas conçus pour garantir une participation adéquate du conducteur au processus de conduite. Malgré les avertissements de Tesla de rester vigilants lors de l'utilisation de ces fonctionnalités, dans de nombreux cas, les conducteurs sont devenus trop confiants et ont baissé leur garde. Lorsqu’une réponse rapide s’imposait, il était souvent trop tard.
Statistiques d'accidents
Selon les données, dans 59 accidents, les conducteurs de Tesla avaient au moins 5 secondes pour réagir avant la collision, et dans 19 cas, le danger était visible 10 secondes et plus avant l'incident. Après avoir examiné les journaux d'accidents et les données fournies par Tesla, la NHTSA a constaté que dans la plupart des incidents analysés, les conducteurs n'avaient fait aucune tentative de freinage ou de manœuvre pour éviter le danger.
Comparaison avec d'autres fabricants
La NHTSA a comparé les fonctionnalités d'automatisation de niveau 2 (L2) de Tesla avec des systèmes similaires d'autres constructeurs automobiles. Contrairement aux concurrents, le pilote automatique retire le contrôle au conducteur plutôt que de l'assister, l'empêchant de s'engager dans le processus de conduite. Le nom « Autopilot » induit les consommateurs en erreur sur les capacités réelles du système, créant ainsi des attentes trop optimistes.
Résultats de l'enquête
La NHTSA a conclu que les conducteurs utilisant le pilote automatique ou la conduite entièrement autonome "n'étaient pas suffisamment impliqués dans la tâche de conduite" et que la technologie Tesla "ne fonctionnait pas". veiller à ce que les conducteurs soient concentrés sur leur tâche de conduite. »
Lacunes possibles dans les données
Cependant, la NHTSA reconnaît que son étude pourrait être incomplète en raison de "lacunes" dans les données de télémétrie Tesla, ce qui pourrait signifier un nombre beaucoup plus élevé. d'accidents impliquant le pilote automatique et le FSD que l'Administration n'a pu identifier.
Glossaire
- La NHTSA (National Highway Traffic Safety Administration) est l'agence fédérale américaine chargée d'établir et de faire respecter les normes de sécurité des véhicules.
- Tesla est une entreprise américaine, fabricant de véhicules électriques et développeur de technologies de conduite autonome.
- Autopilot est un système d'aide à la conduite de Tesla qui permet une conduite autonome partielle au niveau 2 (L2).
- Full Self-Driving (FSD) est un système de conduite autonome plus avancé de Tesla, commercialisé comme un système de conduite entièrement autonome, bien qu'en pratique, il soit également classé au niveau 2 (L2).
Liens
Réponses aux questions
Qu'est-ce que la NHTSA et sur quels accidents impliquant Tesla a-t-elle enquêté ?
Quels problèmes majeurs ont été identifiés au cours de l'enquête ?
Quels commentaires ont été formulés concernant le pilote automatique et la conduite entièrement autonome ?
Quelles conclusions ont été tirées de l'enquête ?
Quelles ont été les conséquences des accidents enquêtés ?
Hashtags
Enregistrer un lien vers cet article
Discussion sur le sujet – Enquête de la NHTSA : le pilote automatique et la conduite entièrement autonome de Tesla sont liés à des centaines d'accidents
La National Highway Traffic Safety Administration (NHTSA) des États-Unis a enquêté sur 956 accidents impliquant des véhicules Tesla équipés de systèmes de pilote automatique et de conduite entièrement autonome (FSD). Les incidents se sont produits entre janvier 2018 et août 2023.
Derniers commentaires
8 commentaires
Écrire un commentaire
Votre adresse email ne sera pas publiée. Les champs obligatoires sont cochés *
FrankB
Wow, ces statistiques sont tout simplement choquantes ! 🤯 Tesla semble sous-estimer sérieusement l’importance de l’implication du conducteur. La technologie est formidable, mais elle devrait aider, et non remplacer complètement les humains.
JuanS
Oui, exactement. Le pilote automatique de Tesla crée définitivement un faux sentiment de sécurité. Si le conducteur se détend et cesse de prêter attention à la route, cela peut avoir des conséquences tragiques. 💀 L'entreprise devrait rendre le système plus interactif et exiger une attention constante du conducteur.
LucyF
Que diriez-vous d’interdire complètement ces systèmes jusqu’à ce qu’ils soient véritablement sécurisés ? 😬 Trop de vies ont déjà été perdues à cause d'erreurs du pilote automatique. La sécurité devrait être la priorité n°1.
GrzegorzW
Je suis entièrement d'accord avec LucyF. La technologie est encore rudimentaire et sa mise en œuvre prématurée a conduit à de nombreux accidents. 😤 Tesla devrait suspendre l'utilisation du pilote automatique jusqu'à ce que la sécurité à 100 % des conducteurs et des piétons soit garantie.
OldGrouchKarl
Bang, tous ces trucs de mode, c'est une grosse arnaque ! 😠 À mon époque, on comptait sur le bon sens et l'attention sur la route. Pas d'ordinateur en conduisant, merci ! Ces jouets inédits ne font que distraire et mettre la vie des gens en danger.
AnnaK
Se pourrait-il que le problème ne soit pas uniquement lié au pilote automatique, mais à l'approche globale de Tesla en matière de sécurité ? 🤔 Ils semblent trop concentrés sur la promotion des nouvelles technologies et ne prêtent pas suffisamment attention aux risques.
MarioR
Je suis d'accord, AnnaK. Il semble que Tesla pousse ses systèmes d’aide à la conduite de manière trop agressive sans tenir compte de leurs limites. 😕 Ils devraient être plus prudents et transparents dans leurs déclarations afin de ne pas induire les gens en erreur.
ElenaP
N'oublions pas non plus le rôle des conducteurs eux-mêmes. De nombreuses personnes ignorent tout simplement les règles de sécurité et s’appuient aveuglément sur la technologie. 🚗 Il est nécessaire de sensibiliser et de former les populations à la bonne utilisation de tels systèmes.