|
En bref : • La NHTSA enquête sur 2,9 millions de Tesla suite à des violations potentielles liées au système Full Self-Driving (FSD). • Six accidents impliquant des Tesla équipées du FSD ont été signalés aux intersections avec feux rouges, causant quatre cas de blessures graves. • 18 plaintes concernent des Tesla ne s'arrêtant pas complètement aux feux rouges ou n'affichant pas correctement leur état sur l'interface. • Tesla n'a pas encore réagi à l'enquête, mais la mise à jour FSD V14.1 en cours de déploiement pourrait améliorer la gestion des intersections. • Malgré les préoccupations concernant les systèmes autonomes, la NHTSA rappelle que l'erreur humaine reste une cause majeure d'accidents (3 275 décès dus à la conduite distraite en 2023). |
Une enquête sur près de 2,9 millions de Tesla
Figurez-vous que la NHTSA, l’agence américaine de sécurité routière, a récemment lancé une enquête sérieuse sur environ 2,9 millions de véhicules Tesla. Cela fait suite à des violations potentielles des règles de sécurité routière, liées à l’utilisation du système de conduite autonome, connu sous le nom de Full Self-Driving (FSD).
Des comportements de conduite préoccupants
Les accusations sont graves : le FSD aurait entraîné des comportements de véhicules qui enfreignent les lois de la circulation. Les rapports évoquent des cas où des Tesla ont traversé des feux rouges ou effectué des changements de voie dans la mauvaise direction, ce qui, soyons honnêtes, n’est pas vraiment idéal pour la sécurité sur la route.
Des incidents alarmants
La NHTSA a référencé six rapports d’accidents où une Tesla équipée du FSD aurait approché une intersection avec un feu rouge, continuant son chemin et s’étant ensuite retrouvée impliquée dans un incident avec d’autres véhicules. Parmi ces collisions, quatre ont causé des blessures graves, ce qui est extrêmement inquiétant.
Problèmes de détection des feux rouges
Par ailleurs, 18 plaintes ont été enregistrées, indiquant que des véhicules avec le FSD ne s’arrêtaient pas complètement à un feu rouge ou n’affichaient pas correctement l’état des feux sur l’interface du véhicule. Cela soulève des questions essentielles sur la fiabilité d’un système censé rendre la conduite plus sûre.
Une réponse de Tesla, ou tout du moins, le silence
Pour l’heure, Tesla n’a pas réagi à cette enquête qui en est à ses débuts. Un éventuel rappel pourrait devenir complexe, étant donné que les incidents notifiés semblent concerner des versions plus anciennes du FSD qui ont depuis été améliorées. La mise à jour FSD V14.1, qui est en cours de déploiement, devrait logiquement accroître la gestion des voies et le comportement aux intersections, réduisant ainsi les risques de ces violations.
Un regard plus large sur la sécurité routière
Bien que les systèmes autonomes soient au centre des débats, la NHTSA révèle que l’erreur humaine reste l’une des principales causes d’accidents. En 2023, 3 275 décès liés à la conduite distraite ont été enregistrés, notamment à cause de la messagerie ou des ajustements de navigation. On peut donc se demander : les véritables dangers ne viennent-ils pas essentiellement des comportements humains, souvent négligés ?
Conclusion
Voilà, une question se pose : jusqu’où pouvons-nous nous fier à ces technologies qui sont censées nous simplifier la vie, tout en nous protégeant ? Pensez-vous qu’un jour, nous n’aurons plus besoin d’interagir avec notre véhicule ? Cela promet, n’est-ce pas ?

Moi, c’est Édouard Bonenfant, passionné de finance. J’ai toujours aimé les chiffres, mais ce qui m’étonne, c’est comment un conseil peut transformer une vie. La finance, c’est plus qu’un métier, c’est une aventure.

