La National Highway Traffic Safety Administration (NHTSA), l’agence fédérale américaine des États-Unis chargée de la sécurité routière, ouvre une nouvelle enquête sur l’Autopilot, le système d’aide à la conduite de niveau 2 de Tesla qui malgré son nom, n’est pas un système autonome.
Le 12 décembre 2023, le constructeur automobile enregistra un rapport d’information sur les défauts (rappel 23V838), applicable à tous ses véhicules équipés de l’Autopilot, soit plus de deux millions de véhicules électriques.
Tesla reconnu que « la proéminence et la portée des contrôles du système peuvent être insuffisantes pour empêcher une mauvaise utilisation par le conducteur ». En d’autres termes, alors que le conducteur ne doit utiliser l’Autopilot que dans certaines conditions (essentiellement sur les autoroutes), et qu’il est censé rester alerte et avoir en permanence les mains sur le volant, même quand la voiture conduit toute seule, il lui est remarquablement facile d’esquiver tous les garde-fous implémentés par le constructeur.
Tesla s’était engagé à déployer un remède en plusieurs parties visant à améliorer les contrôles du système et de l’engagement et à réduire la confusion des modes.
Durant l’enquête qui fut ouverte pour déterminer si l’Autopilot de Tesla contenait un défaut qui créait un risque déraisonnable pour la sécurité des véhicules, la NHTSA identifia au moins 13 accidents ayant entraîné un ou plusieurs décès et de nombreux autres accidents ayant entraîné des blessures graves dans lesquels une mauvaise utilisation prévisible du système par le conducteur joua un rôle.
Le rappel de Tesla, qui consista en une mise à jour logicielle à distance, ne semble donc pas effectif. L’agence fédérale a donc décidé d’enquêter à nouveau sur un éventuel risque déraisonnable pour la sécurité des véhicules.