Tesla nous oblige à nous demander si les voitures doivent conduire comme des humains ou comme des robots

De nombreux automobilistes ne reconnaissent déjà pas les limites de la technologie dans le trafic routier. Le public est confus quant à la signification de « conduite autonome », par exemple, à mesure que les systèmes d’assistance à la conduite deviennent de plus en plus courants et sophistiqués. Dans une enquête réalisée l’année dernière par le cabinet d’analystes JD Power, seuls 37 % des répondants ont choisi la bonne définition des voitures autonomes.

Ni Tesla ni aucune autre entreprise ne vend de véhicule autonome ou autonome, Véhicule capable de se conduire seul dans une variété d’endroits et de circonstances sans qu’un être humain soit prêt à prendre le relais.

Malgré cela, Tesla commercialise ses systèmes d’assistance à la conduite aux États-Unis sous des noms qui, selon les régulateurs et les experts en sécurité, sont trompeurs. comme le pilote automatique pour le package standard et l’auto-conduite complète pour le forfait premium.

Dans le même temps, Tesla avertit les conducteurs dans les manuels qu’il est de leur responsabilité d’utiliser les fonctionnalités en toute sécurité et qu’ils doivent être prêts à assumer la tâche de conduite avec les yeux sur la route et les mains sur le volant à tout moment.

La difficulté de naviguer dans un environnement imprévisible est l’une des raisons pour lesquelles il n’existe pas encore de véritables voitures autonomes.

“Un véhicule autonome doit être meilleur et plus agile que le conducteur qu’il remplace, pas pire”, a déclaré William S. Lerner, expert en sécurité des transports et délégué de l’Organisation internationale de normalisation, un groupe qui établit les normes mondiales de l’industrie.

“J’aimerais que nous y soyons déjà, mais nous ne le sommes pas, à part les autoroutes droites avec des rampes d’accès et de sortie typiques qui ont été cartographiées”, a-t-il déclaré.

“Pris dans le pot à biscuits”

La fonction d’arrêt de roulis de Tesla existait depuis des mois avant d’attirer beaucoup d’attention. Chris, qui enregistre les bonnes et les mauvaises fonctionnalités de Tesla sur YouTube sous le nom de DirtyTesla, a déclaré que sa Tesla avait effectué des arrêts de roulis automatiques pendant plus d’un an avant que Tesla ne désactive la fonctionnalité. Il a accepté une interview à condition que seul son prénom soit utilisé pour des raisons de confidentialité.

L’examen a commencé cette année. Les régulateurs de la National Highway Traffic Safety Administration ont interrogé Tesla sur cette fonctionnalité et, en janvier, le constructeur automobile a lancé une mise à jour logicielle “en direct” pour la désactiver. La NHTSA a classé la mise à jour logicielle comme un rappel de sécurité officiel.

Les critiques ont été surpris non seulement par la décision de développer des logiciels de cette manière, mais aussi par la décision de Tesla de tester les fonctionnalités avec des clients plutôt qu’avec des pilotes d’essai professionnels.

Les défenseurs de la sécurité ont déclaré qu’ils n’étaient au courant d’aucune juridiction américaine où les arrêts roulants étaient légaux et ne pouvaient trouver aucune raison de sécurité pour les autoriser.

“Ils enfreignent la lettre de la loi de manière très transparente, et cela érode complètement la confiance qu’ils essaient d’obtenir du public”, a déclaré William Widen, professeur de droit à l’Université de Miami qui a écrit sur la régulation automatique de l’autonomie. .

“Je serais ouvert à ce sujet”, a déclaré Widen, “au lieu d’avoir la main prise dans le pot à biscuits.”

Les défenseurs de la sécurité ont également remis en question deux fonctionnalités de divertissement sans rapport avec la conduite autonome qui, selon eux, contournent les lois sur la sécurité. L’un appelé Passenger Play permettait aux conducteurs de jouer à des jeux vidéo tout en conduisant. Un autre, appelé boombox, permet aux conducteurs de diffuser de la musique ou d’autres sons hors de leur voiture pendant la conduite, un danger potentiel pour les piétons, y compris les aveugles.

Tesla a récemment poussé les mises à jour logicielles pour limiter ces deux fonctionnalités, et la NHTSA a lancé une enquête sur le jeu des passagers.

Tesla, le fabricant de véhicules électriques le plus vendu, n’a pas qualifié les fonctionnalités de bugs ni reconnu qu’elles auraient pu créer des risques pour la sécurité. Au lieu de cela, Musk a nié que les arrêts roulants puissent être dangereux et a qualifié les agents fédéraux de sécurité des véhicules à moteur de “police amusante” pour s’être opposés à Boombox.

Par ailleurs, la NHTSA enquête sur Tesla pour d’éventuelles lacunes de sécurité dans le pilote automatique, son système d’assistance à la conduite par défaut, à la suite d’une série d’accidents dans lesquels des véhicules Tesla avec des systèmes activés se sont écrasés contre des véhicules de premiers secours à l’arrêt. Tesla a fait face à des poursuites et à des allégations selon lesquelles le pilote automatique n’est pas sûr car il ne peut pas toujours voir d’autres véhicules ou obstacles sur la route. Tesla a généralement nié les réclamations faites dans les affaires judiciaires, y compris une affaire en Floride où des documents judiciaires indiquaient que le conducteur était responsable de la mort d’un piéton.

La NHTSA a refusé une demande d’entretien.

On ne sait pas ce que les régulateurs étatiques ou locaux pourraient faire pour s’adapter à la réalité que Tesla essaie de créer.

“Tous les véhicules circulant sur les routes publiques de Californie doivent se conformer au Code des véhicules de Californie et au code de la route local”, a déclaré le Département des véhicules à moteur de Californie dans un communiqué.

L’agence a ajouté que la technologie des véhicules automatisés devrait être déployée de manière à “encourager l’innovation” et à “assurer la sécurité publique” – deux objectifs qui peuvent être en contradiction si l’innovation signifie enfreindre intentionnellement les règles de circulation. Les fonctionnaires ont refusé une demande d’interview.

Musk, comme la plupart des partisans de la technologie de conduite autonome, s’est concentré sur le nombre de décès causés par les véhicules à propulsion humaine actuels. Il a déclaré que sa priorité était de créer un avenir autonome dès que possible afin de réduire théoriquement les 1,35 million de décès annuels sur les routes dans le monde. Cependant, il n’y a aucun moyen de mesurer la sécurité d’un véhicule véritablement autonome, et même comparer Teslas à d’autres véhicules est difficile en raison de facteurs tels que les différences d’âge des véhicules.

Engagements de l’industrie

Au moins une autre entreprise a été accusée d’avoir intentionnellement enfreint les règles de circulation, mais avec un résultat différent de celui de Tesla.

L’année dernière, les responsables de la ville de San Francisco ont exprimé leur inquiétude quant au fait que Cruise, qui appartient majoritairement à General Motors, avait programmé ses véhicules pour s’arrêter dans les voies, en violation des lois californiennes sur les véhicules. Les véhicules de développement sans conducteur de Cruise seront utilisés dans un service de robot-taxi qui prendra et déposera les passagers sans conducteur au volant.

Cruise a répondu avec quelque chose que Tesla n’a pas encore offert : une promesse de respecter la loi.

“Nos véhicules sont programmés pour se conformer à toutes les lois et réglementations en matière de circulation”, a déclaré le porte-parole de Cruise, Aaron Mclear, dans un communiqué.

Waymo, une autre entreprise à la recherche de technologies de conduite autonome, a programmé ses voitures pour enfreindre les règles de circulation uniquement lorsqu’elles sont en conflit les unes avec les autres, comme franchir une double ligne jaune pour donner plus d’espace à un cycliste, a déclaré la porte-parole de Waymo, Julianne McGoldrick.

« Nous accordons la priorité à la sécurité et au respect des règles de circulation plutôt qu’à la familiarité avec le comportement des autres conducteurs. Par exemple, nous ne programmons pas le véhicule pour qu’il dépasse la limite de vitesse parce que les autres conducteurs le savent”, a-t-elle déclaré dans un communiqué.

Une troisième société, Mercedes, a accepté d’être tenue responsable des accidents qui se produisent dans des situations où elle a promis que son système d’assistance à la conduite Drive Pilot sera sûr et obéira aux règles de la circulation.

Mercedes n’a pas répondu à une demande d’informations sur son approche des véhicules automatisés et s’ils devraient un jour contourner le code de la route.

Les experts en sécurité ne sont pas disposés à donner à Tesla ou à quiconque un laissez-passer pour enfreindre la loi.

“À une époque où le nombre de décès de piétons atteint son plus haut niveau depuis 40 ans, nous ne devrions pas assouplir les règles”, a déclaré Leah Shahum, directrice du Vision Zero Network, une organisation qui tente d’éliminer les décès sur les routes aux États-Unis.

“Nous devons penser à des objectifs plus élevés – ne pas avoir un système qui n’est pas pire qu’il ne l’est aujourd’hui. Cela devrait être nettement meilleur”, a déclaré Shahum.

oigari