Si une Tesla en pilotage automatique tue quelqu’un, qui est responsable ?

Pouvez-vous faire la lumière sur le précédent juridique que la poursuite de Kevin George Aziz Riyad est en train de créer ? Quel message envoie-t-il aux consommateurs et aux fabricants de technologies similaires ?

Premièrement, les plaintes pénales sont surprenantes d’après ce que nous savons — les documents de plainte pénale, comme d’habitude, ne fournissent pas de détails. Si vous ne faisiez pas attention, brûliez un feu rouge et frappiez quelqu’un – aussi tragique soit-il – dans la grande majorité des cas, vous ne feriez pas face à des accusations criminelles pour ce comportement. Vous ne voyez vraiment pas beaucoup de poursuites pénales pour des accidents de véhicules à moteur en dehors des affaires de conduite en état d’ébriété.

Si le conducteur était reconnu coupable d’homicide involontaire, cette affaire pourrait vraiment être le précédent le plus troublant, le plus nouveau et le plus révolutionnaire. C’est un changement radical par rapport au passé lorsque les forces de l’ordre comptent sur lui en s’appuyant sur le pilote automatique alors qu’il aurait dû prendre le relais. Si tel est le cas, beaucoup plus de poursuites pourraient être intentées qu’aujourd’hui.

En revanche, la responsabilité délictuelle ou les poursuites civiles sont courantes. Ensuite, le défendeur paierait des dommages-intérêts. La plupart des actions en responsabilité délictuelle devant les tribunaux d’État à travers le pays concernent des accidents de véhicules à moteur dans lesquels un conducteur est accusé d’avoir causé l’accident par négligence, ce qui, dans ce cas, s’est clairement produit parce que le conducteur a brûlé un feu rouge.

Si cette affaire signale d’une manière ou d’une autre que la responsabilité pénale est plus facilement possible simplement en s’appuyant sur la technologie, elle pourrait alors conduire à un changement profond dans la nature de la responsabilité légale.

Quelle obligation une entreprise de technologie de pointe comme Tesla a-t-elle d’informer les conducteurs, que ce soit directement ou par le biais de messages publicitaires et marketing, qu’ils sont responsables de tous les dommages, que la voiture soit ou non en pilote automatique ?

Vous avez clairement le devoir d’avertir la personne assise au siège du conducteur de prendre en charge le véhicule – qu’elle n’est pas en mesure de tout faire par elle-même. Vous voyez cet avertissement dans les véhicules Tesla, et presque tous les véhicules ont ce type d’avertissement. Par exemple, si vous utilisez une fonction cartographique en conduisant, de nombreuses voitures vous avertissent : “Cela va vous distraire, surveillez la route”.

Les constructeurs sont également obligés de tenir compte de la complaisance qui accompagne la technique de conduite lors du développement de la voiture. Tesla ou d’autres fabricants ne peuvent pas simplement dire : « Hé, écoutez, c’est votre responsabilité. » Ils doivent en fait essayer d’intégrer quelque chose dans la conception pour s’assurer que les conducteurs restent vigilants. En conséquence, différents fabricants adoptent différentes approches face à ce problème : certaines voitures s’arrêteront si vous n’avez pas les mains sur le volant, et d’autres voitures ont des caméras qui émettent des bips si vous ne faites pas attention.

Si le conducteur a un accident et qu’il y a eu un avertissement adéquat et que la conception elle-même est suffisante pour retenir l’attention du conducteur, le constructeur automobile n’est pas responsable en vertu de la loi applicable. Mais il y a une exception possible ici : il y a un libellé de la règle de responsabilité qui est assez répandu dans tout le pays, y compris en Californie, où cette affaire aura lieu. Selon cette règle, la demande est basée sur ce que les consommateurs attendent du fabricant. Et les attentes des consommateurs peuvent être fortement influencées par le marketing et la publicité, etc.

Par exemple, si Tesla annonçait que le pilote automatique ne se plantait jamais, puis qu’un consommateur se plantait, Tesla serait responsable de ne pas avoir répondu à ces attentes.

Dans cette affaire, le conducteur a été accusé de s’être trop fié au pilote automatique de sa voiture. Qu’est-ce que cela dit sur nos hypothèses de base quant à savoir si les humains ou la technologie sont plus dignes de confiance ?

Il y a une différence importante entre l’excès de confiance et la complaisance. Je pense que la complaisance est juste une réaction humaine naturelle au manque de stimuli – dans ce cas, le manque de responsabilité pour accomplir toutes les tâches de conduite. Vous pouvez vous ennuyer et vous laisser aller à un sentiment de complaisance, mais je ne pense pas que ce comportement repose trop sur la technologie.

L’idée de dépendance excessive entre en jeu ici avec la nature potentielle de l’inconduite. Peut-être que la défense du conducteur dans ce cas est qu’il pensait raisonnablement que la voiture avait tout sous contrôle, était capable de résoudre ce problème et n’avait donc pas à se soucier de réagir si les choses se passaient différemment. Maintenant, il compterait sur la technologie à ce stade, plutôt que sur sa propre capacité à arrêter le véhicule et à sortir du problème en toute sécurité. Lorsqu’il y a une confiance aveugle dans la technologie, plutôt que de l’adopter alors que vous auriez pu le faire, et lorsque vous êtes responsable en conséquence, cela devient un type de message très profond et intéressant que la loi envoie.

Pensez-vous que ce changement de responsabilité nuira à l’activité d’entreprises comme Tesla ?

Le gros problème auquel sont actuellement confrontés les fabricants de véhicules autonomes comme Tesla est de gagner la confiance des consommateurs lorsqu’ils commercialisent une nouvelle technologie. Le besoin de confiance dans les premiers stades de ces produits est énorme. Et tous les fabricants sont préoccupés par ce problème car ils savent que si des accidents horribles se produisent, les consommateurs perdront confiance dans le produit. En fin de compte, la technologie prendra le relais; c’est juste une question de savoir si c’est plus tôt que tard. Et le temps, c’est de l’argent dans ce contexte – donc si vous n’obtenez qu’une adoption plus lente parce que les consommateurs sont très préoccupés par les performances de sécurité de la technologie, cela nuira à l’industrie. Ils veulent évidemment éviter ce résultat. Cette technologie continuera de faire son chemin – c’est juste une question de temps qu’il faudra pour que cela se produise. Il y a tellement d’avantages à utiliser des véhicules autonomes, y compris dans la dimension de la sécurité.

À propos de son pilote automatique et de sa capacité de conduite entièrement autonome, Tesla déclare : “Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, les fonctionnalités actuellement activées ne rendent pas le véhicule autonome.” Quels problèmes de responsabilité prévoyez-vous si/quand ces véhicules deviennent autonome?

C’est une question compliquée, et c’est le sujet qui intéresse tout le monde. Une fois ces véhicules totalement autonomes, il ne reste plus que la voiture. L’humain dans la voiture n’est même pas un élément de la situation. La grande question est donc : si ces véhicules ont un accident, qui paie ? On pourrait penser que le fabricant serait responsable – et cela augmentera le coût de ces véhicules et les rendra beaucoup plus difficiles à distribuer. Nombreux sont ceux qui pensent qu’en cas d’accident, le fabricant doit toujours être tenu responsable. Je suis très sceptique quant à cette conclusion car je pense que c’est beaucoup plus proche que la plupart des gens ne le pensent.

En fin de compte, ces problèmes dépendent de la manière dont les agences fédérales telles que la National Highway Traffic Safety Administration réglementent le véhicule. Ils doivent établir une norme de performance en matière de sécurité que le fabricant doit respecter avant de pouvoir commercialiser le produit de manière entièrement autonome. La question est de savoir où les régulateurs fixent cette norme, et je ne pense pas qu’il soit facile de bien faire les choses. À ce moment-là, il y aura un bon débat : ont-ils bien compris ou non ? Nous sommes encore dans quelques années. Je pense que nous aurons tous ces conversations en 2025.

oigari