Des voitures autonomes aux armes autonomes, les enjeux éthiques de l’IA ne peuvent être ignorés

Les voitures (et camions) entièrement autonomes, autrefois un gadget du film Sleeper de Woody Allen en 1973, se rapprochent de la réalité fonctionnelle. Dans le même temps, les forces militaires conçoivent et déploient activement des systèmes d’armes létaux autonomes (LAWS) qui feront un usage important de technologies similaires. La différence, bien sûr, est que les voitures autonomes s’efforceront de sauver des vies, tandis que les LAWS coûteront des vies – une différence significative qui mérite d’être étudiée.

Le problème des voitures autonomes

L’assurance est un gros point d’interrogation pour les véhicules autonomes. Comment est attribuée la responsabilité en cas d’accident ? Cela vous concerne-t-il en tant que preneur d’assurance en cas d’accident « responsable » ? S’il y a responsabilité, comme B. Dommages corporels, quelles sont les garanties ? L’industrie américaine de l’assurance automobile perçoit 320 milliards de dollars par an, et les voitures sans conducteur n’étaient pas dans l’esprit ni dans l’expérience des compagnies d’assurance.

En 2019, il y a eu 33 224 accidents de voiture mortels (dernières données que j’ai pu trouver). Si les voitures autonomes sont la norme, cela devrait être une excellente mesure pour mesurer leur sécurité relative. La plupart des voitures autonomes fonctionnent en s’appuyant sur une combinaison de cartes et de capteurs détaillés et pré-emballés qui “voient” les obstacles sur la route en temps réel.

Les deux systèmes sont cruciaux et fonctionnent ensemble. Une voiture entièrement autonome a besoin d’un ensemble de capteurs qui détectent avec précision les objets, la distance, la vitesse, etc. dans toutes les conditions et tous les environnements, sans intervention humaine.

Le mauvais temps, les embouteillages, les panneaux de signalisation dégradés ou manquants peuvent avoir un impact négatif sur la précision de la capacité de détection. Exemples:

  • Un fonctionnement ordonné pourrait être atteint en supposant que les véhicules autonomes puissent communiquer entre eux, ce qui obligerait les fabricants à s’entendre sur un protocole commun, ce qu’ils n’ont pas. Cependant, la technologie est actuellement incapable de contrôler le comportement des autres conducteurs qui accélèrent, franchissent les doubles lignes jaunes et conduisent de manière imprudente.
  • Que deviennent les lignes ? Ma voiture actuelle a un avertissement de sortie de voie. Si les lignes sur la route disparaissent, cela ne peut pas fonctionner.
  • Comment les voitures autonomes gèrent-elles les détours ?
  • S’agit-il d’une nappe de pétrole, d’une flaque d’eau, d’un nid-de-poule ou d’un gouffre ?

Les voitures autonomes apprennent constamment, du moins c’est ce qu’on prétend. Au fur et à mesure que leurs capteurs collectent des données, leurs algorithmes internes intègrent de nouvelles informations. Cela améliorera probablement leurs performances. C’est une hypothèse terriblement bâclée. Les réseaux de neurones d’apprentissage automatique et d’apprentissage en profondeur sont connus pour «apprendre» des choses boguées et dysfonctionnelles. Où est “l’humain dans la boucle” pour juger si le modèle est hors de propos ?

D’un article précédent, j’ai écrit:

Ce régime « d’apprentissage » présente des inconvénients. L’IA, y compris l’apprentissage automatique et l’apprentissage en profondeur, implique le développement d’algorithmes qui créent des modèles prédictifs à partir de données. Nous le savons tous, mais ce qui est peut-être moins bien compris, c’est qu’il s’inspire des statistiques plutôt que des neurosciences ou de la psychologie. L’objectif est d’effectuer des tâches spécifiques plutôt que de recueillir des informations générales. Il est important de comprendre exactement ce que le modèle peut vous dire et pourquoi.

Machine Learning, Neural Nets et Deep Learning n’apprennent pas les concepts. Au lieu de cela, ils connaissent des raccourcis pour connecter les réponses sur l’ensemble de formation. En effet, ils sont sensibles à l’apprentissage par raccourcis, des associations statistiques dans les données d’apprentissage qui permettent au modèle de produire des réponses incorrectes ou des réponses correctes pour de mauvaises raisons. Ce manque de compréhension fondamentale du ML et de l’apprentissage en profondeur peut entraîner des erreurs imprévisibles face à des situations qui s’écartent des données de formation. L’algorithme est occupé à résoudre un million d’équations différentielles et à trouver le chemin le plus court vers la fonction de coût. En d’autres termes, les algorithmes d’apprentissage automatique n’apprennent ce que vous voulez que lorsqu’il est plus facile de maximiser leurs métriques.

LAWS – Relever les enjeux éthiques autonomes

Lorsque vous considérez qu’une voiture autonome n’a qu’à vous conduire d’un point à un autre (c’est pourquoi même les garçons de 16 ans apprennent à conduire), considérez un instant à quel point la tâche d’un appareil LAWS est plus complexe. Oui, il doit se rendre à un endroit (et probablement en revenir), mais aussi déterminer la cible et réussir à lancer l’arme. Lorsque vous considérez le nombre d’obstacles qui subsistent pour mettre des voitures autonomes sur la route, imaginez à quel point nous sommes loin des LAWS dans la réalisation de leur objectif mortel.

L’assurance n’est pas un problème pour LAWS. Le fil conducteur qui unit les voitures autonomes et les LAWS est l’autonomie : la capacité de ces armes à sélectionner et à interagir avec des objets, y compris des humains ou des cibles militaires, sans contrôle humain.

Le principal argument éthique en faveur des systèmes d’armes autonomes était axé sur les résultats : leur précision et leur fiabilité potentielles pourraient permettre un plus grand respect du droit international et des valeurs éthiques humaines, ce qui conduirait à des conséquences humanitaires moins néfastes. Le premier argument contre LAWS est que les armes autonomes sont contraires à l’éthique en raison de leur incapacité à respecter les principes établis de l’éthique militaire. Bien que les ordinateurs actuels puissent calculer beaucoup plus rapidement que les humains, ils manquent de réflexion dynamique et créative. Le consensus semble être que ces armes sont contraires à l’éthique parce qu’elles réduisent la responsabilité lorsque des civils sont tués ou que des biens sont injustement endommagés.

Un argument en faveur de LAWS est une réduction prévue des pertes civiles. Je ne vois aucun argument convaincant à cela. Automatisées ou non, ces armes font encore exploser des choses : des personnes, des bâtiments, des hôpitaux, des ponts. Le bilan des civils est écrasant. Selon le rapport du Watson Institute of Public Affairs and environnement, probablement beaucoup plus de morts au combat.

Ne cherchez pas plus loin que le cauchemar qui se déroule sous nos yeux en Ukraine. Dans tout conflit majeur, les civils portent le poids de la guerre. En 2003, l’économiste Paul Collier, basé à Oxford, a découvert dans un rapport de recherche de la Banque mondiale Breaking the Conflict Trap : Civil War and Development Policy que, lorsque les décès et les déplacements sont combinés, près de 90 % des victimes des conflits armés dans les guerres modernes étaient des civils. La plupart estiment qu’environ 75 millions de personnes sont mortes pendant la Seconde Guerre mondiale, dont environ 20 millions de militaires et 40 millions de civils. Je n’ai vu aucune preuve crédible que LAWS ferait une différence ici.

Mon enregistrement

L’éthique du massacre de combattants et de non-combattants, de la destruction massive de biens et d’infrastructures et de l’empoisonnement de l’environnement est un terrain assez fragile pour l’éthique, en particulier pour l’IA qui, nous l’espérons tous, évoluera pour le bien du monde, pas sa destruction.

Mais le train technologique autonome a déjà quitté la gare. Ainsi, le seul espoir, et il est probablement mince, est de tenir les gens informés des objectifs – et de mettre en œuvre les décisions – en interdisant le développement d’armes entièrement autonomes par le biais du droit et des traités internationaux.

Voici un principe éthique : toute organisation technologique, publique ou privée, y compris les développeurs d’IA et de robotique, devrait s’engager à ne jamais être impliquée dans le développement d’armes entièrement autonomes. Il peut y avoir de l’espoir car certains l’ont fait.

oigari