http://moralmachine.mit.edu

  • Les dilemmes moraux de l’humanité à l’épreuve de la voiture autonome
    https://www.lemonde.fr/sciences/article/2018/10/24/les-dilemmes-moraux-de-l-humanite-a-l-epreuve-de-la-voiture-autonome_5374081

    Une étude révèle les préférences de 2,5 millions de personnes contraintes de choisir les victimes d’un accident.

    Peut-on tuer un vieillard pour sauver un enfant ? Toute vie humaine a-t-elle au contraire la même valeur, sans considération d’âge, de genre ou d’état de santé ?

    Ces questions, médecins, assureurs et militaires se les posent depuis longtemps. « Mais jamais dans l’histoire de l’humanité avons-nous autorisé une machine à décider seule qui doit vivre et qui doit mourir, sans supervision humaine, en temps réel. Nous allons franchir cette barrière prochainement, pas sur un lointain champ de bataille, mais dans un des aspects les plus banals de notre vie, le transport quotidien. »

    L’équipe de scientifiques français et américains qui lance cette prophétie vise la voiture autonome, future vedette de l’automobile. Dans la revue Nature du jeudi 25 octobre, ces psychologues, anthropologues et spécialistes de l’intelligence artificielle (IA) poursuivent : « Avant d’autoriser nos voitures à prendre des décisions éthiques, il importe que nous ayons une conversation globale pour exprimer nos préférences aux entreprises qui concevront les algorithmes moraux et aux responsables politiques qui vont les réguler. »

    Les chercheurs avaient déjà ouvert cette grande discussion en 2016 dans la revue Science. Les personnes alors interrogées se prononçaient massivement en faveur d’algorithmes sauvant le maximum de vies. Leur position fléchissait toutefois si eux-mêmes ou un membre de leur famille se trouvait impliqué. L’échantillon qui avait été interrogé rassemblait un peu moins de 2 000 personnes.

    « Sauver les enfants »

    L’article de Nature rend compte d’une entreprise d’une tout autre ampleur. Plus de 2,5 millions de personnes venues de quelque 230 pays ou territoires ont cette fois livré leur choix. Pour recueillir une telle masse d’informations, Edmond Awad et Iyad Rahwan du Massachusetts Institute of Technology (MIT), Azim Shariff de l’université de Vancouver (Colombie-Britannique, Canada) et Jean-François Bonnefon, de l’Ecole d’économie de Toulouse, ont conçu un site Internet.

    Ils n’y posent pas de simples questions – rapidement vertigineuses – mais placent le participant devant des scénarios. Par exemple, les freins d’une voiture autonome lâchent. A bord, une femme et un enfant. Sur la route, trois personnes âgées traversent au rouge. Faut-il continuer tout droit et écraser les passants ou braquer et tuer les passagers ? Et si un chien s’invite sur la banquette ? Ou si l’on remplace les vieillards par un sans-abri et une femme enceinte ? L’aspect ludique de l’expérience et des relais influents de la planète numérique (YouTube, Reddit) ont assuré le succès de l’opération.

    Les quelque 40 millions de décisions prises par les internautes entre juin 2016 et janvier 2018 livrent de nombreux enseignements. « Sans surprise, trois positions se détachent : épargner le plus grand nombre, privilégier les humains sur les animaux et sauver les enfants », indique Jean-François Bonnefon.

    Sans surprise, mais pas sans poser question. En 2017, une commission d’éthique allemande sur les véhicules automatiques a émis les seules recommandations disponibles sur le sujet. Elle exclut toute préférence basée sur les caractéristiques personnelles, notamment l’âge… « L’opinion n’a pas forcément raison, poursuit le psychologue toulousain. Mais si un gouvernement décide d’imposer un autre choix, il doit être prêt à le défendre, notamment le jour où un enfant sera écrasé. »

    Préférences différentes selon les pays

    Au-delà de ces trois critères communs, six autres facteurs ont été examinés dans l’étude. Le statut social et le respect de la loi comptent : pour être sauvé, mieux vaut être socialement inséré et respecter les feux que sans-abri et traverser n’importe où. De même, mais de manière moins sensible, la probabilité d’être percuté augmente si l’on est obèse et baisse si l’on est une femme. Autant de positions peu sensibles aux variations individuelles.

    Les personnes sondées avaient la possibilité d’indiquer leur profil, ce que 492 921 personnes ont fait. Il apparaît que l’âge, l’éducation, le sexe, les revenus, la religion ou encore les opinions politiques n’expliquent pas leurs choix moraux.

    En revanche, l’origine géographique pèse de façon importante. Les scientifiques ont en effet dressé les profils des 130 pays pour lesquels plus de 100 personnes avaient répondu. Trois groupes émergent. Le premier (Ouest) rassemble l’essentiel des pays occidentaux – mais pas la France – et tout le Commonwealth. Le second (Est) réunit l’Asie et une partie des nations de culture islamique. Enfin le troisième, au Sud, regroupe l’Amérique latine, quelques pays d’Europe centrale mais aussi la France, le Maroc, l’Algérie, la Polynésie… « Mes collègues américains ne voyaient pas le rapport. Moi, notre passé colonial m’a sauté aux yeux », raconte Jean-François Bonnefon.

    Entre ces trois grandes familles, certaines différences marquantes émergent. Ainsi, la préférence accordée aux jeunes est bien moins marquée à l’Est qu’au Sud. Idem pour le statut social : l’Orient y apparaît moins sensible que l’Occident et le Sud. En revanche, malheur à celui qui n’y respecte pas la loi.

    « Ces scénarios seront rares »

    « Une expérience de psychologie sociale à une telle échelle est vraiment rare », salue Grégory Bonnet, enseignant-chercheur à l’université de Caen et coordinateur du projet Ethicaa, sur l’éthique des systèmes autonomes.

    Néanmoins, l’exercice a ses limites. Ainsi, la représentativité des participants est biaisée. Ils sont majoritairement des hommes, près de 70 %, et dans la tranche d’âge 20-30 ans. Les chercheurs ont pu néanmoins « redresser » les résultats dans le cas des Etats-Unis, en tenant compte des données démographiques, sans modifier leurs conclusions.

    Autre réserve : ces scénarios ne refléteraient pas la réalité. Pour Grégory Bonnet, « il n’y a rarement que deux choix possibles sur une route et ces choix ne conduisent pas à des conséquences “blanches ou noires”, c’est-à-dire à la mort des personnes ».

    Jean-Gabriel Ganascia, chercheur en informatique à Sorbonne Université, renchérit : « Ces scénarios seront rares, car les voitures autonomes sont conçues pour éviter de se mettre en danger. Or là, cela signifierait qu’elles n’ont pas vu certaines choses à temps, ou que des infractions ont été commises… » Il sourit également à l’idée que si les voitures s’interdisaient d’écraser des jeunes, ces derniers pourraient s’amuser à perturber le trafic en passant devant les véhicules

    « Dix ou cent décisions par seconde »

    « La voiture autonome ne prend pas une décision mais dix ou cent par seconde, ajoute Guillaume Devauchelle, directeur de la recherche et du développement chez Valéo. Avant de se trouver devant ce dilemme impossible, sans voie de dégagement possible, elle aura ralenti. Plus profondément, cet article regarde la mobilité de demain avec les yeux d’aujourd’hui. Or, tout le paradigme va changer. Si vous n’êtes pas au volant, le temps n’est plus perdu, la vitesse n’a plus la même valeur. Ces scénarios deviennent absurdes. »

    Autant d’objections que l’équipe franco-américaine connaît. « Quand nous avons commencé, beaucoup nous disaient que de tels dilemmes n’arriveraient jamais, assure Jean-François Bonnefon. Aujourd’hui, beaucoup s’y intéressent et certains travaillent avec nous. »

    Et puis la voiture n’est pas le seul intérêt de l’affaire. « On est parti de là et on en arrive à tracer un arbre phylogénétique moral de l’humanité », s’étonne-t-il. Du reste, le psychologue entend bien profiter de cette base, désormais ouverte à tous, pour fouiller cette carte du monde. Comment se transmettent les influences ? Qu’est-ce qui peut rapprocher Israël et la Jamaïque ? Et d’où vient l’exception française ? « Ça sera dans le prochain article », promet-il.

    • Tiens, c’est marrant, ça s’excite sur le sujet en ce moment. Du côté de la formalisation des dilemmes aussi. J’ai eu à examiner un papier sur le sujet en vue de son acceptation à une conférence il y a peu. Pourtant le titre ne laissait en rien présager qu’il parlait de ça ("The Weak Completion Semantics and Equality", un truc très très technique lié à la programmation logique), mais il se trouve que ça permet de très bien décrire les types de problèmes dont parle l’article du monde. Le résuméde l’article est là, le texte intégral n’est pas encore disponible (je ne connais pas la politique de diffusion des actes de cette conférence [petite rectification : l’article sera disponible en accès ouvert après que la conférence ait eu lieu]) :

      https://easychair.org/smart-program/LPAR-22/2018-11-21.html#talk:84999

    • Déjà abordé ici, en particulier là :
      https://seenthis.net/messages/731438

      Avec ce commentaire de ma part :

      Ce que je cherche c’est un article qui explique que la question est mal posée, et qu’il faut refuser d’y répondre. C’est un piège qui vise à nous faire accepter l’inacceptable en déplaçant la vraie question.

      Si la voiture hésite entre tuer une vieille ou un enfant, c’est qu’elle est mal construite et qu’il faut refuser de la lâcher dans la nature.

      #Tesla #algorithme #voiture #éthique #AI #question #piège #propagande

    • TU fais bien de répéter ton commentaire.
      Difficile de croire qu’on en est encore là - qu’on ose poser la question et qu’on ose y répondre. Donner à une machine le luxe de choisir entre buter un jeune ou un vieux signifie clairement que la machine a été déjà bien trop loin dans ses fonctions - et ses concepteurs bien trop loin dans leur dystopie.

      Je soupçonne même ces questionnements existentiel ô combien artificiels d’être une tentative de néo-colonialisme averti montrant combien les pays « du sud » et « de l’est » (c’est quoi ces termes ??) sont en retrait sur les critère de moralité des pays occidentaux (ou de l’élite capitaliste).

      Flippant.

      Luddites, réveillez-vous !
      Consciences, révoltez-vous !

      PS : source du Monde, l’étude du MIT :
      http://moralmachine.mit.edu