
L’accident mortel impliquant une voiture autonome d’Uber en Arizona a prouvé que ces véhicules sans conducteur pouvaient tuer. Si ils sont censés faire chuter le nombre d'accidents mortels, des problèmes moraux difficiles à résoudre subsistent.
De la théorie à la tragique réalité. Une voiture autonome d’Uber a été impliquée dans un accident qui a coûté la vie à une piétonne, lundi 19 mars, à Tempe (Arizona). Dans la foulée, le géant des VTC a suspendu son programme de test de ces véhicules sans conducteur, et Toyota lui a emboîté le pas, mercredi 21 mars.
Un tel drame était attendu. “Les voitures autonomes devraient permettre d’éliminer environ 90 % des accidents mortels”, assuraient trois chercheurs dans une étude sur le sujet, paru en juin 2016 dans la revue de référence Sciences. Le passage à la voiture autonome n’a donc jamais signifié la fin des décès sur la route.
Dilemme moral
Les cas restants soulèvent un problème qui a tout d’un choix de Sophie mécanique. Dans une partie des accidents mortels que le véhicule sans conducteur ne peut éviter, il va devoir opter entre la vie de ses passagers et celle des piétons, telle la Sophie du roman qui devait choisir entre sauver son fils ou sa fille.
C’est un dilemme moral qui doit être tranché par les constructeurs, car l’algorithme qui fait rouler la voiture a besoin d’une réponse. Mercedes s’était hasardé, en octobre 2016, sur ce terrain glissant en mettant l’accent sur la sécurité des passagers de ses voitures autonomes, mais avait dû faire promptement machine arrière après une pluie de critiques. Les détracteurs de la marque allemande lui reprochaient d’établir une échelle de valeur entre ses clients et le commun des piétons.
Le souci pour les Tesla, Uber, Toyota ou encore Mercedes, c’est qu’il n’y a pas de bonne solution. L’étude de juin 2016 publiée dans Science s’intéressait précisément à ce dilemme moral. Après avoir sondé 6 000 Américains, les trois scientifiques ont constaté que “lorsqu’une voiture ne peut pas sauver tout le monde [passagers et piétons], la plupart des gens pensent que moralement elle doit sauver le plus grand nombre de personnes”, souligne Jean-François Bonnefon, spécialiste de psychologie cognitive à la Toulouse School of Economics et l’un des co-auteurs de l’étude, contacté par France 24. S’il y a plus de piétons en danger que de passagers, la voiture doit décider de foncer dans le décor. Problème : cette même majorité refuserait d’acheter un véhicule ainsi programmée pour les sacrifier le cas échéant, conclut l’étude.
Un cauchemar commercial pour les constructeurs. Il ne fait qu’empirer lorsqu’un des passagers est un enfant. “Lorsqu’on a commencé à suggérer des scénarios où un enfant allait mourir pour sauver trois piétons, les personnes interrogées se sont mises à hésiter”, souligne Jean-François Bonnefon.
Casse-tête pour les constructeurs
De là, les possibilités se sont multipliées, ajoutant à chaque fois une couche de complexité. Quid de la présence d’une femme enceinte parmi les victimes potentielles ? D’une personne âgée ? “Finalement, les scénarios étaient trop nombreux pour être intégrés à une étude traditionnelle”, concède le spécialiste français. Les trois chercheurs ont alors mis en ligne un site – Moral Machine – destiné à présenter une multitude de situations impliquant des poussettes, des criminels, des animaux ou encore des personnes sans domicile fixe. Ces simulations ont rapidement gagné en popularité sur le Net, à tel point que 40 millions de personnes à travers le monde ont participé à ces tests. “L’accident en Arizona a entraîné un fort regain d’intérêt pour notre site”, affirme Jean-François Bonnefon.
Cette expérience à l’échelle mondiale a ajouté un élément supplémentaire absent de la première étude : les différences culturelles. L’enquête initiale n’avait été menée qu’auprès des Nord-Américains, alors que le site s’adresse à tous, ce qui a démontré “que l’évaluation de certaines situations n’est pas la même selon la région géographique dans laquelle on vit”, note le chercheur français. Encore un casse-tête supplémentaire pour les constructeurs de voitures autonomes qui doivent essayer de trouver un juste milieu, s’ils espèrent pouvoir vendre leurs véhicules sur tous les continents.
Ces 10 % de cas où la voiture autonome, comme lors de l’accident en Arizona, ne peut éviter la mort, représentent donc un nid à problèmes moraux pour les constructeurs. “C’est pourquoi je pense que, pour une fois, ces marques espèrent que les États vont s’emparer de la question et trancher à leur place”, note Jean-François Bonnefon. L’Allemagne a fait un premier pas dans cette direction l’an dernier en créant une commission d’éthique chargée de réfléchir à des règles pour la voiture autonome. L’une de ses recommandations a été de mettre toutes les vies sur un pied d’égalité, qu'il s'agisse d'un enfant ou d'un adulte, pour justement éviter aux autorités d’avoir à faire des classements morbides. Un conseil moralement défendable mais politiquement difficile à appliquer. “Je ne pense pas que la population accepte sans broncher que l’État leur dise qu’il ne faut pas tout faire pour sauver la vie des enfants”, suppose Jean-François Bonnefon.
Pour lui, la rapidité avec laquelle les constructeurs ont mis leur programme de voitures autonomes entre parenthèses après l’accident en Arizona montre à quel point le secteur roule sur des œufs, alors même qu’un tel drame devait survenir tôt ou tard. Cet épisode tragique prouve aussi que les problèmes techniques ne sont pas le principal obstacle à la commercialisation des voitures autonomes, mais plutôt les questions éthiques.