Une voiture autonome à grande vitesse rencontre cinq piétons qui apparaissent de nulle part, il n’y a aucun moyen de freiner à temps, vous ne pouvez tourner à droite rapidement, où il n’y a qu’un seul piéton. La voiture doit-elle tourner et tuer une seule personne, ou doit-elle suivre et écraser cinq personnes?
C’est l’une des questions philosophiques auxquelles doit faire face le logiciel qui gère ce type de véhicule, questions qui sont discutées sur qz.com.
Ces types de dilemmes moraux sont débattus en philosophie depuis longtemps (regardez cet exemple), et maintenant ils renaissent avec l’arrivée des voitures autonomes. Ce sont des questions similaires à celles d’un autre exemple connu: nous sommes sur une passerelle piétonne et nous voyons comment une voiture circule vers un groupe de personnes sans pouvoir s’arrêter; À côté de nous est un gars très gros, et si nous le poussons, la voiture va s’écraser sur lui et s’arrêter avant qu’il ne court sur le groupe; Pourrons-nous en tuer un pour en sauver plusieurs?
La question, centrée sur le monde des voitures autonomes, est simple: une voiture devrait-elle tuer un piéton pour sauver la vie de ceux qui s’y trouvent ou la vie du piéton est-elle plus importante que celle des passagers? Des tests, des enquêtes ont été effectués auprès de centaines de personnes avec différents types de scénarios pour savoir ce que pense l’être humain en général, quelque chose de nécessaire pour que la voiture imite ce comportement. Dans les résultats, 75% des personnes pensent que la voiture devrait toujours détourner et tuer les passagers si nécessaire, toujours pour éviter de tuer des piétons, même s’il y a 5 personnes à l’intérieur de la voiture et un seul piéton dans la rue.
Bien qu’il existe une ligne de pensée qui indique que l’action morale est celle qui produit le bonheur maximum pour le nombre maximum de personnes, cela ne s’appliquerait pas dans le cas précédent. La plupart des gens incluent une variable supplémentaire: qui est responsable? Un passage pour piétons sans regarder un feu vert, une voiture endommagée, un radar qui a détecté de fausses informations… Helen Frowe, professeur de philosophie spécialisée en la matière, indique que les véhicules doivent protéger les innocents et les passagers au moment où ils décident pour monter dans une voiture autonome, ils prennent un risque, sont moins innocents que le piéton.
Mais… Et s’il y a deux enfants sur le siège arrière? Comment cela change-t-il le calcul moral? Les constructeurs automobiles n’ont pas encore révélé leur position sur la question, mais si les philosophes ne sont pas d’accord… comment seront les responsables du logiciel?