Blog

Problèmes philosophiques dans les voitures autonomes

Une voiture autonome √† grande vitesse rencontre cinq pi√©tons qui apparaissent de nulle part, il n’y a aucun moyen de freiner √† temps, vous ne pouvez tourner √† droite rapidement, o√Ļ il n’y a qu’un seul pi√©ton. La voiture doit-elle tourner et tuer une seule personne, ou doit-elle suivre et √©craser cinq personnes?

C’est l’une des questions philosophiques auxquelles doit faire face le logiciel qui g√®re ce type de v√©hicule, questions qui sont discut√©es sur qz.com.

Ces types de dilemmes moraux sont d√©battus en philosophie depuis longtemps (regardez cet exemple), et maintenant ils renaissent avec l’arriv√©e des voitures autonomes. Ce sont des questions similaires √† celles d’un autre exemple connu: nous sommes sur une passerelle pi√©tonne et nous voyons comment une voiture circule vers un groupe de personnes sans pouvoir s’arr√™ter; √Ä c√īt√© de nous est un gars tr√®s gros, et si nous le poussons, la voiture va s’√©craser sur lui et s’arr√™ter avant qu’il ne court sur le groupe; Pourrons-nous en tuer un pour en sauver plusieurs?

La question, centr√©e sur le monde des voitures autonomes, est simple: une voiture devrait-elle tuer un pi√©ton pour sauver la vie de ceux qui s’y trouvent ou la vie du pi√©ton est-elle plus importante que celle des passagers? Des tests, des enqu√™tes ont √©t√© effectu√©s aupr√®s de centaines de personnes avec diff√©rents types de sc√©narios pour savoir ce que pense l’√™tre humain en g√©n√©ral, quelque chose de n√©cessaire pour que la voiture imite ce comportement. Dans les r√©sultats, 75% des personnes pensent que la voiture devrait toujours d√©tourner et tuer les passagers si n√©cessaire, toujours pour √©viter de tuer des pi√©tons, m√™me s’il y a 5 personnes √† l’int√©rieur de la voiture et un seul pi√©ton dans la rue.

Bien qu’il existe une ligne de pens√©e qui indique que l’action morale est celle qui produit le bonheur maximum pour le nombre maximum de personnes, cela ne s’appliquerait pas dans le cas pr√©c√©dent. La plupart des gens incluent une variable suppl√©mentaire: qui est responsable? Un passage pour pi√©tons sans regarder un feu vert, une voiture endommag√©e, un radar qui a d√©tect√© de fausses informations‚Ķ Helen Frowe, professeur de philosophie sp√©cialis√©e en la mati√®re, indique que les v√©hicules doivent prot√©ger les innocents et les passagers au moment o√Ļ ils d√©cident pour monter dans une voiture autonome, ils prennent un risque, sont moins innocents que le pi√©ton.

Mais‚Ķ Et s’il y a deux enfants sur le si√®ge arri√®re? Comment cela change-t-il le calcul moral? Les constructeurs automobiles n’ont pas encore r√©v√©l√© leur position sur la question, mais si les philosophes ne sont pas d’accord‚Ķ comment seront les responsables du logiciel?

Bouton retour en haut de la page

Blocage d'annonces détecté

Vous devez supprimer le AD BLOCKER pour continuer à utiliser notre site MERCI