Blog

Le dilemme de savoir qui devrait sauver une voiture autonome

Le dilemme de savoir qui devrait sauver une voiture autonome

Le dilemme de savoir qui devrait sauver une voiture autonome

Cette Ă©tude tente de mettre fin Ă  l’un des dilemmes les plus notoires des voitures autonomes.

DĂ©cider qui sera sauvĂ© et qui mourra Lors d’un accident de la circulation, c’est l’une des dĂ©cisions les plus difficiles que les voitures autonomes devront prendre. Depuis quelques annĂ©es, on dit que les voitures autonomes devraient nous sacrifier pour sauver les piĂ©tons (qui est un groupe plus vulnĂ©rable); mais dans quelle mesure serait-il correct?

Le dilemme du tram

C’est comme le dilemme de tramway, dĂ©veloppĂ© par Philippa Foot (philosophe britannique). Un tramway incontrĂ´lable est sur le point de rouler sur cinq personnes qui sont liĂ©es aux voies; Mais si nous le voulons, nous pouvons faire changer la voie du tram, bien que malheureusement, il y ait aussi une autre personne ligotĂ©e. Qui dĂ©cide que cette vie vaut moins que les cinq autres?

D’une part, nous ne sommes personne pour dĂ©cider qui sauverMais d’un autre cĂ´tĂ©, nous ne pouvions rien faire contre la mort de tant de personnes. Il existe d’autres dilemmes très similaires et leur Ă©tude pourrait aider Ă  rĂ©soudre ce gros problème d’IA. Et, bien que de nombreux dilemmes soient des scĂ©narios très similaires, les rĂ©ponses, selon les philosophes, seraient totalement diffĂ©rentes.

la vie de dilemme de voiture autonome

Dans d’autres dilemmes similaires, les cinq personnes doivent mourir plutĂ´t que d’en tuer une seule. MĂŞme plus de cinq personnes. Nous parlons, par exemple, d’un des dilemmes d’Unger. Dedans, ce serait nous qui devrions jeter quelqu’un sur les rails pour sauver le reste; En ayant activement Ă  expulser quelqu’un, les gens changent simplement leur rĂ©ponse. MĂŞme si le reste du peuple meurt.

Algorithmes pour résoudre la situation

Il est clair que la solutionIl a un algorithme, mais quelles règles doit-il prendre? Une Ă©tude promue par l’Institut des sciences cognitives de l’UniversitĂ© d’Osnabrck (Allemagne) dans laquelle la rĂ©alitĂ© virtuelle immersive a Ă©tĂ© utilisĂ©e pour exposer les gens Ă  ces dilemmes en termes rĂ©els suggère les règles que ces vĂ©hicules autonomes devraient adopter pour prendre des dĂ©cisions. plus humaine.

Trois prises de dĂ©cision diffĂ©rentes ont Ă©tĂ© impliquĂ©es dans l’Ă©tude. Les individus, qui ils conduisent dans un dĂ©cor brumeux de banlieue, a vĂ©cu des situations inattendues et controversĂ©es dans lesquelles des objets, des animaux ou des personnes sont intervenus, en dĂ©cidant lequel Ă©tait sauvĂ© dans chaque cas.

Dans chacune des trois situations, diffĂ©rents aspects interviennent, comme l’âge, ce qui a fini par changer les rĂ©sultats. Le temps de rĂ©action Ă©tait Ă©galement limitĂ©, rendant la prise de dĂ©cision moins Ă©thique. La seule chose qui ressort clairement de cette Ă©tude est que La vie humaine prĂ©vaut quel que soit le contexte (quelque chose qui, a prioriÇa ne pouvait pas ĂŞtre comme ça). Et c’est ce qu’il faut voir incarnĂ© sous la forme d’une règle.

Cette étude, par conséquent, ouvre un nouveau débat éthique-moral. Premièrement, pour décider si des facteurs éthiques doivent être inclus dans la prise de décision pour les voitures autonomes et, deuxièmement, décider si ces valeurs éthiques devraient être celles des humains. Allez, si les systèmes autonomes doivent accepter nos jugements moraux ou non.

Bouton retour en haut de la page

Blocage d'annonces détecté

Vous devez supprimer le AD BLOCKER pour continuer Ă  utiliser notre site MERCI