Aller au contenu


Photo
- - - - -

Décisions morales prises par des machines


13 réponses à ce sujet

#1 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 05 novembre 2017 - 04:57

Et moi, je ferais quoi ... ?

 

http://moralmachine.mit.edu/hl/fr

 

 

 



#2 Path

Path

    Made By Humans

  • Modérateur
  • PipPipPipPipPip
  • 2 463 messages
  • Gender:Male
  • Location:Paris

Posté 05 novembre 2017 - 06:17

Très intéressant ce sujet.


Podcast Made By Humans

Je cherche des volontaires de tous niveaux pour nos petites conversations entre hobbyistes.

Accès aux salles secrètes

 


#3 zavatha

zavatha

    Membre occasionnel

  • Membres
  • Pip
  • 148 messages
  • Gender:Male

Posté 06 novembre 2017 - 07:02

Jai entendu il y a quelques temps a la radio un "consultant" qui indiquait que des ingenieurs dans je ne sais plus quelle boite(peut etre tesla mais pas sur) bossaient sur ce type de scenarii...
Info contredite a une autre occasion par un autre consultant...
Il semblerai que la premiere info etait la bonne... en tout cas cest une question cruciale pour l avenir de la voituee autonome : comment organiser la cohabitation entre vehicules standards et auyonomes durant la phase de transition et surtout comme arbitrer la responsabilite lors les inevitables accidents qui surviendront ?

Moi je laisserais la voituee gerer... apres tout cest le concepteur de l algorithme qui est responsable non ? 😰

@+
Zav

#4 Telson

Telson

    Membre chevronné

  • Membres
  • PipPipPipPip
  • 975 messages
  • Gender:Male
  • Location:Punaauai - Tahiti

Posté 08 novembre 2017 - 09:59

C'est très intéressant comme sujet....spécialement je préférerais pouvoir prendre la décision et sauver ma peau...et je laisserais les responsabilités aux concepteurs.

 

Très dur ce questionnaire...Je l'ais fait deux fois et deux fois de suite les choix sont plus que difficiles....Mais si j'étais à bord je préfère sauver ma peau.

 

Ce qui m'embête dans tout ça c'est que l'ont ne met pas trop en avant les systèmes de sécurité pour palier par exemple à un problème de frein. Dans les avions ils sont triplés....Dans les voitures ils devraient être au minimum doublés.

 

Il faudrait aussi que nos infrastructures évoluent aussi !! Voitures intelligentes !! Alors routes intelligentes : détection d'un piéton sur le passage, gestion des flux par caméra et capteur dans les routes, passage ferrés avec émission d'information, panneaux de limitation des vitesses intelligents. transmission des positions, vitesses, destination des voitures vers des mega-center.....

 

Les voitures évoluent alors l'environnement aussi doit le faire....sinon.....



#5 Forthman

Forthman

    Membre chevronné

  • Membres
  • PipPipPipPip
  • 996 messages
  • Gender:Not Telling
  • Location:Montauban (82)

Posté 08 novembre 2017 - 11:22

La probabilité que le système de freinage lâche est très peu probable. Il est possible de le surveiller, et d'avoir un système de secours.

Comme sur nos autos où le frein à main a son propre mécanisme indépendant du système de freinage principal.

 

De plus, une IA aura une vitesse réduite dans les zones piétonnes (genre 30Km/h), alors le risque de mortalité...



#6 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 08 novembre 2017 - 12:25

Au delà des problèmes liés à la mécanique ou le réseau routier, la question posée reste à chaque fois la même : QUI va vivre et QUI va mourir.

Parions que les réponses évolueront au fil des années tant le "poids" d'une personne est fonction du contexte social.

L'Intelligence Artificielle (QUI est-ce?) fera-t-elle place à une Morale Artificielle (QUI mérite ?)



#7 R1D1

R1D1

    Modérateur et Membre passionné

  • Modérateur
  • PipPipPipPipPip
  • 1 175 messages
  • Gender:Male
  • Location:Autriche

Posté 08 novembre 2017 - 01:08

Je suis toujours mitigé sur ces questionnaires ... Considérer que ces choix sont binaires et purement utilitaristes (raisonner sur le nombre de personnes tuées, tenter de pondérer ça par la qualité supposée des individus, ...) me semble très réducteur. Tenter de trouver quel est le choix le moins pire perçu par la population reste un pis-aller face aux possibilités de réorganiser notre usage des transports.

La première question que j'ai regardé me propose de tuer soit les 4 occupants du véhicule, soit les 4 piétons, qui sont équivalents (en terme d'âge, de profession, etc ...). Si le véhicule a un problème de freins, pourquoi l'ensemble de la décision reviendrait au véhicule ? Dans l'image présentée, on peut imaginer que si le véhicule signale son problème (avec un gyrophare/une sonnerie, comme un véhicule d'urgence), les piétons peuvent évacuer le passage piéton ou ne pas traverser. Si le véhicule se retrouve dans cette situation où les piétons ne peuvent être évités, ça veut dire que le système allait trop vite (non-respect des règles de circulation, donc).

Comme tu le dis, Telson, l'environnement peut aussi évoluer (et devrait, bien que changer les infrastructures représente un coût important). Si on imagine que le véhicule signale son problème avec des équipements connectés, on peut temporairement fermer les passages piétons sur son trajet et diriger le véhicule vers une voie sécurisée qui permet son arrêt sans dommage. Avec toutes les problématiques écologiques et de santé actuelles, séparer l'espace des piétons de celui des véhicules est également important. Pourquoi faire circuler des véhicules polluants, rapides (et donc dangereux) aux mêmes endroits que les piétons ? On peut déplacer les piétons ou les véhicules en hauteur. Par ailleurs, si on isole les véhicules des événements soudains (un piéton qui traverse n'importe où, une voiture qui sort d'un espace privé en reculant sur la route, ...), on peut réduire les congestions et les temps de trajets. Les parisiens qui prennent le périph apprécieront (et surtout ceux qui habitent à côté).


Bref, je pense qu'il y a deux problématiques mélangées dans ce sujet: comment faire des systèmes de transport sûrs et efficace d'une part; comment des notions abstraites rentrent en compte dans le processus de décision d'autre part.
Le premier est un problème d'ingénierie ; le second est loin d'être adressable de nos jours: les machines ne comprennent pas ce genre de notions morales. Elles-mêmes sont probablement issues du processus évolutif et de l'intérêt à s'organiser en société (et donc, à considérer la vie des autres individus en plus de la sienne). Pour les comprendre, les machines devraient probablement développer des notions de "soi" et des "autres", et ce niveau est loin dans les voitures autonomes actuelles.

Je suis un peu catégorique dans mes propos, mais je suis curieux de lire tout avis contradictoire :)
R1D1 - Calculo Sed Ergo Sum -- en ce moment, M.A.R.C.E.L.
Avatar tiré du site bottlebot

#8 Forthman

Forthman

    Membre chevronné

  • Membres
  • PipPipPipPip
  • 996 messages
  • Gender:Not Telling
  • Location:Montauban (82)

Posté 08 novembre 2017 - 01:14

La plupart du temps il existe plusieurs autres solutions où personne ne meurt.

Et même si sur le fond la question reste la même, je préfère dire : "qui sauver ?"

 

Pour ce qui est des infrastructures, même sans pilotage automatique, ça serait bien qu'ils réfléchissent un peu plus.

Dans ma ville, ils ont trouvé plus joli de mettre des haies de chaque cotés des passages piétons, du coup on ne voit

les piétons que quand ils ont commencé à traverser, et les piétons ne voient plus les voitures arriver...



#9 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 08 novembre 2017 - 03:10

Il est difficile d'admettre une situation inévitable - même par jeu. Il s'agit bien ici de dilemmes moraux qui ne font pas intervenir les soucis mécanique sur le véhicule, l'organisation du réseau routier, ou tout ce qui pourrait être fait en amont pour éviter un drame.

La demande n'est pas " qu'auriez-vous fait pour éviter ça ? ", c'est clairement " qui sauvez-vous ? "

 

A qui profite ces études ?

Le constructeur de véhicule cherche l'assentiment de son algorithme d'évitement par la société qui en sera (i-né-vi-ta-ble-ment) victime. Difficile en effet de discréditer un véhicule tueur alors qu'on est à l'origine des données qui ont modelé son comportement.

 

Mais qu'on nous épargne à vous et moi si possible très longtemps d'avoir à faire ces choix.



#10 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 30 octobre 2018 - 02:01

A lire, les résultats de cette enquête publiés depuis le 24 Octobre dans la revue "Nature" , avec une reprise en Français dans "Pour la science"

 

"les règles éthiques que devraient suivre les véhicules autonomes en situation d’accident sont très variables d'un pays à l'autre."

 



#11 Mike118

Mike118

    Staff Robot Maker

  • Administrateur
  • PipPipPipPipPip
  • 8 253 messages
  • Gender:Male
  • Location:Anglet
  • Interests:Robotique, Entrepreneuriat, Innovation, Programmation, Résolution de problème, Recherche de solutions, Mécanique, Electronique, Créer, Concevoir

Posté 30 octobre 2018 - 03:02

Pourquoi parler d'éthique ? J'ai un avis très discutable sur le sujet ... Un robot n'a pas à avoir d'éthique, un robot doit rester objectif, il y a des règles elles doivent être respectée. 

Pour moi on ne devrait même pas regarder les personnages représentés sur le test. 
La règle devrait être la même quelque soit les personnages représentés ou leur nombre. 

Il faut préserver au mieux les personnes dans le véhicule et en dehors mais tout en respectant les "règles du code de la route". 

Même si c'est triste à dire : Il ne faut pas mettre le véhicule dans le faussé, ou aller sur la voie opposée si quelqu'un traverse brusquement devant le véhicule. 
Le véhicule doit : 
1) Ralentir au maximum avant impact, 
2) Si un changement de voie est possible permettant d'éviter l'accident en respectant le code de la route et que cela ne nuira à personne d'autre , faire le changement de voie. 

Et ce indépendamment de qui est dans la voiture ou de qui est sur la route et du nombre de victimes potentielles... 

De toute façon si la voiture respecte toujours les règles, cela mettra la plus pars du temps les passager à l'abris et cela blessera la personne qui ne respecte pas les règles ...

Le problème qui n'est pas résolu dans ce cas et qui est " pas de chance " pour ceux dans le véhicule : 
Si un chauffard roule à contre sens  par ce qu'il double un bus et qu'un évitement n'est pas possible en respectant le code de la route sans géner d'autres personnes eh bien c'est les passager de la voiture qui mourront... 
=> Le voiture ne doit pas esquiver le chauffard qui arrive en face en écrasant le grand père de 99 ans qui est en train de faire un infarctus sur le trottoire ... 

Là où beaucoup de conducteurs feraient le choix d'aller sur le trottoire pour esquiver le chauffard qui roule à contre sens ... 

Bref à défaut de toujours sauver les passagers du véhicule on pourra dire que le véhicule ne pourra pas blesser de personnes extérieur qui n'ont pas comis d'infractions ... 

 

C'est ce genre de chose qui différencient l'homme de la machine. Il est plus facile pour une machine de prendre ce genre de décision objective, " facile à calculer"



 


Si mon commentaire vous a plus laissez nous un avis  !  :thank_you:

Nouveau sur Robot Maker ? 

Jetez un oeil aux blogs, aux tutoriels, aux ouvrages, au robotscope  aux articles,  à la boutique  et aux différents services disponible !
En attendant qu'une bibliothèque de fichiers 3D soit mise en place n'hésitez pas à demander si vous avez besoin du fichier 3D d'un des produits de la boutique... On l'a peut être ! 

 

Les réalisations de Mike118  

 

 

 


#12 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 30 octobre 2018 - 11:45

Le terme "éthique" et toutes les idées qu'il emporte sont tirées du site "pourlascience.fr", lui-même traduit de l'article originel. Je laisse donc leurs auteurs s'exprimer et pourquoi pas "robot-maker.com" organiser une étude de cette envergure.

 

Cette étude démontre un résultat fonction de la culture où nous serons les victimes choisies par un calculateur lors d'un accident de la circulation. Et ça nous emmerde parce qu'on s'imagine toujours en maître absolu de la machine soumise à nos petits doigts tapotant le clavier. Comme à la télé. Appelons ça comme il nous chante : algorithme, intelligence, super-machin-chose... C'est un choix inhumain et nous le rejetons parce qu'il l'est, justement, inhumain. Mais il est inévitable. Vite ! Rassurons-nous avec une idée confortable : "il y a des règles, appliquons-les et tout ira bien"... On se réfugie à l'abri d'un point de vue pensant que nous restons maître du jeux : "je pense que... je préfère... il me semble... on devrait plutôt..."  Mais ici on ne nous demande pas notre avis, nous somme préparés à l'idée qu'une machine ne va pas nous choisir dans une question de survie. Gonflons les airbags et armons les toboggans.

 

2018. Un automobiliste percute un cycliste en évitant un enfant qui sort de l'école en courant. Le conducteur est choqué : "C'est terrible, je n'ai pas pu l'éviter".

2035. Un véhicule autonome percute un cycliste en évitant un enfant qui sort de l'école en courant. {le plus jeune + le piéton} > {le cycliste}. Conformément à la réglementation, la voiture part à la case. Non mais, c'est qui le patron ?



#13 Mike118

Mike118

    Staff Robot Maker

  • Administrateur
  • PipPipPipPipPip
  • 8 253 messages
  • Gender:Male
  • Location:Anglet
  • Interests:Robotique, Entrepreneuriat, Innovation, Programmation, Résolution de problème, Recherche de solutions, Mécanique, Electronique, Créer, Concevoir

Posté 31 octobre 2018 - 01:52

Le terme "éthique" et toutes les idées qu'il emporte sont tirées du site "pourlascience.fr", lui-même traduit de l'article originel. Je laisse donc leurs auteurs s'exprimer et pourquoi pas "robot-maker.com" organiser une étude de cette envergure.

 

Cette étude démontre un résultat fonction de la culture où nous serons les victimes choisies par un calculateur lors d'un accident de la circulation. Et ça nous emmerde parce qu'on s'imagine toujours en maître absolu de la machine soumise à nos petits doigts tapotant le clavier. Comme à la télé. Appelons ça comme il nous chante : algorithme, intelligence, super-machin-chose... C'est un choix inhumain et nous le rejetons parce qu'il l'est, justement, inhumain. Mais il est inévitable. Vite ! Rassurons-nous avec une idée confortable : "il y a des règles, appliquons-les et tout ira bien"... On se réfugie à l'abri d'un point de vue pensant que nous restons maître du jeux : "je pense que... je préfère... il me semble... on devrait plutôt..."  Mais ici on ne nous demande pas notre avis, nous somme préparés à l'idée qu'une machine ne va pas nous choisir dans une question de survie. Gonflons les airbags et armons les toboggans.

 

2018. Un automobiliste percute un cycliste en évitant un enfant qui sort de l'école en courant. Le conducteur est choqué : "C'est terrible, je n'ai pas pu l'éviter".

2035. Un véhicule autonome percute un cycliste en évitant un enfant qui sort de l'école en courant. {le plus jeune + le piéton} > {le cycliste}. Conformément à la réglementation, la voiture part à la case. Non mais, c'est qui le patron ?

 

Je pense que tu ne m'as pas compris dans ma remarque. 

 

Moi je suis peut être horrible dans mon résonnement sur ce point mais ... pour moi la voiture ne doit pas éviter le gamin pour blesser quelqu'un d'autre si c'est le gamin qui malheureusement se jette sous les roues du véhicule ... 
 

du coup le consta : 

 

2018. Un automobiliste percute un cycliste en évitant un enfant qui sort de l'école en courant. Le conducteur est choqué : "C'est terrible, je n'ai pas pu l'éviter".

=> Le cycliste n'est en rien responsable mais c'est lui qui s'est fait renverser ... 

 

2035. Un véhicule autonome percute un enfant qui sort de l'école en courant.  La voiture ne pouvait pas l'éviter sans causer d'autres victimes.  La voiture roulait à vitesse convenable (30 Km/h près des école).

=> Le responsable est l'enfant qui n'a pas respecté les consignes de sécurité. 

C'est humain de chercher à éviter l'enfant alors que c'est lui qui se met en danger mais c'est pas pour autant qu'une machine doit être programmée pour faire pareille. En aucun cas il ne faut considérer que les décisions prises sont morales ou doivent l'être. Là est l'implacabibilité de la machine et qui fait qu'elle peut être meilleur ou pire que l'humain lambda.

 

En aucun cas je ne trouve ça "rassurant", tout n'ira pas bien. Mais même avec ce genre de raisonnement inhumain je suis sûr que si tous les véhicules étaient autonôme il y aurait beaucoup moins d'accident. Aujourd'hui la plus part des victimes de la routes à déplorer sont liées à des personnes ne respectant pas les consignes de sécurité.  =/ 


Si mon commentaire vous a plus laissez nous un avis  !  :thank_you:

Nouveau sur Robot Maker ? 

Jetez un oeil aux blogs, aux tutoriels, aux ouvrages, au robotscope  aux articles,  à la boutique  et aux différents services disponible !
En attendant qu'une bibliothèque de fichiers 3D soit mise en place n'hésitez pas à demander si vous avez besoin du fichier 3D d'un des produits de la boutique... On l'a peut être ! 

 

Les réalisations de Mike118  

 

 

 


#14 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 31 octobre 2018 - 09:15

 

Je pense que tu ne m'as pas compris dans ma remarque.

 

Probablement. L'étude souffre aussi ne n'être pas bien assimilée, d'avantage orientée sciences sociales, un peu en marge du do{}while





Répondre à ce sujet



  


0 utilisateur(s) li(sen)t ce sujet

0 members, 0 guests, 0 anonymous users