Et moi, je ferais quoi ... ?
http://moralmachine.mit.edu/hl/fr
Posté 06 novembre 2017 - 07:02
Posté 08 novembre 2017 - 09:59
C'est très intéressant comme sujet....spécialement je préférerais pouvoir prendre la décision et sauver ma peau...et je laisserais les responsabilités aux concepteurs.
Très dur ce questionnaire...Je l'ais fait deux fois et deux fois de suite les choix sont plus que difficiles....Mais si j'étais à bord je préfère sauver ma peau.
Ce qui m'embête dans tout ça c'est que l'ont ne met pas trop en avant les systèmes de sécurité pour palier par exemple à un problème de frein. Dans les avions ils sont triplés....Dans les voitures ils devraient être au minimum doublés.
Il faudrait aussi que nos infrastructures évoluent aussi !! Voitures intelligentes !! Alors routes intelligentes : détection d'un piéton sur le passage, gestion des flux par caméra et capteur dans les routes, passage ferrés avec émission d'information, panneaux de limitation des vitesses intelligents. transmission des positions, vitesses, destination des voitures vers des mega-center.....
Les voitures évoluent alors l'environnement aussi doit le faire....sinon.....
Posté 08 novembre 2017 - 11:22
La probabilité que le système de freinage lâche est très peu probable. Il est possible de le surveiller, et d'avoir un système de secours.
Comme sur nos autos où le frein à main a son propre mécanisme indépendant du système de freinage principal.
De plus, une IA aura une vitesse réduite dans les zones piétonnes (genre 30Km/h), alors le risque de mortalité...
Posté 08 novembre 2017 - 12:25
Au delà des problèmes liés à la mécanique ou le réseau routier, la question posée reste à chaque fois la même : QUI va vivre et QUI va mourir.
Parions que les réponses évolueront au fil des années tant le "poids" d'une personne est fonction du contexte social.
L'Intelligence Artificielle (QUI est-ce?) fera-t-elle place à une Morale Artificielle (QUI mérite ?)
Posté 08 novembre 2017 - 01:08
Posté 08 novembre 2017 - 01:14
La plupart du temps il existe plusieurs autres solutions où personne ne meurt.
Et même si sur le fond la question reste la même, je préfère dire : "qui sauver ?"
Pour ce qui est des infrastructures, même sans pilotage automatique, ça serait bien qu'ils réfléchissent un peu plus.
Dans ma ville, ils ont trouvé plus joli de mettre des haies de chaque cotés des passages piétons, du coup on ne voit
les piétons que quand ils ont commencé à traverser, et les piétons ne voient plus les voitures arriver...
Posté 08 novembre 2017 - 03:10
Il est difficile d'admettre une situation inévitable - même par jeu. Il s'agit bien ici de dilemmes moraux qui ne font pas intervenir les soucis mécanique sur le véhicule, l'organisation du réseau routier, ou tout ce qui pourrait être fait en amont pour éviter un drame.
La demande n'est pas " qu'auriez-vous fait pour éviter ça ? ", c'est clairement " qui sauvez-vous ? "
A qui profite ces études ?
Le constructeur de véhicule cherche l'assentiment de son algorithme d'évitement par la société qui en sera (i-né-vi-ta-ble-ment) victime. Difficile en effet de discréditer un véhicule tueur alors qu'on est à l'origine des données qui ont modelé son comportement.
Mais qu'on nous épargne à vous et moi si possible très longtemps d'avoir à faire ces choix.
Posté 30 octobre 2018 - 02:01
A lire, les résultats de cette enquête publiés depuis le 24 Octobre dans la revue "Nature" , avec une reprise en Français dans "Pour la science"
"les règles éthiques que devraient suivre les véhicules autonomes en situation d’accident sont très variables d'un pays à l'autre."
Posté 30 octobre 2018 - 03:02
Pourquoi parler d'éthique ? J'ai un avis très discutable sur le sujet ... Un robot n'a pas à avoir d'éthique, un robot doit rester objectif, il y a des règles elles doivent être respectée.
Pour moi on ne devrait même pas regarder les personnages représentés sur le test.
La règle devrait être la même quelque soit les personnages représentés ou leur nombre.
Il faut préserver au mieux les personnes dans le véhicule et en dehors mais tout en respectant les "règles du code de la route".
Même si c'est triste à dire : Il ne faut pas mettre le véhicule dans le faussé, ou aller sur la voie opposée si quelqu'un traverse brusquement devant le véhicule.
Le véhicule doit :
1) Ralentir au maximum avant impact,
2) Si un changement de voie est possible permettant d'éviter l'accident en respectant le code de la route et que cela ne nuira à personne d'autre , faire le changement de voie.
Et ce indépendamment de qui est dans la voiture ou de qui est sur la route et du nombre de victimes potentielles...
De toute façon si la voiture respecte toujours les règles, cela mettra la plus pars du temps les passager à l'abris et cela blessera la personne qui ne respecte pas les règles ...
Le problème qui n'est pas résolu dans ce cas et qui est " pas de chance " pour ceux dans le véhicule :
Si un chauffard roule à contre sens par ce qu'il double un bus et qu'un évitement n'est pas possible en respectant le code de la route sans géner d'autres personnes eh bien c'est les passager de la voiture qui mourront...
=> Le voiture ne doit pas esquiver le chauffard qui arrive en face en écrasant le grand père de 99 ans qui est en train de faire un infarctus sur le trottoire ...
Là où beaucoup de conducteurs feraient le choix d'aller sur le trottoire pour esquiver le chauffard qui roule à contre sens ...
Bref à défaut de toujours sauver les passagers du véhicule on pourra dire que le véhicule ne pourra pas blesser de personnes extérieur qui n'ont pas comis d'infractions ...
C'est ce genre de chose qui différencient l'homme de la machine. Il est plus facile pour une machine de prendre ce genre de décision objective, " facile à calculer"
Si mon commentaire vous a plus laissez nous un avis !
Nouveau sur Robot Maker ?
Jetez un oeil aux blogs, aux tutoriels, aux ouvrages, au robotscope aux articles, à la boutique et aux différents services disponible !
En attendant qu'une bibliothèque de fichiers 3D soit mise en place n'hésitez pas à demander si vous avez besoin du fichier 3D d'un des produits de la boutique... On l'a peut être !
Si vous souhaitez un robot pilotable par internet n'hésitez pas à visiter www.vigibot.com et à lire le sous forum dédié à vigibot!
Posté 30 octobre 2018 - 11:45
Le terme "éthique" et toutes les idées qu'il emporte sont tirées du site "pourlascience.fr", lui-même traduit de l'article originel. Je laisse donc leurs auteurs s'exprimer et pourquoi pas "robot-maker.com" organiser une étude de cette envergure.
Cette étude démontre un résultat fonction de la culture où nous serons les victimes choisies par un calculateur lors d'un accident de la circulation. Et ça nous emmerde parce qu'on s'imagine toujours en maître absolu de la machine soumise à nos petits doigts tapotant le clavier. Comme à la télé. Appelons ça comme il nous chante : algorithme, intelligence, super-machin-chose... C'est un choix inhumain et nous le rejetons parce qu'il l'est, justement, inhumain. Mais il est inévitable. Vite ! Rassurons-nous avec une idée confortable : "il y a des règles, appliquons-les et tout ira bien"... On se réfugie à l'abri d'un point de vue pensant que nous restons maître du jeux : "je pense que... je préfère... il me semble... on devrait plutôt..." Mais ici on ne nous demande pas notre avis, nous somme préparés à l'idée qu'une machine ne va pas nous choisir dans une question de survie. Gonflons les airbags et armons les toboggans.
2018. Un automobiliste percute un cycliste en évitant un enfant qui sort de l'école en courant. Le conducteur est choqué : "C'est terrible, je n'ai pas pu l'éviter".
2035. Un véhicule autonome percute un cycliste en évitant un enfant qui sort de l'école en courant. {le plus jeune + le piéton} > {le cycliste}. Conformément à la réglementation, la voiture part à la case. Non mais, c'est qui le patron ?
Posté 31 octobre 2018 - 01:52
Le terme "éthique" et toutes les idées qu'il emporte sont tirées du site "pourlascience.fr", lui-même traduit de l'article originel. Je laisse donc leurs auteurs s'exprimer et pourquoi pas "robot-maker.com" organiser une étude de cette envergure.
Cette étude démontre un résultat fonction de la culture où nous serons les victimes choisies par un calculateur lors d'un accident de la circulation. Et ça nous emmerde parce qu'on s'imagine toujours en maître absolu de la machine soumise à nos petits doigts tapotant le clavier. Comme à la télé. Appelons ça comme il nous chante : algorithme, intelligence, super-machin-chose... C'est un choix inhumain et nous le rejetons parce qu'il l'est, justement, inhumain. Mais il est inévitable. Vite ! Rassurons-nous avec une idée confortable : "il y a des règles, appliquons-les et tout ira bien"... On se réfugie à l'abri d'un point de vue pensant que nous restons maître du jeux : "je pense que... je préfère... il me semble... on devrait plutôt..." Mais ici on ne nous demande pas notre avis, nous somme préparés à l'idée qu'une machine ne va pas nous choisir dans une question de survie. Gonflons les airbags et armons les toboggans.
2018. Un automobiliste percute un cycliste en évitant un enfant qui sort de l'école en courant. Le conducteur est choqué : "C'est terrible, je n'ai pas pu l'éviter".
2035. Un véhicule autonome percute un cycliste en évitant un enfant qui sort de l'école en courant. {le plus jeune + le piéton} > {le cycliste}. Conformément à la réglementation, la voiture part à la case. Non mais, c'est qui le patron ?
Je pense que tu ne m'as pas compris dans ma remarque.
Moi je suis peut être horrible dans mon résonnement sur ce point mais ... pour moi la voiture ne doit pas éviter le gamin pour blesser quelqu'un d'autre si c'est le gamin qui malheureusement se jette sous les roues du véhicule ...
du coup le consta :
2018. Un automobiliste percute un cycliste en évitant un enfant qui sort de l'école en courant. Le conducteur est choqué : "C'est terrible, je n'ai pas pu l'éviter".
=> Le cycliste n'est en rien responsable mais c'est lui qui s'est fait renverser ...
2035. Un véhicule autonome percute un enfant qui sort de l'école en courant. La voiture ne pouvait pas l'éviter sans causer d'autres victimes. La voiture roulait à vitesse convenable (30 Km/h près des école).
=> Le responsable est l'enfant qui n'a pas respecté les consignes de sécurité.
C'est humain de chercher à éviter l'enfant alors que c'est lui qui se met en danger mais c'est pas pour autant qu'une machine doit être programmée pour faire pareille. En aucun cas il ne faut considérer que les décisions prises sont morales ou doivent l'être. Là est l'implacabibilité de la machine et qui fait qu'elle peut être meilleur ou pire que l'humain lambda.
En aucun cas je ne trouve ça "rassurant", tout n'ira pas bien. Mais même avec ce genre de raisonnement inhumain je suis sûr que si tous les véhicules étaient autonôme il y aurait beaucoup moins d'accident. Aujourd'hui la plus part des victimes de la routes à déplorer sont liées à des personnes ne respectant pas les consignes de sécurité. =/
Si mon commentaire vous a plus laissez nous un avis !
Nouveau sur Robot Maker ?
Jetez un oeil aux blogs, aux tutoriels, aux ouvrages, au robotscope aux articles, à la boutique et aux différents services disponible !
En attendant qu'une bibliothèque de fichiers 3D soit mise en place n'hésitez pas à demander si vous avez besoin du fichier 3D d'un des produits de la boutique... On l'a peut être !
Si vous souhaitez un robot pilotable par internet n'hésitez pas à visiter www.vigibot.com et à lire le sous forum dédié à vigibot!
0 members, 1 guests, 0 anonymous users