Aller au contenu


Photo

WALK-E, Crowdfunding sur Ulule, Soutenez nous !!!

Crowfunging financement participatif Robot bipède

  • Veuillez vous connecter pour répondre
209 réponses à ce sujet

#201 yougo

yougo

    Habitué

  • Membres
  • PipPip
  • 235 messages

Posté 07 novembre 2018 - 08:08

Salut, Merci!

 

Le crowdfunding est terminé, maintenant on fait tout pour que ca marche !


  • Path et Oliver17 aiment ceci

Venez check le Twitter : 

 

https://twitter.com/Projet_WALK_E

 


#202 yougo

yougo

    Habitué

  • Membres
  • PipPip
  • 235 messages

Posté 15 octobre 2019 - 09:03

Bonjour bonjour;

 

Avant de commencer j'aimerais excuser cette absence et ce manque de communication tout en vous prévenant que cela risque de rester comme cela pendant un petit moment encore. Les raisons sont purement personnelles et je ne veux pas les détailler pour le moment. En plus de ça j'ai la chance d'être maintenant en école d'ingénieurs en robotique et j'aimerais ne pas ratter mon diplôme, comprenez que cela rajoute un poids en plus dans la balance et enlève du temps pour travailler sur le projet.

Voilà,ceci dit, le projet est loin d'etre au point mort,donc permetez moi de vous informer sur l'avancement global ! :)

Niveau hardware, il y a eu peu d'avancées, une V2 a été designée mais pas encore n'imprime ni testée hors des simulations... Oui, maintenant il y a des simulations, beaucoup de simulations.

 

En fait c'est bel et bien au niveau software que tout avance depuis 1 an et surtout ces derniers mois. Après avoir fini de construire un environement de simulation de walk-e pour faire interface avec ROS-Gazebo et OpenAI gym, j'ai enfin pu lancer les premiers entrainements de réseaux de neurones pour le robot.

OpenAI gym est un formidable outil utilisé pour faciliter la comparaison et l'utilisation de différents algorithmes de re-enforcement sur un même environement. Je m'en suis donc servi pour comparer plusieurs algorithmes, Q-learning, Deep-Q-learning, Deep Deterministic Policy gradient.

Tous ces algorithmes fonctionnent sur une base commune, si le robot fait une action que l'on juge "bonne" il est récompensé par son action, et un (ou plusieurs) réseaux de neurones (ou tables, pour le Q learning), apprennent les actions qui font gagner des récompenses au robot et optimisent ces actions pour qu'il en gagne un maximum.Votre façon de juger si votre robot fait des bonnes actions est donc cruciale et va déterminer tout ce qu'il va apprendre.

 

Ex de mauvais jugement: J'avais fait une fonction très basique comme : si le robot avance de x mètres, le récompenser de x*10

résultats, le robot faisait un grand saut en avant pour arriver le plus loin possible... :blink:

En bref, l'AI que vous êtes en train d'éduquer va essayer toutes les solutions pour gagner des points, et si elle est récompensée alors qu'elle ne le devrait pas, elle va essayer d'optimiser une solution qui ne serait pas la solution optimale et vous perdrez simplement votre temps. Pour pallier à ça vous pouvez:

Designer une fonction de jugement la plus parfaite possible.

Ajouter une part d'aléatoire, le plus utilise étant le processus d'Ornstein-Uhlenbeck.

Choisir son algorithme est tout aussi important :

le premier n'était pas du tout concluant et je le déconseille fortement si votre probleme est relativement complexe, les tables de Q learning ne permettent pas de stocker assez d'information pour apprendre à marcher par exemple. Cependant il est simple et formateur et est une porte d'entree pour apprendre le reinforcement learning.

 

Le DQN a permis au robot de faire ses premiers pas", c'est aussi là qu'il a appris à se jeter le plus loin possible la tete la première. Je ne me suis pas beaucoup attardé sur le DQN et je suis passé sur le DDPG pour plusieurs raisons :

le DDPG a un énorme avantage sur le DQN, il permet au robot de deviner la valeur de tous les angles à chaque moment, là ou le DQN ne peut qu'incrémenter/décrémenter un seul angle et attendre le moment t+1 pour réajuster un autre angle. De façon plus mathématique Le DQN permet de prendre des décisions discrètes alors que le DDPG permet de prendre des décisions continues.

 

Si vous êtes curieux tous ces algorithmes sont passionnants et je conseille de vous renseigner là-dessus. Commencez par les tables de Q learning puis le DQN puis le DDPG, car ils sont tous plus ou moins une amélioration du précédent.

 

Je suis donc en train d'expérimenter avec cet algorithme, le fameux DDPG, en fait j'ai fini de l'implémenter, je m'assure que les paramètres que le réseau de neurones ne peut pas modifier par lui-même (hyperparametres), comme le nombre de couches dans le réseau, le nombre de neurones et l'intensité du processus de randomisation des actions soient optimales pour que le robot puisse apprendre comme il faut. En fait je suis en train d'automatiser ce processus pour pouvoir suivre mes cours plutôt que de passer mes soirées à essayer de deviner un set de nombres en espérant tomber sur la parfaite combinaison :unsure: .

 

Pour résumer grossièrement, on en est au stade ou le robot passe des journées à essayer d'apprendre à marcher dans une simulation, pour l'instant le record est de 3 pas avant de s'effondrer au sol.

.

Ceux qui nous suivent sur twitter ont déjà pu voit les premiers entrainements du robot en simulation. J'aimerais faire une vidéo (travaillée cette fois) pour présenter tout ça quand le robot marchera d'une façon moins aléatoire dans les simulations (bientot esperons ).

 

Merci encore a tous ceux qui soutiennent le projet et encore désolé du manque d'info, je peux vous assurer que je donne tout ce que j'ai pour ce projet. :heart:


  • Jekert , Oliver17 et Forthman aiment ceci

Venez check le Twitter : 

 

https://twitter.com/Projet_WALK_E

 


#203 Path

Path

    Made By Humans

  • Modérateur
  • PipPipPipPipPip
  • 2 504 messages
  • Gender:Male
  • Location:Paris

Posté 16 octobre 2019 - 06:20

Merci pour ces nouvelles !! Et félicitations. Profite, cest le bon temps.

#204 R1D1

R1D1

    Modérateur et Membre passionné

  • Modérateur
  • PipPipPipPipPip
  • 1 211 messages
  • Gender:Male
  • Location:Autriche

Posté 21 octobre 2019 - 09:34

Merci pour le retour !

Quelques petites remarques: Q-learning, Deep Q-learning, Deep Deterministic Policy Gradient sont des algorithmes d'apprentissage par renforcement (RL - reinforcement learning): ils cherchent une solution à un problème de décision séquentielle, c'est à dire une séquence "d'actions" (au sens large) à effectuer pour atteindre un certain but.
Comme l'a précisé Yougo, l'algorithme reçoit une récompense quand il produit le comportement désiré (et une punition dans le cas contraire). Ici, pas de friandise ou de fessée, mais des valeurs numériques positives et négatives définies par un humain. Les algorithmes de RL se classent notamment en deux groupes selon qu'ils apprennent directement une politique ou une fonction de valeur, ou s'ils construisent un modèle du problème pour déduire ces informations. On parle de model-free et model-based dans la langue de Freddy Mercury, ou d'apprentissage direct et indirect dans celle de Yann Le Cun.

La différence entre Q-learning et les algo "Deep" (Deep Qlearning et DDPG), c'est que le travail de modélisation du problème est laissé à l'humain dans le premier cas : c'est au concepteur de définir ce qu'est un état, une action. Or, modéliser le problème, décider des états et actions n'est toujours simple. Si on peut facilement modéliser un problème de labyrinthe simulé comme un tableau dans lequel on passe d'une case à l'autre avec des mouvements nord-sud-est-ouest, modéliser le comportement d'un vrai robot dans un vrai labyrinthe est plus dur. Comme l'a expérimenté pmdd avec son projet récent, le robot ne se déplace pas toujours de la bonne distance, glisse un peu, etc. La solution proposée par le "Deep learning", c'est de laisser l'algorithme apprendre lui-même la modélisation en partant des données capteurs. Pas besoin d'estimer la position du robot, on donne juste l'image perçue par sa caméra, son odométrie, etc. et ça suffit à l'algorithme. En pratique, ça augmente beaucoup le temps nécessaire pour apprendre une bonne solution au problème (mais je ne vais pas rentrer dans les détails ici).

Enfin, il est effectivement plutôt difficile de conçevoir une fonction de récompense pertinente selon la tâche: si la récompense n'est donnée que lorsque le robot atteint l'objectif, l'apprentissage est long ; si elle est donnée plus fréquemment, il y a risque de converger vers un optimum local plutôt que l'optimum global. Une manière de contourner ce problème est d'utiliser un algorithme génétique : la fonction de fitness utilisée est très similaire à la fonction de récompense, mais le mécanisme de création de solution est moins sensible aux optima locaux, et il est possible de forcer l'agent à explorer différents comportements en ajoutant un terme de "diversité" à maximiser.

En tout cas, bon courage et bonne continuation !
  • yougo et Little french kev aiment ceci
R1D1 - Calculo Sed Ergo Sum -- en ce moment, M.A.R.C.E.L.
Avatar tiré du site bottlebot

#205 yougo

yougo

    Habitué

  • Membres
  • PipPip
  • 235 messages

Posté 19 octobre 2020 - 11:31

Updates:
Après pas mal des tests pour avoir une marche qui est relativement stable et qui ne risque pas trop de détruire le robot je commence à avoir des résultats corrects (perfectibles mais corrects), pour rappel tout le contrôle du robot est 100% réalisé par un réseau de neurones entrainé grace à des méthodes de reinforcement learning comme expliqué plus haut.

 

 

Pour l'instant j'ai donc deux modes le mode "standby" qui maintient le robot au même point, et le mode "waypoint" qui amène le robot à un point [x, y], sur terrain plat pour le moment.
Ça fait du bien de voir le "bout tu tunnel" (il est encore long) je commençais à plus trop y croire honnêtement...


J'ai refait tout le design du robot entre-temps car il était pourri ça fera l'objet d'un autre post pour les curieux le code tourne sur jetson nano. Dans tous les cas je pense garder les pieds ronds, c'est certes plus dur mais ça me permet d'étudier le deep learning au service de la marche dynamique à son paroxysme, je peux déjà tranferer ce que j'ai apris pour faire marcher n'importe quel quadru via le reinforcement learning.

Je vais donc tester en vrai maintenant (tout en continuant d'améliorer les résultats en Sim), je prévois des difficultés énormes pour passer de la simulation à la réalité il va donc encore falloir patienter quelques mois pour la prochaine update mais je m'acharne. :dash2:

  • Thot et Oracid aiment ceci

Venez check le Twitter : 

 

https://twitter.com/Projet_WALK_E

 


#206 Oracid

Oracid

    Pilier du forum

  • Modérateur
  • PipPipPipPipPip
  • 6 769 messages
  • Gender:Male

Posté 19 octobre 2020 - 01:00

Allez, courage !

Quand je vois les difficultés que vous avez, toi et Thot, ça ne m'encourage pas à me lancer.

J'envisage de me lancer en 2021. J'aimerais tellement apporter ma pierre à l'édifice, même une petite pierre.

L'un de mes premiers axes de recherche sera, sans doute, un portique. Il devra détecter l'avance du bipède et l'accompagner en roulant.

Le bipède sera accroché au portique comme une marionnette. L'idée, c'est que le bipède ne tombe pas bien sûr, mais également de détecter la pression exercée sur chaque fil qui pourrait être élastique.



#207 Mike118

Mike118

    Staff Robot Maker

  • Administrateur
  • PipPipPipPipPip
  • 9 969 messages
  • Gender:Male
  • Location:Anglet

Posté 20 octobre 2020 - 09:02

Perso j'attend toujours ma récompense pour le financement participatif :P Mais bon je suppose que je dois attendre que le robot soit en version final ? ^^ 


Si mon commentaire vous a plus laissez nous un avis  !  :thank_you:

Nouveau sur Robot Maker ? 

Jetez un oeil aux blogs, aux tutoriels, aux ouvrages, au robotscope  aux articles,  à la boutique  et aux différents services disponible !
En attendant qu'une bibliothèque de fichiers 3D soit mise en place n'hésitez pas à demander si vous avez besoin du fichier 3D d'un des produits de la boutique... On l'a peut être ! 
Si vous souhaitez un robot pilotable par internet n'hésitez pas à visiter www.vigibot.com et à lire le sous forum dédié à vigibot!

 

Les réalisations de Mike118  

 

 

 


#208 yougo

yougo

    Habitué

  • Membres
  • PipPip
  • 235 messages

Posté 07 janvier 2021 - 09:15

Honnêtement je regrette beaucoup avoir fait un financement participatif pour ce projet, cela me pose plus de soucis que de creer le robot en lui-même. Pour ce qui est des récompenses, je sais très bien que rien n'a ete fait et la vérité c'est que pour le moment je suis dans l'incapacité totale de répondre aux promesses qui ont été dites. Comme je l'ai dit à certains d'entre vous en prive cela me tracasse beaucoup personnellement d'un point de vue ethique. Dans tous les cas comme tu le dis Mike il est fortement probable que les récompenses n'arrivent pas avant les premiers pas du robot et je m'en excuse.

 

Pour finir sur un point plus positif, je suis en train de fortifier le réseau de neurones en vue des tests grandeur nature, voici un exemple de walk-e tenant debout sur un pied sur un terrain géneré aléatoirement avec une friction entre ses pieds et le sol aléatoire :
 

Venez check le Twitter : 

 

https://twitter.com/Projet_WALK_E

 


#209 Forthman

Forthman

    Pilier du forum

  • Membres
  • PipPipPipPipPip
  • 1 382 messages
  • Gender:Not Telling
  • Location:Montauban (82)

Posté 07 janvier 2021 - 11:09

Perso ça ne me dérange pas s'il n'y a pas de contrepartie, on le sait quand on participe que rien n'est garanti ;)

 

Après c'est peut-être le fait de ne pas avoir participer qui me permet de relativiser plus facilement :crazy:

 

Pour la démo virtuelle du petit walk-e, vous arrivez à avoir cette vitesse de mouvement avec vos moteurs ? (ou alors la simulation est accélérée peut-être ?)



#210 yougo

yougo

    Habitué

  • Membres
  • PipPip
  • 235 messages

Posté 08 janvier 2021 - 12:12

Les moteurs tournent à 2ms/deg et la simulation est à temps reel. Les mouvements paraissent réalisables mais je vais pouvoir vérifier tout ça pour de vrai et tout casser très bientôt !


  • Forthman aime ceci

Venez check le Twitter : 

 

https://twitter.com/Projet_WALK_E

 






Aussi étiqueté avec au moins un de ces mots-clés : Crowfunging, financement participatif, Robot bipède

0 utilisateur(s) li(sen)t ce sujet

0 members, 0 guests, 0 anonymous users