Salut, Merci!
Le crowdfunding est terminé, maintenant on fait tout pour que ca marche !
Posté 07 novembre 2018 - 08:08
Salut, Merci!
Le crowdfunding est terminé, maintenant on fait tout pour que ca marche !
Posté 15 octobre 2019 - 09:03
Bonjour bonjour;
Avant de commencer j'aimerais excuser cette absence et ce manque de communication tout en vous prévenant que cela risque de rester comme cela pendant un petit moment encore. Les raisons sont purement personnelles et je ne veux pas les détailler pour le moment. En plus de ça j'ai la chance d'être maintenant en école d'ingénieurs en robotique et j'aimerais ne pas ratter mon diplôme, comprenez que cela rajoute un poids en plus dans la balance et enlève du temps pour travailler sur le projet.
Voilà,ceci dit, le projet est loin d'etre au point mort,donc permetez moi de vous informer sur l'avancement global !
Niveau hardware, il y a eu peu d'avancées, une V2 a été designée mais pas encore n'imprime ni testée hors des simulations... Oui, maintenant il y a des simulations, beaucoup de simulations.
En fait c'est bel et bien au niveau software que tout avance depuis 1 an et surtout ces derniers mois. Après avoir fini de construire un environement de simulation de walk-e pour faire interface avec ROS-Gazebo et OpenAI gym, j'ai enfin pu lancer les premiers entrainements de réseaux de neurones pour le robot.
OpenAI gym est un formidable outil utilisé pour faciliter la comparaison et l'utilisation de différents algorithmes de re-enforcement sur un même environement. Je m'en suis donc servi pour comparer plusieurs algorithmes, Q-learning, Deep-Q-learning, Deep Deterministic Policy gradient.
Tous ces algorithmes fonctionnent sur une base commune, si le robot fait une action que l'on juge "bonne" il est récompensé par son action, et un (ou plusieurs) réseaux de neurones (ou tables, pour le Q learning), apprennent les actions qui font gagner des récompenses au robot et optimisent ces actions pour qu'il en gagne un maximum.Votre façon de juger si votre robot fait des bonnes actions est donc cruciale et va déterminer tout ce qu'il va apprendre.
Ex de mauvais jugement: J'avais fait une fonction très basique comme : si le robot avance de x mètres, le récompenser de x*10
résultats, le robot faisait un grand saut en avant pour arriver le plus loin possible...
En bref, l'AI que vous êtes en train d'éduquer va essayer toutes les solutions pour gagner des points, et si elle est récompensée alors qu'elle ne le devrait pas, elle va essayer d'optimiser une solution qui ne serait pas la solution optimale et vous perdrez simplement votre temps. Pour pallier à ça vous pouvez:
Designer une fonction de jugement la plus parfaite possible.
Ajouter une part d'aléatoire, le plus utilise étant le processus d'Ornstein-Uhlenbeck.
Choisir son algorithme est tout aussi important :
le premier n'était pas du tout concluant et je le déconseille fortement si votre probleme est relativement complexe, les tables de Q learning ne permettent pas de stocker assez d'information pour apprendre à marcher par exemple. Cependant il est simple et formateur et est une porte d'entree pour apprendre le reinforcement learning.
Le DQN a permis au robot de faire ses premiers pas", c'est aussi là qu'il a appris à se jeter le plus loin possible la tete la première. Je ne me suis pas beaucoup attardé sur le DQN et je suis passé sur le DDPG pour plusieurs raisons :
le DDPG a un énorme avantage sur le DQN, il permet au robot de deviner la valeur de tous les angles à chaque moment, là ou le DQN ne peut qu'incrémenter/décrémenter un seul angle et attendre le moment t+1 pour réajuster un autre angle. De façon plus mathématique Le DQN permet de prendre des décisions discrètes alors que le DDPG permet de prendre des décisions continues.
Si vous êtes curieux tous ces algorithmes sont passionnants et je conseille de vous renseigner là-dessus. Commencez par les tables de Q learning puis le DQN puis le DDPG, car ils sont tous plus ou moins une amélioration du précédent.
Je suis donc en train d'expérimenter avec cet algorithme, le fameux DDPG, en fait j'ai fini de l'implémenter, je m'assure que les paramètres que le réseau de neurones ne peut pas modifier par lui-même (hyperparametres), comme le nombre de couches dans le réseau, le nombre de neurones et l'intensité du processus de randomisation des actions soient optimales pour que le robot puisse apprendre comme il faut. En fait je suis en train d'automatiser ce processus pour pouvoir suivre mes cours plutôt que de passer mes soirées à essayer de deviner un set de nombres en espérant tomber sur la parfaite combinaison .
Pour résumer grossièrement, là on en est au stade ou le robot passe des journées à essayer d'apprendre à marcher dans une simulation, pour l'instant le record est de 3 pas avant de s'effondrer au sol.
.
Ceux qui nous suivent sur twitter ont déjà pu voit les premiers entrainements du robot en simulation. J'aimerais faire une vidéo (travaillée cette fois) pour présenter tout ça quand le robot marchera d'une façon moins aléatoire dans les simulations (bientot esperons ).
Merci encore a tous ceux qui soutiennent le projet et encore désolé du manque d'info, je peux vous assurer que je donne tout ce que j'ai pour ce projet.
Posté 16 octobre 2019 - 06:20
Posté 21 octobre 2019 - 09:34
Posté 19 octobre 2020 - 11:31
Updates:
Après pas mal des tests pour avoir une marche qui est relativement stable et qui ne risque pas trop de détruire le robot je commence à avoir des résultats corrects (perfectibles mais corrects), pour rappel tout le contrôle du robot est 100% réalisé par un réseau de neurones entrainé grace à des méthodes de reinforcement learning comme expliqué plus haut.
Pour l'instant j'ai donc deux modes le mode "standby" qui maintient le robot au même point, et le mode "waypoint" qui amène le robot à un point [x, y], sur terrain plat pour le moment.
Ça fait du bien de voir le "bout tu tunnel" (il est encore long) je commençais à plus trop y croire honnêtement...
Posté 19 octobre 2020 - 01:00
Allez, courage !
Quand je vois les difficultés que vous avez, toi et Thot, ça ne m'encourage pas à me lancer.
J'envisage de me lancer en 2021. J'aimerais tellement apporter ma pierre à l'édifice, même une petite pierre.
L'un de mes premiers axes de recherche sera, sans doute, un portique. Il devra détecter l'avance du bipède et l'accompagner en roulant.
Le bipède sera accroché au portique comme une marionnette. L'idée, c'est que le bipède ne tombe pas bien sûr, mais également de détecter la pression exercée sur chaque fil qui pourrait être élastique.
Ma chaine YouTube : https://www.youtube..../oracid1/videos
Posté 20 octobre 2020 - 09:02
Perso j'attend toujours ma récompense pour le financement participatif Mais bon je suppose que je dois attendre que le robot soit en version final ? ^^
Si mon commentaire vous a plus laissez nous un avis !
Nouveau sur Robot Maker ?
Jetez un oeil aux blogs, aux tutoriels, aux ouvrages, au robotscope aux articles, à la boutique et aux différents services disponible !
En attendant qu'une bibliothèque de fichiers 3D soit mise en place n'hésitez pas à demander si vous avez besoin du fichier 3D d'un des produits de la boutique... On l'a peut être !
Si vous souhaitez un robot pilotable par internet n'hésitez pas à visiter www.vigibot.com et à lire le sous forum dédié à vigibot!
Posté 07 janvier 2021 - 09:15
Honnêtement je regrette beaucoup avoir fait un financement participatif pour ce projet, cela me pose plus de soucis que de creer le robot en lui-même. Pour ce qui est des récompenses, je sais très bien que rien n'a ete fait et la vérité c'est que pour le moment je suis dans l'incapacité totale de répondre aux promesses qui ont été dites. Comme je l'ai dit à certains d'entre vous en prive cela me tracasse beaucoup personnellement d'un point de vue ethique. Dans tous les cas comme tu le dis Mike il est fortement probable que les récompenses n'arrivent pas avant les premiers pas du robot et je m'en excuse.
Posté 07 janvier 2021 - 11:09
Perso ça ne me dérange pas s'il n'y a pas de contrepartie, on le sait quand on participe que rien n'est garanti
Après c'est peut-être le fait de ne pas avoir participer qui me permet de relativiser plus facilement
Pour la démo virtuelle du petit walk-e, vous arrivez à avoir cette vitesse de mouvement avec vos moteurs ? (ou alors la simulation est accélérée peut-être ?)
Projets et réalisations, robots et machines en tout genre →
Robots à pattes et jambes, humanoïdes, bipèdes, quadrupèdes, hexapodes ... →
Fabriquer son premier bipède (pièges et astuces)Débuté par Amhnemus, 07 avril 2018 Bipède, robot bipède, fabriquer et 2 de plus... |
|
0 members, 0 guests, 0 anonymous users