- ashira aime ceci
- Robot Maker
- → Affichage d'un profil : Aime: R1D1
À propos de moi
Statistiques de la communauté
- Groupe Modérateur
- Messages 1 211
- Visites sur le profil 25 315
- Titre Modérateur et Membre passionné
- Âge Âge inconnu
- Date de naissance Anniversaire inconnu
-
Gender
Homme
-
Location
Autriche
Outils utilisateur
Derniers visiteurs
#106436 Blabla divers
Posté par R1D1 - 22 novembre 2019 - 12:13
#106349 LIDAR open-source
Posté par R1D1 - 19 novembre 2019 - 12:01
#105973 course du soleil
Posté par R1D1 - 30 octobre 2019 - 11:03
Ou se situe ton problème ? Dans la programmation des calculs ? Dans les calculs eux-mêmes ?
Que veux-tu représenter exactement sur ton diagramme ?
Tu peux commencer par essayer de tracer un rayon de ton cercle en fonction de l'heure actuelle: s'il est 7h05, le rayon ira du centre au point le plus à gauche, s'il est 12h16 ( (17h27-7h04)/2 + 7h04), environ vertical (90°), etc.
Une fois que tu sais afficher ce segment en fonction de l'angle désiré, tu peux facilement changer la manière dont tu calcules l'angle pour représenter différentes informations.
- Mike118 aime ceci
#105971 [Project] M.A.R.C.E.L
Posté par R1D1 - 30 octobre 2019 - 10:11
Petit teaser
#105962 [N. Rougier] Pourquoi votre chat est nul aux échecs et pourtant plus intellig...
Posté par R1D1 - 29 octobre 2019 - 09:59
#105885 WALK-E, Crowdfunding sur Ulule, Soutenez nous !!!
Posté par R1D1 - 21 octobre 2019 - 09:34
Quelques petites remarques: Q-learning, Deep Q-learning, Deep Deterministic Policy Gradient sont des algorithmes d'apprentissage par renforcement (RL - reinforcement learning): ils cherchent une solution à un problème de décision séquentielle, c'est à dire une séquence "d'actions" (au sens large) à effectuer pour atteindre un certain but.
Comme l'a précisé Yougo, l'algorithme reçoit une récompense quand il produit le comportement désiré (et une punition dans le cas contraire). Ici, pas de friandise ou de fessée, mais des valeurs numériques positives et négatives définies par un humain. Les algorithmes de RL se classent notamment en deux groupes selon qu'ils apprennent directement une politique ou une fonction de valeur, ou s'ils construisent un modèle du problème pour déduire ces informations. On parle de model-free et model-based dans la langue de Freddy Mercury, ou d'apprentissage direct et indirect dans celle de Yann Le Cun.
La différence entre Q-learning et les algo "Deep" (Deep Qlearning et DDPG), c'est que le travail de modélisation du problème est laissé à l'humain dans le premier cas : c'est au concepteur de définir ce qu'est un état, une action. Or, modéliser le problème, décider des états et actions n'est toujours simple. Si on peut facilement modéliser un problème de labyrinthe simulé comme un tableau dans lequel on passe d'une case à l'autre avec des mouvements nord-sud-est-ouest, modéliser le comportement d'un vrai robot dans un vrai labyrinthe est plus dur. Comme l'a expérimenté pmdd avec son projet récent, le robot ne se déplace pas toujours de la bonne distance, glisse un peu, etc. La solution proposée par le "Deep learning", c'est de laisser l'algorithme apprendre lui-même la modélisation en partant des données capteurs. Pas besoin d'estimer la position du robot, on donne juste l'image perçue par sa caméra, son odométrie, etc. et ça suffit à l'algorithme. En pratique, ça augmente beaucoup le temps nécessaire pour apprendre une bonne solution au problème (mais je ne vais pas rentrer dans les détails ici).
Enfin, il est effectivement plutôt difficile de conçevoir une fonction de récompense pertinente selon la tâche: si la récompense n'est donnée que lorsque le robot atteint l'objectif, l'apprentissage est long ; si elle est donnée plus fréquemment, il y a risque de converger vers un optimum local plutôt que l'optimum global. Une manière de contourner ce problème est d'utiliser un algorithme génétique : la fonction de fitness utilisée est très similaire à la fonction de récompense, mais le mécanisme de création de solution est moins sensible aux optima locaux, et il est possible de forcer l'agent à explorer différents comportements en ajoutant un terme de "diversité" à maximiser.
En tout cas, bon courage et bonne continuation !
- yougo et Little french kev aiment ceci
#105374 Caliban Midi - E-Bunny
Posté par R1D1 - 24 septembre 2019 - 03:35
- Thot aime ceci
#105306 Système multi-filament pour imprimante 3D
Posté par R1D1 - 20 septembre 2019 - 03:18
et pourquoi pas 4 entrées avec du cyan magenta jaune et noir comme sur les imprimantes papier pour pouvoir recréer toutes les couleurs ?
Je suis pas sûr que le plastique se mélange aussi facilement que de l'encre ... mais s'il existe une méthode pour colorer le plastique dynamiquement, ça pourrait marcher.
EDIT: ah ben tiens: https://reprap.org/w...ing_filament/fr
- Forthman aime ceci
#105112 Turtlebot AutoRace 2020 & STEAM CUP 2020
Posté par R1D1 - 07 septembre 2019 - 09:49
#104582 Labyrinthe modulaire
Posté par R1D1 - 28 juillet 2019 - 10:00
Bonsoir !
Comme je l'avais évoqué dans le sujet de pmdd (voir ici: https://www.robot-ma...o-ev3/?p=104534), j'ai besoin d'un labyrinthe modulaire pour mes stagiaires. Après un design rapide sous Openscad pour avoir une idée de la réalisation, j'ai coupé une planche qui traînait pour faire mes parties. À la main, parce que ma scie sauteuse ne coupe pas droit !
Puis ponçage des pièces et assemblage des murs avec un clou et de la colle à bois ... Beaucoup d'huile de coude dans le processus.
Les murs font 80x160 mm, les plaques 160x160mm
Le labyrinthe est modulaire, on peut changer sa configuration case par case. Il me manque juste à faire quelques pieds supplémentaires pour que toutes les planchers soient bien à plat.
#104534 Robots roulants autonomes Lego Ev3
Posté par R1D1 - 26 juillet 2019 - 12:24
Je mets également le .scad dans cette version si tu veux jeter un oeil, les cases font 16x16, les murs 16x8 mais c'est changeable facilement.
maze_plates.scad.zip 765 octets 150 téléchargement(s)
- pmdd aime ceci
#104388 La RMSA ( Robot Maker School Academie ) / le robot maker lab à Anglet
Posté par R1D1 - 12 juillet 2019 - 08:45
- le statut et le modèle de financement (bizness model :money: ) et de développement, bien que pas les parties les plus intéressantes, sont super importantes. Le statut légal d'un tiers-lieu financé par la mairie impose probablement des contraintes sur l'activité ou les modes de revenus qu'il faut prendre en compte. Le mode de financement est -- malheureusement -- au coeur du problème (sauf si t'as gagné au loto ) : qu'est-ce qui est "vendu", pour quels "clients", etc.
Par exemple, les particuliers intéressés représentent probablement peu de personnes/d'argent comparé au coût de maintenance d'un tel endroit.
Anglet est-il le meilleur endroit pour ça en termes d'intérêt, de taille de population ? Exemple: le Deep Learning Meetup à Paris est toujours complet et rassemble plus de 100 personnes régulièrement ; un évènement similaire dans la 5ème plus grosse ville d'Autriche peine à rassembler 30 personnes. Je ne sais pas quel est la proportion de personnes intéressées par le sujet dans le Sud-Ouest (en dehors des étudiants de l'ESTIA mais qui ont probablement déjà accès à l'équipement de l'école), mais c'est à considérer.
Bref, loin de moi l'idée de te décourager, au contraire, je pense que ça peut être un super projet, mais loin d'être facile.
Par ailleurs, j'ai envie de dire que s'il y a un appel à projets, ça vaut le coup de le tenter ne serait-ce que pour formaliser ton idée dans un plan réalisable. Et si ça passe, c'est parti
- Forthman aime ceci
#104266 Led RGB/Arduino avec E/S analogique
Posté par R1D1 - 04 juillet 2019 - 11:07
En gros, quelque soit le nombre de LED voulues, tu n'as besoin que de +Vcc, GND et SIG (donc au mieux, 3 pins, peut-être plus selon les modèles de ruban). Il faut dimensionner l'alimentation en conséquence, mais couper et souder un ruban avec le bon nombre de LED est facile.
Disclaimer : je parle en théorie, je n'ai pas fini de tester le setup moi-même, mais je n'ai rien vu qui s'oppose à cette idée jusqu'à présent dans mes recherches.
- Amhnemus aime ceci
#103974 Retour ICRA 2019
Posté par R1D1 - 17 juin 2019 - 10:12
Yop !
Fin Mai, j'ai eu l'occasion d'aller à ICRA, une des deux plus grosses conférences de robotique à Montréal, du coup, voici quelques photos et vidéos de ce que j'ai pu y voir:
- Palais des Congrès de Montréal:
- Robot Fetch
- DJI et son Challenge RoboMaster
- Laikago et Spot Mini nous ont fait de belles démos:
- Robotique modulaire (Hebi robotics)
- Clearpath Warthog, robot d'extérieur:
- Robotique et art :
- Robot Maker
- → Affichage d'un profil : Aime: R1D1
- Privacy Policy