Aller au contenu


R1D1

Inscrit(e) (le) 09 juil. 2012
Déconnecté Dernière activité déc. 03 2023 11:29
*****

#106436 Blabla divers

Posté par R1D1 - 22 novembre 2019 - 12:13

Modos sur le pont ! Armez les canons à Masquage !
VaguedeSPAM.png


#106349 LIDAR open-source

Posté par R1D1 - 19 novembre 2019 - 12:01

Je suis tombé sur ça, ça peut en intéresser certains :)

https://twitter.com/...136338615144448



#105973 course du soleil

Posté par R1D1 - 30 octobre 2019 - 11:03

Bonjour michel,

Ou se situe ton problème ? Dans la programmation des calculs ? Dans les calculs eux-mêmes ?
Que veux-tu représenter exactement sur ton diagramme ?

Tu peux commencer par essayer de tracer un rayon de ton cercle en fonction de l'heure actuelle: s'il est 7h05, le rayon ira du centre au point le plus à gauche, s'il est 12h16 ( (17h27-7h04)/2 + 7h04), environ vertical (90°), etc.
Une fois que tu sais afficher ce segment en fonction de l'angle désiré, tu peux facilement changer la manière dont tu calcules l'angle pour représenter différentes informations.


#105971 [Project] M.A.R.C.E.L

Posté par R1D1 - 30 octobre 2019 - 10:11

Vous pensiez que j'avais abandonné ce projet aussi ? Que nenni ! La partie mécanique avance doucement, j'ai reçu de nouveaux servos mais il faut que je leur trouve une alim, vu qu'ils consomment plus que des sg90. Je n'ai pas encore réinstallé ma CR10S mais j'ai trouvé quelques solutions pour monter l'intérieur. En attendant, j'ai quand même progressé sur la partie logicielle.
Petit teaser ;)

Marcel_teaser_rvu.png


#105962 [N. Rougier] Pourquoi votre chat est nul aux échecs et pourtant plus intellig...

Posté par R1D1 - 29 octobre 2019 - 09:59

Un article de Nicolas P. Rougier sur l'IA: https://theconversat...quune-ia-123584


#105885 WALK-E, Crowdfunding sur Ulule, Soutenez nous !!!

Posté par R1D1 - 21 octobre 2019 - 09:34

Merci pour le retour !

Quelques petites remarques: Q-learning, Deep Q-learning, Deep Deterministic Policy Gradient sont des algorithmes d'apprentissage par renforcement (RL - reinforcement learning): ils cherchent une solution à un problème de décision séquentielle, c'est à dire une séquence "d'actions" (au sens large) à effectuer pour atteindre un certain but.
Comme l'a précisé Yougo, l'algorithme reçoit une récompense quand il produit le comportement désiré (et une punition dans le cas contraire). Ici, pas de friandise ou de fessée, mais des valeurs numériques positives et négatives définies par un humain. Les algorithmes de RL se classent notamment en deux groupes selon qu'ils apprennent directement une politique ou une fonction de valeur, ou s'ils construisent un modèle du problème pour déduire ces informations. On parle de model-free et model-based dans la langue de Freddy Mercury, ou d'apprentissage direct et indirect dans celle de Yann Le Cun.

La différence entre Q-learning et les algo "Deep" (Deep Qlearning et DDPG), c'est que le travail de modélisation du problème est laissé à l'humain dans le premier cas : c'est au concepteur de définir ce qu'est un état, une action. Or, modéliser le problème, décider des états et actions n'est toujours simple. Si on peut facilement modéliser un problème de labyrinthe simulé comme un tableau dans lequel on passe d'une case à l'autre avec des mouvements nord-sud-est-ouest, modéliser le comportement d'un vrai robot dans un vrai labyrinthe est plus dur. Comme l'a expérimenté pmdd avec son projet récent, le robot ne se déplace pas toujours de la bonne distance, glisse un peu, etc. La solution proposée par le "Deep learning", c'est de laisser l'algorithme apprendre lui-même la modélisation en partant des données capteurs. Pas besoin d'estimer la position du robot, on donne juste l'image perçue par sa caméra, son odométrie, etc. et ça suffit à l'algorithme. En pratique, ça augmente beaucoup le temps nécessaire pour apprendre une bonne solution au problème (mais je ne vais pas rentrer dans les détails ici).

Enfin, il est effectivement plutôt difficile de conçevoir une fonction de récompense pertinente selon la tâche: si la récompense n'est donnée que lorsque le robot atteint l'objectif, l'apprentissage est long ; si elle est donnée plus fréquemment, il y a risque de converger vers un optimum local plutôt que l'optimum global. Une manière de contourner ce problème est d'utiliser un algorithme génétique : la fonction de fitness utilisée est très similaire à la fonction de récompense, mais le mécanisme de création de solution est moins sensible aux optima locaux, et il est possible de forcer l'agent à explorer différents comportements en ajoutant un terme de "diversité" à maximiser.

En tout cas, bon courage et bonne continuation !


#105374 Caliban Midi - E-Bunny

Posté par R1D1 - 24 septembre 2019 - 03:35

J'ai peut-être déjà posté ce genre de choses, mais la question du simulateur est bien résumée ici: https://hal.inria.fr...518764/document


#105306 Système multi-filament pour imprimante 3D

Posté par R1D1 - 20 septembre 2019 - 03:18

et pourquoi pas 4 entrées avec du cyan magenta jaune et noir comme sur les imprimantes papier pour pouvoir recréer toutes les couleurs ?


Je suis pas sûr que le plastique se mélange aussi facilement que de l'encre ... mais s'il existe une méthode pour colorer le plastique dynamiquement, ça pourrait marcher.

EDIT: ah ben tiens: https://reprap.org/w...ing_filament/fr


#105112 Turtlebot AutoRace 2020 & STEAM CUP 2020

Posté par R1D1 - 07 septembre 2019 - 09:49

Janvier 2020 pour ceux que ça intéresse !

https://discourse.ro...race-2019/10566




#104582 Labyrinthe modulaire

Posté par R1D1 - 28 juillet 2019 - 10:00

Bonsoir !

 

Comme je l'avais évoqué dans le sujet de pmdd (voir ici: https://www.robot-ma...o-ev3/?p=104534), j'ai besoin d'un labyrinthe modulaire pour mes stagiaires. Après un design rapide sous Openscad pour avoir une idée de la réalisation, j'ai coupé une planche qui traînait pour faire mes parties. À la main, parce que ma scie sauteuse ne coupe pas droit !

Puis ponçage des pièces et assemblage des murs avec un clou et de la colle à bois ... Beaucoup d'huile de coude dans le processus.

 

IMG_20190726_194444.jpg IMG_20190726_205130.jpg IMG_20190728_180622.jpg

IMG_20190728_184452.jpg IMG_20190728_184457.jpg IMG_20190728_184526.jpg IMG_20190728_184629.jpg

 

Les murs font 80x160 mm, les plaques 160x160mm

IMG_20190728_184650.jpg

 

Le labyrinthe est modulaire, on peut changer sa configuration case par case. Il me manque juste à faire quelques pieds supplémentaires pour que toutes les planchers soient bien à plat.

IMG_20190728_203236.jpg IMG_20190728_203457.jpg




#104534 Robots roulants autonomes Lego Ev3

Posté par R1D1 - 26 juillet 2019 - 12:24

Je suis en train de fabriquer ça pour mes stagiaires qui travaillent avec Thymio:
modular_maze_v1.png

Je mets également le .scad dans cette version si tu veux jeter un oeil, les cases font 16x16, les murs 16x8 mais c'est changeable facilement.
Fichier joint  maze_plates.scad.zip   765 octets   150 téléchargement(s)


#104388 La RMSA ( Robot Maker School Academie ) / le robot maker lab à Anglet

Posté par R1D1 - 12 juillet 2019 - 08:45

Quelques points rapidement:
- le statut et le modèle de financement (bizness model :money: ) et de développement, bien que pas les parties les plus intéressantes, sont super importantes. Le statut légal d'un tiers-lieu financé par la mairie impose probablement des contraintes sur l'activité ou les modes de revenus qu'il faut prendre en compte. Le mode de financement est -- malheureusement -- au coeur du problème (sauf si t'as gagné au loto :) ) : qu'est-ce qui est "vendu", pour quels "clients", etc.
Par exemple, les particuliers intéressés représentent probablement peu de personnes/d'argent comparé au coût de maintenance d'un tel endroit.
Anglet est-il le meilleur endroit pour ça en termes d'intérêt, de taille de population ? Exemple: le Deep Learning Meetup à Paris est toujours complet et rassemble plus de 100 personnes régulièrement ; un évènement similaire dans la 5ème plus grosse ville d'Autriche peine à rassembler 30 personnes. Je ne sais pas quel est la proportion de personnes intéressées par le sujet dans le Sud-Ouest (en dehors des étudiants de l'ESTIA mais qui ont probablement déjà accès à l'équipement de l'école), mais c'est à considérer.

Bref, loin de moi l'idée de te décourager, au contraire, je pense que ça peut être un super projet, mais loin d'être facile.
Par ailleurs, j'ai envie de dire que s'il y a un appel à projets, ça vaut le coup de le tenter ne serait-ce que pour formaliser ton idée dans un plan réalisable. Et si ça passe, c'est parti :)


#104266 Led RGB/Arduino avec E/S analogique

Posté par R1D1 - 04 juillet 2019 - 11:07

Alors, je me suis posé le même genre de question (où mettre mes LEDs RGB) sur ma pauvre Arduino déjà bien remplie tout en gardant la variété d'illuminations possibles. La solution à laquelle je suis arrivé est de remplacer les LED par des rubans de LEDs adressables.
En gros, quelque soit le nombre de LED voulues, tu n'as besoin que de +Vcc, GND et SIG (donc au mieux, 3 pins, peut-être plus selon les modèles de ruban). Il faut dimensionner l'alimentation en conséquence, mais couper et souder un ruban avec le bon nombre de LED est facile.
Disclaimer : je parle en théorie, je n'ai pas fini de tester le setup moi-même, mais je n'ai rien vu qui s'oppose à cette idée jusqu'à présent dans mes recherches.


#103981 Retour ICRA 2019

Posté par R1D1 - 18 juin 2019 - 10:27

Yes, Lidar 3D, on l'aperçoit quand je m'approche sinon sur le mât dans le modèle 3D.


#103974 Retour ICRA 2019

Posté par R1D1 - 17 juin 2019 - 10:12

Yop !

 

Fin Mai, j'ai eu l'occasion d'aller à ICRA, une des deux plus grosses conférences de robotique à Montréal, du coup, voici quelques photos et vidéos de ce que j'ai pu y voir:

 

- Palais des Congrès de Montréal:

IMG_20190522_094254.jpg

 

- Robot Fetch

IMG_20190521_130332.jpg

 

- DJI et son Challenge RoboMaster

IMG_20190521_131658.jpg IMG_20190521_132058.jpg

 

- Laikago et Spot Mini nous ont fait de belles démos:

 

- Robotique modulaire (Hebi robotics)

 

- Clearpath Warthog, robot d'extérieur:

 

- Robotique et art :

https://youtu.be/RTPpLKJG1yY