Aller au contenu


Jbarso78

Inscrit(e) (le) 11 févr. 2013
Déconnecté Dernière activité mai 25 2014 03:01
-----

Messages que j'ai postés

Dans le sujet : Verrouillage de cible par asservissement visuel (TIPE 2013-2014)

02 novembre 2013 - 03:05

A priori tu dois pouvoir t'affranchir de l'i2c et faire une simple communication série entre ton programme Python sur l'ordinateur et ton Arduino.
Il te suffit donc de brancher le câble USB classique entre l'ordi et l'Arduino.


Très bien, merci !

Mais sais-tu comment mon programme arduino peut utiliser les résultats du programme esclave python ?

Dans le sujet : Verrouillage de cible par asservissement visuel (TIPE 2013-2014)

30 octobre 2013 - 07:11

Bonjour,

A priori c'est faisable. Voici un lien vers un projet analogue utilisant une Raspberry Pi pour faire le traitement vidéo avec OpenCV, mais tu peux utiliser aussi un ordinateur plus classique pour faire ce traitement vidéo:
http://blog.oscarliang.net/raspberry-pi-face-recognition-opencv/

Bon courage


Oui, voilà c'était l'idée. S'affranchir d'une raspberry et tout faire directement avec l'ordinateur.

Il suffit donc que je branche l'arduino en USB ? (pour avoir la liaison I2C)

Merci.

Dans le sujet : Navigation par asservissement visuel d'un robot mobile

15 juin 2013 - 10:09


Après les ultrasons, ça ! tongue.gif/>/>
Tu commences à me rattraper ! =) bientôt je te chercherais juste sur mais talons mes tu seras devant ! wink.gif/>/>
( d'ailleurs j'ai retrouvé mes derniers travaux sur les ultrasons mais bon maintenant tu en as plus besoin ^^ )

Bref !
Je travaille justement là dessus donc j'espère bien que la raspberry pi est suffisante pour cela ... Après faudra pas lui demander trop d'images par secondes non plus de ce que j'ai pu en lire ! Mais je verais bien à moins que tu le découvres par toi même avant ! ( un exemple parmis tant d'autre de ce que j'ai pu lire : http://stackoverflow.com/questions/16609921/usb-webcam-runs-slowly-on-raspberry-pi-with-opencv )

En gros pour le traitement d'image j'ai reçu ma web cam hier et là je m'intéresse à ce tuto : http://programmaticponderings.wordpress.com/2013/02/09/opencv-and-cvblob-with-raspberry-pi/

Et puis pour un robot raspberry pi avec L298 on est en train d'essayer de monter un projet de robot collectivement sur le même principe ! Normalement demain j'imprime une carte de moteur et si je me trouve une belle plaque je fixe mes roues dessus. On verra si je fais le premier tour de roue demain soir ! ^^


Bon par contre pour répondre à ta question, je ne suis pas sur que partir là dessus pour ton TIPE ( Bien que le sujet soit intéressant ) ne soit une très bonne idée ... "le restituer au robot." est selon moi la seule partie répondant au sujet imposé dans l'explication que tu donnes de ton sujet. ( Après ce n'est que mon point de vue ... ) Par contre rien ne t'empêche de développer quand même ce que tu veux faire : d'ailleurs je t'y encourage wink.gif/>/> mais d'axer ton TIPE surtout sur la partie Echange et transfert ... Et donc par exemple développer un protocole de communication propre ... par ultra-son par exemple ! ( c'est les chiens qui vont apprécier x) ) ou n'importe quoi d'autre plus basé sur la communication, pour transférer et échanger des données ...

En tout cas je te souhaite bon courage ! ( d'ailleurs comment s'est passé ton TIPE cette année ? bien j'espère ! ça faisait un petit moment qu'on ne t'avait pas vu sur le forum wink.gif/>/> )

à bientôt !



Salut,

Mais non, je ne te rattraperai pas. J'ai beaucoup à apprendre et parfois l'ambition dépasse les réelles capacités :on_the_quiet:/>

Bref, pour le TIPE de cette année, je passe à l'oral la semaine prochaine. Dans l'ensemble, c'est plutôt pas mal je pense. On reste très simple avec plusieurs parties qui répondent à un cahier des charges qu'on s'est fixé (contrôle des moteurs, réaliser une télémétrie, détecter un obstacle, éviter un obstacle).

Pour celui de l'année prochaine, à vrai dire, c'est avec un professeur que nous sommes arrivés à l'asservissement visuel. Pour répondre au sujet "Echange et transfert", j'aurai articulé le travail en 2 phases :

1/ Transfert de flux vidéo au PC (asservissement visuel)
2/ Echange "intellectuelle" entre le robot et l'Homme (communiquer "où je veux qu'il aille", qu'il me prévienne s'il a rencontré un obstacle et quelle procédure a t-il lancé : évitement, arrêt total, sans influence)

Sur des situations vraiment simplifiées évidemment pour le TIPE, mais ça reste deux grosses parties à expliquer toutefois.


See you,
Jbarso78



ps: contrôle des moteurs par L298 avec la raspberry PI je suis preneur car pour le si peu que je connaisse la raspberry a des PWM (à la bonheur!). Aussi, je dois réinvestir dans des moteurs et des roues parce que sur l'ancien projet c'était trop faible en puissance. Je me fournis sur ce site : http://www.milleniumrc.fr/ (si tu as des conseils je suis encore une fois preneur)

Dans le sujet : iBango, le robot qui evite les obstacles grâce aux ultra-sons

25 avril 2013 - 10:03

Je viens tout juste de voir que tu avais répondu ici !
Peux tu mettre le schémas de ton montage actuel ? ( emission + réception avec les valeur des composaant si possible )
As tu trouvé ton aop ? As tu trouver une autre solution ? ( pour savoir si je cherche un peu ou si j'arrive trop tard après la guerre x) )



J'ai gardé le même schéma qu'on avait dit. J'ai juste investi dans deux accumulateurs rechargeables pour donner une tension symétrique +9V -9V parce que de toute manière la réception de l'ultrason est en sinusoïdale et mon offset est nul donc pas le choix.
L'autre solution, c'est celle que l'on avait évoqué au tout début avec un offset (+ masse virtuelle).

Merci quand même,
En ce moment, on programme pour éviter des obstacles : ça avance ! Moi je me consacre au suivi le ligne par webcam maintenant comme tu peux le voir

Cordialement,
JBarso78

Dans le sujet : iBango, DT3 : Suivre une ligne

24 avril 2013 - 10:23

Merci geek maxou, je cours lire ce sujet !!!