Aller au contenu


Photo
- - - - -

Détection de robots via LEDs infrarouges


17 réponses à ce sujet

#1 Telergoel

Telergoel

    Nouveau membre

  • Membres
  • 6 messages

Posté 25 novembre 2016 - 04:15

Bonjour tout le monde!

Je travaille sur un projet dans lequel on aimerait connaître la position en temps réel de plusieurs robots. Pour cela, on envisage de placer une LED infrarouge sur chaque robot, et d'installer une caméra infrarouge à distance raisonnable. Grâce à un programme de traitement d'image lancé à intervalle régulier, on récupérerait les positions des robots.

Cependant nous ne trouvons pas d'exemples d'une telle utilisation de LEDs infrarouges, et nous aimerions savoir si cette solution est adéquate avant d'investir dans le matériel. Les questions que nous nous posons sont les suivantes : 

 

- L'image prise par la caméra infrarouge rendra-t-elle des simples points lumineux sur fond foncé comme nous l'espérons, ou pensez-vous que la lumière ambiante rendra l'image difficilement lisible?
- Quel genre de caméra serait adaptée à ce projet (nous n'avons pas besoin d'une grande résolution, le bas prix est notre critère le plus important)
- Y aurait-il selon vous une meilleure technologie que l'infrarouge pour répondre à notre besoin de détection des robots en temps réel?

Merci, 

Telergoel



#2 Path

Path

    Made By Humans

  • Modérateur
  • PipPipPipPipPip
  • 2 504 messages
  • Gender:Male
  • Location:Paris

Posté 25 novembre 2016 - 05:01

Bonjour, bienvenue.

Le sujet est très intéressant.

Sans savoir qui est on, d'où vous venez, et où vous allez (avec un peu plus de détails), pas facile de vous aider. Et c'est toujours plus sympa de savoir à qui on s'adresse :)

Une petite présentation s'impose. C'est par là que ça se passe. http://www.robot-maker.com/forum/27-et-si-vous-vous-presentiez/

 

Merci d'avance.



#3 Microrupteurman

Microrupteurman

    Pilier du forum

  • Modérateur
  • PipPipPipPipPip
  • 2 210 messages
  • Gender:Male
  • Location:Aquitaine,Gironde
  • Interests:Tout

Posté 25 novembre 2016 - 06:06

Salut, 

 

Peut être pas besoin de cam infrarouge, toutes les camera le capte ! (essaie avec ton smartphone sur la télécommande de ta télé)


 
Page Facebook : https://www.facebook...appartelier2.0/
Page Twitter :  https://twitter.com/2Appartelier (bateau seulement)
Boutique Robot-Maker : https://www.robot-ma...er-20/produits/

Besoin d'une impression 3D grand format ? Contactez moi !
 


#4 Ulysse

Ulysse

    Membre passionné

  • Membres
  • PipPipPip
  • 486 messages
  • Gender:Not Telling

Posté 25 novembre 2016 - 06:29

Bonjour Telergoel, bienvenue.

 

Peut être pas besoin de cam infrarouge, toutes les camera le capte ! (essaie avec ton smartphone sur la télécommande de ta télé)

Tout à fait, on parle bien là d'infrarouge proche.

Voire même de simples LEDS en lumière visible (rouge, verte,bleu,jaune pour différencier 4 robots)

Ou encore plus simple : sans LED, avec de simples repères de couleur sur les robots et une webcam.

Edit : à condition bien sûr dans ce cas que le fond ne soit pas de la couleur des repères.

 



#5 levend

levend

    Pilier du forum

  • Membres
  • PipPipPipPipPip
  • 5 572 messages
  • Gender:Male
  • Location:Vendée
  • Interests:Robotique, informatique, architecture et patrimoine...

Posté 25 novembre 2016 - 08:09

Merci Path, je n'ai plus à faire le méchant :D .


Imprimante 3D : Prusa i3 (MK1) + CR-10S + CR-10 S5 + Artillery Sidewinder X2 + CR-30 + Elegoo Mars + Anycubic Wash & cure 2 + Phrozen Sonic Mega 8K + Phrozen Cure Mega

#6 ashira

ashira

    Pilier du forum

  • Modérateur
  • PipPipPipPipPip
  • 1 333 messages
  • Gender:Male

Posté 25 novembre 2016 - 08:15

Tu peux même enlever le petit filtre ir sur les objectifs de caméra pour mieux capter tes leds. Et qui sait il existe peut être des filtres qui font l'inverse: stopper la lumière visible en laissant passer les ir!

#7 Path

Path

    Made By Humans

  • Modérateur
  • PipPipPipPipPip
  • 2 504 messages
  • Gender:Male
  • Location:Paris

Posté 25 novembre 2016 - 08:59

Merci Path, je n'ai plus à faire le méchant :D .

De rien :D mais je crois pas être méchant.



#8 levend

levend

    Pilier du forum

  • Membres
  • PipPipPipPipPip
  • 5 572 messages
  • Gender:Male
  • Location:Vendée
  • Interests:Robotique, informatique, architecture et patrimoine...

Posté 25 novembre 2016 - 11:15

C'est sûr, comparé à moi qui fermais le sujet en attendant la présentation :D .


Imprimante 3D : Prusa i3 (MK1) + CR-10S + CR-10 S5 + Artillery Sidewinder X2 + CR-30 + Elegoo Mars + Anycubic Wash & cure 2 + Phrozen Sonic Mega 8K + Phrozen Cure Mega

#9 Path

Path

    Made By Humans

  • Modérateur
  • PipPipPipPipPip
  • 2 504 messages
  • Gender:Male
  • Location:Paris

Posté 26 novembre 2016 - 12:04

Ha oui !! :D HA ben si le message passe pas, là, ...

Bon, Telergoel, c'est un essaim, c'est plusieurs robots de quel façon ?

On veut savoir.



#10 Telergoel

Telergoel

    Nouveau membre

  • Membres
  • 6 messages

Posté 28 novembre 2016 - 10:50

Sans savoir qui est on, d'où vous venez, et où vous allez (avec un peu plus de détails), pas facile de vous aider. Et c'est toujours plus sympa de savoir à qui on s'adresse :)

Une petite présentation s'impose. C'est par là que ça se passe. http://www.robot-maker.com/forum/27-et-si-vous-vous-presentiez/

C'est chose faite :) petite présentation ici

 

 

Tout à fait, on parle bien là d'infrarouge proche.

Voire même de simples LEDS en lumière visible (rouge, verte,bleu,jaune pour différencier 4 robots)

Ou encore plus simple : sans LED, avec de simples repères de couleur sur les robots et une webcam.

Edit : à condition bien sûr dans ce cas que le fond ne soit pas de la couleur des repères.

La raison pour laquelle nous songions aux fréquences infrarouges était justement de pouvoir faire abstraction de tout le spectre des couleurs visibles pendant la phase de traitement d'image en temps réel. L'idée de repères colorés est bonne, mais les robots eux-mêmes seront de couleurs multiples, ainsi que potentiellement la surface sur laquelle ils évoluent, et même les lumières qui seront dirigées sur eux! (ces robots doivent être utilisés dans le cadre de spectacles).
 

 

Tu peux même enlever le petit filtre ir sur les objectifs de caméra pour mieux capter tes leds. Et qui sait il existe peut être des filtres qui font l'inverse: stopper la lumière visible en laissant passer les ir!

C'est bon à savoir, merci :) pour les raisons exposées juste au-dessus, il nous faudrait justement un filtre qui stoppe la lumière visible!! C'est pourquoi nous pensions initialement à une caméra infrarouge, mais si on peut réaliser notre solution à prix moindre grâce à une caméra standard, je suis preneur!
 

 

Bon, Telergoel, c'est un essaim, c'est plusieurs robots de quel façon ?

C'est un groupe qui peut varier de deux/trois robots à une vingtaine… Ils doivent danser sur une scène dans le cadre d'un spectacle. On a besoin de les détecter en temps réel (position+orientation) pour pouvoir prévenir les collisions en leur interdisant certains mouvements quand ils se trouvent à proximité d'un autre robot.

Merci à tous de votre implication :) 



#11 Thot

Thot

    Membre passionné

  • Membres
  • PipPipPip
  • 327 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 29 novembre 2016 - 12:12

Bonjour,

 

j'ai le même type de problématique avec des drones. Je souhaite positionner en temps réel une flotte de drones pour les piloter au mieux. Le principe que tu présentes est similaire à la motion capture sauf que dans ton cas le robot est émetteur IR.

Je cherche à tester des choses avec la Raspberry Pi Caméra NoIR et un filtre IR.

La raspberry pi camera NoIR est une camera sans filtre IR (c'est à dire qu'elle détecte les infra rouge en plus de la lumière visible)

Un filtre IR filtre la lumière visible et laisse passer les IR. On peut en acheter mais un morceau de pellicule photo fait l'affaire.

Reste à détecter les "blobs" générés par les LED infrarouges avec open CV ou sans open CV (des alternatives ?)

L'autre problème que je vais bientôt voir c'est les projecteurs de scène... grosse inconnue.

 

Il existe aussi les solutions UWB de "GPS indoor" mais là aussi, c'est encore en test.

 

Après, il y a la motion capture... mais il faut avoir 100 000€ disponible facilement...


"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#12 macerobotics

macerobotics

    Membre occasionnel

  • Membres
  • Pip
  • 148 messages
  • Gender:Not Telling
  • Location:Bretagne

Posté 30 novembre 2016 - 07:15

Bonjour,

 

Alternatives à OpenCv : robotRealm, swistrack

 

Quelle est la précision obtenue par des solutions UWB ?


Mace Robotics - mobile platform for education makers and research.

www.macerobotics.com


#13 R1D1

R1D1

    Modérateur et Membre passionné

  • Modérateur
  • PipPipPipPipPip
  • 1 211 messages
  • Gender:Male
  • Location:Autriche

Posté 30 novembre 2016 - 11:10

Autre proposition : si la scene est statique durant le spectacle, il est possible, avec un dispositif placé au dessus, de faire une mesure de profondeur : en enlevant le plan de la scène et les obstacles, on obtient des nuages de points qui permettent de localiser les robots. En termes de capteurs, deux cameras pour faire de la stereovision, ou un capteur type kinect donnent le nuage de points.

Pour ce qui est d'éviter les collisions, je suis partisan d'une solution embarquée sur le robot : des capteurs ultrasons par exemple. Si tu gères les collisions à distance, tu prends le risque que la réactivité des robots soit affectée par la latence du réseau. Et ça, c'est rarement bon (mais ça dépend du prix et des vitesses des robots : s'ils peuvent admettre des collisions à faible vitesse sans dommage, c'est peut-être un risque acceptable).


R1D1 - Calculo Sed Ergo Sum -- en ce moment, M.A.R.C.E.L.
Avatar tiré du site bottlebot

#14 Telergoel

Telergoel

    Nouveau membre

  • Membres
  • 6 messages

Posté 30 novembre 2016 - 11:28

La raspberry pi camera NoIR est une camera sans filtre IR (c'est à dire qu'elle détecte les infra rouge en plus de la lumière visible)

Un filtre IR filtre la lumière visible et laisse passer les IR. On peut en acheter mais un morceau de pellicule photo fait l'affaire.

C'est exactement l'information dont j'avais besoin!! De plus cette caméra semble être à un prix vraiment abordable, ce qui est essentiel pour notre projet. Quant aux filtres IR, je n'y connais pas grand chose, mais les prix ont l'air assez élevés.. si un simple morceau de pellicule photographique suffit, je partirai sans doute dans cette direction!

Je compte effectivement utiliser OpenCV pour le traitement d'image, j'ai déjà travaillé sur un problème similaire dans le cadre de mes cours il y a quelques semaines (détection et détourage de cellules sur des photographies prises au microscope électronique). En revanche je n'ai pas noté le temps d'exécution total de cette opération… A quelle fréquence relevez-vous les positions de vos drones dans le cadre de votre projet en temps réel? Tenez-moi au courant de vos avancées si vous travaillez là-dessus en ce moment, ça m'intéresse beaucoup! :) Merci!

 



#15 Thot

Thot

    Membre passionné

  • Membres
  • PipPipPip
  • 327 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 30 novembre 2016 - 11:36

Bonjour,

 

Alternatives à OpenCv : robotRealm, swistrack

 

Quelle est la précision obtenue par des solutions UWB ?

 

Merci pour ces alternatives, il y a aussi https://github.com/davisking/dlib que je viens de découvrir.

 

Pour l'UWB, pour le moment, il semble qu'on arrive à une précison de l'ordre de 10cm mais c'est en pleine recherche, et apparement c'est encore très expérimental.

On est loin de la précision de la motion capture ou du HTC vive (0.3mm)


"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#16 Telergoel

Telergoel

    Nouveau membre

  • Membres
  • 6 messages

Posté 30 novembre 2016 - 11:37

Autre proposition : si la scene est statique durant le spectacle, il est possible, avec un dispositif placé au dessus, de faire une mesure de profondeur : en enlevant le plan de la scène et les obstacles, on obtient des nuages de points qui permettent de localiser les robots. En termes de capteurs, deux cameras pour faire de la stereovision, ou un capteur type kinect donnent le nuage de points.

Pour ce qui est d'éviter les collisions, je suis partisan d'une solution embarquée sur le robot : des capteurs ultrasons par exemple. Si tu gères les collisions à distance, tu prends le risque que la réactivité des robots soit affectée par la latence du réseau. Et ça, c'est rarement bon (mais ça dépend du prix et des vitesses des robots : s'ils peuvent admettre des collisions à faible vitesse sans dommage, c'est peut-être un risque acceptable).

La scène est effectivement statique, la solution de la mesure en stéréovision est intéressante! Je vais me pencher là-dessus. 

Concernant la solution embarquée pour l'évitement de collisions, même si je suis d'accord avec vous concernant la réactivité du système, je pense que cette solution ne serait pas adaptée à notre problème. En effet, les robots ne prennent jamais de décisions par eux-mêmes, c'est systématiquement l'ordinateur qui décide quel mouvement leur faire effectuer et leur communique ce choix. Aussi, une solution embarquée ne serait envisageable que comme dernière couche, où le robot pourrait décider de ne pas effectuer une certaine action demandée par l'ordinateur qui risquerait d'entraîner une collision… Ce qui me semble compliqué, d'autant plus que nous sommes de toute façon contraints par la latence du réseau. Cependant une autre équipe d'étudiants travaille là-dessus : nos robots, jusqu'ici équipés d'un module BlueTooth, seront bientôt équipés de puces Zigbee, et le protocole de transmission des données va être ré-optimisé. 



#17 ashira

ashira

    Pilier du forum

  • Modérateur
  • PipPipPipPipPip
  • 1 333 messages
  • Gender:Male

Posté 30 novembre 2016 - 11:42

Des aiments néodymes autours des drones :)

Sinon il y aurait pas moyen de capter la présence d'un drone avec l'électromagnétisme ? Genre chaque drone émet un rayonnement à une certaine fréquence et des petits capteurs sont placés sur le drone (au moins 3) avec un filtre passe bande qui va bien.

Telergoel, ce sont des robot sur roues ? Tu as pensé à l'odometrie ?

#18 Telergoel

Telergoel

    Nouveau membre

  • Membres
  • 6 messages

Posté 30 novembre 2016 - 12:06

Telergoel, ce sont des robot sur roues ? Tu as pensé à l'odometrie ?

Non, ce sont des Metabots. En odométrie, je pense que la seule solution serait un accéléromètre sur chaque robot. Mais cette solution me semble compliquée à mettre en place, de par les approximations de déplacement qui peuvent s'accumuler au cours du temps. D'autant plus que jusqu'à présent, les robots reçoivent des données de l'ordinateur mais ne sont pas censés lui en envoyer (ou très peu). 

Lorsqu'on m'a présenté le projet, j'avais pensé à simplement calculer la position du robot après chaque mouvement effectué par le robot, par l'étude du déplacement relatif à chaque mouvement. Mais cette possibilité a vite été balayée, car un même mouvement n'entraîne pas systématiquement un déplacement identique (dépendance à la rugosité de la surface, à la charge de la batterie qui alimente les moteurs, …), et donc au bout de quelques mouvements la position théorique du robot serait éloignée de la position réelle. Ce sont toutes ces considérations qui m'ont permis de conclure que l'analyse extérieure par caméra était sans doute la méthode la plus fiable que nous ayons (pas d'approximations cumulables sur le temps). 





Répondre à ce sujet



  


0 utilisateur(s) li(sen)t ce sujet

0 members, 0 guests, 0 anonymous users