Aller au contenu


Photo
- - - - -

Capteur Kinect Xbox


12 réponses à ce sujet

#1 Leon

Leon

    Membre passionné

  • Membres
  • PipPipPipPipPip
  • 1 289 messages
  • Gender:Male

Posté 14 novembre 2010 - 07:51

Bonjour à tous!
J'ai découvert cette vidéo qui m'a beaucoup impressionnée.
Ils utilisent le capteur KINECT de la Xbox 360.
http://www.youtube.com/watch?v=jQgnuupBUI4

En gros, jusqu'à présent, les gens qui voulaient faire des algos complexes avec des infos 3D de l'environnement étaient obligés d'utiliser des capteurs très chers, comme des télémètres laser... à plus de 1000€ (capteur hokuyo). Et ici, on a une solution à moins de 150€, et qui semble assez performante.

Je ne suis pas du tout Geek, je me tiens très peu au courant de l'actualité des produits High Tech... Mais là, je suis très impressionné!
Alors, quelqu'un connait-il le principe de capteur utilisé dans ce périphérique? Pourquoi n'a-t-on rien vu de semblable auparavant? Est-ce que ça fonctionne si on bouge le capteur?

Leon.

BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)


#2 Luj

Luj

    Habitué

  • Membres
  • PipPip
  • 295 messages
  • Gender:Not Telling

Posté 14 novembre 2010 - 09:22

Oui, cette vidéo est effectivement la plus impressionnante de celles qui sont parues ces derniers jours.
ROS est utilisé par notre club et avoir déjà un driver disponible pour la Kinect est vraiment impressionnant. On devrait donc faire une démo bientôt :)

Le principe du capteur est original, et différent des caméras stéréoscopiques habituelles (comme la BumbleBee) :
- un spot infra-rouge éclaire la scène d'une forte lumière invisible
- une caméra filtrée en infra-rouge récupère chacun des pixels
- plus le pixel est brillant, plus c'est proche de l'objectif

Voici la liste du matériel utilisé dans la Kinect : http://www.adafruit.com/blog/2010/11/11/kinects-bom-roughly-56-teardown-finds/

Certes c'est plus puissant mais c'est encore trop cher pour la plupart d'entre nous, donc on préfère chercher à améliorer la vue de la profondeur à partir de deux webcams simples ou d'une webcam 3D à 30 euros. La démo a déjà été faite vendredi soir, on publiera quand ce sera plus joli :)

Il ne faut pas se leurrer, la représentation 3D dans cette vidéo est très bien faite, mais c'est la même information disponible que sur les vidéos en niveaux de gris. Mais encore fallait-il avoir l'idée d'une telle représentation donc admiration. J'essaierai de faire de même avec nos propres essais, en mettant des couleurs à la place du gris et en donnant une profondeur.

#3 Jbot

Jbot

    Membre chevronné

  • Membres
  • PipPipPipPip
  • 801 messages
  • Gender:Male
  • Location:Paris

Posté 14 novembre 2010 - 11:52

Whaou la vache c'est pas mal en effet ! Il fait quel taille ce capteur ? J'arrive pas à trouver l'info. Si c'est suffisamment petit j'vais ptete en acheter un pour mes robots du coup ^^ (même si j'ai pas de xbox :P)


Malédiction du Créatif :
Plus vous avez d’idées et moins vous arrivez à les structurer.


#4 Leon

Leon

    Membre passionné

  • Membres
  • PipPipPipPipPip
  • 1 289 messages
  • Gender:Male

Posté 14 novembre 2010 - 12:46

Pour le tarif, je trouve que 150€, c'est raisonnable pour un truc aussi génialissime! C'est complètement révolutionnaire, leur truc! Rien de semblable n'existait pour le grand public il y a 2 mois! Mais bon, ça reste mon propre avis...

Apparemment, la société "PrimeSense"reste très discrète sur le principe. J'ai fouillé. Ca foctionne par triangulation. Ils ne se contentent pas d'envoyer un "spot infrarouge", ils envoient des motifs infrarouge, comme un mini vidéoprojecteur infrarouge. Je ne sais pas si l'image infrarouge envoyée est fixe ou dynamique. Le projecteur et la caméra IR sont suffisamment écartées l'un de l'autre pour avoir la profondeur. Mais bon, en n'en sait pas beaucoup plus.

C'est certain, dans les prochains mois, on va voir de plus en plus de robots faire du SLAM! Ca devient accessible pour les "amateurs éclairés"!

Leon.

BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)


#5 Luj

Luj

    Habitué

  • Membres
  • PipPip
  • 295 messages
  • Gender:Not Telling

Posté 14 novembre 2010 - 05:50

Je ne veux surtout pas faire le rabat-joie : c'est effectivement révolutionnaire et jamais-vu pour le grand public.
Le coup du motif est très bien, car c'est ce qui peut leur donner une précision supplémentaire.

Pour la triangulation, voir ce qui se faisait avec un seul point : http://sites.google.com/site/todddanko/home/webcam_laser_ranger
J'ai pu rencontrer des personnes qui motorisaient le laser pour scanner tout l'espace, à la manière d'un scanner à laser David mais pour quelques dizaines d'euros et sans grille de calibration. Mais bon, tant qu'elles ne publient pas ce qu'elles font, ces personnes se feront voler la vedette par des produits du commerce.

Pour la reconnaissance de motif et la détermination de la position dans l'espace, on connait depuis 2004 grâce à nos voisins de l'INRIA (qu'on a pu visiter !!) et le projet ESM : http://esm.gforge.inria.fr/ (vidéos à voir jusqu'à ce qu'on a compris la puissance du "visual servoing".

#6 Luj

Luj

    Habitué

  • Membres
  • PipPip
  • 295 messages
  • Gender:Not Telling

Posté 14 novembre 2010 - 10:41

Petite tentative de notre part pour faire une visualisation similaire :

Image IPB

C'est à chaque fois la même image : en niveau de gris, puis en fausses couleurs et enfin en 3D.
Le code source est disponible sur notre playground.

#7 Leon

Leon

    Membre passionné

  • Membres
  • PipPipPipPipPip
  • 1 289 messages
  • Gender:Male

Posté 14 novembre 2010 - 10:48

Il faudrait poster une image réelle en parallèle, parce que là, je ne comprend pas du tout de quoi il s'agit!

Pourquoi ne pas mettre tout simplement les 2 images (photos) qui ont servi à faire ces vues?

Leon.

BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)


#8 Luj

Luj

    Habitué

  • Membres
  • PipPip
  • 295 messages
  • Gender:Not Telling

Posté 14 novembre 2010 - 11:09

L'article est en cours de rédaction. Les images (gauche, droite, résultat en niveau de gris) y seront (en fait elles sont déjà avec le code source).

Image IPB

Il y a un portable sur la gauche (ici en jaune) et un verre (la tache au milieu).
On fera d'autres tests plus clairs, ici c'est juste "proof of concept".

#9 Luj

Luj

    Habitué

  • Membres
  • PipPip
  • 295 messages
  • Gender:Not Telling

Posté 15 novembre 2010 - 07:06

Il y a du nouveau ! Une vidéo qui montre les fameux spots infra-rouge projetés dans toutes les directions par la Kinect :



Et une photo qui montre à quel point c'est fantastiquement précis :

Image IPB

#10 Robotrock

Robotrock

    Membre occasionnel

  • Membres
  • Pip
  • 95 messages

Posté 03 décembre 2010 - 03:58

C'est assez monstrueusement révolutionnaire je trouve aussi...150 euros ca reste vraiment accessible !

A mon avis on va voir pas mal de robots amateurs équipés de ce capteurs dans pas très longtemps....
Atteindre la perfection...

#11 Leon

Leon

    Membre passionné

  • Membres
  • PipPipPipPipPip
  • 1 289 messages
  • Gender:Male

Posté 04 décembre 2010 - 10:02

Eh bien comme prévu, les premiers résultats de SLAM et de modélisation 3D arrivent.
Et c'est réellement très impressionnant! Même avec des trucs super chers, je ne me souviens pas avoir vu une reconstitution 3D d'environnement complexe réalisée aussi rapidement. C'est Magnifique!
Enfin les robots vont pouvoir appréhender notre monde réel!!!
Voici donc ce qu'on peut faire avec un Kinect, et sans doute une petite centrale inertielle. Tout ça pour quelques centaines d'euros.

SLAM (Simultaneous Localisation And Mapping):
http://www.youtube.com/watch?v=rm1JuukxhLQ

Visualisation de l'environnement 3D:
http://www.youtube.com/watch?v=zqZSTieHxqk

Leon.

BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)


#12 bob l'éponge

bob l'éponge

    Nouveau membre

  • Membres
  • 2 messages

Posté 30 janvier 2011 - 08:08

Bonjour à tous. J'ai récemment lu que les capteurs du kinect peuvent être utilisé sur des quadroteurs tels que montrés ici. C'est fascinant de savoir que ça coute environ $50 USD pour Microsoft de le fabriquer alors qu'ils le vendent beaucoup plus cher. Cependant, le capteur en vaut le prix comme on le constate.

#13 Leon

Leon

    Membre passionné

  • Membres
  • PipPipPipPipPip
  • 1 289 messages
  • Gender:Male

Posté 30 janvier 2011 - 08:20

Bonjour à tous. J'ai récemment lu que les capteurs du kinect peuvent être utilisé sur des quadroteurs tels que montrés ici. C'est fascinant de savoir que ça coute environ $50 USD pour Microsoft de le fabriquer alors qu'ils le vendent beaucoup plus cher. Cependant, le capteur en vaut le prix comme on le constate.

Tu te trompes. La vidéo que tu cites n'est pas réalisée avec un kinect, mais avec des capteurs "pro" infiniment plus chers. Ce sont des capteurs très précis et surtout très rapides.

Leon.

BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)




Répondre à ce sujet



  


0 utilisateur(s) li(sen)t ce sujet

0 members, 0 guests, 0 anonymous users