
Capteur Kinect Xbox
#1
Posté 14 novembre 2010 - 07:51
J'ai découvert cette vidéo qui m'a beaucoup impressionnée.
Ils utilisent le capteur KINECT de la Xbox 360.
http://www.youtube.com/watch?v=jQgnuupBUI4
En gros, jusqu'à présent, les gens qui voulaient faire des algos complexes avec des infos 3D de l'environnement étaient obligés d'utiliser des capteurs très chers, comme des télémètres laser... à plus de 1000€ (capteur hokuyo). Et ici, on a une solution à moins de 150€, et qui semble assez performante.
Je ne suis pas du tout Geek, je me tiens très peu au courant de l'actualité des produits High Tech... Mais là, je suis très impressionné!
Alors, quelqu'un connait-il le principe de capteur utilisé dans ce périphérique? Pourquoi n'a-t-on rien vu de semblable auparavant? Est-ce que ça fonctionne si on bouge le capteur?
Leon.
BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)
#2
Posté 14 novembre 2010 - 09:22
ROS est utilisé par notre club et avoir déjà un driver disponible pour la Kinect est vraiment impressionnant. On devrait donc faire une démo bientôt

Le principe du capteur est original, et différent des caméras stéréoscopiques habituelles (comme la BumbleBee) :
- un spot infra-rouge éclaire la scène d'une forte lumière invisible
- une caméra filtrée en infra-rouge récupère chacun des pixels
- plus le pixel est brillant, plus c'est proche de l'objectif
Voici la liste du matériel utilisé dans la Kinect : http://www.adafruit.com/blog/2010/11/11/kinects-bom-roughly-56-teardown-finds/
Certes c'est plus puissant mais c'est encore trop cher pour la plupart d'entre nous, donc on préfère chercher à améliorer la vue de la profondeur à partir de deux webcams simples ou d'une webcam 3D à 30 euros. La démo a déjà été faite vendredi soir, on publiera quand ce sera plus joli

Il ne faut pas se leurrer, la représentation 3D dans cette vidéo est très bien faite, mais c'est la même information disponible que sur les vidéos en niveaux de gris. Mais encore fallait-il avoir l'idée d'une telle représentation donc admiration. J'essaierai de faire de même avec nos propres essais, en mettant des couleurs à la place du gris et en donnant une profondeur.
#3
Posté 14 novembre 2010 - 11:52

Malédiction du Créatif :
Plus vous avez d’idées et moins vous arrivez à les structurer.
#4
Posté 14 novembre 2010 - 12:46
Apparemment, la société "PrimeSense"reste très discrète sur le principe. J'ai fouillé. Ca foctionne par triangulation. Ils ne se contentent pas d'envoyer un "spot infrarouge", ils envoient des motifs infrarouge, comme un mini vidéoprojecteur infrarouge. Je ne sais pas si l'image infrarouge envoyée est fixe ou dynamique. Le projecteur et la caméra IR sont suffisamment écartées l'un de l'autre pour avoir la profondeur. Mais bon, en n'en sait pas beaucoup plus.
C'est certain, dans les prochains mois, on va voir de plus en plus de robots faire du SLAM! Ca devient accessible pour les "amateurs éclairés"!
Leon.
BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)
#5
Posté 14 novembre 2010 - 05:50
Le coup du motif est très bien, car c'est ce qui peut leur donner une précision supplémentaire.
Pour la triangulation, voir ce qui se faisait avec un seul point : http://sites.google.com/site/todddanko/home/webcam_laser_ranger
J'ai pu rencontrer des personnes qui motorisaient le laser pour scanner tout l'espace, à la manière d'un scanner à laser David mais pour quelques dizaines d'euros et sans grille de calibration. Mais bon, tant qu'elles ne publient pas ce qu'elles font, ces personnes se feront voler la vedette par des produits du commerce.
Pour la reconnaissance de motif et la détermination de la position dans l'espace, on connait depuis 2004 grâce à nos voisins de l'INRIA (qu'on a pu visiter !!) et le projet ESM : http://esm.gforge.inria.fr/ (vidéos à voir jusqu'à ce qu'on a compris la puissance du "visual servoing".
#7
Posté 14 novembre 2010 - 10:48
Pourquoi ne pas mettre tout simplement les 2 images (photos) qui ont servi à faire ces vues?
Leon.
BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)
#8
Posté 14 novembre 2010 - 11:09

Il y a un portable sur la gauche (ici en jaune) et un verre (la tache au milieu).
On fera d'autres tests plus clairs, ici c'est juste "proof of concept".
#11
Posté 04 décembre 2010 - 10:02
Et c'est réellement très impressionnant! Même avec des trucs super chers, je ne me souviens pas avoir vu une reconstitution 3D d'environnement complexe réalisée aussi rapidement. C'est Magnifique!
Enfin les robots vont pouvoir appréhender notre monde réel!!!
Voici donc ce qu'on peut faire avec un Kinect, et sans doute une petite centrale inertielle. Tout ça pour quelques centaines d'euros.
SLAM (Simultaneous Localisation And Mapping):
http://www.youtube.com/watch?v=rm1JuukxhLQ
Visualisation de l'environnement 3D:
http://www.youtube.com/watch?v=zqZSTieHxqk
Leon.
BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)
#12
Posté 30 janvier 2011 - 08:08
#13
Posté 30 janvier 2011 - 08:20
Tu te trompes. La vidéo que tu cites n'est pas réalisée avec un kinect, mais avec des capteurs "pro" infiniment plus chers. Ce sont des capteurs très précis et surtout très rapides.Bonjour à tous. J'ai récemment lu que les capteurs du kinect peuvent être utilisé sur des quadroteurs tels que montrés ici. C'est fascinant de savoir que ça coute environ $50 USD pour Microsoft de le fabriquer alors qu'ils le vendent beaucoup plus cher. Cependant, le capteur en vaut le prix comme on le constate.
Leon.
BOB4, mon drone hélicoptère autonome d'intérieur http://heli.bot.free.fr/
BOB3, mon robot autonome d'intérieur avec WiFi + Foxboard Linux http://ze.bot.free.fr/
BOB5, robot bipède simulé, puis tentative de réalisation (fail)
Répondre à ce sujet

1 utilisateur(s) li(sen)t ce sujet
0 members, 1 guests, 0 anonymous users