Le LIDAR est utilisé pour " éviter les obstacles " mais cela se fait directement sur le robot non ?
Genre le robot reçoit " va à gauche " mais il refuse de se déplacer à gauche quand le LIDAR indique qu'il y a un obstacle à gauche , c'est bien ça ?
( Par opposition au fait de : voir côté serveur que si l'utilisateur derrière son PC demande d'aller à gauche on va voir si il y a un obstacle à gauche dans les trames lidar , et par conséquent on décide d'envoyer ou pas la consigne )
Ainsi mis a part de permettre d'afficher les données LIDAR, sur le flux vidéo ( et éventuellement les loger ? ) tu projettes d'utiliser les données LIDAR pour quelque chose non ? Par ce que sinon utiliser un OSD permettrait d'optimiser la chose non ?
En tout cas je suis fan du travail réalisé !
100% EXACT.
Et oui le par opposition est Caca:)
Un OSD c'est tout moche ça bave et ça bouffe de la FAIBLE résolution vidéo.
Ya déjà la liaison UHF bi-directionnelle donc vive l'incrustation côté client.
Rien ne m'empeche de faire une groundstation embedded avec un PIC32 qui pilote un affichage OSD aussi.
Les données LIDAR servent a faire un anti collision quasi infaillible intégré au robot et ça c'est déjà moumoute. A pleine vitesse il commence à freiner à 50cm de l'obstacle sans qu'on s'en rende compte:) ce sont simplement des clamps de vélocité proportionnels à la distance.
Par contre j'ai une branche de dev avec un algo Ramer-Douglas-Peucker et donc ça va servir à envoyer des commandes plus puissantes au robot, du genre "Aligne toi bien nickel à 10cm du mur qui se trouve devant toi"
je parle toujours du firmware PIC32 du robot la.