Oui il est possible de simplifier. (c'est pas un tuto lol)
Dans mon robot je n'ai aucun OS, c'est uniquement un PIC32, du C codé par moi (et l'équipe qui développe le portage du CORE Arduino pour PIC32), et du hardware !!! Pas d'OS + code très maitrisé = pas de plantage !!!
Je te recommande de commencer en full numérique WiFi et PI car tu peux gérer le robot + la vidéo.
Je te recommande aussi d'associer la PI et un Arduino mega si possible pour être au top niveau I/O et UART (serial ports TTL) mais pour un ptit robot basique pas besoin !!!
Un serveur NodeJS sur ta PI, une IP fixe ou un DDNS gratos MAJ par ton boitier qui fait le routage - ou ta box - j'ai aperçu un thread node sur PI ici, du modérateur ci dessus.
Un logiciel serveur en Node, du coup ce sera ton robot le serveur IP, moi j'ai un intermédiaire, serveurperso.com qui synthétise les commandes des multiples visiteurs en trames radio régulières (TDD).
Un logiciel client en JavaScript (dans du HTML5, perso je fais du XHTML5 en fait car très pedantic lol)
Une liaison de données entre ton serveur et le robot -> IP via WiFi pour simplifier -> moi ce sont des radiomodem UHF à bande assez étroite
Une liaison vidéo entre ta caméra et ton serveur -> IP car ta PI génère facilement du MJEG, documente toi sur MJPG-Streamer (version patchée PI cam) c'est une tuerie -> moi c'est de la vidéo analogique avec un poste de réception développé maison, donc acquisition USB qui ajoute un pico poil de latence par rapport a du numérique de bout en bout d'ailleurs (surtout si numérique sans compression temporelle, le MJPEG étant une compression image a image, uniquement spatiale).
moi j'ai fait :
COMMANDE & Telemetrie : visiteur <-> IP <-> serveur <-> modems UHF <-> PIC32 du robot
VIDEO (attention c compliqué) : robot -> TX analogique PAL -> RX analogique maison (usine à gaz a lui tout seul) -> Clé USB acquisition vidéo sur le serveur -> /dev/video hardware -> ffmpeg pour déinterlace -> /dev/video virtuel -> MJPEG streamer -> Code NodeJS (et la je résume a fond) -> Client.
Je te propose
COMMANDE & télémétrie : visiteur -> IP -> serveur Node dans ton robot -> I/O de la PI attaqués direct en Node (ou une étape suplémentaire avec SERIAL PORT si tu veux un arduino intermédiaire pour avoir masse d'I/O)
VIDEO : Raspicam -> MJPEG_Streamer -> tu balances direct le flux dans Firefox ça fonctionne ! mais t'auras de la latence sauf si comme moi tu codes le client vidéo MJPEG javascript !
C'est long de tout expliquer:s il me faut des questions précise.
Par exemple pour la liaison vidéo entre le serveur node et le client je décode le MJPEG que je stock image à image dans une variable globale de NodeJS et que mon client JavaScript récupère, encodée en base64 et affiche dans une balise IMG d'un élément CANVAS (je crois que j'ai pas sauté d'étapes)