Aller au contenu


Liquidhuk

Inscrit(e) (le) 16 mai 2013
Déconnecté Dernière activité juin 04 2015 08:40
-----

Messages que j'ai postés

Dans le sujet : Fabriquer des pièces mécaniques arrondies

04 juin 2015 - 07:57

Bonsoir,

 

Oui j'ai regardé, mais je tombe sur du 200€ (impression professionnelle) ou 50€ (3DHub, impression par des "particuliers"), j'aimerais éviter ce genre de dépense, je vais déjà débourser une fortune en ax12.

 

EDIT : Ah oui, je pourrais voir du côté des fablabs. Je n'ai cherché que pour acheter, je vais jeter un œil, merci !


Dans le sujet : Robot hexapode

10 juin 2014 - 10:17

Je déterre le sujet, avec presque 1 an de travail sur la bestiole, pour vous montrer le résultat.

Concernant la partie "intelligente", nous nous sommes finalement dirigé vers des chaînes de Markov pour travailler sur un apprentissage de la démarche (la coordination des pattes quoi), voici une vidéo qui explique rapidement les différentes étapes de l'apprentissage :

https://www.youtube.com/watch?v=ZjIlJP-vDPI

Deux photos de la bête :

Image IPB
Image IPB


Dans le sujet : Problème temps de réaction Hc-sr04 (résolu!)

15 août 2013 - 10:05

bonjour, j'ai pensé à Serial qui "prendrai" du temps. mais comment mesurer le temps de réaction sans retour d'information avec Serial.?


Tu pourrais relier Rx et Tx et voir le temps qui passe entre l'émission et la réception. Je doute quand même que le baudrate ralentisse tant que ça la communication.

Dans le sujet : Réseau de neuronnes

03 août 2013 - 10:05

J'ai essayé sans couche cachée, toujours pas de résultat.

Par contre, l'erreur moyenne en sortie est extrêmement grande (x10^61), je ne comprends pas bien pourquoi. En réduisant le smoothingFactor dans le code ci-dessous, l'erreur tend plus vite vers une valeur convenable (entre 150 et 900) mais le résultat en sortie du réseau ne bouge toujours pas...

// On calcule la somme des erreurs en sortie

    Layer &outputLayer = m_layers.back();
    m_error = 0.0;

    for (unsigned n = 0; n < outputLayer.size() - 1; ++n)
	{
        double delta = targetVals[n] - outputLayer[n]->getOutputVal();
        m_error += delta * delta;
    }
    m_error /= outputLayer.size() - 1; // On fait la moyenne des erreurs en sortie
    m_error = sqrt(m_error); // On prend la racine carée

    // On calcule la moyenne des RMS

    m_recentAverageError =
            (m_recentAverageError * m_recentAverageSmoothingFactor + m_error)
            / (m_recentAverageSmoothingFactor + 1.0);

Pourtant si l'erreur est réduite, c'est que le résultat se rapproche de l'objectif...

Dans le sujet : Réseau de neuronnes

03 août 2013 - 07:27

pourquoi utiliser cette application pour tester ton réseau (pure curiosité de ma part) ?

Tout simplement parce que mon coeur balance entre programmation de jeux vidéos et robotique. J'essaie d'appliquer ce que j'apprends aux deux, historie de trouver mon bonheur partout ! Le pong est certainement le jeu le plus simple à coder, donc voilà :)/> !

J'ai déjà joué avec ce code en changeant la structure du réseau pour le tester, mais je voulais aller un peu plus loin avant de l'utiliser avec des capteurs/actionneurs.

Qu'est-ce qui converge vers 1 ? La sortie ? Les poids ? On parle en général de convergence des poids (qui sont signe de l'apprentissage du réseau).

La sortie converge vers 1 au lieu de changer de valeur à chaque rebond.

Est-ce que tu as simplement testé ton cas (le pong) avec un simple réseau sans couche cachée ? Je doute que le problème soit vraiment non linéaire, dans la mesure où il s'agit d'apprendre des associations "pattern d'entrée/sortie".

Dans tous ce que j'ai pu lire ou regarder, je n'ai jamais trouvé d'indications ou de règles plus précises que "trouver par tâtonnement" la bonne structure à utiliser pour un réseau de neurones. Je n'ai pas essayé sans couche cachée, je vais le faire :)/>