Aller au contenu


Bauds de l'air

Inscrit(e) (le) 06 juin 2009
Déconnecté Dernière activité juin 07 2009 03:40
-----

Messages que j'ai postés

Dans le sujet : Méthode d'apprentissage

06 juin 2009 - 06:45

Bonjour,

Je me permet de déterrer ce sujet.

Je n'y connais absolument rien en Intelligence Artificiel, néanmoins, la lecture de ce qui precéda étant passionnante, je me permet également d'intervenir afin d'approuver l'intervention relatant du "sommeil".

En effet, j'envisage, peut-être à tord, qu'une I.A. dotée de deux "cerveaux" pourrait optimiser les capacités d'apprentissage. Je m'en explique.

Reprenant les limites d'un apprentissage par le recompilage du noyau (à cause de la constante refonte du noyau, du fait de l'apprentissage constant), on pourrait envisager de contourner ces difficultés par l'élaboration d'une I.A divisée en deux fonctions.

La premiére (fonction mise en oeuvre, utilisation à proprement dit) servirait à la mise en application des apprentissages antérieurs, qui eux serait le fruit de la deuxiéme fonction.

La seconde (fonction apprentissage) elle analyserait les expériences, creérait les liens, les "noeuds" entre les concepts, les "objets", les "classes", les adaptations aux actions, que j'appelerai içi "commandes" (ne pas tourner le poignet lorsque que l'on tient un verre, et non pas un vert, une tasse, une assiette, si celui-çi contient finalement quoique ce soit, sauf si c'est pour deverser le contenu dans tous ce qu'on est autorise).

Cette fonction apprentissage, elle, pourrait compiler ce nouveau noyau et pourquoi pas le tester par simulation. (débogage, non pas de language programme, mais "debogage utilisation").

Cet apprentissage pourrait trés bien se dérouler en quatre phases.

La premiére phase serait consacré à la télémétrie. (réceuil, surveillance, des informations concernant la mise en pratique de la fonctions "mise en oeuvre"). Elle débuterai depuis la derniére implémentation du noyau au sein de la premiére fonction jusqu'à la décision "d'analyse de ces données" (Seconde phase).

La seconde phase "analyse des données", serait déclenchée par un temps ou une heure H, un nombre d'événements, par la confrontation à des difficultés, "intérrogations", des bugs impasses, ou par la manifestation évidente du besoin de créer de nouveaux noeuds (résultat escompté non atteint, incompréhension de notion, "d'objet, "classe" ou l'incapacité de réaliser une "commande"). Ce déclenchement pourrait être asujetti à la fonction "mise en oeuvre", qui devrait donc comporter une partie analyse d'elle même. (Pour détecter les impasses dans lesquelles elle se retrouve, le fait quelle n'est pas atteint ses objectifs, son incompréhension "d'objet", son incapacité à effectuer une tache "commande" qui lui est encore inconnue). Bien sûr, la fonction "mise en oeuvre" ne devrai jamais recompiler le noyau.

De cette analyse des données, la fonction "apprentissage" devrai donc en tirer les conclusions en effectuant les noeuds néccéssaires, ajouter les nouveaux "objets" , les nouvelles "classes" et les nouvelles "commandes".

En fois ceci fait dans la mesure de ses possibilités à répondre à tous les besoin sités en amont (peut-être lui manquera-t-il des informations pour y faire face ou tout simplement pour optimiser son fonctionnement et son savoir), la fonction "apprentissage" pourrait passer à la troisiéme phase, c'est à dire la phase "compilation du noyau", et à son test.

La quatriéme phase pourrait être "l'implémentation du noyau" recompilé à la fonction "mise en oeuvre".

De plus, si la fonction "mise en oeuvre" ne se retrouve pas dans une impasse (par exemple lors d'une implémentation concernant un "objet" ou un "noeud"), celle-ci pourrait continuer d'être fonctionnel pendant que la fonction "apprentissage" réfléchie. Seule durant la phase de transmission du nouveau noyau vers la fonction "mise en oeuvre" l'I.A. se retrouverai figé, c'est à dire en sommeil.

C'est à dire que la surveillance, l'analyse, l'amélioration du noyau, pourrait ce faire sans pour autant empécher l'interaction entre l'I.A. et son environnement !

S'il se retouve face à une impasse, une difficultés, une "interrogation" ; alors il prend le temps de réfléchir. Comme n'importe quels être pensant !

Je voudrais rajouter, mais peut-être que windows fonctionne de la même façon, que sous GNU/Linux, il n'est guerre néccéssaire de recompiler l'ensemble du noyau. (En gros tout l'OS). Il suffit de recompiler les fichiers "upgradés", et décraser les anciens. Ce qui garantie également une vitesse de mise à jour du noyau relativement rapide. Donc, des phases de sommeils court. (surtout si les phases d'analyses sont courtes, puisqu'il y aurait que peu à transmettre pour une mise à jour du noyau, même si celle-ci serait plus fréquentes)

Ensuite, on pourrait aller jusqu'à incorporer un troisiéme cerveaux, qui lui aussi aurait trés exactement la même fonction "apprentissage", si bien que lorsque l'un serait occupé, l'autre pourrait tenir ce même rôle. De cette facon, il n'y aurait jamais de perte d'analyse de la fonction "mise en oeuvre", jamais de temps trés longs sans possibilité de mise à jours, donc sans adaptabilitée. De plus, si les temps "d'apprentissage" sont rapides, deux cerveaux qui y serait dédier devrait suffir. (Et pourquoi passer par un langague compilé, pourquoi pas directement de processeur à processeur, puisqu'il s'agit de deux machines qui communiquent et font parti du même ensemble)

On pourrait aussi envisager que les nouvelles "commandes", déduit par la fonction "apprentissage", serait notée comme des applications "en cours d'expérimentations" et en attente de validation par l'expérimentation. (Un peu de la même façon que sous GNU/Linux, les fichiers possédent un paramétre d'accéssibilitée : Utilisateur, Invité, Superutilisateur).

En fonction de cette notation "en cours d'expérimentation", on peut envisagée que la fonction "mise en oeuvre", choisisse d'utiliser cette nouvelle "commande" avec parsimonie en attendant validation définitive de celle-çi par la fonction "apprentissage" (En attendant, elle pourrait aussi utiliser la "commande" validée antérieurement). Et voir même, pourquoi pas, la fonction "mise en oeuvre" pourrait choisir d'utiliser ces commandes "en cours d'experimentation" dans des conditions qu'elle juge plus favorables à la tentatives d'expérimentations.

Ensuite, l'I.A. devrait connaitre parfaitement son propre mode de fonctionnement (et pouvoir aussi l'améliorer), à travers des algorythmes le décrivant, afin de l'ouvrir à la conscience (de soit, qui en est un préliminaire).

De plus, il semble évident qu'il faille que ses apprentissages, validés donc ces savoir en fait, soit partagés, par conséquent stokés comme on le fait à travers les bibliothéques. Afin, évident, que d'autres I.A. puissent bénificier de ce savoir et l'exploiter comme si eux même l'avaient expérimenté. Il va de soit que ces autres I.A. devront également pouvoir y déposer leurs savoirs afin que notre I.A. les consultes et y puise ce que nous appelons culture.

Ceci prendra la forme d'un stockage centralisé, mais toute experience individuelle devra pouvoir être consultée, toute emergence de nouveau protocole toujours rendu possible.




Enfin, je me pose plusieurs questions.

Que sont les hormones, si ce n'est des messagés neuro-chimique. Les hormones sont-elles si incontrolées que celà. Les signaux électriques (electricité statiques) sont ils si controlés que celà.

Détruire l'être humain pour sauver la connaisance peut-être trés rationnel. Le communisme était trés rationnel. Les dictatures, tout comme le terrorisme en général est tres rationel. La plus pure des rationnalité n'est-elle pas un autre esclavage de la pensée, donc une forme d'obscurantisme, une autre perte de donnée.

La logique peut-elle être réellement pure ? En celà, je veux dire que la logique ne peut-elle pas commettre des erreurs par manque d'informations, par une connaissance incompléte. Les psychopathes (prédateurs sociaux, il est bon de le rappelé) ont tous un Q.I. remarquable. Néanmoins, ils ont tous un Quotient Emotionnel déplorable. La logique est-elle tous ce qui doit, tous ce qui peut réellement guider qui que se soit, y compris une I.A. Seront nous réellement en face d'une I.A. tant qu'elle se cantonnera à du rationnel pure, à de la logique, même la plus parfaite, sans laisser nul place aux émotions, aux sentiments, à l'affect. Comment une I.A. pourrait-elle progresser de façon autonome sans imagination, même sans imaginaire, sans rêve, sans espoir.

L'être humain n'est-il pas avide de connaissance ?

Quant à juger du bien et du mal, je ne suis pas présomptueux à ce point. Mais je crois que c'est une bien mauvaise chose d'aborder quoique se soit sous cet angle. Et dire que la prédation est le mal, je dirai qu'il est naturel, en somme... rationnel (d'autres disent pragmatique). Par contre l'être humain posséde cette volonté indéflectible, cette folie, cette faculté d'adaptation qui lui confére le réve, l'espoir, la croyance (l'irrationnalité) de se voir s'arracher du régne animal, de sa condition naturelle. Et les faits, aussi fou que celà puisse parâitre, aussi négative les conséquences peuvent-elles aussi être, autant est-ils toujours rattrapé par la nature en général, et la sienne en particulier même, et biens les faits lui donnent tout de même raisons.

En sommes, je ne crois pas en la logique pure, en la rationalité pure. Et je crois, ne l'ayant jamais connue, que nous avons une trés forte tendance à la sublimer.
En réalité, je suis persuadé que l'arrivé de l'I.A provoquera à moyens termes des difficultés, des rapports de pouvoirs et de soumissions, en grande partie par une rationalité, une logique poussée à son paroxisme.

Toutes ses difficultés seront biens sûr supplantées.

Sinon, dans les film cultes, il convient de mentionner Ghost in the Shell.

:triniti: