Aller au contenu


Photo
- - - - -

Le concept du sens


11 réponses à ce sujet

#1 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 06 août 2010 - 04:43

Salut,

Pour faire une IA capable de langage naturel, je pense que la clef du problème est le fait de faire intégrer à cette IA non pas du vocabulaire et des règles grammaticales, mais quelque chose qui correspond à une représentation du sens de ces mots. Et pas une représentation textuelle, mais une représentation "machine".

Dans un chatterbot, par exemple, j'immagine qu'il est possible de modéliser le vocabulaire et les liens logiques entre certains mots (traités comme des prédicats en logique, comme le ferait un moteur d'inférence). Cependant, tant que la machine n'appréhende pas d'une manière ou d'une autre la sens des mots qu'elle manipule, on tombera sur des syllogismes.

Il est certainement possible, par exemple dans une base de données contenant la correspondance mot/sens dans une table, de coder un sens a certains mots appartenants au registre mathématique, si le programme est doté d'un module représentant une part de la logique mathématique dans un langage formel. (par exmeple le sens du verbe "être égal" serait lié à la représentation mathématique du = dans le modèle mathématique formel, de même que le groupe sémantique "est un" serait représenté par l'inclusion à un ensemble). Dans un texte mathématique lu en langage naturel, un moteur de cohérence générale traduirait la compréhension du sens du texte dans le contexte foormel mathématique, et on pourrait parler alors de compréhension du sens.

Cependant, pour un texte descriptif, ou un texte manipulant des notions abstraite, ou phylosophiques, ce système ne serait pas suffisant.

La question quime tarraude est donc la suivante :
Quels modules, à part le moteur générique d'analyse du sens qui lie le tout, un moteur d'inférence logique, une grammaire formelle mathématique, une grammaire ensembliste, une module de représentation du monde physique (et des "organes" associés), seraient nécessiaires pour que l'intelligence soit complète ?

Est ce que l'attachement que je porte à la notion de sens dans le contexte du développement d'une IA vous parrait cohérent ?

À vos ardoises ! ;)

#2 Thot

Thot

    Habitué

  • Membres
  • PipPip
  • 212 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 06 août 2010 - 05:56

De quel genre d'IA parles-tu ?

Tu parles des chatterbot dans le sens d'un système qui est capable de passer le test de Turing (c'est à dire que l'on ne doit pas pouvoir faire la différence entre un interlocuteur humain, et un interlocuteur robot) ?

Dans le cas de ces IA, c'est la notion de sens qui est ambigue. Un sens ca peut être :
- la définition d'un mot, c'est à dire un ensemble de liens vers d'autres mots
- une sensation

"De quelle couleur est le ciel ?"

La plupart des IA prendront le mot "ciel", le mot "bleu", prendront le chemin le plus court entre les deux et prendra l'élément directement lié à "couleur" qui est le plus proche de "ciel".
"Le ciel est bleu, Maitre."

Mais cette question est pour moi subtile : quel est le sens du mot ciel? quel est le sens du mot bleu?

Pour nous le ciel c'est ce qui est en haut quand on regarde en haut et que l'on est dehors. Le pire c'est le bleu.
Le bleu c'est une longueur d'onde de la lumière qui vient exciter nos petits cônes au fond des yeux sur la rétine et dont on nous a dit que ça se disait [ble] et que ça s'ecrivait b-l-e-u (après il y a des histoires de 's' alors qu'il y a un 'u' à la fin mais ça c'est autre chose).

Peut-on définir le bleu par cette sensation ou par l'ensemble des objets bleus connus ?

Enfin, pour moi un chatterbot c'est un robot enfermé dans une boite, sans sensations je pense pas qu'on puisse arriver à quelque chose qui passe le test de Turing.

Le jour où il répondra :
"Euh la couleur du ciel en ce moment? je ne sais pas je n'ai pas de camera sur le ciel, je peux regarder sur le net si vous voulez Maitre. Mais en général le ciel est bleu si c'est le but de votre question. Je m'en excuse par avance, ne me frappez pas. Merci."
ou encore :
"Tu peux pas regarder par toi-même, Patate !" (va faire un lien entre ciel, bleu et patate)

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#3 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 07 août 2010 - 10:04

C'est bien ma question : qu'est ce que le "sens" d'un mot ?
-Pour un opératuer mathématique, c'est une notion rattachée à un espace mathématique ;
-pour une couleur, c'est une notion rattachée à un espace de représentation de l'environnement, (une proximité avec une représentation numérique d'une couleur repère) ;
-pour le ciel, c'est une notion rattachée à un lieu (de nouveau un élément particulier de représentation de l'environnement)...
mais la liste est longue.

Comment décrire le sens des mots "paradigme", "interface", "politique", quel module spécialisé y associer, et quelles grammaires dans ces module utiliser pour représenter ces notions particulière ?
C'est cette liste que je voudrais commencer à établir. (Je parle d'une IA générale, celle qu'on s'attendrait à trouver dans un robot humanoide multifonctionnel ;), le chatterbot n'étais qu'un exemple basique pour illustrer le début de mon propos.)

#4 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 10 août 2010 - 07:24

Bon, et une dernière interrogation maintenant :

Ayant défini une liste de modules nécessiares à une intelligence a peu près complète, comment faire pour que ces modules soient appris (un apprentissage de la machine) et non pas innés (définis par un programeur) ? Quelles sont les éléments unitaires possibles/nécessaires de ces module et comment leur agencement peut définir le "contenu sémantique" de ces modules ?

Voilà, c'est comme ça que je tenterais de créer une IA si j'en avais le projet. Vous en pensez quoi ?

#5 Thot

Thot

    Habitué

  • Membres
  • PipPip
  • 212 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 10 août 2010 - 10:40

C'est compliqué tout ça !! celui qui a inventé un truc pareil, il est pas idiot.

Je pense qu'il y a une autre question, c'est la question du langage.
Pour qu'un mot ait un sens, il faut déjà des mots. Il faut donc que la machine ait un langage. Je pense qu'une bonne partie des modules que tu décris sont en dessous du langage... ou du moins sont des conséquences des couches inférieures de l'intelligence. Ma vision d'un androïde parlant, de sa conception est la suivante :
- concevoir un système intelligent capable de ranger des données dans un langage logique extrêmement ouvert fondé sur :
* la capacité à associer (grammaire)
* la capacité à moduler la force des liens ainsi créé
* instaurer une "sélection naturelle" dans les objets ainsi liés
* avoir un point central de régulation, stabilisation de la base de donnée
*... et d'autres choses qu'il faut trouver (ce n'est malheureusement pas simple du tout)
- concevoir un appareil permettant de générer des phonèmes (sons, syllabes) - un synthétiseur vocal
- brancher l'appareil sonore sur cette structure de base de données... et brancher ce système sur le monde avec surtout un micro qui permet de s'écouter.

Ainsi, l'androïde pourra comprendre ce qu'il dira, donner du sens. Du coup, donner du sens à quelque chose, c'est pouvoir associer cette chose à une référence que l'on a en base de donnée et que l'on a acquis.

On a ainsi une complexité des concepts qui augmente avec le temps. Le langage augmente cette complexité de manière exponentielle.

Imaginons un "bébé" androïde. Pour dire "Maman", comment faire ? Déjà, il y a l'étape de la conscience de soi : le bébé utilise son appareil sonore en criant, braillant, pas forcément intentionnellement, il peut il y avoir de l'inné dans tous ça. Mais surtout, il va varier les différents sons possibles, et pouvoir les écouter. Il va associer chaque "geste vocal" à un stimulus auditif. [ouvrir la bouche en grand et expirer en contractant les cordes]->[j'entends "AAAAAAAAAA"]. Ces liens vont aller de plus en plus fort jusqu'à la maitrise. Ensuite, le bébé "androïde" peut s'attaquer à associer ce qu'il entend pour le répéter, il entend "Maman", il repete "Maman", le son est le même (bon et en plus c'est la joie dans son entourage, un algorithme pulsionnel peut ici faire son travail d'amplification). Le premier sens est créé.
Et ainsi de suite. Si en plus la taille de la base de donnée permet de stocker beaucoup de choses, on peut aller loin.

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#6 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 10 août 2010 - 11:24

Effectivement, la question de la brique unitaire se pose.
Le mot est un choix arbitraire. Est il suffisamment élémentaire pour qu'un sens puisse y être associé ? (Sur ce point là, les asiatiques ont peut être une facilité par rapport à nous, avec leurs sinogrammes associés à des idées et leur phrases sans accords ni conjugaisons.)

On pourrai effectivement choisir la lettre comme élément unitaire, et les groupes de lettre représentant des mots appris par la machine par répétition (dans un dialogue textuel avec la machine). L'apprentissage de la grammaire serait peut être plus facile, à moyen terme, vu que les accords seraient intégrés à l'apprentissage dès le premier niveau d'aggrégation "apprise" (le mot).

L'exemple de l'écriture chinoise me donne a penser que le mot serait suffisemment unitaire, à la condition d'écrire et de lire sans accorder ni conjuguer, ce qui serait suffisant pour tester une capacité d'apprentissage du sens. Après, si on veut passer à une machine qui apprends le sens ET lit/écrit correctement, il faudra passer par l'unité lettre, mais c'est déjà un exercice plus compliqué en terme d'apprentissage pour la machine.

Il y a aussi le problème du ressentit, comme tu dit, et des autres organes. Mais dans un premier temps, je pense que je tenterais de me concentrer sur une machine n'ayant comme entrées que quelques senseurs (contacts, accéléromètres, flux texte) et comme sorties quelques éléments de base (flux texte, 2/3 moteurs pour le déplacement, un bras, une pince). Juste de quoi modéliser la sémantique et son apprentissage. Si une telle machine était capable d'apprendre le sens des mots, alors nul doute qu'une plus complexe en organes pourra le faire sous condition de ressources mémoire/temps suffisantes.

La question qui se pose alors est celle de la structure minimaliste de senseurs/moteurs à associer à ses capacités cognitives (mémoire/programme) pour que la machine puisse trouver un intérêt à l'apprentissage (une fonction objectif). Peut être une maximisation des variations énergétiques de sa pile... qui le pousserait à se charger puis se décharger rapidement, avec un bonus pour la longueur de ce cyle... Mais dans tout les cas, il faudra passer par une phase d'apprentissage de la capacité à aller se charger, paf, voilà un module... ;)



Dans un autre ordre d'idée, il est a noter que les mathématiques, qui décrivent les propriétés abstraites de l'univers, ont fait de la "logique" la branche des mathématiques qui décrit les mathématiques. Pourrait on donc s'inspirer de la "logique" pour déterminer une base dans la modélisation de l'apprentissage des différents sous systèmes associés à la représentation du sens dans une IA ? (Attention, je ne parle pas d'utiliser la logique comme LE module sémantique — ce que font déjà certains chatterbots —, mais d'utiliser quelques éléments fondamentaux de la logique — comme le modus-ponens — pour construire des modules allant bien au dela de la logique. Utiliser la logique à un niveau méta, en quelque sorte, sans tomber dans son utilisation habituelle en IA, directement au niveau applicatif)

#7 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 11 août 2010 - 02:53

Et si les briques unitaires du sens d'un mot abstrait étaient les mots et le sens complet de ces mots une phrase ou un ensemble de phrases ?
On a déjà des briques unitaires pour le sens de certains mots concrets (par exemple la couleur, ce serait entre autres codage RGB, le verbe etre ce serait un codage d'appartenance à ).
On a la logique mathématique comme agrégant...
La "pensée" serait elle alors une modélisation de certains sens, suivant un modèle logique, représentant un arbre sémantique (ou une structure similaire), construit avec des sens choisi au hasard parmis ceux connus ? Aisni que la déduction d'une nouvelle connaissance ou un ajustement de ces connaissances ?

exemple:
"droite" "ensemble de points alignés"
"segment" "ensemble de points alignés"
"point" "intersection de deux droites"

Une recherche de similitudes dans les définitions pourrait donner :

machine : "droite egal segment ?"
humain : "droite etre infini"
humain : "segment etre fini"

-> création de "fini" et "infini", vierges de sens, ajout de ;"infini" dans droite et de ;"fini" dans segment

machine : "fini ?"
humain : "avoir fin"
machine "infini ?"
humain : "non avoir fin"

-> création des champs sens de fini et infini, détection de l'opposition entre les deux (pour peu que le sens de "non" soit connu)

machine : "droite non egal segment"
humain : "oui"

-> ajout de "non egal segment" a droite et de "non egal droite" a segment

machine : "droite egal ensemble de point alignés infinis ?"
humain : "droite egal esemble infini de points alignés"

-> transformation des 2 premières propriétés connues de la droite en une seule, selon la formule donnée par l"humain, rappel de similarité entre droite et segment :

machine : "segment egal ensemble fini de points alignés ?"
humain : "oui"

-> transformation des 2 premières propriétés connues du segment en une seule ...

Alors, ça ressemble à de la "pensée" ?

#8 Thot

Thot

    Habitué

  • Membres
  • PipPip
  • 212 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 20 septembre 2010 - 09:24

Je raccroche le wagon :)

Je vois ce que tu veux dire par module nécessaire à l'épanouissement de "l'intelligence" (un mot que je trouve de plus en plus ambigue).

Déjà, pour faire un robot parlant, le ressenti dont tu parles est pour moi très important. c'est lui qui va pousser ou non le robot à apprendre. L'envie d'apprendre peut accélèrer l'apprentissage. La non envie d'apprendre est tout aussi bénéfique pour sélectionner ce qui est utile. (a quoi ?)
Paf, un module de pulsions.

Ensuite, parler implique un lien social avec, en premier lieu, l'humain. Tout sera déterminé par son moyen d'expression (style un son de mauvaise qualité va lui demander de répéter pour se se se faire comprendre... pas évident pour apprendre à parler). Le lien social est important
Paf une interface homme-machine.

Ensuite, prendre le mot comme brique unitaire me semble un peu difficile. Il y a des choses que l'on ne peut dire parce qu'elles ne le peuvent pas. On le voit avec les animaux, ils vivent très bien alors qu'ils ont un langage beaucoup moins évolué que le notre (enfin, à première vue). L'utilisation des reseaux, des graphes et autres bases de données basés sur des noeuds et les liens me semble une bonne approche puisque qu'il peut modéliser aussi bien du reflexe neuronal, de la logique, des automates à états finis, des champs sémantiques... Je vois plutôt le noeud comme brique élémentaire.

Après, je pense que le petit plus, le module qui permettrait de tout finir, c'est le branchement de deux bras libres avec des mains qui permettent d'AGIR sur le monde. L'action étant pour moi la référence de toute vision du monde extérieur.

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#9 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 11 octobre 2010 - 09:31

Le fait est que l'on peut penser sans formuler de mots (les animaux comme tu dit le font très bien) mais en l'occurence, entre humain, dans nos interractions entre nous et dans celles que l'on souhaiterait avec les machines "parlantes", on utilise des mots comme éléments unitaires. Savons nous encore communiquer sans mots ? Savons nous encore organiser nos idées, faire une déduction, sans mots ?

Même s'il y a un mécanisme intrinsèque (pas conscient*) derrière notre formulation de pensée (en mots) je pense que le mot est déjà un bon début de brique unitaire pour faire une machine "parlante", ou plus précisément l'idée qui est derrière le mot (le mot est interchangable - quand on passe d'une langue à l'autre, pas l'idée qu'il représente).

Quand au fait d'avoir la capacité d'être acteur sur le monde, des bras, c'est un plus, mais parler est déjà une action. Est-elle suffisante à elle-même comme action sur le monde extérieur pour un apprentissage d'une représentation complete de ce monde est une bonne question.

* = Je pense que c'est là un nœud du problème, quel est exactement ce mécanisme ? C'est celui là qu'il faut coder en dur. Tout le reste, (les briques élémentaires sémantiques, les règles grammaticales, les règles sociales, etc...), doit pouvoir être appris (l'autre nœud du problème), si on veut pouvoir parler d'intelligence...

#10 clivelynx

clivelynx

    Nouveau membre

  • Membres
  • 8 messages
  • Gender:Male

Posté 04 décembre 2010 - 07:19

J'avais lu dans un science et vie spécial robotique un passage qui traitait de ce problème. Le créateur n'avait pas créer de grammaire mais un programme qui forçait la curiosité du robot et son envie de partager.
Je ne me souviens plus très bien de l'article, mais ils mettent deux robots avec ce programme et lancent une balle rouge dans la pièce. Dès que les robots voient la balle bouger ils ont "envie" d'émettre un son; entendant le son de l'autre robot ils émettent un autre son et ainsi de suite...
Les créateurs affirmaient que petit à petit les robtos-chiens réalisaient une petite grammaire entre eux pour décrire des choses.

Je vais essayer de retrouver cet article, mais j'imagine que d'autres ici l'ont.

#11 miq75

miq75

    Nouveau membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 10 février 2012 - 06:15

Bon, c'est moi qui raccroche le wagon.

J'ai repensé au problème exposé ici et je l'ai formulé ainsi :

Pensée :
Qu'est ce que la pensée ?
Est-ce juste une voix qu'on entends dans sa tête et qui précède (parfois) ce que l'on dit ?
Est-ce simplement un mécanisme constructif des idées ? Est-ce plus complexe que cela ?

Mots :
Quel est le rôle d'un mot, dans le mécanisme de la pensée ?
Est-ce LA brique élémentaire ?
Peut-on penser sans mots ?
Un mot est-il un attribut permettant l'identification, ou encore une définition qu'on associe à un sens, à une idée ? C'est uniquement ça ?

Prenons un exemple simple au sens conceptuel : une pomme. "pomme" est une référence à un objet tangible, palpable. Une construction des caractères/souvenirs de ce que constitue une pomme est une "notion de pomme". C'est une agrégation d'autres "notions" partagées (couleur rouge, texture lisse au toucher, odeur et goût sucrée, élasticité craquante sous la dent, ... des stimuli électriques classés selon leur source, leur forme ?) en une situation précise, celle de la présence de l'objet "une pomme". Le mot sera entendu, puis associé à cette agrégation. Et ce mot reviendra à chaque fois qu'on pensera à cette agrégation. Le mot est-il donc une clé primaire de cette agrégation, de ce concept ? Une idée manipulable de manière unitaire, sans faire appel à l'ensemble des concepts, mais en les gardant à porté en cas de besoin ?


À la relecture de ce fil, j'ai envie d'ajouter les points suivants à la nouvelle ébauche que je viens de reproduire ici.
Effectivement, il faut associer également aux stimuli ressentis des actions correspondantes : la notion de "texture lisse au toucher", ça va avec l'idée de saisir l'objet. Donc l'idée action/ressenti, au lieu de l'idée ressenti.
Effectivement aussi, le mot semble n'être que complémentaire de l'agrégation d'idées action/ressenti qui devrait être réalisée par la machine. Mais si le mot ne vient qu'après la construction de l'agrégation, comment évaluer extérieurement cet apprentissage tant que le mot (clé primaire ?) n'est pas appris ? Est-ce faisable seulement par l'observation extérieure des connections réalisées, jusqu'à un point de complexité ou le mot devient possible ? En fait, plus j'y pense, plus je pense que oui.

Maintenant, ce qui ne me paraît plus si important ni compliqué que ça, c'est tous les modules dont je parlais. Finalement, si on cherche à réaliser une vrai "intelligence" indépendante, est-ce que ces modules ne vont pas tous se décomposer en stimuli/actions et en la construction d'associations entre nœuds conceptuels initialement vierges, comme je suppose que le fait un enfant humain ? Par exemple, la couleur rouge. Est-ce que le concept couleur rouge ne va pas simplement venir de la corrélation trouvée entre les représentations machines de deux images perçues contenant du rouge ? Est-il nécessaire d'écrire un module spécifique pour coder cela, ou celui-ci est-il "appris" simplement en suivant les recherches de similarités ? Est-ce que ce n'est pas cela la clé pour gagner encore un niveau d'abstraction du mécanisme de la pensée, par rapport au paradigme des mots/briques unitaires ? Est-ce que ça marcherais avec tous les modules dont on à parlées avant ? (par exemple l'idée/mot "politique", ça se construirait une fois les mots de base appris, sur des agrégations ayant déjà associées un mot, justement.)

La machine associée devra effectivement disposer de plusieurs interfaces avec le monde extérieur.
-Confort/douleur : niveau de batterie faible = douleur ?
-Vue : pas lue comme une vidéo, lue plutôt en cercles concentriques à partir du centre d'une image capturée (grandissants jusqu'à ce que l'attention soit relâchée ?) sous forme de stimuli élémentaires RGB ?

-et déplacement physique et orientation de "l'œil", toujours selon des mouvements chiffrés ;

-Toucher : l'action, donc un bras/main articulé ?

-et sensation tactiles (codées numériquement, résistance chiffrée sur une durée déterminée, puis grilles plus complexes quand la coordination chiffre de commande de la main/mouvement de la main apparaitra ?

-Odorat et gout ? Est-ce nécessaire ?
-Ouïe : retranscrite en sons (durée, hauteur, longueur et timbre(sinusoïdale complexe, mais ce n'est pas le plus utile à décrypter pour l'apprentissage), sont des données purement chiffrables qui définissent totalement un son). Coder une augmentation du stimuli douleur pour les volumes trop forts peut s'avérer utile...

-et haut parleur.

Voilà pour les modules purement "physiques", auxquels j'ajouterai néanmoins, et ce dans un registre totalement "physique" au sens de la machine aussi.
-une ligne de commande ?

-avec des commandes actions directes sur ses données internes, dans un premier temps
-avec une possibilité de module de dialogue formel, quand on jugera bon d'intégrer des mots sous forme informatique directement sur des concepts ? Est-ce que ce sera nécessaire ? Est-ce que ce sera intéressant en terme de développement ?



Au niveau "cérébral": une structure de développement de connaissances permettant
-la détection de similarité dans des stimuli/actions indépendants ou croisés
-l'enregistrement (création de nœuds identifiants ces similarités pluri-stimuli/actions) lors de ces détections
-un mécanisme de renforcement de ces nœuds lors de leur redétection
-un mécanisme d'oubli progressif si ceux-ci ne sont jamais redétectés
-un mécanisme d'agrégation/généralisation de ces nœuds par similarités entre eux
-un mécanisme de correction ?


Bon, dernier point, je n'ai pas (et n'aurais probablement jamais) la machine qui me permettrai de faire ça, et je n'y connait rien en robotique (d'ailleurs, est-ce nécessaire de donner corps, ou est-ce que l'extraction de donnée accessibles massivement sur internet ne serait pas suffisant ?), mais l'aspect logiciel/intelligence qui est derrière est mon domaine de compétence et m'intéresse particulièrement (et la programmation des filtres tels que celui de l'œil que j'ai décrit, c'est je pense une peccadille). Je pense que j'essaierai de mettre en place un tel système un jour ou j'aurais le temps, donc toute piste d'analyse ou commentaire à ce propos m'intéresse. :)

#12 Thot

Thot

    Habitué

  • Membres
  • PipPip
  • 212 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 16 février 2012 - 09:31

Tous ces wagons commencent à faire un beau train...

Je trouve ta réflexion intéressante sur "A quoi bon un mot ?". La question "qu'est-ce que la pensée?" en est une clé. Comme tu dis, ce fil de pensée, est-ce un mécanisme ? une petite voix de langage qui nous parle toute seule ? En lisant plusieurs ouvrages de neuroscience, il y a une réponse qui commence à se faire. C'est que le cerveau est assailli en permanence de signaux de l'extérieur du corps, de l'intérieur du corps et il y a des réactions en chaine qui se font par excitation d'excitation de neurones dans tous les sens.
Une pomme, tu peux la voir de 3 manières :
- en vrai, par l'intermédiaire de tes sens
- en interne quand tu l'as mangé
- en faux en la visualisant.

Qu'est ce qu'une aire de la vision ? c'est en fait une aire qui récupère l'image d'un objet et qui est capable de la reconstituer. Ainsi, quand tu vois une pomme, c'est juste que l'aire visuelle arrive à reproduire la même pomme en interne et que ça colle. Ainsi, quand on te dis "pomme", il y a reaction en chaine et l'aire visuelle va s'exciter comme si une vraie pomme était vue. C'est ce que l'on appelle la réentrée. l'aire visuelle peut être excitée par les yeux, mais aussi par le cerveau.

C'est pareil pour les mots parlés. On ne comprend vraiment que ce que l'on peut répéter. On écoute ce que l'on dit donc on peut copier ce que l'on entend. C'est sans doute une des clés à la reconnaissance vocale. Mais comme tu dis, nous n'y sommes pas encore et cela demande du temps.

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique




Répondre à ce sujet



  


0 utilisateur(s) li(sen)t ce sujet

0 members, 0 guests, 0 anonymous users