Aller au contenu


Photo
- - - - -

Robot "intelligent"


57 réponses à ce sujet

#41 Thot

Thot

    Membre passionné

  • Membres
  • PipPipPip
  • 327 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 02 août 2010 - 11:44

Le problème des intelligences purement rationnelles c'est qu'elles ne bougent pas d'elle même. Pour faire tout bien, autant ne rien faire. En effet, une intelligence rationnelle va récupérer des concepts, les associer pour en déduire des relations logiques qui sont consolidées. Seulement, pour acquerir des données, il faut explorer le monde. Qu'est ce qui peut donner du mouvement à une telle intelligence ?
Soit l'humain en bougeant le robot physiquement ou en le programmant. Les robots à intelligence artificielle faible sont de types rationnels.
Soit le robot, s'il a quelque chose qui le pousse à agir, un manque, une envie ...

Est-ce qu'une intelligence rationnelle peut-elle exister sans intelligence irrationnelle (inconsciente)?

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#42 Dr.Calvin

Dr.Calvin

    Membre passionné

  • Membres
  • PipPipPip
  • 474 messages
  • Gender:Female

Posté 02 août 2010 - 12:12

Est-ce qu'une intelligence rationnelle peut-elle exister sans intelligence irrationnelle (inconsciente)?


...Ah ben, on est d'accord alors en fait :D je répondais justement "non" dans mon post précédent, parce que l'intelligence purement rationnelle est, par définition incomplète.

Par contre, à supposer qu'on arrive à réaliser des robots avec un tel degré d'intelligence, c'est là que les lois d'Asimov (et les robopsychologues ^^) seront utiles parce que des robots avec une intelligence en partie émotionnelle, et une intuition qui ne peut s'affiner qu'avec le temps, bonjour les dégâts si ces robots ne sont pas sérieusement encadrés :wacko: .

Mais bon, on a un peu de marge :lol:

#43 Guest_Calibanproject_*

Guest_Calibanproject_*
  • Guests

Posté 02 août 2010 - 01:33

Mais bon, on a un peu de marge :lol:


Pas forcément tant que ça... Quant à mon opinion sur l'intelligence, j'estime que toute intelligence ou volonté volontairement bridée est un gachi... Ma vision du robot ne se limite pas à de l'electroménager et je pense que limiter l'intelligence à un contexte prédéterminé est une erreur notable.

Fan d'Asimov parmis ses plus grand fan, je ne suis toutefois pas en phase avec l'histoire des 3 loies qui ne sont qu'une castration inutile d'un système par peur d'être largé... Sans doute le fait que je focalise sur la trilogie de Caliban d'Asimov n'y est pas étranger...

Il est domage que tu n'ai pas pu etre là a la conférence du Dimanche à Japan Expo (Calvin), car j'abordais cette thématique en détail et, aprés mure réflexion et débats, le danger du robot n'est pas là où on l'attend...

Synthétiquement, les robots dangeureux seront les IA faibles, ceux dont justement la volonté aura été inibée. Les IA forte pour leur part seront d'un grand secour mais il sagit là d'un débat trés vaste et trés complexe qui doit être mené orallement ;)

#44 Dr.Calvin

Dr.Calvin

    Membre passionné

  • Membres
  • PipPipPip
  • 474 messages
  • Gender:Female

Posté 02 août 2010 - 03:48

zut de zut pour la conférence, mince alors...:( bon ben maintenant je me tiendrai au courant de toute façon...

Et c'est amusant, mais bien que fan inconditionnelle d'Asimov aussi (y compris pour les 3 lois, ne serait-ce que pour faire accepter les robots par la population, mais je comprends aussi ton point de vue), je ne connaissais pourtant pas du tout la série Caliban :blink: !! Et vu l'histoire, avec un robot sans les trois lois, ça promet d'être vraiment passionnant ! Et du même coup je comprend mieux l'esprit de l'association vis à vis de ses robots ^^.

Merci d'avoir donné ton point de vue, en tout cas ! ;)

#45 VBRK

VBRK

    Membre

  • Membres
  • 13 messages

Posté 02 août 2010 - 08:59

Il faut donc ajouter à la machine des modules afin qu'elle devienne dépendante, qu'elle fasse une erreur de calcul toutes les 4 secondes

Pas du tout d'accord. Ce n'est pas en rajoutant intentionnellement une "faille" dans la machine qu'elle fera le moindre pas vers l'intelligence. Peut-être qu'elle donnera l'impression d'être "humaine", imparfaite, mais ce n'est pas être intelligent.

Concernant les 3 lois d'Asimov, il est clair que celles-ci s'adressent à des IA fortes, c'est-à-dire capable d'apprendre par elles-mêmes le monde, aussi bien que nous. Pour des robots avec une IA faible, soit la totalité de ceux existants, ces lois n'ont strictement aucun sens. Qu'est-ce que protéger ? Qu'est-ce qu'un humain ? Est-ce qu'un robot avec une apparence humaine est un humain ? Est-ce qu'un humain bourré d'électronique dans son corps est toujours humain ? Etc.

Et vu l'histoire, avec un robot sans les trois lois, ça promet d'être vraiment passionnant !

En supposant qu'un robot avec IA forte n'ait pas ces trois lois, qu'est-ce qui arrivera ? Est-ce qu'il cherchera à réduire à l'esclavage, à se rebeller contre les humains, comme le pense Asimov dans l'un de ses livres ? Je ne pense pas. Il n'en aurait aucune raison valable.

Le robot qui se rebelle contre ses créateurs et qui veut tout détruire, c'est une chimère. Un délire. Pour que le robot se rebelle, il faut que son créateur lui en est donné l'envie, le désir, l'intérêt, ou plus simplement qu'il y ait une erreur dans le programme. Ca ne pas peut surgir par magie comme si c'était dans l'ordre des choses qu'il en soit ainsi.

#46 Thot

Thot

    Membre passionné

  • Membres
  • PipPipPip
  • 327 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 02 août 2010 - 09:55

Pas du tout d'accord. Ce n'est pas en rajoutant intentionnellement une "faille" dans la machine qu'elle fera le moindre pas vers l'intelligence. Peut-être qu'elle donnera l'impression d'être "humaine", imparfaite, mais ce n'est pas être intelligent.


Tu veux dire que l'humain n'est pas intelligent ? on m'aurait menti ? snif ;)

oui oui je suis d'accord, la faille ne doit être que la conséquence de cette intelligence irrationnelle. Celle ci étant basée sur quoi d'ailleurs ? Tout ceci doit venir du plus profond de l'algorithme et se manifester par l'intermediaire de l'intelligence rationnelle.

J'imagine le robot qui utilise une calculatrice sous sa table en cachette pour s'aider à réciter les tables de multiplication :D

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#47 Shootamarba

Shootamarba

    Membre

  • Membres
  • 21 messages
  • Gender:Male
  • Location:Montauban 82
  • Interests:Paintball

Posté 04 août 2010 - 12:59

On m'a devancé ;( ^^
La conscience c'est L'IA forte.
Pour l'instant tout les robots sont constitués d'IA faible plus ou moins développé. C'est a dire avec des automatismes
plus ou moins complexe.

Il reste a décrire l'IA forte, ce que beaucoup ont deja tenté de faire. Un des critères énoncé est la sociabilité.
Je regrette mais certaines personne dans mon lycée font abstraction de ce point mais elles sont quand meme intelligente, enfin..^^
(une petite parenthèse au type qui a mis la vidéo : on dirait une pub pour une secte, ça fait un peu peur ...)
Mais a mon avis le génie qui mettra au point la première IA forte, il sera assez intelligent pour évité qu'il pense comme un humain.

#48 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 01:20

Pour moi l'intelligence artificielle c'est essayer de trouver tous les moyens pour dégrader la supériorité calculatoire de la machine.
La machine n'a besoin de rien, tous lui est fourni (l'electricité, la matière...), elle s'auto-organise de manière plus ou moins stable avec différents systèmes d'exploitations; Elle peut sans problème réciter toutes les tables de multiplication 400000 fois en une seconde et le tout sans faire une seule erreur... Elle peut être connectée au monde entier par une vieille prise téléphonique.
Et en plus de ça, elle ne craint pas la mort, n'en a pas conscience, son esprit est stocké dans un disque dur qui peut être mis dans une autre machine et même copié sur un DVD.
Le rêve...

Bon beh un humain c'est bien moins que ça, c'est tout pourri un humain. Et ça te fais une tour Eiffel, une Joconde, une Venus de Milo, la macarena, ca a toujours besoin de quelquechose, ca veut devenir quelqu'un quite à en tuer d'autres. Il faut donc ajouter à la machine des modules afin qu'elle devienne dépendante, qu'elle fasse une erreur de calcul toutes les 4 secondes, qu'elle imprime en 4 mois un tableau d'une beauté incomparable, qu'elle puisse se débrouiller dans n'importe qu'elle situation.

Si on veut faire bouger la machine, la rendre "intelligente", il faut la rendre débile.


Tu me donne envie de faire un parrallèle avec la découpe du lapin.
Quand un boucher (intelligent) découpe un lapin, il plante son couteau dans les articulation pour séparer les morceaux, il ne brise pas les os, il les sépare.
Quand une machine (pas intelligente) découpe un lapin, elle donne des grands coups de hachoir automatisés. Elle ne sépare pas les os, elle les brise.

Résultats :
-La machine découpe des centaines de lapins pendant que le boucher en découpe un seul.
-La personne qui mange le lapin du boucher mange un bon lapin, même si c'est chiant, tout ces petits os, ça reste un bon lapin.
-La personne qui mange un lapin de la machine mange aussi un bon lapin, mais ce qu'elle retiendra de l'expérience, c'est qu'elle se blesse avec les fragments d'os coupants dus à la découpe automatisée du lapin.

Tout ça pour dire que c'est bien beau qu'une machine soit capable de merveilles de rigueur dont l'intelligence humaine n'est pas capable, mais au final, justement, l'intelligence humaine n'en est pas capable. Donc pour interfacer correctement la machine avec l'humain, j'ai tendance à penser qu'il faut que la machine se mette au niveau de l'humain.

#49 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 01:22

Le problème des intelligences purement rationnelles c'est qu'elles ne bougent pas d'elle même. Pour faire tout bien, autant ne rien faire. En effet, une intelligence rationnelle va récupérer des concepts, les associer pour en déduire des relations logiques qui sont consolidées. Seulement, pour acquerir des données, il faut explorer le monde. Qu'est ce qui peut donner du mouvement à une telle intelligence ?

La soif de connaissances ?

#50 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 01:24

par contre ils sont , du moins pour l'instant, incapables de faire des découvertes scientifiques.

C'est pas tout a fait vrai, on utilise des automates formels pour faire de la preuve et de la découverte mathématique. Ce dont ils ne sont pas capable de se rendre compte, c'est à quel point leurs découvertes sont intéressantes ou pas.

#51 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 01:32

Il faut donc ajouter à la machine des modules afin qu'elle devienne dépendante, qu'elle fasse une erreur de calcul toutes les 4 secondes


Pas forcément. Je pense que la simple faculté d'oublier (une mémoire à long terme très peu utilisée -un peu comme un cache vidé - ou au contraire une altération aléatoire de mémoire vive, occasionnellement) et un mécanisme alléatoire de test de validité du résultat et de remise en question du calcul sont suffisants (ou en tout cas, déjà très intéressants à tester afin de mieux comprendre notre 'intelligence').

#52 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 01:41

Il reste a décrire l'IA forte, ce que beaucoup ont deja tenté de faire. Un des critères énoncé est la sociabilité.
Je regrette mais certaines personne dans mon lycée font abstraction de ce point mais elles sont quand meme intelligente, enfin..^^
(une petite parenthèse au type qui a mis la vidéo : on dirait une pub pour une secte, ça fait un peu peur ...)

La sociabilité est un des aspects de l'intelligence, mais n'est ni unique, ni systématiquement nécessaire. L'intelligence est un composé de plusieurs choses. Pour s'en convaincre, il suffit de regarder les test d'intelligence : le premier a sortir mesurait le QI (quotient intellectuel) parce qu'on à pensé (à l'époque) que l'intelligence était une capacité purement logique. Maintenant, on en fait pour tout, le quotient émotionnel, le quotient affectif, le quotient linquistique, etc....
Après, chacun a aussi une vision différente de ce qu'est ou doit être l'intelligence.

#53 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 01:52

La conscience c'est L'IA forte.
Pour l'instant tout les robots sont constitués d'IA faible plus ou moins développé. C'est a dire avec des automatismes
plus ou moins complexe.


Je pense que pour commencer à faire tendre une IA faible vers une IA forte, il faut lui permettre de travailler sur un espace de représentation du monde suffisemment riche pour qu'elle puisse avoir conscience d'elle même, et il faut lui implémenter (ou lui donner une capacité d'auto impléméentation) des mécanismes suffisemment complexes pour qu'elle puisse se les coriger volontairement. Mais cela ne sera pas forcément suffisant (a moins peut être que sa capcité de commettre des erreurs ne découle directement de ces deux composants*)

*: À ce propos : Est ce que les situation provoquées dans une phase d'exploration (qui s'oppose à une phase d'utilisation) lors d'un apprentissage, et qui sont souvent le fruit d'un hasard plus ou moins controlé, peuvent être considérée comme des erreur ? Cela impliquerait que les systèmes d'apprentissage sont capables d'hors et déjà capable d'en commettre...

#54 Dr.Calvin

Dr.Calvin

    Membre passionné

  • Membres
  • PipPipPip
  • 474 messages
  • Gender:Female

Posté 04 août 2010 - 02:54

:ph34r: Euh, juste un détail : tu n'es pas obligé de poster une nouvelle réponse à chaque citation, hein ;) !

Pour répondre à ta remarque sur les découvertes scientifiques, j'étais au courant de ce que tu précises ^^. Ce que je voulais dire, c'était que ces robots sont utilisés comme des outils ultra-perfectionnés, mais qu'ils restent des outils, des "moyens" de découverte, un peu comme lorsque les mathématiciens se sont servis des super-ordinateurs pour résoudre certains problèmes, comme celui de trouver la Nième décimale du nombre Pi ou encore pour trouver un contre-exemple à la conjecture d'Euler..., bref, comme tu l'as dit, eux-mêmes ne se rendent pas compte de ce qu'ils font, ce sont les humains qui analysent ensuite leurs résultats.

Heureusement d'ailleurs...:lol:

D'ailleurs je suis très intriguée par le terme "conscience de soi-même", dans ton explication suivante : "pour commencer à faire tendre une IA faible vers une IA forte, il faut lui permettre de travailler sur un espace de représentation du monde suffisamment riche pour qu'elle puisse avoir conscience d'elle même, et il faut lui implémenter (ou lui donner une capacité d'auto implémentation) des mécanismes suffisamment complexes pour qu'elle puisse se les corriger volontairement". N'existe t'il pas déjà des IA capables de s'auto-corriger ?

#55 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 04 août 2010 - 03:23

:ph34r: Euh, juste un détail : tu n'es pas obligé de poster une nouvelle réponse à chaque citation, hein ;) !

Arf, je ne peut pas éditer pour recoller mon texte (sur d'autres forums, les réponses consécutives du même auteur sont grouppées, je comptais la dessus. :) Et puis j'ai répondu dans l'ordre dans lequel je me faisais ces remarques, en lisant en diagonale les pages...

Pour répondre à ta remarque sur les découvertes scientifiques, j'étais au courant de ce que tu précises ^^. Ce que je voulais dire, c'était que ces robots sont utilisés comme des outils ultra-perfectionnés, mais qu'ils restent des outils, des "moyens" de découverte, un peu comme lorsque les mathématiciens se sont servis des super-ordinateurs pour résoudre certains problèmes, comme celui de trouver la Nième décimale du nombre Pi ou encore pour trouver un contre-exemple à la conjecture d'Euler..., bref, comme tu l'as dit, eux-mêmes ne se rendent pas compte de ce qu'ils font, ce sont les humains qui analysent ensuite leurs résultats.

Heureusement d'ailleurs... :lol:

D'ailleurs je suis très intriguée par le terme "conscience de soi-même", dans ton explication suivante : "pour commencer à faire tendre une IA faible vers une IA forte, il faut lui permettre de travailler sur un espace de représentation du monde suffisamment riche pour qu'elle puisse avoir conscience d'elle même, et il faut lui implémenter (ou lui donner une capacité d'auto implémentation) des mécanismes suffisamment complexes pour qu'elle puisse se les corriger volontairement". N'existe t'il pas déjà des IA capables de s'auto-corriger ?

Oui, elles sont capables de s'auto-corriger, mais ce processus est cablé par le programmeur. C'est une analyse logique du système qu'a fait le programmeur et qui a défini les choses que la machine peut apprendre (la mémoire ou le cablage interne). La machine n'a pas (encore et à ma connaissance) la capacité de sortir de cet espace prédéfini.
L'étape suivante qui arrive, c'est cette capacité de s'adapter selon ses propres règles choisies soit même, et non pas implémentées de l'extérieur. Une capacité qui permettrait de sortir de cet espace prédéfini, quand on le souhaite. Dans l'exemple mathématique, c'est l'humain qui analyse le résultat. Une IA forte devrait ne pas avoir besoin de cet intervenant extérieur, elle devrait analyser son propre raisonnement en modélisant le fait que c'est elle même qui le fait, et donc en ayant entre autres connaissances une représentation d'elle même et de ses capacités. Autrement dit : une conscience de soit.

#56 Thot

Thot

    Membre passionné

  • Membres
  • PipPipPip
  • 327 messages
  • Gender:Male
  • Location:Toulouse
  • Interests:Artiste Roboticien, prendre les dernières techno et les mettre sur scène... telle est ma devise.
    Gestuelle et conscience artificielle.
    Bipédie et quadrupédie

Posté 04 août 2010 - 09:01

La soif de connaissances ?


J'aime beaucoup ce terme, car la soif est un besoin vital. Le manque de connaissances va permettre au robot de bouger. Ce concept peut être vu sur un robot de type char avec une cartographie. Le robot devra aller d'un point à un autre mais "par curiosité" il ira voir caertains points qui n'ont rien à voir mais juste pour en savoir plus sur la cartographie des lieux... qui sait, ça peut être sympa, servir plus tard...

Après, la soif de connaissance c'est ce qui anime déjà Cybrina de CalibanProject :)

une représentation d'elle même et de ses capacités. Autrement dit : une conscience de soit.


Du coup, on a beaucoup d'éléments sur ce que sera un robot intelligent :
- ce comporter comme un humain ?
- être libre ?
- avoir une conscience ?
- avoir des émotions en plus d'une intelligence rationnelle ?
- se programmer soi-même, s'auto-adapter ?
- être sociable ?
- être vivant ?
- avoir peur de mourir ?
- avoir une âme ?
- être un ordinateur débile ?
- être égocentrique ?
- doué d'un raisonnement ?
- croire en l'être humain ?
- gérer une grosse base données ?

Personnellement je pense que ce sera une grosse base de donnée qui peut s'auto-adapter avec des pulsions. Je pense que le reste en découle. Par exemple, pour la conscience de soi, elle vient d'abord avec le corps :

Quand je tourne la tête à droite, il se trouve que simultanément, la Terre tourne vers la gauche autour de moi. Il y a un lien extrêmement direct entre ce que je fais et ce que je ressens. Ce lien je le ressens depuis le berceau, il est très fort en moi. Je pense que ces relations sont un tout et font la conscience de soi (du moins du corps). La conscience est liée au fait de pouvoir agir, et aussi sentir. Tous ces liens, on peut les stocker en base de donnée (bon comment ? ca c'est une autre histoire :( )

Pour la croyance, c'est aussi une conséquence. si on sait que <poule> cree <oeuf> alors <X> cree <poule>. On a forcément envie de savoir qui cree poule. Si on nous raconte une histoire qui nous dit qui est <X> alors on va associer ce <X> a plein d'autres choses.

... aïe je saigne du nez.

"Il n'y a rien de plus étrange pour l'homme que son image" RUR, Karel Capek
Caliban Midi - Art - Terroir et Robotique


#57 Guest_Calibanproject_*

Guest_Calibanproject_*
  • Guests

Posté 05 août 2010 - 10:04

Après, la soif de connaissance c'est ce qui anime déjà Cybrina de CalibanProject


En fait, la "soif de connaissance" n'est qu'une conséquence positive de son système de pulsion. En réalité, elle est animée par la volonté d'établir des contacts sociaux car il ne saurait y avoir d'intelligence sans évolution sociale.

Il est important de ne pas aborder ce besoin d'engrenger des données comme constituant une source de motivation. Avec cette approche, on fonce droit dans le mur car il est alors impossible de pondérer, ou relativiser si vous préférez, la valeur de tel ou tel savoir.

Le contact social et l'évolution dans un groupe permet de quantifier automatiquement quelle information est importante ou non...

Il vaut donc mieux voir l'IA sous l'angle social plutot que système d'acquisition de donnée ;)

#58 miq75

miq75

    Membre

  • Membres
  • 41 messages
  • Gender:Male
  • Location:Wissembourg

Posté 05 août 2010 - 12:53

En fait, la "soif de connaissance" n'est qu'une conséquence positive de son système de pulsion. En réalité, elle est animée par la volonté d'établir des contacts sociaux car il ne saurait y avoir d'intelligence sans évolution sociale.

Il est important de ne pas aborder ce besoin d'engrenger des données comme constituant une source de motivation. Avec cette approche, on fonce droit dans le mur car il est alors impossible de pondérer, ou relativiser si vous préférez, la valeur de tel ou tel savoir.

Le contact social et l'évolution dans un groupe permet de quantifier automatiquement quelle information est importante ou non...

Il vaut donc mieux voir l'IA sous l'angle social plutot que système d'acquisition de donnée ;)


Oui et non, je ne serai pas aussi affirmatif.
Par exemple un robot qui se trouverai parachuté seul dans un territoire hostile à la vie humaine aurai besoin de connaitre son environnement, et donc d'explorer, et ce, même s'il sait qu'il n'aura pas ou peu d'interactions sociales.
Tu ne peut donc pas dire que l'évolution sociale est la clef de l'intelligence dans toutes les circonstances.
Maintenant, je te rejoint sur le fait que c'est un moteur d'action plus intéressant que la simple "soif de connaissances".

Par ailleur, ça me fait penser à un truc : l'intelligence des supercolonies d'insectes. Ils construisents des structures très complexes mais sans avoir connaissance du schéma global. Dans leur cas, je pense qu'on peut dire que leur intelligence est cablée génétiquement, dans des comportements simples (un peu comme le V des oiseaux est en fait la résultante de 2-3 stimuli : un truc du genre "suivre le groupe","ne pas avoir l'autre pile devant soit". À aucun moment l'oiseau n'a conscience de la formation en V.)
Est-ce que la manière dont on cherche ici a définir les composantes de l'IA est compatible avec un tel cablage génétique ? Est-ce que ça veut dire que l'IA forte n'a pas besoin de se connaitre elle même (dans le cas de l'IA distribuée) ?



Répondre à ce sujet



  


0 utilisateur(s) li(sen)t ce sujet

0 members, 0 guests, 0 anonymous users