Aller au contenu


Axel

Inscrit(e) (le) 31 août 2009
Déconnecté Dernière activité oct. 12 2009 04:54
-----

Messages que j'ai postés

Dans le sujet : Présentation Axel

04 septembre 2009 - 09:47

C'est exact, cependant, même douée de raisonnement, elle doit suivre les indications qui lui sont données par ses capteurs, si ces informations se trouvent erronées ou mal interprétés par ces capteurs, elle serait alors forcée de raisonner avec des informations fausses, ceci pouvant avoir des répercussions .

Cependant, je vous l'accorde, la, je glisse sur un autre sujet, je passe de défaut de programmation à la possibilité de raisonnement sur des informations erronées . Je suis un peu un sale mécontent qui aime voir toutes les failles, mais bon, il en faut bien par ce que des fois ils arrivent à remettre vraiment quelque chose en question . ^^

Enfin, pour revenir sur les capacités de l'I.A., une chose me chiffonne, le fait qu'une I.A. repose sur un raisonnement censé être infaillible, crée par des êtres faillibles, en d'autres termes, comment une machine pourrait-elle ne commettre aucune faute, si ses créateurs, eux, peuvent en faire en la créant ? C'est une composante non-négligeable, le cerveau humain n'est que difficilement capable de raisonner dans une logique pure de cause à effet . De plus, c'est bien connu, l'on ne pense pas à tout .

Tant que nous créerons des machines assez basiques ou complexes mais en petit nombre, donc en donnant la priorité à une qualité sans faille, ceci ne devrait pas être un problème, cependant, l'époque ou l'industrie de masse tentera elle même de se doter de machines complexes en surnombre, dans des délais qui ne laissent pas forcément le temps à la "perfection", sera funeste . Pour en revenir aux ordinateurs et aux OS, windows est l'industrie de masse qui apprécie les délais rapides, nous nous retrouvons avec des logiciels incomplets, bugués, d'un autre côté, Linux semble être le complexe se rapprochant de la perfection .

Cependant, encore heureux, il n'y a que le BSOD pour nous briser le cœur sur nos windows, mais avec des androïdes, cela pourrait atteindre d'autres proportions . Elles n'atteindraient peut-être pas un niveau aussi grave qu'une guerre humain-machine, mais voyez comme nous sommes déjà dépendants de notre économie mondiale des ordinateurs, et, à fortiori, de notre bon vieux Bill, cela s'aggravera lorsque nous dépendrons d'autres multi-nationales qui tiendront entre leurs mains la majorité des exploitations agricoles, minières ou industrielles grâce à leurs machines qui feront l'intégralité du boulot .

Je reconnais que je ne comptais pas atteindre cette mini-conclusion au début de ce texte, mais la machine pourrait n'être qu'un intermédiaire passif à notre destruction lorsqu'on y pense... Comme toute nos créations une fois réfléchi .

Dans le sujet : Présentation Axel

03 septembre 2009 - 11:49

Oui je suis très pessimiste, je n'ai jamais eu grande confiance en l'humanité à vrai dire, donc pour ce qu'il en est de leurs futurs créations... Ensuite, effectivement, je doute d'avoir encore le cul vissé sur mon siège lorsque celle sera dans le KK, mais bon, j'aime bien pourrir le moral à tout le monde aussi .

Ensuite, pour faire court (Ouais, je suis à ma pause déjeuner la, foutu cours ! >_<), j'aimerais faire l'amalgame entre un robot du futur, et nos systèmes informatiques actuels, pour exemple, prenons le système le plus utilisé au monde, et pas le meilleur, notre cher Windows, crée par l'entreprise la plus développée au monde, la plus riche, mais qui font un boulot tellement partiel et bâclé que leur propres personnels éprouvent des difficultés à se servir des produiits qu'il crées .

Imaginons un instant, que lorsque la robotique aura avancée au point que les gens se mettent à bâcler le boulot, j'imagine que la notion de BSOD sur un androïde devrait se reveler amusante (ou énervante, selon qu'on soit spectateur ou propriétaire de l'androïde en question .), cependant, les bugs et erreurs normalement mineures pourraient avoir des repercussions diablement grave sur des machines sur qui reposerait une économie, une guerre, une exploitation . Car si ces erreurs sont bien souvent traitées de tel sorte que le système puisse y remédier de lui même, la possibilité que cela ne finisse par altérer certains points d'une programmation reste possible .

Ensuite, de ce point de vue, je reste dans l'optique de machines dont l'entretien repose sur des humains, et justement, comment un être imparfait pourrait-il se servir d'un être prétendu "parfait" sans lui faire ainsi commettre des erreurs, sans importance à l'échelle d'un seul androïde, méchamment douloureux si cela devait arriver à des modèles produits à plusieurs milliers voir, millions d'unités .

Un robot se contente de suivre sa programmation, donc peut-être seront-ils plus dangereux tant qu'ils ne seront pas capable d'avoir une vrai réflexion, ou d'interpréter leurs propres erreurs système . (Petite vision d'un androïde soldat qui, par un malheureux hasard, se retrouve à avoir une erreur avec la reconnaissance allié/ennemis/civils, et voila une belle boucherie, encore une fois, à l'échelle d'une unité, gravité mineure, à l'échelle d'une armée... Ouille...) .

Enfin, je parle, et c'est tout ce que je fait, n'ayant pas de connaissances en la matière, je ne peux rien certifier, juste emettre des hypothèses, hypothèses qui doivent être discutées, et surtout confrontées à la réalité technique de la chose . C'est bien pour ça que je suis ici, et aussi par ce que dans mon entourage, ça ne s'intéresse pas trop aux questions métaphysiques vis à vis de la robotique du futur .