Pas du tout d'accord. Ce n'est pas en rajoutant intentionnellement une "faille" dans la machine qu'elle fera le moindre pas vers l'intelligence. Peut-être qu'elle donnera l'impression d'être "humaine", imparfaite, mais ce n'est pas être intelligent.Il faut donc ajouter à la machine des modules afin qu'elle devienne dépendante, qu'elle fasse une erreur de calcul toutes les 4 secondes
Concernant les 3 lois d'Asimov, il est clair que celles-ci s'adressent à des IA fortes, c'est-à-dire capable d'apprendre par elles-mêmes le monde, aussi bien que nous. Pour des robots avec une IA faible, soit la totalité de ceux existants, ces lois n'ont strictement aucun sens. Qu'est-ce que protéger ? Qu'est-ce qu'un humain ? Est-ce qu'un robot avec une apparence humaine est un humain ? Est-ce qu'un humain bourré d'électronique dans son corps est toujours humain ? Etc.
En supposant qu'un robot avec IA forte n'ait pas ces trois lois, qu'est-ce qui arrivera ? Est-ce qu'il cherchera à réduire à l'esclavage, à se rebeller contre les humains, comme le pense Asimov dans l'un de ses livres ? Je ne pense pas. Il n'en aurait aucune raison valable.Et vu l'histoire, avec un robot sans les trois lois, ça promet d'être vraiment passionnant !
Le robot qui se rebelle contre ses créateurs et qui veut tout détruire, c'est une chimère. Un délire. Pour que le robot se rebelle, il faut que son créateur lui en est donné l'envie, le désir, l'intérêt, ou plus simplement qu'il y ait une erreur dans le programme. Ca ne pas peut surgir par magie comme si c'était dans l'ordre des choses qu'il en soit ainsi.