Décryptage

Les robots, danger ou opportunité ?

Posté le 16 avril 2015
par Matthieu Combe
dans Informatique et Numérique

Avec l'arrivée des premiers robots sur le marché, une polémique enfle depuis quelques mois. Allons-nous développer une intelligence artificielle qui prendrait le pas sur l'humanité d'ici le milieu du siècle? La question est posée ! Mais pour Jean-Claude Heudin, spécialiste de l'Intelligence Artificielle, cette peur est totalement irrationnelle. Explications.

La polémique est née dans la Silicon Valley où de grandes entreprises telles que Google et Facebook investissent énormément dans des projets liés à l’intelligence artificielle (IA). Google a notamment embauché Ray Kurzweil, un grand entrepreneur connu pour ses visions très positivistes et optimistes de l’IA. « Il défend une vision extrêmement positiviste et assez utopique de l’IA qui irait jusqu’à nous libérer de la chair et nous promet une immortalité », nous prévient Jean-Claude Heudin, Directeur de l’Institut de l’Internet du Multimédia et auteur du livre « Les 3 Lois de la Robotique, faut-il avoir peut des robots ?».

En réaction à cette vision optimiste, des personnalités telles que Stephen Hawking, puis Elon Musk et Bill Gates se sont récemment fait l’échos d’une contre-utopie, beaucoup plus pessimiste. L’IA toute puissante pourrait supplanter l’Homme, voire même faire disparaître l’humanité. Le grand public est particulièrement réceptif à ces craintes, suite aux films de science-fiction tels que Terminator, Matrix ou encore Transcendance.

Ces scénarios sont-ils réalistes ?

« Les gens qui s’expriment aujourd’hui sur le sujet ne sont pas des professionnels de l’IA », commente Jean-Claude Heudin. Lorsque l’on parle aux chercheurs dans le domaine, on se rend compte qu’on est très loin de créer une IA qui se révolterait. « On est capable d’avoir des IA qui sont extrêmement performantes et quelquefois plus performantes qu’un humain sur un point précis, mais on est incapable d’avoir une intelligence artificielle généraliste, douée de volonté, encore moins de conscience et qui serait capable d’apprendre par elle-même», affirme Jean-Claude Heudin. « On ne sait même pas si un jour on y arrivera », prévient-il. Le cerveau est en effet un substrat organique incroyablement complexe, alors que les programmes et architectures utilisés en robotique restent relativement simples.

Le robot ne ressent rien et n’a pas de conscience au sens humain du terme, on ne peut tout que lui permettre de simuler des émotions. « La conscience primaire, c’est avoir conscience de son corps dans l’environnement. Comparativement, les robots ont très peu de capteurs internes, donc ils n’ont pas la structure de base qui leur permettrait ne serait-ce que d’avoir un « embryon de conscience de leur corps » dans l’environnement », assure l’expert en intelligence artificielle.

Les prévisions de Ray Kurzweil reposent sur des théories discutables. « Derrière, il y a les transhumanistes et la théorie de la singularité technologique qui refleurit – théorie selon laquelle l’accroissement exponentionelle  du progrès technique accoucherait d’une IA toute puissante », prévient Jean-Claude Heudin. Ces raisonnements ne prennent pas en compte l’épuisement des ressources et  reposent notamment sur l’extrapolation de la loi de Moore.

Quelle place pour les robots dans la société?

Pour Jean-Claude Heudin, des questions beaucoup plus importantes se posent. « Le débat de la place de la robotique dans la société est un vrai débat », estime-t-il. Il semble nécessaire de redéfinir les tâches qui peuvent être réalisées par des robots et celles qui doivent rester humaines. Il faut remettre l’homme au centre des stratégies de robotisation.« Il ne faut pas utiliser le robot pour remplacer l’homme, mais l’utiliser  pour aider l’homme, améliorer ses conditions de travail », défend-il. La stratégie à construire devrait être de s’assurer que la robotisation crée plus d’emplois qu’elle n’en détruira. 

Un autre débat de société devrait être posé de façon beaucoup plus ouverte. L’armée américaine étudie actuellement la possibilité de créer des machines qui auraient une capacité autonome de combat. Mais un robot peut-il tuer un humain  sur la base d’un simple algorithme ? Sur quelles valeurs se baserait cet algorithme pour décider de tuer ? Cela pose des questions éthiques et de société. La première loi de la robotique imaginée par Isaac Asimov dans les années 1950 selon laquelle « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger », semble du coup déjà obsolète. Ce débat dépasse celui des robots militaires. La voiture autonome pose des dilemnes similaires : l’algoritme devra-t-il favoriser la vie du conducteur ou celle d’un piéton en cas d’accident mortel inévitable ?

Par Matthieu Combe, journaliste scientifique


Pour aller plus loin