Interview

Quelle éthique pour la robotique ?

Posté le 15 janvier 2021
par Intissar EL HAJJ MOHAMED
dans Informatique et Numérique

Le monde va-t-il trop vite ? Sommes-nous en train de nous adapter trop rapidement aux nouvelles inventions ? Avant d’accepter les technologies émergentes, nous posons-nous assez de questions ? S’interroger est à la base de la réflexion éthique. C’est dans cet esprit que Techniques de l’Ingénieur s’est saisi de l’éthique en robotique.

De « méchants » robots humanoïdes qui déciment les humains, ou les remplacent simplement s’ils sont de bonne humeur, quand d’autres, « les gentils », se lient d’amitié avec l’Homo sapiens… C’est ici le scénario type propre à la science-fiction mettant en scène des machines anthropomorphes – qui nous tourmentent, ou pas.

Or, vous vous en doutez, la réalité est bien différente. Dès les premières étapes de la conception d’un robot (attention, un vrai, donc ni le cyborg Terminator ni R2D2, rappelons-le !), des recommandations éthiques et des règles juridiques s’imbriquent dans le cheminement du projet.

Curieux de savoir comment l’éthique s’invite dans le monde de la robotique, nous avons interviewé Catherine Tessier, référente intégrité scientifique et éthique de la recherche à l’ONERA (Office National d’Etudes et de Recherches Aérospatiales). Catherine Tessier a également rédigé, pour Techniques de l’Ingénieur, la ressource documentaire Conception et usage des robots : quelques questions éthiques. Entretien !

Techniques de l’Ingénieur : Sur quels aspects de la robotique intervient l’éthique ?

Catherine Tessier. Crédit photo : N.B. – ONERA

Catherine Tessier : La réflexion éthique concerne la manière dont est conçu le robot, ainsi que les usages qu’on envisage.

Le chercheur et l’ingénieur doivent s’interroger en continu dès qu’ils s’emparent d’un nouveau projet : quel aspect donner au robot ? Une ressemblance avec l’humain ou l’animal est-elle pertinente ? Avec quels programmes équipe-t-on ce robot ? Quelles données ces programmes utilisent-ils ? Si ce robot interagit avec l’être humain, quel sera son impact sur l’humain ? Va-t-il modifier le comportement de l’humain, voire l’humain lui-même ?

De manière non spécifique aux robots, il faut également réfléchir aux matériaux utilisés, à leur provenance, leur durabilité, à l’impact environnemental de l’usage des robots ainsi qu’à leur fin d’usage.

Une question primordiale qu’il faut se poser est le « pourquoi » : pourquoi conçoit-on cet objet ? En quoi va-t-il aider l’humain, ou améliorer la condition humaine ?

Quel est le cœur de votre travail ?

À l’ONERA, mes missions en tant que référente intégrité scientifique et éthique de la recherche sont réparties en deux volets. En ce qui concerne l’intégrité scientifique, il s’agit de sensibiliser mes collègues aux bonnes pratiques de recherche, et a contrario aux pratiques discutables et aux fraudes scientifiques. En ce qui concerne l’éthique de la recherche, j’aide mes collègues à se poser des questions quand ils préparent des projets européens ou ANR [Agence nationale de la recherche, NDLR] et à compléter les documents qui demandent de mettre en évidence les éventuelles questions éthiques soulevées par ces projets.

Faut-il avoir fait des études spécifiques pour exercer cette réflexion éthique ?

Certainement pas, les profils sont très différents ! On trouve des philosophes bien sûr, des juristes, mais aussi des personnes dont l’éthique n’est pas le quotidien. Ce qui compte surtout est l’expérience du terrain et l’envie de se poser des questions sur ce qu’on fait et comment on le fait. Pour résumer, il faut aimer se poser des questions, douter toujours, ne pas se reposer sur ses certitudes, être très à l’écoute des arguments des uns et des autres qui ne vont pas toujours dans le même sens, voire sont contradictoires.

Comment faire la distinction entre éthique et juridique ? Est-ce qu’il y a un dialogue entre les deux ?

Des juristes sont présents dans les comités d’éthique. Mais l’éthique et le juridique sont en effet différents. L’éthique est tout le temps en mouvement et elle ne décide pas, elle recommande. Cependant, il se peut qu’une recommandation éthique devienne juridique, devienne une loi : c’est le cas par exemple de la loi de bioéthique.

À l’inverse, il y a aussi des lois qui peuvent ne pas être conformes à certaines valeurs éthiques. Par exemple, la peine de mort est un principe juridique dans certains pays mais ce n’est pas pour autant qu’elle respecte les principes de respect de la vie et de dignité humaine.

Revenons maintenant aux nouveaux objets, comme les robots. Dans ce cas, les juristes peuvent se demander s’il faut ou non légiférer sur ces objets. Par exemple, si le véhicule à fonctions de conduite automatisées est introduit dans la société, il faudra modifier le code de la route, car il est fondé sur la présence d’un conducteur.

L’un des sujets en discussion autour de la robotique concerne la notion de responsabilité. Quand un accident est provoqué par un robot, qui en porte la responsabilité ? Est-ce que l’éthique peut répondre à cela ?

Je ne suis pas juriste, mais un robot est une chose au sens juridique. Il dépend alors de la législation sur les choses. En cas d’accident, l’enquête va remonter la chaîne des responsabilités. C’est le cas quand il y a un accident d’avion par exemple : l’avion est un objet complexe et les enquêteurs remontent la chaîne de responsabilités à tous les niveaux, et cela peut être très intriqué.

Je fais partie du Comité National pilote d’éthique du numérique. Celui-ci traite actuellement trois saisines : une sur le véhicule à fonctions de conduite automatisées, une deuxième sur l’IA et le diagnostic médical, et une dernière sur les agents conversationnels ou chatbots. Je participe au traitement de la saisine sur le véhicule à fonctions de conduite automatisées et nous y réfléchissons : en cas d’accident, où va la responsabilité ? Mais cela ne va pas être différent des objets complexes, comme dans le cas de l’avion. Et avant de remonter la chaîne des responsabilités, il faut identifier qui est responsable de quoi dans l’objet : qui est responsable de tel capteur, qu’a fait l’opérateur ou le passager, etc.

Est-ce qu’il existe des institutions internationales dont la parole « fait loi » et qui dictent les principes éthiques à respecter en robotique ?

Au niveau européen, il existe le « High-Level Expert Group (HLEG) on Artificial Intelligence », un groupe de réflexion qui a publié des recommandations relatives à l’intelligence artificielle (IA). C’est ensuite à l’Europe de s’en emparer et de définir éventuellement des textes contraignants donc des législations, comme c’est le cas du RGPD – Règlement général sur la protection des données –  par exemple.

À l’échelle internationale, un groupe d’experts mandaté par l’UNESCO, et dont j’ai fait partie, a rédigé une recommandation mondiale sur l’éthique de l’IA. Ce texte est en cours d’examen par les États membres. L’enjeu ici est d’arriver à un consensus sur ce qu’il convient de faire avec les possibilités offertes par le numérique, par exemple la reconnaissance faciale, ou encore la justice assistée par le numérique.

Selon vous, quels sont les enjeux majeurs liés à l’éthique de la robotique sur lesquels il faut absolument engager le débat aujourd’hui ?

Une problématique importante est le vocabulaire employé pour parler des robots. En effet, beaucoup de fantasmes – attentes ou peurs –  se créent autour de l’objet robot car on en parle souvent avec des termes anthropomorphiques : on dit par exemple qu’il « décide », alors qu’il est programmé avec des logiciels qui font des calculs.

Il faut aussi nous interroger sur les motivations qui nous poussent à concevoir des robots destinés à remplacer l’être humain. Pourquoi aller plus vite ? Pourquoi éliminer les tâches pénibles ? Pourquoi vouloir être plus précis ? Pourquoi vouloir une interaction ludique ?

Il apparaît que certaines motivations doivent être examinées. Par exemple dans le cas du véhicule à fonctions de conduite automatisées, l’une des motivations est la réduction du nombre d’accidents de la route. Or les expériences les plus fréquentes sont réalisées sur des navettes destinées à circuler dans des environnements bien particuliers, sites périurbains ou voies propres, donc des endroits où se produisent peu d’accidents. Il existe donc un décalage entre la motivation et la réalité actuelle, qu’il convient d’interroger.

Quelles sont alors les questions clés qu’il faut se poser avant d’entreprendre la conception d’un nouvel objet robot ?

Quelles fonctions envisage-t-on d’affecter au robot ? Pourquoi vouloir lui affecter ces fonctions ? Est-ce que ce robot est désirable ? Est-ce que son usage est proportionné aux besoins de la société ? Il y a aussi le risque de créer de nouveaux besoins de toutes pièces : au nom de quoi créer ces besoins ?

En outre, peut-être va-t-on déposséder l’humain d’un certain nombre de choses qu’il sait faire, et que finalement il ne saura plus faire. Par exemple, il est possible qu’avec une généralisation du véhicule à fonctions de conduites automatisées, nous ne sachions plus conduire nous-mêmes. On peut faire un rapprochement avec le fait qu’avant que la voiture soit largement répandue, on savait monter à cheval ; or aujourd’hui, c’est moins le cas. Cette perte progressive de compétences, et l’acquisition de nouvelles compétences, doit être interrogée.

Il faut donc accompagner l’entrée de ces technologies dans la société, dès le plus jeune âge et dans les cursus de formation, en identifiant quelles compétences seront nécessaires et quels nouveaux métiers sont susceptibles d’être créés.

Un écueil à éviter est la tendance à s’interroger sur les nouveaux objets, en particulier les robots, une fois qu’ils existent, et non pas avant. Le risque est de tomber dans le « blanchiment éthique » (ou « ethics washing ») où l’éthique est invoquée pour cautionner après coup ces objets. La question que pose le développement rapide du numérique et des robots est celle de la liberté de l’être humain de ne pas adopter ces nouveaux objets et de choisir de ne pas accepter qu’ils s’imposent à lui.

Propos recueillis par Intissar El Hajj Mohamed.


Pour aller plus loin