Interview

L’IA ne détruira pas tout de suite l’humanité !

Posté le 29 mars 2017
par Matthieu Combe
dans Innovations sectorielles

Jean-Gabriel Ganascia mène des recherches sur l'intelligence artificielle à l'université Pierre-et-Marie-Curie. Il est également président du comité d'éthique du CNRS et membre du conseil scientifique de l'Observatoire B2V des mémoires. Il vient de publier l'ouvrage « Le mythe de la Singularité : Faut-il craindre l'intelligence artificielle? » au Seuil. Il répond à nos questions.

Techniques de l’Ingénieur : Votre livre cherche à réfuter la thèse de la singularité technologique. Pouvez-vous nous expliquer cette thèse et la vision de ceux qui la défendent ?

J-G.G. : Les personnes qui défendent cette thèse disent que les machines vont être tellement puissantes qu’à un moment donné, elles vont nous dépasser. Débutera alors une période critique au cours de laquelle le statut de l’humanité va basculer. Nous ne serons plus totalement maîtres de notre destin puisque les machines seront plus intelligentes que nous. Elles auront leur propre volonté. D’aucuns s’inquiètent, comme Elon Musk, Stephen Hawking ou Bill Gates. D’autres sont enthousiastes comme Raymond Kurzweil qui pense que les machines vont nous rendre immortels.

Il y a un caractère inéluctable et immédiat à la singularité technologique. Elle naît du prolongement de la loi de Moore : la progression exponentionnelle des capacités des machines fera inéluctablement que nous arriverons à ce basculement. Par ailleurs, puisque les machines apprennent de façon autonome tous les jours, elles nous dépasseraient forcément, selon cette théorie.

T.I. : Quels sont les arguments que vous avancez pour réfuter cette théorie?

J-G.G. : Les premiers arguments tiennent à ce que la loi de Moore prévoit une progression exponentielle de la capacité des machines. Les tenants de la singularité pensent que cette loi de Moore est universelle. Elle correspondrait à une loi générale d’évolution de la nature. En réalité, c’est une loi d’observation qui n’a absolument rien d’universel. En particulier, on sait qu’elle se fonde sur l’utilisation de technologies du silicium. Et pour des raisons physiques, ces technologies atteindront bientôt leurs limites.

Pour justifier l’universalité de la Singularité, Raymond Kurzweil retient plusieurs jalons arbitraires dans l’histoire de la planète. Entre deux jalons, il assure que les durées diminuent de façon exponentielle et la complexité augmente de façon exponentielle. Le problème est que si l’on change de jalons, on n’observe absolument plus du tout cette évolution. On sait que les exponentielles existent dans la nature dans tous les phénomènes de transition de phases et, bien sûr, cela s’arrête à un moment donné.

Il y a une deuxième famille d’arguments portant sur la capacité qu’ont les machines à apprendre de façon autonome. Les capacités qu’ont les machines à ingurgiter une très grande quantité de données et à construire des connaissances à partir de celles-ci sont impressionnantes. Par exemple, Google avec son système FaceNet utilise 200 millions d’images et a un taux de succès de reconnaissance visage de 99,63%. Les machines peuvent donc avoir des capacités supérieures aux nôtres. Mais est-ce que cela veut dire qu’elles sont plus capables que nous? Oui sur certaines tâches. Mais l’homme est capable d’inventer; il peut construire de nouveaux concepts, pas la machine. Il s’agit d’apprentissage non supervisé, sans professeur. Les technologies actuelles ne parviendront pas à une machine qui apprend de façon totalement autonome. Peut-être un jour. Cela ne veut donc pas dire que la singularité est impossible, mais les arguments sont très faibles.

T.I. : Le développement actuel des montres, lunettes et autres objets connectés en tous genres ne constitue-t-il pas les prémisses d’une hybridation homme/machine?

J-G.G. : Peut-être, mais des prémisses très éloignées (rires). Je crois que l’on en est encore très loin. Cela fait très longtemps que l’homme utilise la technologie pour remplacer des organes défaillants, des prothèses qui vont remplir un certain nombre de fonctions. Mais elles les remplissent de façon dégradées. L’idée que l’on va s’augmenter, est-ce que c’est nouveau? On peut dire que non, car les voitures nous permettent déjà d’aller plus vite, les lunettes de voir mieux et plus longtemps, etc. Je pense qu’il y a des modes d’appropriation à toutes les technologies. De là à dire que cela va nous transformer en cyborg, la route est longue.

T.I. : Vous faites des recherches dans le cadre du projet ANR EthicAA (Ethique et Agents Autonomes). Pouvez-vous nous présenter ces recherches?

Ces recherches sont consécutives au développement de machines autonomes qui pourraient avoir des comportements imprévisibles. C’est d’autant plus important qu’aujourd’hui, avec l’apprentissage profond, nous allons avoir des machines qui se reprogramment de façon dynamique en fonction de leur « parcours ». Elles peuvent contrevenir à un certain nombre d’évidences d’ordre moral. Notre idée est d’introduire à l’intérieur de la programmation des valeurs éthiques.

Il arrive également que l’on ait des conflits d’autorité entre l’homme et la machine. L’étude rétrospective des accidents montre que c’est souvent la machine qui a raison. On souhaiterait aborder le système de dialogue entre l’homme et les automates avec des techniques d’argumentation qui aident les hommes à mûrir leur réflexion en comprenant bien ce qui motive les propositions de l’agent artificiel.

Propos recueillis par Matthieu Combe, journaliste scientifique


Pour aller plus loin

Dans les ressources documentaires