Logo ETI Quitter la lecture facile

3 questions à

L’IA ne détruira pas tout de suite l’humanité !

Posté le par Xavier Lula dans Innovations sectorielles

Jean-Gabriel Ganascia mène des recherches sur l'intelligence artificielle à l'université Pierre-et-Marie-Curie. Il est également président du comité d'éthique du CNRS et membre du conseil scientifique de l'Observatoire B2V des mémoires. Il vient de publier l'ouvrage « Le mythe de la Singularité : Faut-il craindre l'intelligence artificielle? » au Seuil. Il répond à nos questions.

Techniques de l’Ingénieur : Votre livre cherche à réfuter la thèse de la singularité technologique. Pouvez-vous nous expliquer cette thèse et la vision de ceux qui la défendent ?

J-G.G. : Les personnes qui défendent cette thèse disent que les machines vont être tellement puissantes qu’à un moment donné, elles vont nous dépasser. Débutera alors une période critique au cours de laquelle le statut de l’humanité va basculer. Nous ne serons plus totalement maîtres de notre destin puisque les machines seront plus intelligentes que nous. Elles auront leur propre volonté. D’aucuns s’inquiètent, comme Elon Musk, Stephen Hawking ou Bill Gates. D’autres sont enthousiastes comme Raymond Kurzweil qui pense que les machines vont nous rendre immortels.

Il y a un caractère inéluctable et immédiat à la singularité technologique. Elle naît du prolongement de la loi de Moore : la progression exponentionnelle des capacités des machines fera inéluctablement que nous arriverons à ce basculement. Par ailleurs, puisque les machines apprennent de façon autonome tous les jours, elles nous dépasseraient forcément, selon cette théorie.

T.I. : Quels sont les arguments que vous avancez pour réfuter cette théorie?

J-G.G. : Les premiers arguments tiennent à ce que la loi de Moore prévoit une progression exponentielle de la capacité des machines. Les tenants de la singularité pensent que cette loi de Moore est universelle. Elle correspondrait à une loi générale d’évolution de la nature. En réalité, c’est une loi d’observation qui n’a absolument rien d’universel. En particulier, on sait qu’elle se fonde sur l’utilisation de technologies du silicium. Et pour des raisons physiques, ces technologies atteindront bientôt leurs limites.

Pour justifier l’universalité de la Singularité, Raymond Kurzweil retient plusieurs jalons arbitraires dans l’histoire de la planète. Entre deux jalons, il assure que les durées diminuent de façon exponentielle et la complexité augmente de façon exponentielle. Le problème est que si l’on change de jalons, on n’observe absolument plus du tout cette évolution. On sait que les exponentielles existent dans la nature dans tous les phénomènes de transition de phases et, bien sûr, cela s’arrête à un moment donné.

Il y a une deuxième famille d’arguments portant sur la capacité qu’ont les machines à apprendre de façon autonome. Les capacités qu’ont les machines à ingurgiter une très grande quantité de données et à construire des connaissances à partir de celles-ci sont impressionnantes. Par exemple, Google avec son système FaceNet utilise 200 millions d’images et a un taux de succès de reconnaissance visage de 99,63%. Les machines peuvent donc avoir des capacités supérieures aux nôtres. Mais est-ce que cela veut dire qu’elles sont plus capables que nous? Oui sur certaines tâches. Mais l’homme est capable d’inventer; il peut construire de nouveaux concepts, pas la machine. Il s’agit d’apprentissage non supervisé, sans professeur. Les technologies actuelles ne parviendront pas à une machine qui apprend de façon totalement autonome. Peut-être un jour. Cela ne veut donc pas dire que la singularité est impossible, mais les arguments sont très faibles.

T.I. : Le développement actuel des montres, lunettes et autres objets connectés en tous genres ne constitue-t-il pas les prémisses d’une hybridation homme/machine?

J-G.G. : Peut-être, mais des prémisses très éloignées (rires). Je crois que l’on en est encore très loin. Cela fait très longtemps que l’homme utilise la technologie pour remplacer des organes défaillants, des prothèses qui vont remplir un certain nombre de fonctions. Mais elles les remplissent de façon dégradées. L’idée que l’on va s’augmenter, est-ce que c’est nouveau? On peut dire que non, car les voitures nous permettent déjà d’aller plus vite, les lunettes de voir mieux et plus longtemps, etc. Je pense qu’il y a des modes d’appropriation à toutes les technologies. De là à dire que cela va nous transformer en cyborg, la route est longue.

T.I. : Vous faites des recherches dans le cadre du projet ANR EthicAA (Ethique et Agents Autonomes). Pouvez-vous nous présenter ces recherches?

Ces recherches sont consécutives au développement de machines autonomes qui pourraient avoir des comportements imprévisibles. C’est d’autant plus important qu’aujourd’hui, avec l’apprentissage profond, nous allons avoir des machines qui se reprogramment de façon dynamique en fonction de leur « parcours ». Elles peuvent contrevenir à un certain nombre d’évidences d’ordre moral. Notre idée est d’introduire à l’intérieur de la programmation des valeurs éthiques.

Il arrive également que l’on ait des conflits d’autorité entre l’homme et la machine. L’étude rétrospective des accidents montre que c’est souvent la machine qui a raison. On souhaiterait aborder le système de dialogue entre l’homme et les automates avec des techniques d’argumentation qui aident les hommes à mûrir leur réflexion en comprenant bien ce qui motive les propositions de l’agent artificiel.

Propos recueillis par Matthieu Combe, journaliste scientifique

Pour aller plus loin

Posté le par Xavier Lula


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !