Logo ETI Quitter la lecture facile

Podcast

Ecoutez notre podcast Cogitons Sciences : Biais, fantasmes, et pratique du numérique [Sciences et éthique #3]

Posté le par Intissar EL HAJJ MOHAMED dans Informatique et Numérique

Bienvenue dans le troisième épisode de Cogitons Sciences, le podcast qui décrypte les enjeux des sciences ! Nos invités Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS (COMETS), décodent le rapport de notre société au numérique.

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ?

Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire « Good in tech », et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans ce troisième épisode de Cogitons Sciences.

Vous pouvez l’écouter ici.

Les nouvelles technologies numériques nous sont-elles imposées ? [1:26] – [12:53]

Selon le président du COMETS, concernant la 5G par exemple, nous serions « individuellement très contraints » car il serait « difficile de refuser une nouvelle norme de transmission de données, comme par exemple la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable ! » Il prône les « choix éclairés », adossés à une « bonne maîtrise des technologies », pour éviter de « s’engager dans un moratoire » collectif contre telle ou telle technologie, « sous prétexte qu’il existe des risques ».

Vers une innovation numérique responsable ? [13:05] – [24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. On parle alors avec Christine Balagué d’innovation numérique responsable. « On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement […] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société ».

À l’origine des biais discriminants des algorithmes [24:22] – [28:59]

Les effets de discrimination des algorithmes viennent de deux parties, nous informe Christine Balagué : « soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme ».

Les algorithmes en milieu professionnel [29:25] – [34:37]

« Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe », assure Jean-Gabriel Ganascia. Le président du COMETS poursuit : « pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. […] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie. »

La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55] – [37:54]

« On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion », nous répond Christine Balagué. Aujourd’hui, deux règles ont été mises en place par les plateformes, développe la chercheuse : « la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu. » Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA !

Ecoutez l’épisode !

Références citées :

  • La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek et où le mot “robot” est apparu pour la première fois.
  • La notion de “privacy by design” (RGPD).
  • L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin :

  • Les ressources, dont des webinars, disponibles sur le site de la chaire “Good in Tech”.
  • Les rapports du CSA (Conseil supérieur de l’audiovisuel) sur les fake news.
  • Les rapports disponibles sur les sites du COMETS, de la CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene)  et du CNPEN (Comité national pilote d’éthique du numérique).

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur.  Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Cet article se trouve dans le dossier :

Cogitons Sciences, le podcast qui décrypte les enjeux des sciences !

Mini-série : "Plastique addict : comment s’en débarrasser ?"
Mini-série : "L’IA s’invite dans nos métiers"
Mini-série : "Sobriété des Industries"
Mini-série : "Matériaux, histoire d’une vie"
Mini-série : "Des ingénieurs qui cassent la routine"
Mini-série : "Les ingénieurs se réinventent"
Mini-série : "Energie et mobilité"
Mini-série : "Sciences et éthique"
Pour aller plus loin
Pour aller plus loin

Posté le par Intissar EL HAJJ MOHAMED


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !