Contactez-nous
Sigles, notations et symboles
Éthique de l'IA : gestion des risques et impacts selon ISO/IEC 42001:2023
H5035 v1 Article de référence

Sigles, notations et symboles
Éthique de l'IA : gestion des risques et impacts selon ISO/IEC 42001:2023

Auteur(s) : Schallum PIERRE

Date de publication : 10 mars 2026

Logo Techniques de l'Ingenieur Cet article est réservé aux abonnés
Pour explorer cet article plus en profondeur Consulter l'extrait gratuit

Déjà abonné ?

Présentation

1 - Positionner la gestion des risques et impacts IA

  • 1.1 - Spécificités du risque IA : enseignements des cas documentés
  • 1.2 - Convergence des exigences réglementaires : RGPD et Loi 25

2 - Cadre ISO/IEC 42001 pour les risques et impacts

  • 2.1 - Architecture du système de management de l’IA
  • 2.2 - Processus d’appréciation des risques IA (section 6.1.2)
  • 2.3 - Processus de traitement des risques IA (section 6.1.3)
  • 2.4 - Évaluation des impacts IA (section 6.1.4)

3 - Intégrer la gestion aux étapes du cycle de vie

  • 3.1 - Cadrage et conception
  • 3.2 - Gouvernance des données
  • 3.3 - Développement et validation
  • 3.4 - Exploitation et surveillance

4 - Outils de pilotage opérationnel

  • 4.1 - Matrice cycle de vie, risques et contrôles
  • 4.2 - Indicateurs de suivi
  • 4.3 - Organisation et lignes de défense

5 - Illustration sectorielle : système RH de présélection

  • 5.1 - Analyse des risques et impacts
  • 5.2 - Application du cadre

6 - Recommandations pour la mise en œuvre

  • 6.1 - Feuille de route progressive
  • 6.2 - Facteurs de succès

7 - Conclusion

8 - Glossaire

9 - Sigles, notations et symboles

Sommaire

Présentation

RÉSUMÉ

L'opérationnalisation de l'éthique de l'intelligence artificielle constitue un défi de taille pour les organisations. Les cas Amazon, COMPAS et Obermeyer illustrent comment les systèmes d'IA peuvent produire des discriminations systémiques malgré l'absence d'intention malveillante. Cet article propose un cadre opérationnel pour transformer les principes éthiques en pratiques concrètes de gestion des risques et impacts, fondé sur la norme ISO/IEC 42001:2023. Nous montrons d'abord comment cette norme s'articule avec les exigences du RGPD en Europe et de la Loi 25 au Québec. Nous détaillons ensuite l'intégration de la gestion des risques et impacts aux différentes étapes du cycle de vie des systèmes d'IA. Enfin, nous présentons des outils opérationnels (matrice cycle de vie × risques × contrôles, indicateurs, organisation) et une feuille de route progressive pour la mise en œuvre. L'illustration par un cas de système RH démontre l'application concrète du cadre.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • Schallum PIERRE : Conseiller IA responsable, éthique et innovation à l’Institut intelligence et données de l’Université Laval, membre du comité ISO/IEC JTC 1/SC 42 Artificial Intelligence et cofondateur de l’organisme sans but lucratif Réseau d’expertise en éthique de données (REED)

INTRODUCTION

L’intérêt grandissant pour l’utilisation de l’intelligence artificielle transforme les processus industriels, les services publics, ainsi que divers secteurs comme la santé ou la finance. Outils de recommandation, algorithmes prédictifs, dispositifs de détection d’anomalies et modèles génératifs deviennent des briques structurantes des systèmes d’information. Ces usages créent des opportunités, mais ils introduisent aussi de nouveaux enjeux, qui ne se réduisent pas aux risques informatiques classiques : les biais et la discrimination, les atteintes à la vie privée, l’opacité des décisions, la dépendance aux données ou encore des vulnérabilités propres aux modèles.

Plusieurs cas emblématiques ont mis en lumière ces nouveaux risques. En 2016, l’enquête de ProPublica sur l’algorithme COMPAS, utilisé par les tribunaux étasuniens pour évaluer le risque de récidive, a révélé que les prévenus afro-étasuniens étaient deux fois plus susceptibles d’être incorrectement classés à haut risque que les prévenus blancs . En 2018, Amazon a abandonné un outil de recrutement automatisé après avoir découvert qu’il pénalisait systématiquement les candidatures féminines . En 2019, Obermeyer et al. ont montré qu’un algorithme commercial de gestion de la santé, déployé à grande échelle dans le système étasunien, sous-estimait systématiquement les besoins de soins des patients noirs par rapport aux patients blancs présentant un état de santé similaire . L’algorithme utilisait l’historique des coûts de soins comme indicateur des besoins en soins futurs, ce qui a conduit à sous-estimer les besoins des patients noirs, du fait d’un moindre accès initial aux soins. Ce cas n’est pas isolé : en 2020, une analyse a révélé qu’un million d’adultes noirs étasuniens auraient pu recevoir un traitement rénal plus précoce si les algorithmes d’estimation du taux de filtration glomérulaire n’avaient pas inclus de facteur de correction fondé sur la race . Ces exemples illustrent comment les systèmes algorithmiques peuvent reproduire et amplifier le racisme systémique – soit l’ensemble des structures et politiques institutionnelles qui, indépendamment de toute intention discriminatoire, produisent des inégalités raciales persistantes. Le biais algorithmique en constitue une nouvelle manifestation numérique. .

Le cadre normatif et réglementaire se densifie en réponse à ces enjeux. La norme ISO/IEC 42001:2023 définit des exigences pour établir un système de management de l’IA (AIMS) couvrant le développement, la fourniture et l’utilisation responsable des systèmes d’IA. En Europe, le règlement général sur la protection des données (RGPD) impose depuis 2018 des obligations strictes en matière de transparence, de minimisation des données et d’analyse d’impact pour les traitements à risque. Au Québec, depuis 2021, la Loi 25 modernise les lois sur la protection des renseignements personnels selon une logique comparable. Plus récemment, le règlement européen sur l’intelligence artificielle (AI Act), entré en vigueur en août 2024, complète ce dispositif en établissant une classification des systèmes d’IA par niveaux de risque et en imposant des exigences spécifiques de transparence, de robustesse et de supervision humaine pour les systèmes à risque élevé.

Cet article poursuit trois objectifs : d’une part, il démontre comment l’opérationnalisation de l’éthique de l’IA s’appuie sur une gestion structurée des risques et impacts, illustrée par des cas documentés. D’autre part, il explicite l’apport d’ISO/IEC 42001 pour transformer les principes éthiques en pratiques organisationnelles vérifiables. Enfin, il propose un cadre opérationnel progressif, applicable tant dans le contexte européen que nord-américain.

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 93 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


9. Sigles, notations et symboles

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 93 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Lecture en cours
Sigles, notations et symboles

Article inclus dans l'offre

"Technologies logicielles Architectures des systèmes"

(236 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - ANGWIN (J.), LARSON (J.), MATTU (S.), KIRCHNER (L.) -   Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks.  -  ProPublica, 23 mai 2016.

  • (2) - DASTIN (J.) -   Amazon scraps secret AI recruiting tool that showed bias against women.  -  Reuters, 11 octobre 2018.

  • (3) - OBERMEYER (Z.), POWERS (B.), VOGELI (C.), MULLAINATHAN (S.) -   Dissecting racial bias in an algorithm used to manage the health of populations.  -  Science, 366(6464), p. 447-453 (2019).

  • (4) - MADHUSOODANAN (J.) -   Is a racially-biased algorithm delaying health care for one million Black people?  -  Nature, 588(7780), p. 546-547 (2020).

  • (5) - BANAJI (M.R.), FISKE (S.T), MASSEY (D.S.) -   Systemic racism: individuals and interactions, institutions and society.  -  Cognitive Research: Principles and Implications, 6(82) (2021).

  • ...

NORMES

  • Quality management systems – Requirements. ISO - ISO 9001 - 2015

  • Management du risque – Lignes directrices - ISO 31000 - 2018

  • Information security, cybersecurity and privacy protection – Information security management systems – Requirements - ISO/IEC 27001 - 2022

  • Security techniques – Extension to ISO/IEC 27001 and ISO/IEC 27002 for privacy information management – Requirements and guidelines - ISO/IEC 27701 - 2019

  • Gouvernance de l’IA par les organes de direction - ISO/IEC 38507 - 2022

  • Information technology – Artificial intelligence – Management system - ISO/IEC 42001 - 2023

1 Réglementation

L.Q. 2021, c. 25. Québec – Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (Loi 25)

Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act)

HAUT DE PAGE

2 Annuaire

Commission d’accès à l’information du Québec

https://www.cai.gouv.qc.ca

Commission nationale de l’informatique et des libertés (CNIL)

https://www.cnil.fr

ISO – Comité technique JTC 1/SC 42

https://www.iso.org/committee/6794475.html

HAUT DE PAGE
Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 93 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Article inclus dans l'offre

"Technologies logicielles Architectures des systèmes"

(236 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Ressources documentaires

IA Act - Approche méthodologique et cas d’application

Cet article traite du règlement européen relatif au système d'intelligence artificielle, l’IA Act. Ce ...

Stress d’origine professionnelle

Parmi les différents risques dits psychosociaux, le stress d’origine professionnelle occupe une place ...

Gestion des talents - Le management des talents au service de l’innovation

Cet article explore la gestion des talents au service de l'innovation dans les entreprises. Il examine ...

Anonymisation des données, une nécessité à l’ère du RGPD

Le règlement général sur la protection des données (RGPD) définit des contraintes qui limitent, et ...