Présentation
RÉSUMÉ
L'opérationnalisation de l'éthique de l'intelligence artificielle constitue un défi de taille pour les organisations. Les cas Amazon, COMPAS et Obermeyer illustrent comment les systèmes d'IA peuvent produire des discriminations systémiques malgré l'absence d'intention malveillante. Cet article propose un cadre opérationnel pour transformer les principes éthiques en pratiques concrètes de gestion des risques et impacts, fondé sur la norme ISO/IEC 42001:2023. Nous montrons d'abord comment cette norme s'articule avec les exigences du RGPD en Europe et de la Loi 25 au Québec. Nous détaillons ensuite l'intégration de la gestion des risques et impacts aux différentes étapes du cycle de vie des systèmes d'IA. Enfin, nous présentons des outils opérationnels (matrice cycle de vie × risques × contrôles, indicateurs, organisation) et une feuille de route progressive pour la mise en œuvre. L'illustration par un cas de système RH démontre l'application concrète du cadre.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Schallum PIERRE : Conseiller IA responsable, éthique et innovation à l’Institut intelligence et données de l’Université Laval, membre du comité ISO/IEC JTC 1/SC 42 Artificial Intelligence et cofondateur de l’organisme sans but lucratif Réseau d’expertise en éthique de données (REED)
INTRODUCTION
L’intérêt grandissant pour l’utilisation de l’intelligence artificielle transforme les processus industriels, les services publics, ainsi que divers secteurs comme la santé ou la finance. Outils de recommandation, algorithmes prédictifs, dispositifs de détection d’anomalies et modèles génératifs deviennent des briques structurantes des systèmes d’information. Ces usages créent des opportunités, mais ils introduisent aussi de nouveaux enjeux, qui ne se réduisent pas aux risques informatiques classiques : les biais et la discrimination, les atteintes à la vie privée, l’opacité des décisions, la dépendance aux données ou encore des vulnérabilités propres aux modèles.
Plusieurs cas emblématiques ont mis en lumière ces nouveaux risques. En 2016, l’enquête de ProPublica sur l’algorithme COMPAS, utilisé par les tribunaux étasuniens pour évaluer le risque de récidive, a révélé que les prévenus afro-étasuniens étaient deux fois plus susceptibles d’être incorrectement classés à haut risque que les prévenus blancs . En 2018, Amazon a abandonné un outil de recrutement automatisé après avoir découvert qu’il pénalisait systématiquement les candidatures féminines . En 2019, Obermeyer et al. ont montré qu’un algorithme commercial de gestion de la santé, déployé à grande échelle dans le système étasunien, sous-estimait systématiquement les besoins de soins des patients noirs par rapport aux patients blancs présentant un état de santé similaire . L’algorithme utilisait l’historique des coûts de soins comme indicateur des besoins en soins futurs, ce qui a conduit à sous-estimer les besoins des patients noirs, du fait d’un moindre accès initial aux soins. Ce cas n’est pas isolé : en 2020, une analyse a révélé qu’un million d’adultes noirs étasuniens auraient pu recevoir un traitement rénal plus précoce si les algorithmes d’estimation du taux de filtration glomérulaire n’avaient pas inclus de facteur de correction fondé sur la race . Ces exemples illustrent comment les systèmes algorithmiques peuvent reproduire et amplifier le racisme systémique – soit l’ensemble des structures et politiques institutionnelles qui, indépendamment de toute intention discriminatoire, produisent des inégalités raciales persistantes. Le biais algorithmique en constitue une nouvelle manifestation numérique. .
Le cadre normatif et réglementaire se densifie en réponse à ces enjeux. La norme ISO/IEC 42001:2023 définit des exigences pour établir un système de management de l’IA (AIMS) couvrant le développement, la fourniture et l’utilisation responsable des systèmes d’IA. En Europe, le règlement général sur la protection des données (RGPD) impose depuis 2018 des obligations strictes en matière de transparence, de minimisation des données et d’analyse d’impact pour les traitements à risque. Au Québec, depuis 2021, la Loi 25 modernise les lois sur la protection des renseignements personnels selon une logique comparable. Plus récemment, le règlement européen sur l’intelligence artificielle (AI Act), entré en vigueur en août 2024, complète ce dispositif en établissant une classification des systèmes d’IA par niveaux de risque et en imposant des exigences spécifiques de transparence, de robustesse et de supervision humaine pour les systèmes à risque élevé.
Cet article poursuit trois objectifs : d’une part, il démontre comment l’opérationnalisation de l’éthique de l’IA s’appuie sur une gestion structurée des risques et impacts, illustrée par des cas documentés. D’autre part, il explicite l’apport d’ISO/IEC 42001 pour transformer les principes éthiques en pratiques organisationnelles vérifiables. Enfin, il propose un cadre opérationnel progressif, applicable tant dans le contexte européen que nord-américain.
MOTS-CLÉS
intelligence artificielle RGPD Éthique de l'IA ISO/IEC 42001 Gestion des risques IA Évaluation d'impact Loi 25 Biais algorithmiques IA responsable
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Intelligence artificielle : concepts et méthodes d'apprentissage > Éthique de l'IA : gestion des risques et impacts selon ISO/IEC 42001:2023 > Intégrer la gestion aux étapes du cycle de vie
Accueil > Ressources documentaires > Innovation > Éco-conception et innovation responsable > Ingénierie et responsabilités > Éthique de l'IA : gestion des risques et impacts selon ISO/IEC 42001:2023 > Intégrer la gestion aux étapes du cycle de vie
Présentation
Article inclus dans l'offre
"Innovations technologiques"
(192 articles)
Actualisée et enrichie d’articles validés par nos comités scientifiques.
Quiz, médias, tableaux, formules, vidéos, etc.
Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.
Un ensemble de services exclusifs en complément des ressources.
3. Intégrer la gestion aux étapes du cycle de vie
3.1 Cadrage et conception
La première phase consiste à définir :
-
la finalité du système (quelles décisions, quel rôle de l’IA) ;
-
les parties prenantes (utilisateurs, personnes affectées, fonctions métiers, DPO ou responsable de la protection des renseignements personnels) ;
-
les contraintes réglementaires et normatives.
Une pré-analyse des risques et impacts permet de classer le projet selon des niveaux de criticité, d’identifier les grandes familles de risques et de décider si une analyse d’impact formelle est requise. Comme le montre le cas Amazon, cette phase doit inclure une réflexion sur la représentativité des données d’entraînement envisagées et sur les biais potentiels qu’elles peuvent véhiculer.
HAUT DE PAGE3.2 Gouvernance des données
Les systèmes d’IA dépendent fortement des données. Les risques caractéristiques incluent :
-
qualité insuffisante (erreurs, données obsolètes) ;
-
biais de représentation ;
-
non-conformité aux principes de protection des données.
Le RGPD (article 5) et la Loi 25 imposent des principes de licéité, de loyauté, de transparence, de limitation des finalités, de minimisation, d’exactitude, de limitation de conservation et de sécurité. L’étude d’Obermeyer et al. illustre comment un choix de variable cible apparemment neutre (les coûts de santé) peut encoder des disparités d’accès aux soins et produire des résultats discriminatoires .
Dans un projet IA, les principes de protection des données se traduisent par :
-
des registres de traitements (article 30 RGPD) ;
-
des politiques d’accès et de...
Intégrer la gestion aux étapes du cycle de vie
Article inclus dans l'offre
"Innovations technologiques"
(192 articles)
Actualisée et enrichie d’articles validés par nos comités scientifiques.
Quiz, médias, tableaux, formules, vidéos, etc.
Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.
Un ensemble de services exclusifs en complément des ressources.
BIBLIOGRAPHIE
-
(1) - ANGWIN (J.), LARSON (J.), MATTU (S.), KIRCHNER (L.) - Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. - ProPublica, 23 mai 2016.
-
(2) - DASTIN (J.) - Amazon scraps secret AI recruiting tool that showed bias against women. - Reuters, 11 octobre 2018.
-
(3) - OBERMEYER (Z.), POWERS (B.), VOGELI (C.), MULLAINATHAN (S.) - Dissecting racial bias in an algorithm used to manage the health of populations. - Science, 366(6464), p. 447-453 (2019).
-
(4) - MADHUSOODANAN (J.) - Is a racially-biased algorithm delaying health care for one million Black people? - Nature, 588(7780), p. 546-547 (2020).
-
(5) - BANAJI (M.R.), FISKE (S.T), MASSEY (D.S.) - Systemic racism: individuals and interactions, institutions and society. - Cognitive Research: Principles and Implications, 6(82) (2021).
-
...
DANS NOS BASES DOCUMENTAIRES
NORMES
-
Quality management systems – Requirements. ISO - ISO 9001 - 2015
-
Management du risque – Lignes directrices - ISO 31000 - 2018
-
Information security, cybersecurity and privacy protection – Information security management systems – Requirements - ISO/IEC 27001 - 2022
-
Security techniques – Extension to ISO/IEC 27001 and ISO/IEC 27002 for privacy information management – Requirements and guidelines - ISO/IEC 27701 - 2019
-
Gouvernance de l’IA par les organes de direction - ISO/IEC 38507 - 2022
-
Information technology – Artificial intelligence – Management system - ISO/IEC 42001 - 2023
ANNEXES
L.Q. 2021, c. 25. Québec – Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (Loi 25)
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act)
HAUT DE PAGE
Commission d’accès à l’information du Québec
Commission nationale de l’informatique et des libertés (CNIL)
ISO – Comité technique JTC 1/SC 42
https://www.iso.org/committee/6794475.html
HAUT DE PAGEArticle inclus dans l'offre
"Innovations technologiques"
(192 articles)
Actualisée et enrichie d’articles validés par nos comités scientifiques.
Quiz, médias, tableaux, formules, vidéos, etc.
Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.
Un ensemble de services exclusifs en complément des ressources.