L’intelligence artificielle (IA) doit être mieux contrôlée. Les décideurs politiques et le public sont en effet de plus en plus conscients qu’une approche responsable de l’IA est nécessaire pour minimiser les dommages causés aux personnes, aux entreprises et au public. L’Union européenne a décidé de passer la vitesse supérieure.
Après le lancement de la première législation générale au monde sur l’intelligence artificielle (le Règlement européen sur l’IA¹ ), la Commission européenne a annoncé cet été le lancement d’une consultation sur les modèles d’intelligence artificielle polyvalente dignes de confiance (« GPAI »). Objectif ? l’élaboration du premier code de pratique de l’IA en général et en particulier des modèles de langage tels que ChatGPT et Google Gemini
Le code de bonnes pratiques abordera des domaines essentiels tels que la transparence, les règles relatives aux droits d’auteur, l’identification et l’évaluation des risques, l’atténuation des risques et la gestion interne des risques.
Pour ne pas perdre de temps, en octobre dernier, la Commission européenne a dévoilé la liste des experts indépendants de l’UE, des États-Unis et du Canada chargés de diriger les travaux de rédaction de ce fameux code. Ces treize personnes sont chargées de diriger quatre groupes de travail différents qui devraient aboutir à la version finale du code en avril 2025.
15 millions d’euros d’amende
Une feuille de route trop parfaite ? Les premiers obstacles se sont rapidement présentés. Trois législateurs européens (deux allemands et une Néerlandaise) ont demandé à la Commission de clarifier le processus de nomination des présidents de ces groupes de travail.
Les organisations de la société civile craignaient aussi que les grandes entreprises technologiques n’aient trop d’influence sur le processus.
Autres cailloux dans ce code, l’évaluation des risques. Les poids lourds de l’IA se montrent en effet moins favorables que les autres à des mesures strictes, par exemple des audits par des tiers ou des présentations de sécurité liées à des seuils de risque spécifique.
Or, la loi sur l’IA oblige ces fournisseurs à respecter des exigences en matière de documentation, de coopération et d’atténuation des risques, ainsi que des obligations supplémentaires pour les modèles présentant un risque systémique, telles que des tests contradictoires et des mesures de cybersécurité.
Ainsi, l’article 50, paragraphes 1 et 2, de la loi sur l’IA, précise que les fournisseurs de systèmes d’IA présentant des risques de transparence doivent respecter les exigences suivantes : ils doivent veiller à ce que les systèmes d’IA destinés à interagir directement avec des personnes soient conçus et développés de manière à informer ces personnes qu’elles s’engagent avec un système d’IA.
Ils doivent aussi s’assurer que les résultats de ces systèmes sont marqués dans un format lisible par une machine et qu’ils peuvent être détectés comme étant générés ou manipulés artificiellement.
Comme pour d’autres règlements et directives européens (RGPD, NIS 2…), la loi sur l’IA menace les entreprises d’amendes allant jusqu’à 3 % du chiffre d’affaires annuel mondial ou 15 millions d’euros. Une période de grâce pour les amendes est prévue jusqu’au 2 août 2026.
¹ Entré en vigueur cet été, ce règlement deviendra « applicable » dès le 2 février 2025. Et le 2 août 2026, toutes ses dispositions deviennent applicables.
Cet article se trouve dans le dossier :
La souveraineté française et européenne au prisme des nouvelles technologies
- Espace : le retour des lanceurs européens ?
- Ariane-6 : un lanceur stratégique pour l'Europe
- Ariane 6 : Eumetsat fait volte-face et lui préfère SpaceX
- Les débuts difficiles de la filière des batteries électriques européenne
- Bientôt de premières usines de recyclage de batteries en France
- 2025, une année charnière pour l'industrie automobile européenne ?
- Jean-Noël Patillon : "Il faut s’assurer que toutes les données des entreprises françaises ne soient pas exploitées par les États-Unis."
- Sécurité des objets connectés : l’Europe passe à l’action
- Les enjeux géopolitiques et économiques de l’Open source
- L’Europe veut devenir la « vallée quantique » du monde
- L’Europe veut protéger ses communications sensibles grâce au quantique
- Pour ne pas être dépassée par les États-Unis et la Chine, la France mise sur les collaborations
- La France se dote d’un laboratoire privé dédié à l’IA
- L’Europe pourra-t-elle valider son code de bonnes pratiques de l’IA ?
- « Les entreprises foncent tête baissée dans l’IA sans se poser de questions »
Dans l'actualité
- Les tendances majeures de l’intelligence artificielle pour les ingénieurs en 2024
- BIG DATA & AI PARIS 2024 : L’événement de référence de l’innovation data & IA
- Podcast Cogitons Sciences : l’IA s’invite dans nos métiers
- Albert : l’IA qui veut transformer les services publics
- Les thèses du mois : « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable »
- Revue du Magazine d’actualité #11 : du 18 au 22 novembre
- Comment l’Union européenne compte encadrer l’intelligence artificielle
- OpenAI et Google ambitionnent d’être les leaders de l’IA
- Souveraineté numérique : l’Europe a-t-elle les moyens de s’émanciper des GAFAM ?
Dans les ressources documentaires