Meta, la maison mère de Facebook, est contre le code de bonnes pratiques de l’intelligence artificielle publié, dans sa version définitive, par la Commission européenne le 10 juillet.
Selon Joel Kaplan, directeur des affaires globales chez Meta, l’AI act « introduit un certain nombre d’incertitudes juridiques pour les développeurs de modèles ». Il considère que l’UE prend « le mauvais chemin » en matière de régulation de l’intelligence artificielle, en dressant des barrières à l’innovation.
L’Union européenne (UE) a joué un rôle de pionnier dans l’élaboration d’une gouvernance mondiale de l’IA avec l’adoption de la loi sur l’intelligence artificielle en 2024 et la publication du code de pratique de l’IA à usage général (GPAI-General-Purpose AI Code of Practice) en juillet 2025.
La tolérance de l’Europe
Le code est un cadre volontaire mais influent, visant à garantir la confiance et la conformité parmi les développeurs de modèles d’IA de premier plan. Le refus public de Meta de signer le code a suscité un débat important sur l’intersection de la surveillance réglementaire et de l’innovation dans le secteur technologique.
La version définitive de ce code de bonnes pratiques prévoit trois chapitres principaux : un premier sur la transparence des modèles, un second sur l’utilisation de contenus protégés par le droit d’auteur et un dernier sur les risques de sécurité au sein des outils d’intelligence artificielle.
Mais ce texte divise les industriels et les entreprises spécialisées dans la tech. Les préoccupations de Meta font écho à celles soulevées par plus de 40 entreprises technologiques européennes, dont Airbus et ASML, qui ont demandé un report de la mise en œuvre du code.
Ces entreprises soulignent un équilibre délicat entre la garantie de la sécurité juridique et la préservation d’un environnement propice à l’innovation. Certains estiment que des règles volontaires, bien qu’influentes, ne sauraient remplacer une législation claire, tandis que d’autres redoutent que l’Europe ne perde en compétitivité face aux acteurs américains et asiatiques déjà majoritairement implantés dans la course à l’IA.
En revanche, OpenAI (éditeur de ChatGPT), Mistral (éditeur français de Lechat, l’équivalent à ChatGPT) et Microsoft (provisoirement) ont reconnu l’utilité du code et se sont déclarés prêts à y participer. À noter que Google et Amazon n’ont pas une position très claire sur ce sujet.
La Commission européenne fait preuve de tolérance en rappelant toutefois… que les entreprises qui refusent de signer ce texte pourraient faire l’objet d’un examen réglementaire plus approfondi par le Bureau de l’IA européen. Par ailleurs, elles ne bénéficieront pas de la présomption de conformité offerte aux signataires, ce qui pourrait compliquer leurs démarches administratives et juridiques. Enfin, en cas de non-respect de l’AI Act, les entreprises s’exposent à des amendes allant jusqu’à 7 % de leur chiffre d’affaires annuel mondial !
Dans l'actualité
- L’IA générative a un impact sur la « pensée critique »
- AI Act : L’Europe montre la voie vers un contrôle plus strict
- L’intelligence artificielle, un outil d’évolution pour les industries du futur
- L’intelligence artificielle : un outil à double tranchant pour les ingénieurs
- L’intelligence artificielle pilier de l’usine du futur
- L’intelligence artificielle peut-elle remplacer Google ?
- Les thèses du mois : « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable »
- Comment l’Union européenne compte encadrer l’intelligence artificielle
- Un usinage plus durable grâce à l’IA et la data
- TotalEnergies s’allie à Mistral AI
- La France et les technologies critiques : un paysage contrasté en 2025
- ASML et Mistral AI engagent la souveraineté technologique européenne dans un nouveau virage
- Innovation stratégique, souveraineté et IA : le dispositif « Pionniers de l’IA » se met en marche
- De l’exploit technique à l’éthique : l’IA face à ses frontières
Dans les ressources documentaires