OpenAI et Google ambitionnent d’être les leaders de l’IA

Il y a deux ans, le monde découvrait ChatGPT. Depuis, tout le monde ou presque l’a au moins testé une fois et certains l’utilisent tous les jours. En France, le trafic du site de ChatGPT a atteint 90 millions de visite en septembre 2024 (soit une augmentation de 175 % d’une année sur l’autre par rapport à septembre 2023). Il dépasse tous ses concurrents tels que Bing (80 millions), Gemini (4 millions) et Character AI (3,7 millions).

Et ce n’est qu’un début, car OpenAI vient d’annoncer le lancement d’une fonction de recherche aux utilisateurs payants de ChatGPT. Cette fonction sera accessible dans un second temps à tout le monde. Prochaine étape, le développement d’un navigateur web, qui concurrencerait Google Chrome et qui intégrerait le moteur de recherche de ChatGPT par défaut.

De quoi mettre la pression sur Google. Quelle évolution pour OpenAI qui a été fondée en 2015 par un groupe d’entrepreneurs et de chercheurs, dont Elon Musk et Sam Altman. OpenAI a fait des progrès significatifs dans le développement de modèles de langage avancés.

ChatGPT a révolutionné la manière dont les machines peuvent comprendre et générer du langage naturel. DALL-E, un autre projet d’OpenAI, permet de générer des images à partir de descriptions textuelles, ouvrant de nouvelles possibilités dans le domaine de la création artistique.

Enfin, OpenAI a signé des partenariats stratégiques, notamment avec Microsoft, pour accélérer le développement et la commercialisation de ses technologies.

Google, de son côté, a fait de l’IA une priorité stratégique depuis plusieurs années. Via sa filiale DeepMind, acquise en 2014, le géant investit massivement dans la recherche et le développement de technologies d’IA. Son objectif est toujours le même : intégrer ces avancées dans ses produits existants, comme Google Search, Google Maps, et Google Assistant, pour améliorer l’expérience utilisateur.

OpenAI perd de l’argent

Google a également réalisé des avancées notables. AlphaGo, un programme d’IA développé par DeepMind, a battu les meilleurs joueurs de Go au monde, démontrant la capacité de l’IA à maîtriser des tâches complexes. AlphaFold, un autre projet de DeepMind, a révolutionné la biologie structurale en prédisant la structure des protéines avec une précision très élevée.

La concurrence entre OpenAI et Google soulève également des questions éthiques et de sécurité.

La régulation de l’IA est un autre défi majeur. L’Union européenne a d’ailleurs lancé un processus visant à élaborer un code de bonnes pratiques pour les modèles d’IA.

Mais cette guerre entre OpenAI et Google est un gouffre financier, sans fond pour l’instant. Valorisé à 157 milliards de dollars et soutenu par Microsoft qui a investi 13 milliards de dollars au total depuis 2019, OpenAI reste déficitaire.

Ses revenus sont d’environ 3 milliards de dollars, mais l’entreprise afficherait 5 milliards de pertes. Elle est surtout confrontée à une concurrence accrue. Début octobre, l’éditeur a levé 6,6 milliards de dollars, mais xAi, la start-up d’IA d’Elon Musk, a réuni 6 milliards de dollars.

Mais surtout, les nuages gris s’accumulent au-dessus de Mountain View, en Californie, où se trouve le siège d’Alphabet, maison mère de Google. Le géant pourrait être obligé de se séparer de son navigateur Chrome (61 % de part de marché aux États-Unis).

C’est en tous les cas l’avis de la Cour du District de Columbia, publié le 20 novembre. Sur les smartphones Android, Google ne pourrait plus également favoriser YouTube. Même conséquence négative pour Gemini qui est pourtant intégré dans tous ses téléphones Pixels. Mais ce sera au nouveau président Donald Trump de valider ou non cette décision.

Enfin, cette débauche de dollars ne doit pas faire oublier qu’une conversation avec ChatGPT consomme environ 50 cl d’eau, selon une étude publiée par l’université de Californie à Riverside.

Spécial étudiants : aides financières, études à l’étranger, double cursus… ce qu’il faut savoir

Retrouvez des interviews d’étudiants avec des témoignages, des astuces pour optimiser votre budget, des guides ou encore des conseils d’experts pour vous aider à préparer votre avenir professionnel. 

La plupart des écoles et des universités proposent un accès libre à l’ensemble des articles de référence, fiches et parcours pratiques, en français et en anglais. 

Et la votre ? Rendez-vous à la bibliothèque pour vérifier que vous avez bien un accès privilégié à plus de 10 000 articles scientifiques, relus et validés par des experts.

Ces ressources vous accompagnent dans vos révisions, vos projets, vos TP ou même vos stages ! Avec la garantie d’une expertise reconnue dans des domaines très variés comme les mathématiques, l’innovation, la mécanique ou encore la mesure. 

Chaque année, nous organisons des concours ou défis, vous permettant de remporter des prix comme des cartes cadeaux, des voyages ou encore un escape game. 

Envie de partager votre expérience ? Contactez-nous

Regard mitigé des Français et des ingénieurs sur le monde des industries

Profitant de la Semaine de l’Industrie, le premier Observatoire Arts & Métiers des Industries Responsables a livré ses premiers résultats sur la perception des industries le 21 novembre dernier. Issu d’une collaboration entre l’IFOP et Arts & Métiers Alumni, l’Observatoire a la particularité d’avoir interrogé des Français (1000 personnes), mais également des ingénieurs (2200 ingénieurs, étudiants ou jeunes diplômés des Arts et Métiers) afin de comparer leurs ressentis et perceptions sur le monde des industries.

Selon les résultats de l’Observatoire, les personnes interrogées s’accordent à dire que l’industrie est créatrice de richesse (87% des Français, 81% des ingénieurs), créatrice d’emplois (81% des Français, 91% des ingénieurs) et au cœur des innovations technologiques (87% des Français, 90% des ingénieurs). Il convient néanmoins de noter que les sondages ont été effectués en septembre et début octobre 2024, donc avant la vague d’annonces de fermetures d’usines

Pourtant, ces résultats positifs côtoient des perceptions beaucoup plus mitigées sur le secteur. L’industrie serait ainsi en déclin selon 83% des Français et 77% des ingénieurs, elle aurait perdu de nombreux emplois selon 91% des Français et 74% des ingénieurs et serait en perte de vitesse par rapport à ses voisins européens pour 76% de Français et 72% des ingénieurs. Pire encore, seulement 11 % des Français recommanderaient de façon certaine à leurs proches de travailler dans l’industrie.

Redorer l’image de l’industrie

L’Observatoire met en lumière 5 défis pour améliorer l’image de l’industrie en France : rester compétitif par rapport à la concurrence internationale, recruter et former aux compétences, décarboner les processus de production, innover et développer la R&D, et enfin renforcer l’image globale et l’attractivité du secteur. 

“Aujourd’hui, l’image de l’industrie est désuète, pleine de stéréotypes. L’industrie paraît lointaine alors qu’elle est connectée à notre quotidien, elle permet de se déplacer, se nourrir, s’habiller”, remarque Aurélien Herbert, président des jeunes promotions Société des ingénieurs Arts & Métiers. 

Résultat paradoxal, si 89 % des Français et 94 % des ingénieurs voient l’industrie comme un acteur essentiel de la transition écologique, 72 % des Français l’associent à la dégradation de l’environnement. Nouvellement élu président de la Société des ingénieurs Arts et Métiers, Stéphane Gorce explique : “Transformer l’image de l’industrie est une nécessité. Tant qu’elle sera perçue comme polluante ou dépassée, elle restera en retrait dans les choix de carrière et les priorités nationales.” 

L’Observatoire met aussi en avant le manque de reconnaissance sociale des métiers de l’industrie. 54,4% des ingénieurs interrogés estiment qu’un travail dans l’industrie n’est pas un métier reconnu socialement. 

Soutenir le secteur

En réaction, la Société des Ingénieurs Arts et Métiers a décidé de lancer la première édition des Journées Usines Ouvertes les 4 et 5 avril 2025. A l’image des Journées du Patrimoine, cet événement permettra aux scolaires et au grand public d’entrer dans les usines et de découvrir leur fonctionnement. “L’industrie est beaucoup plus complexe que par le passé, sa structure même a changé. On veut faire comprendre cela aux jeunes générations et leur montrer la réalité et l’avenir de ce secteur”, explique Stéphane Gorce. 

Mais le président de la Société des ingénieurs Arts et Métiers rappelle également la responsabilité de l’Etat. Selon l’enquête, 53 % des Français et 75 % des ingénieurs jugent que les pouvoirs publics n’apportent pas un soutien suffisant au secteur, renforçant l’idée d’un manque de moyens pour rester compétitif. “Aujourd’hui on a un enjeu de souveraineté. Quand on voit des pays comme la Chine ou les Etats-Unis qui soutiennent largement l’industrie, on sait que les entreprises vont se délocaliser. On veut se mobiliser pour attirer les talents”, reprend Stéphane Gorce. Il recommande ainsi de renforcer la compétitivité de l’industrie français via la décarbonation et la modernisation du secteur, et de se concentrer sur les innovations de rupture pour rendre l’industrie attractive aux yeux des Français et des ingénieurs.

Les thèses du mois : « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable »

Pour notre dossier de septembre, « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Pour un développement éthique de l’IA en santé : réflexions pour la construction d’un cadre éthique opérationnel à travers l’exemple de l’oncologie médicale
Marie-Caroline Laï   
Doctorat en Éthique médicale, soutenu le 20/03/2023
Centre de recherche des Cordeliers

Modeling automated legal and ethical compliance for trustworthy AI
Yousef Taheri Sojasi   
Doctorat en Sciences et technologies de l’information et de la communication, soutenu le 04/10/2024
LIP6

Advancing Ethical and Responsible AI : Exploring Fairness, Privacy, and Explainability through Causal Perspectives
Karima Makhlouf  
Doctorat en – Informatique, données, IA – soutenu le 07/10/2024
Laboratoire d’informatique de l’École polytechnique

Advancing Ethical AI : Methods for fairness enhancement leveraging on causality and under privacy constraints
 Ruta Binkyte-Sadauskiene  
Doctorat en – Informatique, données, IA – soutenu le 19/12/2023
Laboratoire d’informatique de l’École polytechnique

L’éthique du marketing face au défi de l’intelligence artificielle : penser le bouleversement des valeurs et des règles à l’âge des big data
Volha Litvinets   
Doctorat en Philosophie, soutenu le 21/06/2022
Laboratoire : Sciences, Normes, Démocratie

Pour une éthique de l’intelligence artificielle conversationnelle
Giada Pistilli
Doctorat en Philosophie, soutenu le 21/03/2024
Laboratoire : Sciences, Normes, Démocratie

Avancer l’IA éthique : équité, diversité et confidentialité dans la modélisation générative
Mariia Zameshina
Doctorat en Informatique, soutenu le 26/03/2024
Laboratoire : Algorithme, Architecture, Analyse et Synthèse d’Image

Les questionnements éthiques dans le travail de conception des IA.
Laetitia Sarda hauret  
Projet de thèse en Sciences de Gestion depuis le 15/12/2020
Laboratoire d’Économie et de Sociologie du Travail

Peut-on expliquer l’IA ? Solutions techniques, enjeux éthiques -Application aux services financiers et à la recherche d’emploi
Thomas Souverain
Projet de thèse en philosophie, depuis 01/09/2020
Institut Jean-Nicod

Usages de l’intelligence artificielle dans les systèmes techniques complexes : enjeux organisationnels, sociaux, politiques et éthiques
Louis Devillaine
Projet de thèse en Sociologie depuis le 01/09/2021
Pacte, Laboratoire des sciences sociales

Connaître les enjeux d’une IA éthique et durable

Un extrait de « Éthique de l’intelligence artificielle : vue d’ensemble », par Dr Johan ROCHEL

L’éthique pose la question des valeurs et principes dans la conception, la réalisation, l’utilisation et la régulation d’outils. De nos jours, ces questions de valeurs et principes sont en pleine extension, particulièrement dans le numérique avec l’émergence de l’intelligence artificielle. C’est ainsi que les entreprises intègrent de plus en plus une dimension éthique dans leurs processus internes afin, d’une part de gagner une bonne réputation, d’autre part de ne pas abîmer la confiance de leurs clients et partenaires.

Le « prix » de l’IA

Un outil d’IA est élaboré à partir d’un modèle reposant sur un ou plusieurs algorithmes réalisant des opérations statistiques et mathématiques. Ces opérations portent en effet sur l’identification de certaines données, la structuration d’un ensemble selon certains critères, des modèles de langage acquis après analyse d’un immense corpus de textes. Elles s’appuient sur un apprentissage machine (le machine learning) décliné en plusieurs méthodes.

Dans l’approche supervisée, l’IA se voit proposer des catégories connues d’avance et un résultat correct. La machine apprend ainsi à reconnaître des caractéristiques lui permettant d’aboutir à un résultat. En approche non supervisée, telle qu’on la retrouve avec ChatGPT, la machine cherche à repérer des liens au sein de millions de données, en analyse le contexte puis en déduit des régularités statistiques pour proposer le terme le plus plausible. Cette approche présente des défis importants puisqu’elle peut faire apparaître des liens statistiques n’ayant pas de sens entre plusieurs types de données, dont la qualité doit être un point d’importance.

L’intervention humaine a donc ici toute sa place pour corriger des résultats non satisfaisants.

Les mesures d’entraînement nécessitent par ailleurs un investissement humain considérable, parfois au détriment de ceux qui effectuent les vérifications, quand elles sont confiées à des sous-traitants œuvrant dans des conditions de travail invérifiables. Parfois vue comme une menace pour certains emplois, l’IA – et particulièrement ChatGPT – est en outre souvent représentée comme une personne, une conception renforcée par les illustrations qui dotent l’IA d’attributs humains.

Les biais induits par le caractère automatique associé à une utilisation à des fins de décision sont une autre problématique de l’outil. En effet, dès lors que les données sont définies par l’homme, les résultats générés peuvent subir l’influence des choix déterminés au préalable.

Enfin, le coût environnemental de l’IA n’est pas neutre puisque son fonctionnement s’appuie sur des centres de données énergivores, un coût qu’il conviendra de mettre en balance au regard des avantages et inconvénients induits.

Les défis de l’éthique

L’éthique s’intéresse aux choix faits en matière d’IA et à leur justification. Elle interroge l’ensemble de la chaîne de conception, la création, l’utilisation et la régulation d’outils. Elle pose la question du bien décider et du bien agir à l’aune des valeurs, qu’elles soient décisionnelles, économiques, ou encore réglementaires.

D’autres valeurs doivent également être réfléchies, par exemple en imaginant l’impact de l’IA sur les sociétés et la manière dont elle influencera et modifiera les comportements. Les citoyens doivent, à ce stade, faire preuve de vigilance, d’autant que tous ne bénéficient pas du même accès au numérique.

Il conviendra notamment de s’interroger sur la manière dont s’effectuent la collecte et l’utilisation des données, leur suppression et leur protection. Le RGPD, en Europe, et la notion de consentement de cette collecte sont nés de cette réflexion.

La nature des données proposées à l’IA, qu’elles portent sur le genre ou soient ethniques, est également un point de vigilance, tant ces données peuvent être à l’origine de biais discriminatoires dans les résultats attendus.

Utiliser l’IA sans risquer d’être manipulé, en connaissant tous les enjeux, est donc une nécessité absolue.

Ce qu’en dit l’Union européenne

L’Union européenne tente de réguler numériquement l’usage de l’IA afin de le rendre plus éthique. C’est ainsi qu’est né le RGPD, destiné à permettre une protection des données et à limiter les risques auxquels pourraient être confrontés les utilisateurs.

Les tentatives d’influence, l’exploitation de vulnérabilités ou encore le classement de fiabilité sociale sont proscrits. L’usage de la biométrie fait, pour sa part, l’objet de conditions strictes portant notamment sur la transparence des données, le contrôle par l’humain ou encore la cybersécurité.

Enfin, l’UE souhaite l’adoption d’un code de conduite en matière d’impact environnemental, d’accessibilité pour les personnes handicapées ou de diversité des différents acteurs de la chaîne de développement.

L’AI Act

Adopté en juillet 2024 par l’Union européenne, l’AI Act a pour objectif de réguler les produits d’intelligence artificielle commercialisés sur le marché européen. Il doit ainsi permettre de garantir la sécurité des biens et des personnes, la protection des droits fondamentaux, de la vie privée et des données personnelles. Il s’appuie sur des valeurs de non-discrimination, de transparence, de responsabilité, et affirme le respect des valeurs démocratiques européennes.

Les systèmes d’IA autorisés, classés selon cinq niveaux de risque en fonction de l’usage prévu de la technologie, obtiennent le « marquage CE ».

Un robot qui vole comme un oiseau

Les oiseaux planeurs ne disposent pas de queue verticale pouvant jouer le rôle de gouvernail. Pourtant, leur vol reste stable en dépit des turbulences. Et ce, sans même avoir besoin de battre des ailes pour ajuster leur direction. Au contraire, les avions actuels possèdent (presque) tous une surface verticale à l’arrière de la carlingue : la dérive. Sa présence sert à limiter les risques d’embardées et à amortir le phénomène dit du « roulis hollandais ». Ce dernier prend la forme d’un mouvement oscillatoire en lacet rendant instable la conduite de l’appareil. Des scientifiques de l’université Stanford (Stanford, États-Unis) et de l’université de Groningue (Groningue, Pays-Bas) ont donc cherché à comprendre comment les oiseaux procédaient pour garder leur assiette en toute circonstance, avec dans l’optique que leur travail puisse mener à des aéronefs mieux adaptés au vol.

Un robot à la croisée de l’avion et du pigeon

Le premier auteur de la recherche parue le 20 novembre 2024 dans le journal Science Robotics est Eric Chang, de l’université Stanford. Lors de ce travail, il a pu compter sur l’aide de Diana Chin, de la même structure, et de David Lentink, de l’université de Groningue. L’équipe n’est pas partie de rien puisqu’elle s’est en grande partie appuyée sur une hypothèse avancée par le biologiste allemand Franz Groebbels en 1929. Celui-ci estimait que les oiseaux planeurs devaient voler comme des « avions automatiques », en usant de réflexes neuromusculaires au niveau des ailes et de la queue. Une solution inapplicable aux avions actuels, dont les ailes et la queue ne peuvent pas se déformer à la manière de celles des oiseaux. Eric Chang et ses deux collègues se sont donc mis en tête de fabriquer leur propre engin inspiré des oiseaux : le PigeonBot II.

Le robot bio-hybride développé par les scientifiques consiste en un squelette biomimétique pourvu de ligaments élastiques associés aux plumes des ailes et de la queue. PigeonBot II possède ainsi vingt rémiges – de grandes plumes rigides – sur chacune de ses ailes, et douze autres plumes sur la queue. Toutes sont vraies et proviennent de l’espèce Columba livia (le Pigeon biset). Les quarante rémiges des ailes sont actionnées avec quatre servomoteurs, et les plumes de la queue avec cinq autres de ces servomoteurs. La masse totale du robot avoisine celle d’un pigeon réel (environ 300 grammes) et s’appuie sur deux petits propulseurs – un à chaque poignet – pour s’envoler. Le point critique de l’étude consistait à mettre au point un contrôleur de réflexe adaptatif, capable de mimer la réaction instinctive des oiseaux. Pour ce faire, l’équipe de recherche a placé son PigeonBot II dans un tunnel à vent de 1*0,82*1,73 mètre, où ils l’ont soumis à une vitesse de vent de 10 m/s. Une fois le contrôleur entraîné à réduire les perturbations turbulentes, le robot a pu être lâché en extérieur, volant en autonomie en prenant des poses typiques d’un véritable pigeon. Les résultats viennent donc corroborer l’idée vieille de près d’un siècle de Franz Groebbels, et pourraient inspirer à l’avenir la conception d’aéronefs sans gouvernail à l’efficacité et à la manœuvrabilité grandement améliorées.

Christophe Bonnal : « Dépolluer le ciel, un défi pour le trafic spatial »

Pouvez-vous revenir sur votre parcours professionnel ?

Diplômé de Centrale Lille au début des années 1980, j’ai commencé à travailler chez Aérospatiale[1] pendant une dizaine d’années. Spécialiste des lanceurs et des fusées, j’ai débuté sur des aspects techniques comme le pilotage et la cinématique d’Ariane avant de contribuer au projet ATV[2].

Ensuite j’ai travaillé sur des lanceurs réutilisables et rejoint l’équipe architecte du programme Ariane 5 en 1988, chargé de certaines études de dimensionnement du lanceur.

En 1992, après avoir rejoint le CNES, j’étais responsable des essais système, incluant des tests aérodynamiques, thermiques, combinés et de séparation, ainsi que les premiers essais en vol. Je supervisais la spécification technique de ces vols. Le premier vol en 1996 s’est soldé par un échec avec une explosion après 36 secondes, mais le deuxième vol en 1997 a été réussi, suivi d’une réussite complète lors du troisième vol en 1998.

Pendant huit ans, j’ai dirigé les avant-projets, couvrant tous les volets de petit à long terme, avant de revenir à un rôle plus technique en tant qu’expert senior, rattaché à la direction technique, puis au directeur des lanceurs. Mon rôle transversal était de garantir la cohérence technique des activités, telles que les trajectoires et la propulsion, tout en supervisant la communication entre les équipes. J’étais également responsable de diverses revues de projets et programmes. En 2022, j’ai rejoint le siège du CNES, sous la direction de la stratégie, pour apporter mon expertise à l’orientation des grands programmes.
Et enfin, en 2024, j’ai rejoint la start-up MaiaSpace[3].
En parallèle de mes activités professionnelles, je m’intéressais à différents sujets tels que le tourisme spatial, la protection de la Terre contre les astéroïdes, l’évacuation des déchets nucléaires dans l’espace, et la génération de puissance électrique depuis l’orbite, que je traite pour Techniques de l’Ingénieur. Je travaille également depuis 1987 à la pollution de l’espace par les débris, sujet sur lequel j’ai abondamment publié. Je préside plusieurs comités internationaux liés à la gestion des débris spatiaux et suis impliqué dans des instances de standardisation : ISO[4], IADC[5], ECSS[6].

Je donne des cours et des conférences dans des universités et ai récemment présenté sur les débris spatiaux à l’Académie des Sciences et à l’Assemblée Nationale. J’édite quatre journaux professionnels, dont Acta Astronautica, et gère environ une centaine d’articles par an, ce qui me permet de rester informé des dernières avancées. J’ai publié environ 250 articles, dont une centaine avec comité de lecture, et détiens six brevets et six enveloppes Soleau. Membre de l’Académie de l’air et de l’espace, j’ai également reçu plusieurs distinctions.

Enfin je m’investis dans l’éducation en intervenant auprès d’élèves de tous âges, soulignant l’importance de présenter les métiers de l’aérospatial, notamment aux jeunes filles.

Comment avez-vous été amené à travailler dans l’aérospatial ?

Passionné d’aviation depuis l’enfance, je voulais initialement devenir pilote de ligne. Au cours de mes études, je me suis aperçu que je recherchais autre chose que les vols à l’horizontal. Mon intérêt s’est donc tourné vers le spatial en quête d’exploration infinie. Après mes études, c’est avec enthousiasme que j’ai pris mon premier poste.

Quel était votre rôle à la Direction de la Stratégie du CNES ?

Mon rôle était, grâce à mes 40 ans d’expérience, de contribuer à la définition d’une stratégie en matière d’exploration spatiale, vers la lune ou les nouvelles stations spatiales. J’étais dans mes domaines de spécialités : les lanceurs, les débris et la pollution de l’espace, la pérennité des activités orbitales.
La situation de l’encombrement orbital est en effet préoccupante. Je travaille sur cette question et sur ce qui pourrait être recommandé. Dans l’espace, la présence toute proche d’un débris est indétectable, les risques d’autant plus grands. Trois prédominent :

Les traînées lumineuses dans l’espace grillent les capteurs des télescopes, de plus en plus fréquemment, jusqu’à un point critique. C’est une gêne importante pour les astronomes.
Les objets spatiaux en orbite basse (jusqu’à environ 2 000 km d’altitude) retombent sur Terre. En descendant dans les hautes couches de l’atmosphère, ils brûlent. L’équivalent d’un satellite entier ou d’étages entiers de fusées tombe tous les jours. La dangerosité de l’événement et la pollution de cette zone constituent dès lors des points essentiels.

Les collisions en orbite entraînent la destruction de satellites actifs. Devenant de nouveaux débris, ils se fragmentent en nouveaux débris plus petits, avec d’autres risques de collision. Ce phénomène exponentiel est appelé le syndrome de Kessler. Dans une zone relativement délimitée de l’espace, même si toute activité spatiale était suspendue, le nombre d’objets continuerait à s’accroître.
Une réglementation très stricte est donc nécessaire, mais ne suffirait pas. Il faut en effet aller nettoyer cette zone.

À travers un ouvrage publié en 2016, vous alertiez sur la pollution spatiale. Comment la situation a évolué ?

La situation a évolué de façon terrible. À présent, il existe deux grandes zones distinctes dans l’espace : la zone de pollution orbitale, qui se situe entre 700 km et 1100 km d’altitude, touchée par le syndrome de Kessler. Celle-ci contient un nombre croissant de débris, davantage que de satellites actifs. Cette zone est progressivement désaffectée, car trop dangereuse du fait du risque important de collision. Elle s’étendra par le bas et par le haut, en raison des nouveaux débris qui se disperseront.
La zone de congestion est située entre 250 et 650 km d’altitude. Ce sont ces orbites que visent désormais les opérateurs de satellites, notamment ceux des méga constellations comme Starlink. Starlink compte déjà 6 000 satellites actifs, et ce nombre pourrait atteindre 30 000 d’ici 2030, avec une prévision de 100 000 satellites en 2040.
La gestion du trafic spatial est donc au cœur du problème. Le nombre de satellites actifs est passé de 1 000 à 10 000 en seulement 10 ans. Cette croissance rapide pose des défis majeurs. Avec l’augmentation du nombre de constellations, comme celles d’Elon Musk, Jeff Bezos, IRIS² (européenne), ainsi que celles de la Chine et de l’Inde, éviter les collisions devient de plus en plus complexe.
Les deux zones évoquées, de pollution et de congestion, nécessitent chacune des solutions spécifiques. Une réglementation ferme et à jour est essentielle pour les deux zones. Depuis 1998, je participe à l’élaboration de cette réglementation, année de sortie du premier standard du CNES[7]. La loi spatiale française remonte à 2008, la France étant le seul pays à avoir une loi portant sur les débris spatiaux. Les autres pays ont des recommandations. Ce travail est devenu international, en 2002 avec l’Inter-Agency Space Debris Coordination Committee (IADC), l’ONU, ISO, puis l’ECSS. Il manque une réglementation internationale commune et contraignante. De plus, connaître précisément ce qui se trouve en orbite est une priorité.
Un réseau de radars, télescopes et lasers est nécessaire pour affiner la précision des éphémérides spatiales. Actuellement, la position des objets est connue avec une marge d’erreur de 100 mètres, ce qui entraîne de fausses alertes lorsqu’ils passent à moins de 200 mètres l’un de l’autre. Des programmes institutionnels, utilisant des radars très coûteux, visent à améliorer ces techniques d’observation. Des start-ups, comme Aldoria, créent des télescopes ; Look Up Space conçoit des radars. Des solutions prometteuses arriveront dans un avenir proche. De même, les données recueillies par des télescopes de particuliers intéressent et sont achetées.
Dans la zone polluée au-dessus de 700 km, éviter les collisions est crucial. Si les manœuvres d’évitement sont possibles entre objets actifs, elles sont en revanche impossibles avec les débris, d’où la nécessité de les éliminer. Le retrait actif des débris (Active Debris Removal, ou ADR) est une mission complexe, techniquement et financièrement exigeante. MaiaSpace en possède la compétence mais ne s’y est pas encore employée. La priorité est de se concentrer sur les gros débris spatiaux, qui, en cas de collision, peuvent générer une multitude de fragments. Par exemple, les satellites russes Zenit 2, aussi volumineux qu’un autobus, passent régulièrement à moins de 100 mètres les uns des autres. Une collision entre ces masses pourrait multiplier le nombre de débris, et l’effort de récupération se concentre donc sur des objets volumineux plutôt que sur de petits fragments. Cependant, ce processus est compliqué non seulement sur le plan technique et financier, mais aussi politiquement, car l’approche de certains débris est interdite. Si rien n’est fait, la pollution des orbites basses pourrait s’aggraver.
Dans la zone d’encombrement orbital plus basse, l’accumulation d’objets entraîne une hausse exponentielle des manœuvres d’évitement. Par exemple, Starlink, avec ses 6 000 satellites, en effectue déjà 100 000 par an, et ce chiffre pourrait exploser avec l’ajout de milliers de nouveaux satellites. La gestion du trafic spatial devient donc un enjeu critique, exigeant l’élaboration de règles partagées, particulièrement lorsque des constellations de différentes nationalités sont impliquées. La question des débris et de l’encombrement orbital reste prioritaire, et je continue de publier des avis académiques sur le sujet dans la revue de l’académie de l’air et de l’espace pour sensibiliser la communauté scientifique et les décideurs.
Un autre point concerne la durée de séjour en orbite. À 300 km, un satellite reste en orbite 2 à 3 ans avant de retomber dans l’atmosphère. À 800 km, il peut rester en orbite pendant deux siècles, et à 1000 km, pendant 1000 ans. À 650 km, un satellite reste environ 25 ans, marquant une sorte de frontière. C’est d’ailleurs cette durée qui est exigée par les recommandations internationales qui sont publiées depuis 2002.
On s’emploie actuellement à abaisser cette durée à cinq ans, voire un an, mais les opérateurs et les constructeurs s’y opposent, car une limite de temps les impacte fortement, sur le volume de carburant notamment. Cette négociation est difficile.

Pouvez-vous nous parler de la création de MaiaSpace et du lien avec le CNES ?

Initiative du CNES et d’ArianeGroup, cette start-up est attendue pour redonner une compétitivité au niveau international, grâce à une équipe hautement qualifiée. Les réalisations sont impressionnantes, du point de vue des délais et des coûts. J’y occupe le poste d’ingénieur système senior. On peut dire que le nouveau lanceur en développement est dans la continuité du programme de lanceurs d’Ariane 5 et Ariane 6.

Que pouvez-vous nous dire de plus sur ce projet de lanceur européen ?

MaiaSpace est un projet de mini lanceur. Il permet de mettre à peu près 2,5 tonnes en orbite. Sa particularité est que le premier étage est réutilisable. Les deux options sont possibles : la version avec étage consommable est plus performante et pour la version réutilisable, l’intérêt est que le premier étage peut servir à nouveau. Il s’agit d’une innovation, pour une solution flexible, avec un troisième étage optionnel. Cela nous permet d’apporter une réponse à nos futurs clients, pour toute mission potentielle. Le fait de pouvoir récupérer son premier étage a été vu chez SpaceX aussi avec Falcon 9.
La notion de qualité environnementale est essentielle dans nos réflexions, à chaque étape de travail, pour le choix des carburants. Certains collaborateurs travaillent exclusivement sur l’analyse de cycle de vie. C’est une signature majeure de MaiaSpace.

En dehors de MaiaSpace, quels sont vos projets ?

Je suis principalement occupé par les débris orbitaux, c’est prioritaire. Je participe à des réunions de travail sur la zone d’encombrement, ainsi qu’à des congrès dédiés, comme l’IAC[8]. Ces événements sont révélateurs de la prise de conscience sur les débris. Tout cela est très prenant et passionnant.

Quel regard portez-vous sur l’industrie aérospatiale, plus particulièrement en France ?

Dans ce domaine, la France se situe à un très haut niveau, Airbus est français d’origine, Concorde était franco-anglais, les hélicoptères français sont très performants, Ariane était français puis est devenu européen. En France, nous disposons d’un vivier précieux que nous devons préserver. Aujourd’hui, le radar français GRAVES[9] est un modèle réussi et inspirant. La France, grâce au CNES, a réussi à fédérer toute l’Europe autour d’Ariane.
Les échecs du lanceur Europa étaient dus à l’absence de maître d’œuvre, ce qui a conduit le CNES à prendre en charge le développement d’Ariane, financé à 20 % par l’Allemagne, un projet qui a connu un grand succès européen. Le projet Ariane Next, ambitieux et axé sur la réutilisation, a été refusé, laissant place à de nouveaux projets de lanceurs dans d’autres pays européens. Parmi eux, MaiaSpace, financé par ArianeGroup, se distingue comme un complément prometteur d’Ariane, avec une vocation et un sourcing européens.

Quelles compétences ou qualités sont indispensables dans vos domaines d’expertise ?

Il est important d’être enthousiaste, de s’amuser au travail et d’avoir envie. C’est formidable de travailler sur des engins, de la technique et technologie de pointe. Les profils recherchés sont des ingénieurs généralistes, issus de Polytechnique, de Centrale, de l‘IPSA, d’EPF, des INSA, de SupAero. Il est possible d’intégrer MaiaSpace avec un master plus. Un profil d’ingénieur spécialisé dans les textiles a été embauché au CNES pour le tissage de fibres de carbone destinées aux protections thermiques de nos véhicules. Des ingénieurs chimistes travaillent sur les carburants.
Au-delà du diplôme, un bon bagage technique et scientifique est essentiel. Plus que l’élite, l’enthousiasme et les expériences réussies, comme des stages dans le spatial ou la gestion de clubs de petites fusées, sont particulièrement valorisés.

Avez-vous recours à une veille technologique ? Dans ce cadre, à quels domaines vous intéressez-vous et quelles sont vos sources principales d’information ?

Les quatre journaux professionnels dont je suis éditeur couvrent un large éventail de contenus. J’ai accès à Springer, Elsevier et son outil de recherche Scopus. J’ai des notifications sur les innombrables sujets que je suis. À cela, s’ajoutent les abstracts que je relis, de façon à en retenir un certain pourcentage[10]. Ces relectures m’apportent beaucoup, contribuent à me former et à m’informer. Je fais un effort pour comprendre ce que je lis, et j’y puise de nouvelles idées. De plus, je suis conseiller pour l’Union européenne, mais aussi évaluateur pour plusieurs programmes scientifiques de la Commission européenne.

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant que conseiller scientifique ?

Techniques de l’Ingénieur figure parmi mes sources, pour la qualité et l’utilité des articles. J’aime beaucoup l’idée de contribuer à élaborer une base d’articles de référence sur le spatial en qualité de conseiller scientifique.

Nous allons nous employer à étoffer les articles dans mes domaines. Notamment, un article est en cours sur la propulsion nucléaire, et plus largement sur l’utilisation du nucléaire dans l’espace. 

Avant cette collaboration, j’avais accès aux articles Techniques de l’Ingénieur via le bureau chargé de la veille du centre de ressources documentaires du CNES, qui envoyait des notifications pour toute nouvelle publication.

Les contributions de Christophe Bonnal aux Techniques de l’Ingénieur

Expert Sénior Système chez MaiaSpace, ancien expert Sénior à la Direction de la Stratégie du CNES, Christophe Bonnal contribue avec les Techniques de l’Ingénieur en tant que conseiller scientifique.

Offre

Systèmes aéronautiques et spatiaux

 


        1. ArianeGroup
        2. Projet ATV
        3. MaiaSpace
        4. International Organization for Standardization
        5. IADC
        6. European Cooperation for Space Standardization
        7. Référentiel du CNES, édition septembre 2024.
          Mise à jour de la Réglementation Technique associée à la Loi Spatiale Française (LOS)
        8. International Astronautical Congress : IAC2024, IAC2025
        9. Grand Réseau Adapté à la Veille Spatiale, situé à Dijon
        10. Par exemple, entre 70 et 80 % des soumissions d’Acta Astronautica sont rejetées.

« Il faut bien avoir à l’esprit que les IA ne sont pas des logiciels comme les autres »

Ces risques, qui selon le CeSIA sont largement sous-estimés à l’heure actuelle, portent sur les modèles d’IA déjà à l’œuvre, et ceux qui vont apparaître dès les mois et les années à venir. Car l’intelligence artificielle est un domaine au sein duquel l’innovation est perpétuelle, et les disruptions quasi mensuelles. 

Le règlement européen sur l’intelligence artificielle, adopté cet été, doit veiller à ce que les systèmes d’IA mis sur le marché respectent les droits humains et les législations en vigueur. Et se faisant, le texte interdit certaines pratiques d’IA jugées à haut risque. 

Charbel-Raphaël Segerie est directeur exécutif du centre pour la sécurité de l’IA (CeSIA). Il a expliqué à Techniques de l’Ingénieur quels sont les différents types de risques aujourd’hui liés au développement des nouveaux modèles d’intelligence artificielle, dans un contexte de course effrénée pour développer des modèles d’IA de plus en plus puissants.

Techniques de l’Ingénieur : Quelle est la mission du Centre de sécurité de l’intelligence artificielle ?

Charbel-Raphaël Segerie : Notre mission première est de partager des outils et des connaissances en matière de sécurité de l’IA à usage général. Nous avons développé trois types d’activités qui nous permettent d’atteindre cet objectif : la recherche et le développement, l’enseignement et la sensibilisation.

Charbel-Raphaël Segerie, directeur exécutif CeSIA
Charbel-Raphaël Segerie, directeur exécutif du centre pour la sécurité de l’IA.

En termes de recherche et développement, nous faisons de l’évaluation de l’IA. Nous évaluons la qualité de la supervision de l’IA. Pour résumer de manière un peu imagée, nous essayons de voir s’il est possible aujourd’hui, avec les techniques actuelles, d’avoir un contrôle automatique sur les IA. A ces fins, nous sommes en train d’établir un benchmark, qui permettra d’évaluer la qualité du contrôle et de la supervision sur les IA. 

En termes d’enseignement, nous avons donné le premier cours en France et peut-être même en Union Européenne sur la sécurité des IA à usage général. Ce cours se déroule à l’école normale supérieure Ulm et Paris-Saclay.

Nous participons également à la rédaction du code des bonnes pratiques de l’IA au niveau de l’Union Européenne. 

Suite à l’adoption du règlement européen sur l’IA, quelles sont les étapes pour sa mise en application effective ?

Le Règlement Européen sur l’IA (RIA) a effectivement été adopté. Maintenant l’enjeu consiste à opérationnaliser ce RIA pour les IA à usage général. Ainsi, pour les modèles d’IA qui ont été entraînés avec une grande quantité de calculs, le RIA préconise la mise en place d’une importante batterie de tests, mais ces derniers ne sont pour le moment pas définis. Notre ambition est donc de participer à la rédaction de ces codes de bonnes pratiques qui permettront d’évaluer la sécurisation des IA. 

Quels sont les risques potentiels liés à la sophistication toujours plus grande des modèles d’IA ?

Nous pensons qu’il y a de nombreux risques liés à l’IA, existants et émergents. Nous avons mis en place une taxonomie en trois niveaux : les risques liés aux usages malveillants, aux problèmes d’alignement, et les risques systémiques. 

L’IA va devenir de plus en plus capable. En particulier, les IA générales peuvent être utilisées pour des cyberattaques. Par exemple Google a annoncé il y a quelques jours qu’il ont des systèmes capables de découvrir des zero-day, des nouveaux types de vulnérabilité, qui peuvent être utilisés pour mener des cyberattaques.

Certaines IA peuvent être utilisées pour le bioterrorisme. Je pense que les IA pourraient permettre dans le futur de créer des pandémies artificielles. Il est aujourd’hui très facile d’envoyer des séquences de protéines à des laboratoires qui les synthétisent sans être trop regardants. Des chercheurs du MIT ont ainsi, cette année, pris le virus de la grippe espagnole et ont demandé à 38 laboratoires d’imprimer la séquence du virus. 36 des 38 laboratoires ont imprimé la séquence, sans chercher à en savoir plus. Il est donc très facile aujourd’hui de contourner les mesures de sécurité en place.

D’autre part, l’IA peut permettre de trouver des séquences extrêmement létales. Des IA ont déjà été utilisées pour augmenter le niveau de dangerosité de certaines molécules. Il s’agit là aussi d’un risque parmi d’autres.

Vous évoquez également le risque lié aux armes…

Les armes autonomes constituent en effet un risque à bien mesurer. Pour quelques milliers d’euros aujourd’hui, vous pouvez acheter des robots équipés d’armes, qui représentent donc un danger potentiel en cas d’usages malveillants, en particulier si on leur permet de fonctionner de manière autonome grâce à une IA. Les drones sont aussi une technologie qui permet, à l’aide de l’IA, de générer des guerres de manière automatisée.

Les deep fake sont aussi un risque déjà à l’œuvre aujourd’hui.

Tout à fait. En Corée du Sud par exemple, des IA sont utilisées pour générer des deep fake à caractère sexuel. C’est un phénomène très difficile à endiguer, qui génère des problèmes psychologiques terribles à ceux qui en sont victimes. 

On peut aussi faire face à des problèmes de vie privée et de confidentialité. Par exemple, peu de gens se rendent compte qu’en copiant collant leurs mails dans ChatGPT pour les améliorer, OpenAI est en capacité de récupérer l’entièreté de ces données. Il est quand même aberrant de se dire que via ces procédés, OpenAI récupère chaque jour une quantité non négligeable de données extrêmement privées voire sensibles.

Qu’est ce que l’alignement des IA et quel est le risque lié à un problème d’alignement ?

L’alignement est la capacité des IA à réaliser ce qu’on leur demande. Le risque dans le futur est de voir des IA présentant des problèmes d’alignement. Aujourd’hui les IA sont des outils. Dans le futur, une partie des IA seront des agents autonomes. C’est-à-dire qu’on fixera un objectif à ces IA, et cette dernière décompose l’objectif en une To do list, qui sera exécutée item par item, jusqu’à l’accomplissement de l’objectif. L’émergence actuelle de ces agents autonomes présente la particularité que ces derniers sont beaucoup plus puissants que les outils d’IA classiques, notamment car ils peuvent accéder de manière autonome à internet ou aux ordinateurs sur lesquels ils sont installés. Cela fait qu’on se rapproche aujourd’hui d’IA qui sont en capacité de réaliser tout ce qu’un humain peut réaliser avec un ordinateur ou avec internet. 

Au moment de la présentation de ChatGPT, Microsoft a voulu faire de même et a déployé une IA, Bing Chat, qui s’est notamment illustrée en insultant et en menaçant ses utilisateurs. C’est un exemple illustrant parfaitement ce qu’est un problème d’alignement d’une IA. 

Un autre exemple, encore avec Microsoft, l’IA Tay, un chatbot lancé sur twitter, a très rapidement trouvé un moyen pour maximiser l’engagement de ses followers, en adoptant un comportement misogyne, raciste, nazi… Illustrant une nouvelle fois ce que peut être un problème d’alignement.

Ainsi, on donne des objectifs à l’IA, et les IA mettent en place des stratégies pour maximiser ces objectifs. Se faisant, elles trouvent parfois des stratégies qui sont non conformes aux valeurs humaines pour parvenir à leurs fins.

Il faut bien avoir à l’esprit que les IA ne sont pas des logiciels comme les autres. Ce sont des amas d’algorithmes illisibles, des blackbox (boîtes noires), qui combinent des milliards de paramètres n’ayant pas de sens tel quel, mais qui pondérés et combinés d’une certaine façon vont permettre de maximiser un objectif. Sans que l’on puisse vraiment comprendre comment. C’est aussi cela qui explique le comportement parfois surprenant des IA. 

Comment quantifier le risque global lié aux modèles d’IA existants et émergents ?

Nous assistons aujourd’hui à une course acharnée, menée par les entreprises privées et les Etats, qui essaient de créer les IA les plus puissantes possible. Avec une augmentation des risques que nous venons d’évoquer. Une grande partie des plus éminents chercheurs en IA vont même jusqu’à affirmer que cette montée en puissance de l’IA représente un risque existentiel pour l’humanité

Nous pensons qu’avec toutes les incertitudes qui règnent autour des évolutions à venir en termes d’IA, il est important de définir des lignes rouges à ne pas franchir.

Prenons quelques exemples. Des IA capables de mener des cyberattaques de manière complètement autonome constitueraient une menace qu’il faut absolument proscrire. Des IA qui permettraient d’augmenter significativement les risques de pandémies constituent une autre ligne rouge.

Une IA capable de s’auto répliquer constituerait également un danger critique, puisque cela lui permettrait de se répliquer elle-même un nombre indéfini de fois, au risque de devenir totalement incontrôlable. 

Quelles sont les solutions préconisées pour éviter tous les risques potentiels que vous venez d’évoquer ?

Les mécanismes de mise à l’échelle responsables adoptés par de nombreuses grandes entreprises investissant l’IA vont dans le bon sens. 

Ces mécanismes évaluent le niveau des modèles d’IA qu’ils ont créés sur quatre grands types de capacités : les cyberattaques, l’autonomie, la création de biorisque de manière automatique, et les capacités de manipulations et persuasions. Cela permet d’établir pour ces quatre capacités des niveaux de risques, et in fine de ne pas déployer les modèles d’IA présentant un risque trop élevé sur l’une d’entre elles, avant d’avoir trouvé les méthodes pour contrôler cet aléa. 

Le problème est qu’actuellement, les mécanismes de mise à l’échelle responsable de l’IA sont des mécanismes qui sont volontaires et pas imposés aux entreprises. Tout l’enjeu est donc de faire en sorte que ces mécanismes deviennent réglementaires. C’est ce qui est en train d’être réalisé au niveau européen, avec la difficulté de définir correctement les lignes rouges, et de mettre en place les procédures en séparant les éléments absolument indispensables à prendre en compte dans ces procédures et ceux qui sont moins importants… Ce travail comprend d’immenses difficultés techniques, l’évaluation des risques étant un travail extrêmement complexe.

Propose recueillis par Pierre Thouverez

AI-Stroke : une IA neurologue numérique au service de la détection des AVC

Cédric Javault, CEO d’AI-Stroke
Cédric Javault, CEO d’AI-Stroke (Crédit : AI-Stroke)

AI-Stroke est une medtech montpelliéraine créée en 2022, qui développe un neurologue numérique basé sur l’intelligence artificielle.

Cet outil révolutionnaire est capable de détecter un AVC en temps réel à l’aide d’un smartphone ou d’une tablette.

Cédric Javault est polytechnicien. Avant de devenir ingénieur en Intelligence artificielle, il a été chef d’entreprise pendant 20 ans, dans le secteur du tourisme.

Techniques de l’ingénieur : Pourquoi la détection précoce des AVC pose-t-elle problème ?

Cédric Javault : Un AVC est une urgence médicale absolue. Malheureusement, encore faut-il être en mesure de le diagnostiquer, car il faut savoir que les symptômes varient énormément, selon la zone du cerveau qui est touchée, donc d’un patient à l’autre.

Ces symptômes peuvent être moteurs, de la paralysie faciale, une perturbation du langage ou de nature encore différente, ce qui complique la détection. Selon une étude américaine, les « first responders[1] » passeraient ainsi à côté de 32 % des AVC, ce qui est loin d’être marginal.

Dans le meilleur des cas, si l’AVC n’est pas détecté, le patient est pris en charge dans un hôpital qui n’est pas spécialisé en traitement des AVC et il ne peut disposer des soins adaptés.

Néanmoins, le pompier, ou l’urgentiste qui passe à côté de l’AVC n’est pas mauvais pour autant. C’est juste qu’il n’est pas neurologue !

C’est la raison d’être d’AI-Stroke : proposer un neurologue numérique capable d’assister le pompier ou l’urgentiste dans la détection précoce de l’AVC.

Quel est le principe du neurologue numérique ?

Pour diagnostiquer un AVC, le neurologue de l’hôpital réalise une IRM de contrôle, qui permet de voir ce qu’il se passe à l’intérieur du cerveau, ce qui est bien évidemment impossible en diagnostic préhospitalier.

En préhospitalier, on se base sur un outil de pré-évaluation clinique appelé NIHSS[2]. À partir de tests simples (lever les bras, répéter quelques mots, etc.), l’outil permet ainsi d’établir une échelle de gravité de l’AVC.

Notre neurologue numérique est une application mobile pour tablette ou smartphone basée sur ce protocole NIHSS. L’application filme ainsi le patient et le guide pour qu’il réalise les exercices qui sont pertinents. Le neurologue numérique analyse ensuite les images et le son pour indiquer si les réactions du patient correspondent ou non à un AVC.

Sur quelles données s’appuie AI-Stroke ?

Nous avons travaillé en partenariat avec le CHU de Nîmes et filmé 300 patients en phase aiguë d’AVC. Ces patients ont suivi l’ensemble des exercices prévus par le protocole NIHSS, ce qui n’avait jamais été fait avant avec autant de patients et autant d’exercices.

Grâce à ce partenariat, nous avons développé le plus gros dataset au niveau mondial, constitué de 20 000 vidéos et 6 millions d’images. La performance de l’application repose donc sur une IA très bien entraînée.

Mais travailler avec ces données sensibles n’est pas simple, car elles ne sont pas anonymisables. La première année de développement, le plus gros travail de nos équipes a donc été d’obtenir les autorisations nécessaires à l’exploitation de ces données sensibles.

Les travaux effectués avec le CHU de Nîmes ont donc été autorisés par deux comités d’éthique, ainsi que par la commission plénière de la CNIL. Nous avons dû démontrer notre capacité à sécuriser ces données. Je pense d’ailleurs que c’est la première fois qu’on autorise à filmer et garder des vidéos de patients non anonymisées.

Je précise aussi que ce travail de collecte n’aurait pas été possible sans l’implication de l’équipe médicale[3] pour récolter ces autorisations auprès des patients ou de leur famille, puis les filmer assez vite après l’accident.

Pour que ce type de solution fonctionne, il faut donc à la fois des compétences médicales, juridiques et bien entendu mathématiques.

Cela suppose aussi que les ambulanciers, pompiers ou urgentistes soient équipés d’outils numériques. Est-ce le cas ?

Il y a cinq ans, les pompiers fonctionnaient encore avec des formulaires papier qu’ils remplissaient. Ils dictaient ensuite leur compte-rendu au SAMU qui les ressaisissait. Mais l’ère du papier est heureusement en passe d’être révolue, en Europe comme dans la plupart des pays développés. En France, les pompiers sont en train de s’équiper de tablettes, ce qui permettra au coordinateur du SAMU de voir arriver le compte-rendu au fur et à mesure.

Le déploiement est donc en cours. Comme il nous faudra environ deux ans avant de pouvoir commercialiser l’application, la majorité des SDIS français devrait être équipée lorsqu’elle sortira.

Vous reste-t-il beaucoup de travail à accomplir avant la commercialisation ?

Pour le moment, le niveau d’efficacité de l’outil, concernant la détection des AVC, est au moins équivalent à celui des premiers intervenants (pompiers et ambulanciers). Mais sa performance s’améliore en continu et on se dirige doucement vers un niveau « urgentiste ». Nous disposons néanmoins de bons arguments pour espérer dépasser ce niveau sans trop de difficultés. Il faut savoir que les deux principaux papiers scientifiques qui ont été publiés dans le domaine ont réussi à atteindre l’efficacité d’un neurologue, alors qu’ils s’appuyaient sur des jeux de données sensiblement plus petits que le nôtre.

Nous allons ensuite profiter des sessions de formation annuelles des pompiers pour mettre à l’épreuve notre IA en comparant sa performance à celle des pompiers. Au printemps 2025 nous aurons donc une évaluation de l’outil sur plusieurs milliers de pompiers et secouristes.

L’étape suivante sera celle des essais cliniques, sur des patients pour lesquels l’AVC n’a pas été détecté par le SAMU ou les pompiers, mais pour lesquels l’urgentiste a un doute. Le protocole standard est alors de demander l’avis du neurologue de garde puis de confirmer par IRM. Nous allons « ajouter » AI-Stroke et pouvoir comparer, pour tous les cas où l’urgentiste aura eu un doute, les impressions cliniques de l’urgentiste, du neurologue et de notre IA (sachant que nous aurons l’IRM comme référence). Ce sera pour le 2e semestre 2025.

La mise sur le marché est estimée à fin 2026. En attendant, il nous reste encore des étapes réglementaires à franchir, ainsi qu’une levée de fonds à lancer.


[1] L’équivalent des pompiers et du SAMU

[2] National Institutes of Health Stroke Scale

[3] En particulier l’équipe d’Éric Thouvenot, PUPH, chef de service neurologie au CHU de Nîmes et actionnaire d’AI-STROKE

« Il nous faut une législation agile pour s’adapter au mieux à cette technologie – l’IA – que l’on ne capte pas encore parfaitement »

Plus concrètement, ce cadre réglementaire poursuit plusieurs objectifs. D’abord, veiller à ce que les systèmes d’IA mis sur le marché soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux, de valeurs, et d’environnement. 

Aussi, le règlement européen met en avant l’adoption d’une IA de confiance, axée sur l’humain. Pour les entreprises, ce cadre juridique doit faciliter les investissements et l’innovation, et améliorer le fonctionnement du marché intérieur pour des applications d’IA légales et sûres. En interdisant celles qui ne le sont pas. Pour atteindre ces objectifs, dont la liste n’est ici pas exhaustive, le cadre réglementaire s’appuie sur des règles harmonisées, des exigences spécifiques, des mesures et des interdictions.

Céline Castets-Renard est juriste, titulaire de la Chaire de Recherche du Canada Droit international et comparé de l’IA à l’Université d’Ottawa, titulaire de la chaire de recherche partenariale avec Airbus à l’Université de Toulouse et également membre d’ANITI (Artificial and Natural Intelligence Toulouse Institute), entre autres. Nommée il y a quelques semaines à la vice-présidence du groupe de travail sur la transparence et les règles relatives au droit d’auteur, Céline Castets-Renard participe en cela à l’élaboration du premier code de bonnes pratiques des modèles d’IA à finalité générale de la Commission Européenne, initiative découlant du RIA.

Elle a expliqué pour Techniques de l’Ingénieur en quoi un cadre réglementaire européen agile est nécessaire pour encadrer les développements actuels et futurs des produits à base d’intelligence artificielle.

Techniques de l’Ingénieur : Est-il encore temps de se poser la question de la nécessité de l’IA pour les humains ?

Céline Castets-Renard : Aujourd’hui la question n’est plus de se demander si l’IA est nécessaire mais plutôt de savoir ce que l’on peut en tirer, en essayant d’en améliorer les externalités positives et d’augmenter les situations qui nous permettent d’en bénéficier, en limitant les risques et les dangers qu’elle peut entraîner. 

Céline Castets-Renard, juriste, titulaire de la Chaire de Recherche du Canada Droit international et comparé de l'IA à l’Université d’Ottawa, titulaire de la chaire de recherche partenariale avec Airbus à l’Université de Toulouse et membre d’ANITI
Céline Castets-Renard est juriste, titulaire de la Chaire de Recherche du Canada Droit international et comparé de l’IA à l’Université d’Ottawa, titulaire de la chaire de recherche partenariale avec Airbus à l’Université de Toulouse et également membre d’ANITI.

La législation européenne cherche justement à encourager les innovations qui profitent à la société, aux humains et à l’environnement. Il faut donc limiter les risques, en établissant une législation graduée, quitte à interdire certains usages de l’IA quand on considère que les risques sont inacceptables dans notre société. Ce n’est pas parce que l’on fait des progrès sur les IA que l’on doit les mettre sur le marché et les utiliser à tout va. Il faut que l’on prenne des précautions, que l’on vérifie les types d’utilisations, la façon dont les IA sont créées, et les risques qu’elles peuvent générer.

Ces précautions dont vous parlez existaient-elles sous une autre forme auparavant ?

Pas vraiment. ChatGPT a été mis sur le marché en novembre 2022 sans qu’il n’y ait aucun contrôle de qui que ce soit, parce qu’à cette époque il n’existait aucune législation qui aurait pu contraindre OpenAI sur quoi que ce soit, hormis les législations applicables aux données (législations sur les données personnelles et le droit d’auteur en particulier). C’est pour cela qu’il est important de mettre en place une législation pour entourer la mise sur le marché des modèles d’intelligence artificielle et créer les conditions, les exigences et les obligations à respecter pour mettre un produit sur le marché.

Bien sûr, cela ne doit pas empêcher les recherches et l’avancement dans la connaissance et dans l’utilisation potentielle de l’IA, mais la décision de mettre tel ou tel produit sur le marché doit être contrôlée. Le droit sert à cela.

Cela se traduit par la réglementation graduée par les risques, et par des obligations avant la mise sur le marché, comme le fait de mener une évaluation des risques, et d’avoir un système de gouvernance des données par exemple, pour s’assurer qu’il n’y ait pas de biais dans les bases de données des systèmes d’IA.

Est-ce que la législation doit permettre de mieux expliquer comment fonctionnent les IA ?

L’explicabilité n’est pas une obligation légale. Sont créées des obligations en ce qui concerne la gouvernancce des données, la traçabilité, la documentation technique, le contrôle humain, les résultats en sortie (par exemple éviter les biais et la discrimination), et la capacité à expliquer comment le système a été conçu. Il faut aussi par exemple être en mesure de pouvoir expliquer les décisions qui sont prises ou suggérées par le système. 

Nous devons évaluer les IA sur leurs résultats et pas (seulement) sur leur fonctionnement, souvent opaque et évolutif. L’objectif est que les résultats soient corrects et que l’on puisse les comprendre afin d’éviter les risques de déviance ou d’inexactitude par exemple. Pour cela, il faut mettre en place des obligations tout au long du process de développement des produits à base d’IA.

De plus, aujourd’hui l’IA est en mesure d’assumer des fonctions cognitives, comme la prédiction, la recommandation, la décision et la génération de contenu. Nous travaillons aussi beaucoup sur l’IA générative, et notamment sur les modèles d’IA, qui font l’objet d’autres dispositions ajoutées tardivement au cours des négociations du RIA.

Y a-t-il un risque que la réglementation mise en place au niveau européen constitue un frein à l’innovation en intelligence artificielle ?

A chaque fois qu’une nouvelle technologie émerge et que sont mises en place des bornes pour encadrer ses usages, ces dernières sont aussitôt assimilées à des freins à l’innovation. Je ne suis pas du tout d’accord avec cet argument. Il ne faut pas opposer innovation et droit. D’abord, certaines lois, comme la propriété intellectuelle, protègent et encouragent l’innovation. Ensuite, cette réglementation sur l’IA arrive relativement tôt, et elle fournit en cela une forme de sécurité à l’innovation sur l’IA. En particulier, cela encourage la recherche et développement dans les entreprises, car ce règlement leur permet de connaître les règles du jeu à l’avance : elles savent exactement quoi faire pour répondre aux exigences légales et à partir de là, elles auront la tranquillité de pouvoir mettre sur le marché leurs produits, sans risque de retrait. Ce fonctionnement est à mon avis beaucoup plus sain et juste pour les entreprises et moins risqué pour la population.

Pour ces raisons, je reste persuadée que la sécurité juridique encourage l’innovation, et les entreprises sont en demande de ces assurances pour consolider leurs positions sur les marchés. 

Enfin, il existe dans le règlement européen sur l’IA des mesures spéciales pour protéger l’innovation : les bacs à sable réglementés. Ces dispositifs permettent aux entreprises de mener leurs essais et de développer leurs systèmes d’IA sans être parfaitement sûr de maîtriser les risques. Les bacs à sable sont fermés pour que les entreprises puissent ainsi tester leurs produits.

Il y a aussi des mesures spéciales pour les petites entreprises et les startups qui ont bénéficieront d’obligations allégées. 

Comment adapter le RIA pour accompagner les évolutions très rapides observées en intelligence artificielle ?

C’est certain, nous sommes bien conscients que l’IA est une technologie qui évolue vite, et il y a toujours le risque de ne pas bien capter l’objet que l’on veut encadrer. Sont prévues à cet effet des mesures de mise à jour, d’évolutions : nous avons besoin d’une législation agile pour s’adapter au mieux à cette technologie que l’on ne capte pas encore parfaitement et qui va encore évoluer.

La Commission Européenne va pouvoir prendre des mesures d’adaptation au texte en en modifiant les annexes. C’est dans ce but que certaines dispositions du texte ont été mises en annexes, afin de permettre une évolution plus facile et rapide par l’unique intervention de la Commission Européenne et non pas des trois législateurs (Commission, Parlement européen et Conseil de l’UE). 

Je fais partie d’un groupe de travail pour l’élaboration de codes de pratiques dont le rôle est de préciser les dispositions qui concernent les fournisseurs de modèles d’IA à usage général. Il y aura ainsi de nombreux instruments juridiques, à côté de ce règlement, qui viendront le spécifier et le renforcer, en collaboration avec les parties prenantes, car le but est bien de correspondre à la réalité, sinon les textes risquent rapidement d’être obsolètes et décalés.

Enfin, vous exercez à la fois en Europe et en Amérique du Nord. Qu’est-ce qui différencie le Canada, les Etats-Unis et l’Europe en termes de droit des IA ?

La façon de faire du droit dans ces pays est très différente. Le projet de loi canadien au niveau fédéral, le projet de loi C27, qui risque malheureusement de ne pas être adopté, s’inspire sur de nombreux points du règlement européen.

Aux Etats-Unis, il y a des initiatives fédérales, plutôt destinées à encourager les entreprises à respecter un système d’évaluation et de minimisation des risques, sans forme explicite d’interdiction. Dans le secteur public fédéral, des mesures sont prises pour protéger la sécurité nationale contre les atteintes que pourrait produire l’IA. Ce sont des approches assez spécifiques.

Au niveau des États fédérés américains, les mesures sont très ciblées et portent par exemple sur les deep fakes, sur l’utilisation de l’IA par les gouvernements étatiques, par exemple… Il ne s’agit pas d’une approche globale sur l’IA dans son ensemble comme l’est celle de l’Union Européenne. 

Propos recueillis par Pierre Thouverez

La TVA circulaire, une mesure essentielle pour soutenir la réparation

Emmanuelle Ledoux, directrice générale de l’INEC
Emmanuelle Ledoux est directrice générale de l’INEC (Crédit : INEC)

L’Institut National de l’Économie Circulaire (INEC) est un think tank dont la mission est de promouvoir la transition d’une économie linéaire à une économie circulaire.

Emmanuelle Ledoux en est la directrice générale.

Elle a notamment contribué à une étude démontrant la nécessité d’une meilleure gestion des ressources pour réussir la décarbonation « SNBC sous contrainte de ressources » en juin 2022[1].

Elle a aussi coécrit, avec Grégory Richa, l’ouvrage « Pivoter vers l’industrie circulaire » publié aux éditions Dunod en octobre 2022.

Techniques de l’ingénieur : Qu’est-ce qui a déclenché cette proposition d’une TVA à 5,5 % sur la réparation ?

Emmanuelle Ledoux : En Europe, la législation sur la TVA est contrainte par la directive européenne sur la TVA[2]. Jusqu’à présent, il était donc difficile de formuler des propositions au niveau national. Mais il se trouve qu’en 2022 les règles ont changé, avec l’arrivée d’une nouvelle directive[3]. Les états membres ont dorénavant la possibilité de baisser la TVA sur les opérations de réparation, pour certaines familles de produits, notamment les vêtements, les chaussures, l’électroménager et les vélos.

Nous aurions aimé aller plus loin : baisse de la TVA sur les produits écoconçus, recyclables, reconditionnés, etc. Mais pour ça, il faudra d’abord que le cadre européen change.

Notre proposition de TVA à 5,5 % sur la réparation correspond donc parfaitement avec le cadre européen, ce qui a facilité son adoption.

Ce vote était-il une surprise ?

Nous n’avons pas été surpris par le vote en lui-même, mais par son ampleur. Avec l’assemblée actuelle, la plupart des votes positifs obtiennent généralement de petites majorités. Or, dans le cas présent ce n’est pas une petite majorité : 153 voix pour et seulement 35 contre !

Néanmoins, comme la partie recette du projet de loi de finances 2025 n’a pas été votée, le texte qui est arrivé au Sénat n’a pas intégré le travail de l’assemblée. Nous avons donc un nouveau combat à mener pour que la mesure soit votée par les sénateurs.

L’adoption, à une large majorité, à l’assemblée nous donne cependant de bons espoirs, surtout que les équilibres au Sénat sont différents. Il faut voir aussi que la proposition, telle qu’on l’a construite, est un vrai sujet de soutien aux territoires. Cette TVA circulaire n’est pas sur une dynamique d’effet prix, mais une mesure efficace pour renforcer le modèle économique de la réparation.

Actuellement, comment se porte la réparation en France ?

Elle ne va pas très bien. Prenons l’exemple des cordonniers. On en comptait près de 45 000 dans les années 1950 : il en reste à peine 3 500 aujourd’hui. Beaucoup sont proches de la retraite et ont des revenus qui permettent à peine de vivre de leur métier.

Il y a donc un réel besoin de soutenir le secteur de la réparation, si on veut faire de la réparation une réelle réussite, pas juste une promesse. À quoi bon continuer à dire « il faut réparer », s’il n’y a plus de réparateurs ? Pour qu’il y en ait demain, il faut soutenir la filière, des deux côtés avec des mesures complémentaires : le bonus réparation, pour le consommateur, et la baisse de la TVA pour le réparateur.

Quel sera l’impact de cette baisse de la TVA en réparation ?

Le passage de 20 % à 5,5 % de TVA aura un impact important sur le chiffre d’affaires des réparateurs, pour un coût quasiment nul, d’après les modélisations que nous avons présentées dans le rapport remis au ministre en 2023. Pour l’État il vaut mieux 5,5 % de quelque chose que 20 % de rien du tout !

Nous sommes vraiment dans une logique qui consiste à booster l’offre de réparation ainsi que les volumes. Si le bonus réparation fonctionne, que les mesures en faveur de la réindustrialisation, de l’écoconception, de la réparabilité, bref si l’ensemble des actions politiques mises en œuvre aboutissent, cette baisse de TVA ne coûtera rien.

Comment aller plus loin pour soutenir l’économie circulaire ?

L’industrie de la circularité ne se porte pas très bien actuellement, car le modèle économique de l’économie circulaire reste encore à trouver.

Aujourd’hui, la plupart de ceux qui se lancent perdent de l’argent, ou en gagnent peu, puisqu’il n’y a pas d’incitation économique naturelle. Le prix élevé des matières recyclées par rapport aux matières vierges en est la preuve.

Il va donc falloir compenser les déséquilibres, créer le cadre réglementaire le plus favorable possible et apporter un soutien local.

Il faudra aussi investir massivement dans cette transition, le rapport Draghi est très clair sur ce point, et pas seulement au sujet de la circularité.

Il y a donc deux manières d’appréhender l’avenir. Est-ce que nous voulons préparer le terrain pour les générations futures, en investissant dans la transition ou est-ce que nous voulons simplement gérer la dette ? Car sur le moyen et le long terme, l’économie circulaire est une nécessité, tout simplement pour faire face aux pénuries de ressources et sécuriser les approvisionnements.

Cette question des ressources est donc au centre des enjeux de circularité !

Un jour, les ressources coûteront tellement cher que les questions de circularité seront une priorité. On commence déjà à le voir sur l’eau, le cuivre et les ressources stratégiques et ça va forcément s’aggraver.

Quand ça arrivera, nous devrons être prêts. On ne peut pas attendre de devoir agir sous contrainte, car cette transition prendra du temps. Il faut donc anticiper, en créant un cadre territorial, législatif et industriel qui permette cette transition.


[1] Lire le dossier que nous y avions consacré

[2] Directive 2006/112/CE

[3] Directive (UE) 2022/542 du Conseil du 5 avril 2022, modifiant les directives 2006/112/CE et (UE) 2020/285 en ce qui concerne les taux de taxe sur la valeur ajoutée

Comment l’Union européenne compte encadrer l’intelligence artificielle

Le RIA constitue l’aboutissement d’un long labeur destiné à encadrer les mises sur le marché de produits à base d’intelligence artificielle.

La proposition de texte relative à ce règlement avait initialement été publiée en 2021 par la Commission européenne, avec la volonté d’offrir aux Européens un cadre où ils peuvent utiliser l’IA en toute confiance. Aussi, ce cadre règlementaire vise à permettre à l’écosystème européen autour de l’intelligence artificielle d’être performant et compétitif au niveau mondial. En ce sens, il vient compléter le Plan coordonné sur l’IA, initié en 2018 et modifié en 2021. Ce plan vise à mettre en oeuvre une stratégie coordonnée entre la Commission et les Etats membres, pour d’une part accélérer les investissements dans les technologies de l’intelligence artificielle et être proactif en termes de timing sur les programmes dédiés à l’IA avec la volonté d’être les premiers adoptants, avec tous les avantages que cela procure. Et d’autre part aligner les politiques européennes en matière d’IA, ceci avant tout pour éviter les risques de fragmentation du marché et des écosystèmes de chaque pays autour de cette technologie, ce qui aurait pour conséquence directe une fragilité globale du Vieux continent sur tous ce qui touche à l’intelligence artificielle. 

Revenons sur le RIA, adopté en juin de cette année. Quels sont ses objectifs ? Au-delà de garantir que les produits à base d’IA mis sur le marché respectent les droits fondamentaux, plusieurs objectifs sont poursuivis.

D’abord, les droits fondamentaux ne sont pas les seules lignes rouges. Ainsi, les valeurs de l’UE, l’Etats de droit, et la durabilité environnementale font aussi office de garde-fou pour évaluer si les modèles d’IA concernés peuvent être autorisés ou non. En ce qui concerne l’aspect environnemental, il est aujourd’hui souligné par de nombreux acteurs de la recherche (voir un exemple d’étude ici) que les systèmes d’IA sont extrêmement énergivores, et vont l’être de plus en plus. Dans le texte du RIA, l’aspect durabilité renvoie « au fait que les systèmes d’IA sont développés et utilisés d’une manière durable et respectueuse de l’environnement, mais aussi de manière à ce que tous les êtres humains en profitent, tout en surveillant et en évaluant les effets à long terme sur l’individu, la société et la démocratie. »

Ensuite, le cadre insiste sur la confiance et le fait que l’IA soit axée sur l’humain. La confiance est un sujet sensible en intelligence artificielle, qui va souvent de pair avec l’explicabilité des IA. En effet, comment assurer que l’on peut avoir confiance en l’intelligence artificielle si l’on est pas capable de comprendre comment cette dernière fonctionne ? En ce qui concerne la nécessité d’axer l’IA sur l’humain et leur “bien-être”, l’objectif est flou, résumé tel quel dans le texte : « Il est indispensable que l’IA soit une technologie axée sur l’humain. Elle devrait servir d’outil aux personnes, dans le but ultime d’accroître le bien-être des humains ». Une IA sert les humains si elle accomplit des tâches – complexes, peu épanouissantes, répétitives… – à leur place, mais l’est-elle si elle les met au chômage ?

Comme évoqué plus haut, le règlement vise également à garantir un cadre juridique uniformisé, dans le but de favoriser la sécurité des acteurs du secteur et leur capacité à innover et investir. 

Dans cette même veine, le texte renforce la gouvernance et l’application effective de la législation existante en matière d’exigences de sécurité applicables aux systèmes d’IA et de droits fondamentaux.

Enfin, le texte doit empêcher la fragmentation du marché, ce qui apparaît plus que jamais comme une nécessité, au vu de la concurrence mondiale sur les produits à base d’IA, domaine dans lequel l’Europe accuse déjà un retard certain, sans compter les disruptions technologiques incessantes dans le secteur de l’IA.

COP 29 : vers une douche froide sur les financements ?

Cela faisait près de deux semaines que les délégations et les ONG l’attendaient. À quelques heures de la fin de la COP 29, la présidence a dévoilé une nouvelle version du texte concernant le nouvel objectif de financement climatique (New Collective Quantified Goal, NCQG). Ce texte encadre les modalités concernant le financement de l’action climatique à partir de 2025. Il remplacera l’objectif actuel de 100 milliards de dollars pris en 2009 à Copenhague pour 2020.

C’est la douche froide pour les ONG. « Ce texte est irrespectueux ! Après trois ans de négociations techniques, les pays du Nord osent donner un chiffre ridicule ? Nous refusons d’y croire ! », réagit Gaïa Febvre, responsable politiques internationales au Réseau Action Climat.

250 milliards de dollars pour les pays développés

Après plusieurs propositions sans montant chiffré tout au long de la semaine, une nouvelle version du texte est arrivée tôt ce vendredi matin. Il « appelle tous les acteurs à travailler ensemble pour permettre l’augmentation du financement des pays en développement Parties signataires à la Convention pour l’action climatique, provenant de toutes les sources publiques et privées, à au moins 1 300 milliards de dollars par an d’ici 2035 ».

Le texte propose un objectif de financement pour les pays développés à 250 milliards de dollars par an d’ici 2035 à destination des pays en développement « au titre de l’action climatique ». Ce montant proviendra d’une « grande variété de sources, publiques et privées, bilatérales et multilatérales, y compris des sources alternatives ». Par ailleurs, le texte invite les pays en développement à apporter des contributions supplémentaires, notamment par le biais de la coopération Sud-Sud.

Un texte qui peut encore évoluer

Ce texte devrait entraîner la colère des pays en développement. Mercredi 20 novembre, le président du Groupe africain, Ali Mohamed, décrivait un objectif de financement de base de 200 milliards de dollars par les pays développés comme « une blague ». Pas sûr qu’il soit davantage convaincu par 250 milliards.

Le plus grand bloc de négociation, le G77 + la Chine, défend bien un objectif de 1 300 milliards de dollars par an d’ici 2030, mais avec un financement majoritaire de la part des pays développés. Ils réclament davantage de subventions que de prêts. Le groupe d’experts indépendants sur la finance climat (IHLEG) piloté par l’économiste Nicholas Stern proposait pour sa part un financement de la part des pays développés d’au moins 1 000 milliards de dollars par d’ici 2030 pour les pays émergents et en développement, à l’exclusion de la Chine, dont 50 % viendrait du secteur privé.

Le Climate Action Network, réseau d’environ 2 000 ONG, défend de son côté un chiffre de 1 000 milliards de dollars en subventions, hors finance privée. « On défend aussi des sous-objectifs : 30 % pour l’atténuation, 30 % pour l’adaptation et 40 % pour les pertes et dommages », rappelle Gaïa Febvre. Pour l’instant, le texte propose que le financement se fasse « dans le contexte d’actions d’atténuation et d’adaptation significatives et ambitieuses, et de transparence dans la mise en œuvre ».

Gaïa Febvre veut rassurer. « Un accord honnête est encore possible, pays développés : vous pouvez encore sortir de cette COP la tête haute », réagit-elle.

L’ambition finale du NCQG déterminera l’ambition des contributions déterminées au niveau national (CDN) des pays en développement qui reste en grande partie incertaine. Côté avancées concrètes, le Mexique est devenu le dernier pays du G20 à annoncer son engagement à atteindre la neutralité carbone d’ici 2050. Le Canada, le Chili, l’Union européenne, la Géorgie, le Mexique, la Norvège et la Suisse ont également annoncé leur engagement à soumettre des CDN alignées sur l’objectif de 1,5 °C pour l’ensemble de l’économie.

Revue du Magazine d’actualité #11 : du 18 au 22 novembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Le tout premier satellite en bois lancé par une fusée SpaceX

Le futur spatial est-il dans la biodégradabilité ? Le satellite LignoSat, conçu en bois par des chercheurs japonais, a été envoyé le 5 novembre à bord d’une fusée Falcon 9 de SpaceX en direction de la Station spatiale internationale. Cet essai vise à réduire les débris qui encombrent l’espace.
Du bois pour sécuriser et désencombrer l’espace ?

IA : L’UE en quête d’un code de confiance

L’Union européenne prépare un code de bonnes pratiques pour encadrer les modèles d’intelligence artificielle. Avec des enjeux cruciaux de transparence et de gestion des risques, ce projet ambitieux vise à instaurer une IA éthique et responsable. Mais ce projet fait face à l’influence des géants de la tech.
L’UE et l’élaboration d’une IA de confiance, face aux géants de la tech

COP29 : quand les pays hôtes creusent le fossé entre discours et actions fossiles

Alors que la COP29 à Bakou ambitionne de renforcer les engagements pour la transition énergétique, un rapport révèle que la « Troïka » des présidences de COP (Émirats arabes unis, Azerbaïdjan, Brésil) prévoit d’augmenter leur production d’énergie fossile de 32 % d’ici 2035, mettant en péril les objectifs climatiques globaux.
COP29, flagrant délit de double discours

Après la Suède et la Finlande, la France prête à enfouir ses déchets nucléaires ?

Alors que la Suède a récemment autorisé l’enfouissement de ses déchets nucléaires à 500 mètres de profondeur, la France suit la même voie avec le projet Cigéo, en attente de validation. Entre innovations technologiques et oppositions environnementales, ce chantier colossal soulève des questions cruciales sur la gestion à très long terme des déchets radioactifs.
Enfouissement des déchets nucléaires, quid de la France ?

Supersolides : une étape cruciale pour comprendre les états quantiques de la matière

Des chercheurs français ont observé pour la première fois le comportement superfluide des supersolides, un état quantique fascinant combinant rigidité cristalline et fluidité parfaite. Redéfinissant notre compréhension des phénomènes quantiques, ces résultats ouvrent la voie à des avancées technologiques majeures en informatique et astrophysique.
Les supersolides refondent les sciences quantiques et leurs applications

ISALT, un investisseur qui fait le choix du long terme en ciblant les entreprises innovantes

Pour ce second article de notre dossier « Tout le monde peut faire rayonner l’industrie française », nous avons interrogé Sophie Bénard, directrice de participations chez ISALT.

Sophie Bénard, directrice de participations chez ISALT
Sophie Bénard, directrice de participations chez ISALT (crédit : Aurélie Vandenweghe)

Avec sa formation d’ingénieur CentraleSupélec et un executive MBA de HEC, Sophie Bénard associe expertise technique et vision stratégique.

Avant de travailler chez ISALT, qui est un investisseur, elle a participé à des projets industriels de fort contenu technologique.

ISALT est un investisseur à part, engagé dans la croissance durable et dont l’objectif est de contribuer au financement des entreprises françaises sur le long terme.

Techniques de l’ingénieur : Vous avez une formation d’ingénieur. Qu’est-ce qui vous a poussé à explorer l’autre côté de la barrière ?

Sophie Bénard : Avant de rejoindre ISALT, j’ai travaillé dans l’industrie et l’innovation, en tant que consultante chez Avencore, puis avec une dimension plus entrepreneuriale chez Innovafeed et chez Woodoo. Au cours de ces expériences opérationnelles, j’ai pu constater à quel point il est capital que la trajectoire d’entreprise et les choix stratégiques de développement soient alignés avec la trajectoire de financement.

J’ai alors découvert que la finance et l’industrie devaient apprendre à se parler. En rejoignant ISALT, j’ai eu l’opportunité de jouer ce rôle de passeur entre la finance et l’innovation industrielle, c’est ce qui m’a convaincue.

Historiquement ISALT soutient de grandes entreprises, qui sont des champions français établis. Mais nous voulons aussi aider des champions en devenir à émerger et opérer leur passage à l’échelle.

Il faut savoir qu’en France, nous avons beaucoup d’entreprises performantes sur le volet technique et technologique. En revanche il y a un vrai enjeu sur le passage à l’échelle industrielle et commerciale : il faut aider ces entreprises à trouver les ressources leur permettant de le faire en France pour valoriser le potentiel de ces entreprises.

Pourquoi les pépites françaises ont-elles du mal à passer à l’échelle ?

D’après le rapport Draghi, 30 % des licornes créées en Europe entre 2008 et 2021 ont déménagé leur siège, principalement pour aller aux États-Unis. Selon Mario Draghi, deux raisons l’expliquent : le manque d’harmonisation réglementaire et normative entre les pays, et le financement de l’innovation encore trop faible.

C’est pour répondre à ce besoin d’investir durablement dans des entreprises françaises innovantes qu’ISALT a été créé, leur permettant de grandir et de se transformer. Le passage à l’échelle requiert des moyens conséquents, pour prendre le relais après des phases d’amorçage.

Comment ISALT peut-il aider les futurs champions français ?

ISALT s’inscrit dans le long terme ; d’ailleurs l’acronyme signifie « Investissements stratégiques en actions à long terme ».

Nous voulons valoriser l’investissement dans de nouveaux objets financiers et accompagner les investisseurs institutionnels dans cette démarche engagée de long terme. Par exemple, nous avons créé un Fonds Stratégique des Transitions (FST), un véhicule d’investissement de long terme destiné à accompagner le passage à l’échelle industrielle de PME et ETI françaises d’innovation. Avec ce fonds, nous aidons les entreprises à s’implanter localement, à construire leurs usines, à renforcer leurs équipes et à nouer des partenariats industriels et commerciaux.

Mais les projets que nous sélectionnons doivent aussi répondre à certains critères de durabilité, car le fonds souhaite accompagner les transitions au sens large : environnementales, sociétales et technologiques. Les sociétés que nous accompagnons s’engagent notamment à une trajectoire alignée avec les Accords de Paris (limitation du réchauffement climatique à 1,5°C).

ISALT s’intéresse ainsi à quatre secteurs stratégiques : énergies alternatives, industrie décarbonée, qualité de vie et innovation technologique. Mon rôle est d’aider ISALT à identifier et sélectionner les bons projets et à les aider dans leur trajectoire de croissance.

L’industrie fait partie de vos secteurs stratégiques. Est-ce un levier de décarbonation important ?

La nouvelle industrie est porteuse de nombreux bénéfices. D’abord, sur le plan environnemental : qui dit nouvelle industrie, dit nouvelles technologies. Les entreprises que nous finançons mettent en place des processus industriels et technologiques qui tendent à réduire sensiblement l’impact carbone de leurs activités. Nous nous intéressons également à des entreprises natives de la décarbonation. C’est le cas des ENR (producteurs d’énergies décarbonées, éolien, solaire, nucléaire…) qui apportent une solution de décarbonation directe à l’industrie. Produire en France signifie alors produire de manière plus raisonnée et plus vertueuse !

Sur le plan sociétal et social, l’industrie crée des emplois porteurs de sens, dans nos territoires. Chez ISALT, nous évaluons d’ailleurs l’impact de nos participations en matière d’emploi département par département, car cela contribue à un maillage de l’emploi dans des territoires qui ont des savoir-faire déjà bien ancrés.

Faut-il choisir entre des modes de financement « bons pour la planète » ou « bons en termes de rendement » ?

Chez ISALT, nous voulons démontrer qu’il est possible d’allier investissement durable, et rentabilité. Nous sommes convaincus que la réussite des projets sur le long terme dépend d’une logique vertueuse sur le plan RSE.

Avec les projets de long terme, il faut peut-être attendre dix ans avant de voir les résultats, ce qui est une autre manière d’appréhender le financement.

Dans le monde de demain, il est capital de mettre son énergie dans des projets qui contribuent à un futur désirable. C’est ce que fait ISALT : avancer dans une boucle vertueuse pour continuer à faire émerger des pépites qui feront la fierté de la France. Nous espérons continuer dans cette dynamique et remercions nos partenaires de nous faire confiance !

Quels sont les enjeux de la chimie de demain ?

La deuxième conférence, intitulée « Les voix des autorités et des investisseurs », se tiendra le 2 décembre à 18h00 dans l’auditorium Moissan de Chimie ParisTech-PSL (11 rue Pierre et Marie Curie, 75005 Paris). Elle réunira :

  • Eeva Leinala, Administrateur principal, Programme de gestion des risques, OCDE ;
  • Rachel Crossley, Head of Stewardship, Europe, BNP Paribas Asset Management ;
  • Pierre Quiblier, Coordinateur du Secrétariat SAICM/GFC, branche « Chimie et Santé » du PNUE.

La conférence sera animée par Vicente Andio Ferreira et Jérémie Chrétien de Chimie Perspectives, accompagnés d’Ismahane Remonnay de Veolia.

Pour vous inscrire, suivez ce lien.

État quantique : le comportement superfluide des supersolides observé pour la première fois en laboratoire

Si dans notre vie de tous les jours la matière peut se trouver sous trois états différents (solide, liquide et gazeux), la réalité est bien plus complexe, notamment lorsque les conditions deviennent extrêmes. L’état plasma apparaît ainsi lorsqu’on augmente drastiquement les températures, alors que si on les fait descendre jusqu’à ce qu’elles frisent le zéro absolu, la mécanique quantique nous prédit des phases encore plus exotiques. La matière peut ainsi devenir superfluide ou encore supersolide, deux états quantiques qui ont été décrits pour la première fois respectivement en 1937 et 1969.

Supersolide : le chat de Schrödinger de la matière

Un superfluide se caractérise ainsi comme un fluide ayant une viscosité nulle, et qui, une fois agité, développe des tourbillons (vortex) capables de tourner indéfiniment, aucune friction n’entraînant de perte d’énergie cinétique. Prédite ultérieurement, la supersolidité se définit quant à elle comme un état où la matière se structure sous une forme cristalline, ordonnée et solide, qui cependant se comporterait comme un superfluide. Une fraction des atomes serait en effet capable de fluer sans friction au sein du réseau cristallin rigide qui définit le supersolide. Celui-ci représenterait ainsi une sorte de chat de Schrödinger de la matière, à la fois extrêmement rigide et extrêmement fluide. Une dualité qui peut sembler difficile à appréhender dans notre monde régi par la physique classique, mais dont l’existence vient pourtant d’être démontrée en laboratoire, à l’issue de plusieurs années de recherche minutieuse.

Une équipe menée par Francesca Ferlaino, physicienne au Département de Physique Expérimentale de l’Université d’Innsbruck et à l’Institut d’Optique Quantique et de l’Information Quantique de l’Académie des Sciences autrichienne, a en effet réussi à franchir une étape majeure dans la caractérisation de cet état supersolide. Les chercheurs ont réussi à créer et à observer en laboratoire des vortex au sein de supersolides dipolaires, en combinant modèles théoriques et expériences de pointe. Il faut préciser que l’équipe n’en est pas à sa première réussite dans le domaine. En 2021 déjà, elle réussissait pour la première fois à créer le tout premier supersolide « pérenne » en deux dimensions, à partir d’un gaz composé d’atomes d’erbium porté à très basse température. Un exploit technique qui a permis d’observer la structure cristalline de cet état quantique et a ouvert la voie à l’étape ultérieure : produire une perturbation au sein de ce supersolide pour en étudier le comportement.

Une première confirmation expérimentale d’un comportement superfluide

Vortex témoignant d'un comportement superfluide au sein d'un supersolide
Vortex témoignant d’un comportement superfluide au sein d’un supersolide (c) University of Innsbruck

Afin de créer les vortex tant attendus, les chercheurs ont ainsi appliqué un champ magnétique pour faire doucement fluer un supersolide obtenu par refroidissement d’un gaz d’atomes de dysprosium, en prenant soin de ne pas dégrader ce fragile état. Comme prévu par les modèles théoriques, l’équipe a ainsi pu observer la formation de plusieurs tourbillons, confirmant pour la première fois de manière expérimentale le comportement superfluide des supersolides. Mais les résultats ne s’arrêtent pas là.

Les données, publiées dans la revue Nature, révèlent comment les deux états, supersolide et superfluide, coexistent et interagissent lorsqu’un supersolide est soumis à une agitation. Les observations montrent en effet que ce n’est pas un seul, mais bien plusieurs vortex disposés suivant un schéma régulier, qui se développent au sein du supersolide, chacun tournant à une vitesse spécifique.

Des implications dans de nombreux domaines et notamment dans le développement d’outils quantiques

Ces résultats très novateurs sur les propriétés de l’un des états les plus étranges de la matière pourraient avoir des implications dans le champ de la technologie quantique, et tout particulièrement pour le développement de l’informatique quantique supraconductrice. Les vortex observés lors de ces expériences sur les supersolides sont en effet assez analogues à ceux qui affectent les superconducteurs, où ils influencent les propriétés magnétiques et électriques de ces matériaux. Comprendre la formation et la dynamique de ces vortex est donc primordial pour stabiliser les matériaux superconducteurs et donc augmenter les performances des appareils quantiques, comme l’explique The Quantum Insider. En permettant de simuler en laboratoire des comportements de la matière qui se produisent normalement dans des conditions extrêmes, cette étude pourrait aider également à comprendre les processus quantiques se produisant au cœur des étoiles à neutron. Les changements de vitesses de rotation observés au sein de ces astres qui résultent de l’effondrement d’une étoile massive pourraient en effet être liés à des vortex superfluides, comme l’explique dans un communiqué Thomas Bland, co-auteur de l’étude.

Les mauvais chiffres de l’observatoire européen Copernicus sur l’état des océans

Une série de chiffres pour objectiver le phénomène en cours. Comme chaque année, Copernicus a publié son rapport sur l’état des océans en Europe et dans le monde. Dans cette huitième édition, le Programme d’observation de la Terre de l’Union européenne décrit une accélération du rythme de réchauffement des océans. Depuis 2005, celui-ci a presque doublé, affichant un taux de 1,05 W/m2 (watt par mètre carré), contre 0,58 W/m² pour les décennies précédentes. Toutes les régions du globe sont concernées, mais certaines plus que d’autres, notamment celles de l’Atlantique Nord, de l’Atlantique Sud et de l’océan Austral.

Ce réchauffement est le résultat d’un déséquilibre énergétique de la terre, lié aux émissions de gaz à effet de serre d’origine anthropique, qui provoquent une augmentation de la chaleur emprisonnée dans le système terrestre. Or, les océans absorbent près de 90 % de cette chaleur supplémentaire. Selon le rapport, l’océan mondial a absorbé en moyenne 1,5 million de Twh (térawattheure) de chaleur chaque année depuis 1960, ce qui représente près de 9 fois la consommation énergétique mondiale en 2023. « Avec la poursuite des émissions de gaz à effet de serre, la quantité de chaleur stockée dans l’océan a augmenté au cours des dernières décennies et devrait encore augmenter au cours de ce siècle, entraînant une large gamme d’impacts généralisés », alertent les experts de cette étude.

Conséquence directe de ce réchauffement, la fonte des glaces s’accélère. Au cours de la période 1979-2023, la région Arctique a perdu 4 % de sa banquise par décennie, soit une perte de près de 2,2 millions de km² de glace. Quant à l’Antarctique, sa banquise a perdu 1,9 million de km² en 2023, comparé à la moyenne de la période 1993-2010 ; une surface équivalente à trois fois la taille de la France.

Les auteurs de ce rapport ont aussi chiffré l’élévation du niveau moyen de la mer. Celui-ci ne cesse d’augmenter, puisque sur la période 2013-2023, il s’est élevé au rythme de 4,3 mm (millimètre) par an, alors que sur la période 1993-2002, une progression de 2,1 mm par an a été enregistrée. Cette élévation n’est pas uniforme, car près de la moitié des océans augmente plus vite que la moyenne mondiale. Les régions qui connaissent un rythme plus rapide sont les principaux courants de la bordure occidentale, notamment ceux situés dans l’ouest du Pacifique Nord et dans l’océan Atlantique. De grandes parties de l’ouest de l’océan Pacifique et de l’océan Indien sont aussi concernées.

Un doublement de la durée des vagues de chaleur marine grave à extrême

Une recrudescence de vagues de chaleur marine grave à extrême est aussi mentionnée dans l’étude. Sur l’année 2023, plus d’un cinquième de la surface mondiale des océans en a au moins connu une. Alors qu’elles étaient relativement stables avant le milieu des années 2000, leur durée maximale moyenne annuelle a doublé depuis, passant de 20 jours à 40 jours. Ces vagues de chaleur provoquent une diminution de la biodiversité marine avec une migration d’espèces, des mortalités massives et l’arrivée d’espèces invasives qui dégradent les écosystèmes. Dans certaines régions du monde, une réduction de la capacité des couches océaniques à se mélanger est aussi observée, ce qui entrave la distribution des nutriments pour les poissons.

Ces dernières années, de nouveaux sommets ont également été enregistrés dans la hauteur des vagues les plus extrêmes. Il est important d’observer ce phénomène, car il provoque une augmentation de la probabilité des inondations et aggrave l’érosion côtière. Il peut aussi entraîner des déplacements de population et des dommages matériels.

Enfin, depuis 1985, une augmentation continue de l’acidification mondiale des océans est observée, avec un pH qui diminue de 0,017 unité par décennie. Là encore, cette acidification n’est pas uniforme, puisque près de la moitié de l’océan échantillonné devient plus acide, à un rythme plus rapide que la moyenne mondiale. En particulier dans l’océan Indien, l’océan Austral, l’océan Pacifique équatorial oriental, le Pacifique tropical nord et certaines régions de l’océan Atlantique.

Cette acidification s’explique par la dissolution du CO2 atmosphérique au contact de l’océan, qui se transforme en acide carbonique. Cette réaction chimique provoque des changements dans les équilibres chimiques de l’eau de mer et conduit à une augmentation des ions hydrogène, responsables de l’acidification. En parallèle, ces changements entraînent une diminution des ions carbonates, qui sont essentiels aux végétaux et aux animaux marins pour fabriquer leurs squelettes et autres structures calcaires.

Agents autonomes : l’IA en roue libre ?

L’évolution la plus marquante à venir en intelligence artificielle est le passage d’outils d’IA à des agents autonomes. 

Concrètement, les outils d’intelligence artificielle regroupent des applications logicielles qui utilisent des algorithmes d’intelligence artificielle pour effectuer des tâches généralement effectuées par des humains. Ces outils peuvent par exemple être des outils de traitement du langage naturel, de vision par ordinateur, d’apprentissage automatique ou encore d’automatisation des processus robotisés. La caractéristique des outils d’intelligence artificielle est que ces derniers utilisent les données pour réaliser des tâches prédéfinies de manière optimisée. 

Ces outils d’intelligence artificielle vont, dans les mois et les années à venir, être supplantés par ce que l’on nomme des agents autonomes. Un agent autonome est une combinaison d’outils d’IA qui va recueillir lui-même les données pour fonctionner de manière optimisée et autonome. Le fait d’intégrer différents outils d’IA au sein d’un même modèle permet à ces derniers d’être utilisés pour des tâches plus complexes. Là où un outil d’IA optimise une tâche précise pour laquelle on l’entraine, les agents autonomes décomposent des problèmes complexes en plusieurs étapes, de manière autonome, pour être en mesure de proposer les actions nécessaires à la résolution de ce problème. Avec la capacité de modifier leur approche si besoin, en fonction des résultats intermédiaires obtenus en “décortiquant” la problématique. 

On voit donc que l’avènement à venir des agents autonomes va démultiplier le potentiel de l’intelligence artificielle pour ses utilisateurs : la capacité des agents autonomes à prendre eux-mêmes des décisions quant à la résolution d’un problème change totalement la façon d’appréhender comment l’intelligence artificielle peut intervenir dans la vie quotidienne, et dans le fonctionnement des entreprises. 

Découlent également de ces nouvelles capacités des problématiques de sécurité. En effet, les agents autonomes sont en mesure de naviguer sur internet, de prendre le contrôle d’ordinateurs, ils ont également une mémoire propre, et l’accès à des grands modèles de langage, ce qui leur permet d’analyser et de synthétiser de grandes quantités de texte.

Une des inquiétudes liée au développement des agents autonomes d’IA est la motivation derrière la prise de décision, et la capacité de l’IA à être alignée avec ce que demande l’opérateur. Cette problématique d’alignement ou plutôt de non alignement, quand on aborde la sécurité des IA, est de plus en plus présente à mesure que les modèles d’intelligence artificielle fonctionnent de manière autonome. 

Les craintes de voir des modèles d’IA, pour atteindre les objectifs demandés, utiliser des méthodes non éthiques ou pratiquer la tromperie se sont déjà matérialisées sur certains modèles développés. L’imprévisibilité de leur comportement est également une préoccupation, qui plus est quand on parle d’application d’IA que l’on laisse opérer de manière autonome.

Ensuite, les risques de cyberattaques sont beaucoup plus importants avec les agents autonomes d’intelligence artificielle, justement de par leur automatisation et leur connexion à internet. Ils sont beaucoup plus exposés à des tentatives d’intrusion, dont peut résulter une modification de leur comportement, le vol de données privées ou sensibles, ou leur utilisation pour commettre des actes malveillants. Pour l’industrie par exemple, il est facile d’imaginer à quel point ces risques sont incompatibles avec la criticité de certaines applications.

Ces risques, dont la liste ne s’arrête pas là, oblige les régulateurs à se pencher largement sur les normes de sécurité à mettre en place autour de ces applications d’IA de plus en plus autonomes, pour assurer le fait que ces dernières ne franchissent pas de ligne rouge, que ce soit en termes d’éthique, de perte de contrôle ou de comportement. 

 

COP29 : quel nouvel accord pour les financements climat ?

À Copenhague en 2009, les pays développés se sont engagés à fournir 100 milliards de dollars par an à partir de 2020 aux pays en développement afin d’atténuer et s’adapter au changement climatique et favoriser les technologies bas carbone. La COP29 doit définir le nouvel objectif de financement climatique (New Collective Quantified Goal, NCQG). Il devra remplacer l’objectif des 100 milliards à partir de 2025.

Le plus grand bloc de négociation, le G77 + la Chine, s’est accordé sur un nouvel objectif pour le NCQG. Ils demandent 1 300 milliards de dollars par an d’ici 2030 et réclament davantage de subventions plutôt que des prêts. Le groupe d’experts indépendants sur la finance climat (IHLEG) piloté par l’économiste Nicholas Stern proposait pour sa part au moins 1 000 milliards de dollars par d’ici 2030 pour les pays émergents et en développement, à l’exclusion de la Chine, dont 50 % viendrait du secteur privé.

Les ONG appellent à au moins 1 000 milliards de dollars en subventions

Le Réseau Action Climat veut aller plus loin. « Au niveau de notre réseau international [Climate Action Network, CAN] d’environ 2 000 ONG, on prône un chiffre de 1 000 milliards de dollars en subventions, hors finance privée, partage Gaïa Febvre, responsable politiques internationales au Réseau Action Climat. On défend aussi des sous-objectifs : 30 % pour l’atténuation, 30 % pour l’adaptation et 40 % pour les pertes et dommages ».

La route reste longue. Les chiffres de l’OCDE montrent que la promesse des 100 milliards n’a été atteinte qu’en 2022 avec deux ans de retard. En 2022, les pays développés ont en effet mobilisé 115,9 milliards de dollars pour financer l’action climatique des pays en développement dont 32,4 milliards pour l’adaptation. Selon l’OCDE, ce financement reste très majoritairement constitué de fonds de sources publiques, bilatérales et multilatérales confondues (80 % du total). « Les prêts continuent de représenter l’essentiel du financement climatique d’origine publique », reconnaît l’organisation.

Pourtant, l’argent existe bel et bien. Fanny Petitbon, responsable France chez 350.org, explique : « Ce n’est pas une question de manque d’argent, mais de manque de volonté politique. Rien qu’en 2020, les 50 plus grosses économies ont réussi à injecter 16 000 milliards de dollars pour booster leur économie à travers des mesures de relance, pourquoi pas ce même sursaut pour les finances climat ? Depuis 2020, les milliardaires ont aussi vu leur fortune augmenter de 3 300 milliards de dollars. »

Dans le texte en négociation, 350.org demande aux gouvernements qu’ils s’engagent enfin à rediriger les subventions aux énergies fossiles vers la transition énergétique. L’ONG appelle à ce que le texte incite les États à mettre en place des « taxes solidaires, progressives et justes pour financer la transition ». Ces taxes viseraient les secteurs et les individus les plus émetteurs. Parmi les propositions avancées : « taxation des ultra-riches, taxation sur l’extraction des fossiles, sur les profits faramineux de ces secteurs, taxation des secteurs maritime, aérien, sur les transitions financières », cite Fanny Petitbon.

Reste enfin à savoir qui contribuera à ces milliers de milliards de dollars. S’agira-t-il essentiellement d’une aide des pays développés vers les pays en développement ou les riches pays émergents participeront-ils également ? Y aura-t-il un fléchage d’une partie des financements vers les pays les moins avancés et les petits États insulaires ? Et s’agira-t-il en majorité de dons plutôt que de prêts ? C’est tout l’enjeu des discussions de cette nouvelle semaine de négociations.

Des insuffisances dans l’adaptation de l’UE face au changement climatique

Alors que les pertes économiques liées aux phénomènes climatiques extrêmes dans l’Union Européenne (UE) se sont chiffrées en moyenne à 26 milliards d’euros par an au cours de la dernière décennie, elles pourraient grimper de 42 à 175 milliards d’euros, en fonction du scénario de réchauffement planétaire d’ici la fin du siècle, compris entre 1,5 et 3 degrés. C’est ce que révèle un rapport de la Cour des comptes européenne, qui a examiné la politique d’adaptation de l’Europe face à la récurrence des conditions météorologiques extrêmes. Dans celui-ci, les auteurs mettent en avant la solidité générale du cadre européen pour renforcer sa résilience face au changement climatique, mais pointent également du doigt plusieurs lacunes et insuffisances.

Ainsi, ont-ils pu constater que des documents relatifs à la stratégie nationale d’adaptation de certains États membres étaient rédigés à partir de données scientifiques obsolètes ou que les coûts de certaines mesures à prendre étaient parfois omis ou sous-estimés. Ils déplorent également le fait que les rapports sont principalement de nature descriptive, ce qui ne permet pas d’évaluer correctement les progrès accomplis pour faire face au changement climatique. Sur les 400 communes enquêtées, un grand nombre d’entre elles ne connaissaient pas les plans élaborés par l’UE.

Même si dans l’ensemble, les cadres nationaux d’adaptation sont conformes à la stratégie de l’UE, des conflits de priorités ont été mis en évidence. Par exemple, de nouveaux permis de construire continuent parfois à être délivrés dans des zones à risque d’inondation, ou alors des projets répondant à des besoins d’irrigation accrus sont encore validés, alors qu’ils risquent d’entraîner une augmentation de la consommation globale d’eau. Certains projets, comme le réapprovisionnement de plages en sable, ne sont qu’une solution d’adaptation à court terme, tandis que d’autres peuvent être qualifiés de négatifs, à l’image d’un investissement dans des canons à neige artificielle, alors qu’il serait préférable de se tourner vers le tourisme tout au long de l’année.

Mettre en place un suivi des carences observées

« En raison de ces faiblesses, il est à craindre que la politique et l’action de l’UE en matière d’adaptation évoluent moins vite que le changement climatique », alertent les auteurs de ce rapport. Cela serait préjudiciable à la capacité de l’UE à devenir résiliente face au changement climatique d’ici à 2050. » Face à ce constat, ils recommandent d’améliorer les rapports sur l’adaptation au changement climatique en mettant en place des indicateurs communs permettant de mesurer les progrès accomplis et d’assurer le suivi des carences relevées.

Ils préconisent également d’améliorer le développement et la promotion des outils qu’a mis en place l’UE dans son adaptation au changement climatique afin d’accroître leur utilisation et encourager le partage des connaissances. Notamment, en rendant plus visible la plateforme Climate-ADAPT, gérée par l’Agence européenne pour l’environnement (AEE) et qui propose par exemple des études de cas d’adaptation et des options d’adaptation potentielles. Un travail en ce sens semble en effet à mener puisqu’il est apparu que 77 % des communes enquêtées ne connaissent pas cette plateforme.

Enfin, les auteurs émettent plusieurs recommandations sur la manière dont les aides financières doivent être délivrées par l’UE, notamment celle de veiller à ce que tous les projets financés soient adaptés aux conditions climatiques futures. Pour cela, ils suggèrent à la Commission Européenne de donner des orientations sur les actions les plus pertinentes à mener et de donner aux États membres des exemples de projets conduisant à une mauvaise adaptation. Elle devrait aussi, selon eux, promouvoir davantage des solutions d’adaptation à long terme, ainsi qu’évaluer dans quelle mesure il est nécessaire de prévoir des conditions d’éligibilité. Par exemple, les aides forestières versées par l’UE ne devraient pas conduire au financement de forêts en monoculture.

L’Europe pourra-t-elle valider son code de bonnes pratiques de l’IA ?

L’intelligence artificielle (IA) doit être mieux contrôlée. Les décideurs politiques et le public sont en effet de plus en plus conscients qu’une approche responsable de l’IA est nécessaire pour minimiser les dommages causés aux personnes, aux entreprises et au public. L’Union européenne a décidé de passer la vitesse supérieure.

Après le lancement de la première législation générale au monde sur l’intelligence artificielle (le Règlement européen sur l’IA¹ ), la Commission européenne a annoncé cet été le lancement d’une consultation sur les modèles d’intelligence artificielle polyvalente dignes de confiance (« GPAI »). Objectif ? l’élaboration du premier code de pratique de l’IA en général et en particulier des modèles de langage tels que ChatGPT et Google Gemini

Le code de bonnes pratiques abordera des domaines essentiels tels que la transparence, les règles relatives aux droits d’auteur, l’identification et l’évaluation des risques, l’atténuation des risques et la gestion interne des risques.

Pour ne pas perdre de temps, en octobre dernier, la Commission européenne a dévoilé la liste des experts indépendants de l’UE, des États-Unis et du Canada chargés de diriger les travaux de rédaction de ce fameux code. Ces treize personnes sont chargées de diriger quatre groupes de travail différents qui devraient aboutir à la version finale du code en avril 2025.

15 millions d’euros d’amende

Une feuille de route trop parfaite ? Les premiers obstacles se sont rapidement présentés. Trois législateurs européens (deux allemands et une Néerlandaise) ont demandé à la Commission de clarifier le processus de nomination des présidents de ces groupes de travail.

Les organisations de la société civile craignaient aussi que les grandes entreprises technologiques n’aient trop d’influence sur le processus.

Autres cailloux dans ce code, l’évaluation des risques. Les poids lourds de l’IA se montrent en effet moins favorables que les autres à des mesures strictes, par exemple des audits par des tiers ou des présentations de sécurité liées à des seuils de risque spécifique.

Or, la loi sur l’IA oblige ces fournisseurs à respecter des exigences en matière de documentation, de coopération et d’atténuation des risques, ainsi que des obligations supplémentaires pour les modèles présentant un risque systémique, telles que des tests contradictoires et des mesures de cybersécurité.

Ainsi, l’article 50, paragraphes 1 et 2, de la loi sur l’IA, précise que les fournisseurs de systèmes d’IA présentant des risques de transparence doivent respecter les exigences suivantes : ils doivent veiller à ce que les systèmes d’IA destinés à interagir directement avec des personnes soient conçus et développés de manière à informer ces personnes qu’elles s’engagent avec un système d’IA.

Ils doivent aussi s’assurer que les résultats de ces systèmes sont marqués dans un format lisible par une machine et qu’ils peuvent être détectés comme étant générés ou manipulés artificiellement.

Comme pour d’autres règlements et directives européens (RGPD, NIS 2…), la loi sur l’IA menace les entreprises d’amendes allant jusqu’à 3 % du chiffre d’affaires annuel mondial ou 15 millions d’euros. Une période de grâce pour les amendes est prévue jusqu’au 2 août 2026.


¹ Entré en vigueur cet été, ce règlement deviendra « applicable » dès le 2 février 2025. Et le 2 août 2026, toutes ses dispositions deviennent applicables.

COP29 : la « Troïka » de la COP poursuit l’expansion fossile

Le grand défi de la COP28 à Dubaï était d’acter la nécessaire sortie des énergies fossiles. L’accord final adopté le 13 décembre 2023 appelle le monde à se détourner des énergies fossiles. Mais depuis, « on observe un fossé béant entre les discours des ministres qui se sont succédé à la COP28 pour jurer qu’ils étaient en faveur de la sortie des énergies fossiles et ce qu’ils font chez eux », dénonce Romain Ioualalen, chargé de campagne «politique mondiale » à l’ONG Oil Change International.

Le double discours de la « Troïka » de la COP

Au lendemain de la COP28, les Émirats arabes unis, organisateurs de la COP28 à Dubaï, l’Azerbaïdjan, pays hôte de la COP29 à Bakou, et le Brésil qui accueillera la COP30 l’année prochaine à Belém se sont associés au sein de la « Troïka des présidences de la COP » pour renforcer la coopération entre les pays et accélérer la décarbonation des économies afin de limiter le réchauffement sous la barre des + 1,5 °C.

Ces trois pays se sont engagés à plusieurs reprises à soumettre des contributions déterminées au niveau national (CDN) alignées sur l’objectif de 1,5 °C, tout en exhortant les autres pays à le faire. Pourtant, à l’opposé de leurs engagements, ces trois pays prévoient d’accroître leur production de pétrole et de gaz de 32 % d’ici 2035, dénonce un nouveau rapport de Oil Change International. Dans le détail, le Brésil prévoit de l’augmenter de 36 %, les Émirats arabes unis de 34 % et l’Azerbaïdjan de 14 %. Loin de ces chiffres, pour limiter le changement climatique à 1,5°C, l’Agence internationale de l’énergie (AIE) invite à réduire la production mondiale de pétrole et de gaz de 55 % d’ici 2035.

Les Émirats arabes unis gagnent un triste record. « Encore plus frappant : les Émirats Arabes Unis sont le pays qui a le plus ouvert de nouvelles exploitations pétrolières et gazières en 2024 depuis la signature de l’Accord de Dubaï », partage Romain Ioualalen. Un projet devrait même y fonctionner jusqu’en 2100, bien après la neutralité carbone prévue pour 2050.

Alors, comment inverser la donne ?

« L’un des obstacles principaux à la sortie des énergies fossiles et à la mise en œuvre effective de ce qui a été décidé à Dubaï est l’absence d’argent et la dépendance collective de beaucoup de pays du sud aux revenus des énergies fossiles pour financer leur économie », martèle Romain Ioualalen.

Dans la lignée du Climate Action Network (CAN), l’ONG défend donc un nouvel objectif de financement climatique (NCQG) de la part des pays développés d’au moins 1 000 milliards de dollars par an, avec un sous-objectif d’au moins 300 milliards de dollars par an pour le financement de l’atténuation. « Cela permettra aux pays d’adopter des plans climatiques nationaux en 2025 qui mettront immédiatement fin à l’expansion du pétrole, du gaz et du charbon », espère Oil Change International.

Au-delà de ces financements extérieurs, les pays développés doivent mener l’élimination progressive des combustibles fossiles dans leur propre économie. Une autre étude d’Oil Change International montre que seulement cinq pays du Nord – les États-Unis, le Canada, l’Australie, la Norvège et le Royaume-Uni – devraient être responsables d’environ la moitié des émissions carbone provenant des nouveaux champs pétroliers et gaziers et des puits de fracturation hydraulique d’ici  2050.

Oil Change International appelle la Troïka à établir une référence pour que les CDN alignées sur l’objectif de 1,5°C incluent un plan clair afin de mettre fin aux nouveaux projets de pétrole, de charbon et de gaz. « On a vraiment un problème de crédibilité quant à la mise en œuvre de cet accord, partage Romain Ioualalen. Ce que l’on veut voir collectivement, c’est que les CDN 2025-2035 montrent comment les pays vont mettre en œuvre l’engagement de sortir des énergies fossiles ».

Space X a envoyé le premier satellite en bois dans l’espace

Le tout premier satellite en bois laisse-t-il présager une nouvelle génération de satellites réalisés à partir de matériaux renouvelables ? C’est l’ambition affichée des chercheurs de l’université de Kyoto qui ont conçu cette innovation en partenariat avec Sumitomo Forestry¹. Ce satellite en bois expérimental a été lancé avec succès, le 5 novembre dernier, selon le New York Times à bord d’une fusée Falcon 9 de SpaceX depuis le centre spatial Kennedy de la NASA en Floride dans le cadre d’une mission de réapprovisionnement de la Station spatiale internationale. Baptisé LignoSat², il a été affrété vers la station spatiale et sera mis en orbite dans un mois à environ 400 km au-dessus de la Terre. Durant six mois, la résistance et la durabilité du satellite seront évaluées dans l’espace pour tester s’il possède le potentiel requis pour remplacer les satellites traditionnels en métal.

Lutter contre la pollution spatiale

La conquête spatiale va de pair avec la création de particules métalliques qui polluent l’espace. Celles-ci correspondent aux débris spatiaux issus des satellites en fin de vie. En effet, lors de leur mise hors service, les satellites sont déviés de leur orbite et atteignent l’atmosphère où ils se consument pour éviter de devenir des débris spatiaux. Cependant, la constitution métallique des satellites engendre des particules d’oxyde d’aluminium. Ces débris peuvent s’accumuler dans l’espace et causer des collisions avec les satellites maintenus sur leur orbite à des vitesses très élevées. Chaque collision génère à son tour des débris supplémentaires ; cette réaction en chaîne est connue sous le nom du syndrome de Kessler³. En outre, ces débris spatiaux peuvent atteindre notre environnement terrestre. En mai dernier, un agriculteur découvre un débris spatial de 2 mètres de large dans son champ. L’utilisation du bois comme matériau offre l’avantage d’une désintégration entière sans émission de résidus toxiques lors de la rentrée atmosphérique du satellite. Cette moindre pollution fait de LignoSat un prototype de satellite biodégradable. L’absence d’eau et d’oxygène dans l’espace empêche le bois de pourrir ou de brûler.

Surmonter les défis technologiques posés par un satellite en bois

Le bois utilisé pour ce satellite provient d’une espèce de magnolia originaire du Japon : le honoki. Alors qu’il est traditionnellement utilisé pour les fourreaux d’épée, ce bois a été retenu pour sa légèreté et sa résistance aux conditions hautement rigoureuses de l’environnement spatial. Étant conçu selon une technique artisanale japonaise traditionnelle, sans vis ni colle, le satellite devrait subir une destruction complète lors de son retour sur Terre. LignoSat prend la forme d’une boîte compacte dont chaque face mesure à peine 10 centimètres ; des composants électroniques en métal entourent la structure en bois. Une fois déployé, LignoSat sera mis en orbite et testé en conditions réelles grâce à des capteurs collectant les données relatives au comportement physique du bois dans cet environnement extrême. Le satellite sera, en effet, soumis aux rayonnements cosmiques avec des particules solaires qui peuvent dégrader les composants électroniques, les températures pouvant osciller entre -100 °C et 100 °C toutes les 45 minutes en fonction de la position du satellite par rapport au soleil.

Le bois, futur allié des satellites ?

Contrairement à une idée reçue, le bois peut devenir un matériau de choix quand il s’agit d’innover dans le domaine technologique. Koji Murata, professeur de sciences forestières à l’université de Kyoto, rappelle que les avions étaient fabriqués en bois au début du XXe siècle. Le recours à ce matériau pourrait revivifier l’industrie du bois. Les concepteurs envisagent l’interdiction dans un avenir proche des satellites en métal et imaginent même d’étendre l’utilisation du bois pour d’autres infrastructures spatiales comme des bases lunaires ou martiennes.


[1] Entreprise japonaise spécialisée dans la construction en bois

[2] En référence au mot latin signifiant « bois »

[3] Augmentation à vitesse croissante du nombre de débris spatiaux en orbite terrestre suite aux collisions entre des objets spatiaux engendrant, à un rythme plus élevé que celui de leur élimination naturelle, de nouveaux débris

Les émissions mondiales de CO2 vont à nouveau augmenter en 2024

Les émissions mondiales de CO2 provenant de la combustion des énergies fossiles et de la production de ciment vont atteindre un nouveau record en 2024. Elles devraient s’élever à 37,4 milliards de tonnes de CO2 (GtCO2), en hausse de 0,8 % sur un an, selon la dernière publication de référence du Global Carbon Budget produite par une équipe internationale de plus de 120 scientifiques. Ces émissions avaient augmenté de 1,4 % en 2023 et de 0,9 % en 2022. En ajoutant les émissions mondiales de CO2 dues au changement d’usage des terres (4,2 GtCO2), les émissions totales atteindraient 41,6 GtCO2 en 2023, contre 40,9 en 2023 (+1,7 %). Ces projections doivent néanmoins encore être confirmées.

En moyenne, au cours des dix dernières années, les émissions de CO2 liées aux énergies fossiles ont augmenté, mais celles liées au changement d’affectation des sols ont diminué. Mais cette année, les deux types d’émissions devraient s’intensifier. Pour le changement d’usage des terres, cela provient des « conditions de sécheresse aggravant les émissions dues à la déforestation et aux incendies de dégradation des forêts pendant l’événement climatique El Niño de 2023-2024 », partage le communiqué de l’étude.

Le monde continue donc de s’éloigner de ses objectifs climatiques. Malgré le besoin urgent de réduire les émissions pour ralentir le changement climatique, les chercheurs affirment qu’il n’y a toujours « aucun signe » que le monde a atteint un pic d’émissions de CO2 d’origine fossile. La concentration atmosphérique en CO2 devrait atteindre 422,5 parties par million en 2024, en hausse de 52 % par rapport à l’ère préindustrielle (278 ppm).

Toutes les énergies fossiles en hausse

À l’échelle mondiale, les émissions des différents combustibles fossiles devraient augmenter en 2024 : charbon (+0,2 %), pétrole (+0,9 %), gaz (+2,4 %). Le charbon représente désormais 41 % des émissions mondiales de CO2 liées à l’énergie, le pétrole 32 % et le gaz 21 %. Les émissions liées à la production de ciment (4 % des émissions mondiales) devraient quant à elles diminuer de 2,8 %. « Compte tenu de l’incertitude des projections, il reste possible que les émissions de charbon diminuent en 2024 », précise le communiqué de l’étude.

À compter du 1er janvier 2025, l’étude évalue à 235 GtCO2 le budget carbone restant pour avoir une chance sur deux de limiter le réchauffement climatique à 1,5°C. Au niveau actuel d’émissions, il pourrait être dépassé dans 6 ans. Le budget pour limiter le changement climatique à 1,7°C (585 GtCO2) serait quant à lui dépassé dans 14 ans, et celui pour limiter le changement climatique à 2°C (1 110 GtCO2) dans 27 ans.

Des tendances contrastées

Les tendances restent contrastées. Les émissions diminuent dans 22 pays représentant 23 % des émissions mondiales de CO2 au cours de la dernière décennie (2014-2023). En particulier, un recul de 3,8 % est attendu dans l’UE, et de 0,6 % aux États-Unis.

La situation est moins rose en Inde où ces émissions devraient augmenter de 4,6 %. En Chine, il faudra s’attendre à une légère hausse de 0,2 %. Pour leur part, l’aviation et le transport maritime internationaux (3 % du total mondial, et comptabilisés séparément des totaux nationaux/régionaux) devraient augmenter de 7,8 % en 2024, mais rester sous leur niveau d’avant la pandémie de 2019 de 3,5 %.

10 articles à lire à l’occasion de la Semaine de l’industrie 2024

Jusqu’au 24 novembre 2024, explorez les enjeux actuels de l’industrie gratuitement, à travers 10 articles précités par les utilisateurs de Techniques de l’Ingénieur.

  1. GENEPAC : pile à combustible PEMFC issue du partenariat PSA Peugeot Citroën (Stellantis) et CEA
  2. Analyse de cycle de vie des véhicules électriques
  3. Dimensionnement des installations de climatisation
  4. Groupes électrogènes de secours
  5. Liste des polymères synthétiques utilisés en cosmétique
  6. Les micro-organismes au cœur des biotechnologies
  7. Les différents types de fondations
  8. Dimensionnement des installations de climatisation
  9. Le béton précontraint
  10. Les caractéristiques de l’acier

Bonne lecture !

Après la Suède, la France va-t-elle autoriser l’enfouissement de ses déchets nucléaires ?

La justice suédoise vient de donner son feu vert à la construction d’un site d’enfouissement de déchets radioactifs en Suède en couche géologique profonde, à Forsmark, à un peu plus de 100 km au nord de Stockholm. Cette décision marque une étape importante dans l’aboutissement de ce projet, géré par la société suédoise de gestion de déchets radioactifs SBK. Pas moins de 12 000 tonnes de déchets les plus radioactifs seront enterrées à 500 mètres de profondeur pour une durée théorique de 100 000 ans.

Une technologie de stockage définitif, baptisée KBS-3, va être mise en œuvre pour les enfouir et conçue selon le principe des barrières multiples. Les combustibles nucléaires usagés seront dans un premier temps encapsulés dans des conteneurs en cuivre dans une usine située à Oskarshamn. Cette première étape aura pour but de sécuriser le confinement des matériaux radioactifs pendant la phase transitoire et d’assurer une isolation étanche et durable du combustible nucléaire usé. Les conteneurs en cuivre seront ensuite installés dans des cavités fermées par des bouchons de bentonite, un matériau argileux capable d’éviter les infiltrations d’eau et de résister aux mouvements sismiques.

Au côté de la Finlande, qui a déjà obtenu son permis pour mettre en œuvre la même technologie en 2015, ce projet positionne la Suède comme l’un des pionniers mondiaux du stockage à très long terme. La France a également pour projet de créer un site d’enfouissement dans la Meuse, à Bure. Il a été sélectionné en raison de la qualité de sa couche de roche dure argileuse déposée il y a environ 160 millions d’années. Elle est à la fois épaisse, homogène sur une grande surface, très peu perméable et située dans un environnement géologique stable, à très faible sismicité.

Ce projet, baptisé Cigéo et géré par l’Andra (Agence nationale pour la gestion des déchets radioactifs), se différencie du projet suédois par son principe de réversibilité. Pendant au moins 100 ans, il sera possible de faire évoluer les modes de gestion des déchets radioactifs, de modifier tout ou une partie des plans, des méthodes et des techniques prévues initialement en fonction des avancées scientifiques, technologiques et sociétales. Dès la conception du centre, des dispositifs techniques seront par exemple conçus pour faciliter le retrait éventuel des colis de déchets stockés, à l’aide notamment de robots.

La couche géologique profonde doit servir de barrière de protection naturelle

La technologie mise en œuvre pour stocker les combustibles utilisés par les centrales nucléaires sera également différente. Ils seront d’abord envoyés vers une usine de retraitement des déchets où ils seront piégés dans une matrice de verre grâce à un procédé de vitrification. Celui-ci consiste à les mélanger à haute température avec une pâte vitreuse, puis à les couler dans des conteneurs en inox. Arrivés sur le site de stockage, ces déchets seront contrôlés, puis acheminés par un funiculaire vers la zone de stockage souterrain à environ 500 mètres de profondeur. La roche servira alors de barrière de protection naturelle à long terme, afin de limiter et retarder la dispersion dans l’environnement des substances radioactives contenues dans les déchets.

Le site pourra accueillir 10 000 m3 de déchets de haute activité (HA), qui sont ceux ayant le plus de radioactivité et ont une durée de vie de plusieurs centaines de milliers d’années, ainsi que 73 000 m3 de déchets de moyenne activité à vie longue (MA-VL). Plus de la moitié de ces déchets sont déjà produits et sont pour l’heure entreposés en attendant la création de Cigéo.

Début 2023, l’Andra a déposé une demande d’autorisation pour la création du site auprès du Ministère de la transition énergétique. L’ASN (Autorité de sûreté nucléaire) a été mandatée pour piloter l’instruction technique de cette demande et a chargé l’IRSN (Institut de Radioprotection et de Sûreté Nucléaire) de conduire l’expertise. Celui-ci a rendu un premier avis positif en avril 2024, tout en notant quelques points de vigilance.

Si la demande d’autorisation du projet Cigéo est acceptée, le site devrait être mis en service partiellement vers 2035, ce qui marquera le début de la phase industrielle pilote. Il fait cependant l’objet d’oppositions de la part d’associations de défense de l’environnement, qui craignent une contamination radioactive des eaux et des sols.

Revue du Magazine d’actualité #10 : du 11 au 15 novembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

COP29 : des engagements renforcés indispensables pour éviter un réchauffement de +3,1°C

Le Rapport 2024 du PNUE exhorte les États, réunis à la COP29 en Azerbaïdjan, à intensifier leurs engagements climatiques. Alors que les trajectoires actuelles mènent à un réchauffement bien supérieur aux objectifs de l’Accord de Paris, des réductions annuelles d’émissions de 7,5 % jusqu’en 2035 sont nécessaires pour espérer limiter la hausse à 1,5°C.
COP29 et engagements climatiques

R&D en France : un cap difficile à atteindre malgré des aides publiques conséquentes

Alors que l’Union européenne vise 3 % du PIB en recherche et développement d’ici 2030, la France peine à suivre la cadence malgré un niveau élevé d’aides publiques. Entre manque de synergie entre recherche académique et entreprises et recul dans les publications scientifiques, le pays doit repenser sa stratégie de soutien pour combler l’écart et rester compétitif face aux grandes puissances.
Combler le retard français en R&D

Vidéosurveillance algorithmique : prolongation surprise après les JO

Déployée à Paris pour les Jeux olympiques, la vidéosurveillance algorithmique poursuit son expansion, bien qu’aucune étude n’ait prouvé son efficacité. Soutenue par de grands industriels, cette technologie soulève des inquiétudes et des débats sur la protection des libertés individuelles, d’autant que son utilisation s’étend aux événements culturels et sportifs, souvent sans transparence.
Vidéosurveillance algorithmique et enjeux pour nos libertés

Quand l’IA s’allie au climat pour prédire l’extrême

Face à la multiplication des tempêtes et ouragans dévastateurs, des modèles d’IA avancés sont développés pour améliorer les prévisions climatiques. Grâce à des technologies comme StormCast et NeuralGCM, les prévisions deviennent plus rapides et précises, offrant un nouvel espoir pour anticiper et atténuer les effets des événements météorologiques extrêmes.
Comment l’IA transforme les prévisions climatiques

Réduire l’empreinte carbone de l’élevage : des pistes prometteuses

Avec 59 % des émissions agricoles de gaz à effet de serre en France, le secteur de l’élevage est en ligne de mire pour réduire son impact climatique. L’Inrae explore des solutions innovantes, de la génétique animale aux techniques d’épandage en passant par les compléments alimentaires, pour atteindre une production plus durable.
Des solutions pour réduire les émissions agricoles de GES

Les coquillages, émetteurs de CO₂ : démystification d’un « puits de carbone »

Contrairement aux idées récentes, les coquillages n’absorbent pas le CO₂ mais en émettent lors de la formation de leurs coquilles. Une nouvelle étude propose des solutions pour minimiser l’impact climatique de la conchyliculture, comme la remise à l’eau des coquilles usagées et la co-culture avec des algues.
Idées reçues et conchyliculture plus durable

Une meilleure anticipation des phénomènes climatiques extrêmes grâce à l’IA

Novembre 2023, les tempêtes Ciaran puis Domingos frappent les côtes françaises faisant de nombreux dégâts et laissant un grand nombre de foyers sans électricité. Cet été, l’ouragan Beryl, d’une rare violence, a sévi dans l’archipel des Caraïbes puis aux États-Unis.

Ces phénomènes extrêmes semblent se multiplier, mais leur prévision reste encore délicate à mener. Une récente étude a mis en évidence les difficultés rencontrées par les modèles de prévision météorologique à base d’IA, même les plus avancés, pour saisir l’intensification rapide et les vitesses de vent maximales de la tempête Ciarán.

Les modèles régionaux de prévision météorologique – souvent appelés modèles autorisant la convection (CAM – Convection-allowing models) – ont traditionnellement obligé les chercheurs à faire des compromis en matière de résolution, de taille d’ensemble et d’accessibilité financière.

La situation va-t-elle s’améliorer avec les dernières avancées en matière d’IA et de puces ? C’est ce qu’affirme Nvidia avec son programme StormCast destiné à exploiter l’IA dans la recherche sur le climat. Le spécialiste des cartes graphiques pour gamers et maintenant de l’IA a formé StormCast sur trois ans et demi de données climatiques de la NOAA américaine (National Oceanic and Atmospheric Administration).

Des prévisions plus rapides et précises

Bien qu’il n’en soit qu’à ses débuts, StormCast – lorsqu’il est appliqué aux radars de précipitations – offre déjà des prévisions avec des délais allant jusqu’à six heures, qui sont jusqu’à 10 % plus précises que celles de la NOAA. À Taïwan, le National Science and Technology Center for Disaster Reduction utilise les modèles d’IA de Nvidia pour prédire les détails des typhons.

Les résultats de StormCast affichent également une dynamique réaliste de la chaleur et de l’humidité, en prévoyant plus de 100 variables (température, concentration d’humidité, vent…). Les scientifiques peuvent ainsi observer l’évolution d’une tempête en trois dimensions.

Mais Nvidia n’est pas le seul sur les rangs. Google a mis au point le NeuralGCM, un modèle d’IA hybride qui associe l’IA à la physique atmosphérique traditionnelle pour améliorer la précision et l’efficacité des prévisions météorologiques.

Développé en partenariat avec le Centre européen pour les prévisions météorologiques à moyen terme (ou « European Centre for Medium-Range Weather Forecasts » – ECMWF), Google a entraîné un ensemble de modèles en exploitant les données météorologiques de l’ECMWF de 1979 à 2019.

Ce modèle a démontré des performances supérieures dans la prévision des tendances climatiques à long terme et des conditions météorologiques extrêmes.

L’approche adoptée par NeuralGCM produit des prévisions météorologiques pour deux à 15 jours qui surpassent la précision du modèle physique de référence existant.

Enfin, Microsoft a développé des modèles de prévision à moyen terme en intégrant des algorithmes d’IA avancés à des données météorologiques traditionnelles. L’efficacité de son programme Aurora réside dans son entraînement sur plus d’un million d’heures de simulations météorologiques et climatiques diverses.

R&D : les difficultés de la France à respecter les préconisations de l’UE

À Budapest, les dirigeants de l’Union européenne viennent d’adopter un « Pacte pour la compétitivité » dans lequel les États membres doivent allouer 3 % du PIB à la recherche et au développement d’ici à 2030. Alors que la proposition initiale était que cette part atteigne 4 %, ce niveau risque de ne pas être suffisant, selon le rapport de Mario Draghi, pour permettre à l’Europe de rattraper son retard face aux autres grandes puissances mondiales.  Dans celui-ci, l’ancien président de la BCE (Banque centrale européenne) préconisait en effet un investissement supplémentaire annuel minimum de près de 800 milliards d’euros, représentant entre 4,4 et 4,7 % du PIB.

Actuellement, les Vingt-Sept sont loin d’atteindre ces objectifs. En 2022, ils ont consacré en moyenne 2,27 % de leur PIB en R&D, d’après les derniers chiffres d’Eurostat. À titre de comparaison, les États-Unis sont à 3,59 % et la Chine à 2,56 % (hors Hong-Kong). Au sein de l’UE, les pays membres qui investissent le plus dans ce domaine sont la Suède (3,47 %), suivie de la Belgique (3,35 %), de l’Autriche (3,18 %) et de l’Allemagne (3,13 %). La France est proche de la moyenne européenne avec une part représentant 2,22 % de son PIB. Alors que l’objectif de la « stratégie Europe 2020 » de l’UE était d’atteindre 3,0 % du PIB sur la période 2010-2020, l’Hexagone n’a jamais réussi à le respecter.

Selon une note du site Fipeco, les entreprises françaises réalisent les deux tiers des dépenses en R&D en France, mais 29 % d’entre elles proviennent d’aides publiques à la recherche et de commandes publiques. Et au final, « En additionnant les dépenses des entreprises qu’elles financent (crédits d’impôts inclus) et les dépenses qu’elles exécutent et financent elles-mêmes, les dépenses des administrations publiques en faveur de la recherche et développement ont représenté 1,0 % du PIB en 2020 en France, ce qui est plus élevé que dans les autres pays du G7. »

L’État français figure donc en haut du classement en matière d’aides à la R&D. Dans un contexte de dégradation des finances publiques et de coupes budgétaires, il est difficile d’imaginer qu’il puisse augmenter ses investissements, en tout cas dans un avenir proche. Mais, comme le rappelle Fipeco, pour que ces dépenses publiques puissent se traduire en gains de productivité et en potentiel de croissance, « encore faut-il qu’elles débouchent sur la diffusion de connaissances nouvelles et que celles-ci permettent le développement de produits ou de procédés innovants. »

Un nombre de publications scientifiques tendanciellement à la baisse

Or, il apparaît que l’Hexagone est en difficulté dans ce domaine. Un indicateur peut en partie le mesurer : les publications scientifiques. Sur l’année 2022, la France se classe en Europe, derrière le Royaume-Uni, l’Allemagne et l’Italie, en matière de nombre de publications mondiales, avec une part s’élevant à 2,24 %. « La part des publications scientifiques mondiales détenue par la France, comme par l’ensemble des pays européens, diminue tendanciellement au profit des pays émergents », note Fipeco. Quant aux nombres de brevets, l’Hexagone se classe au sixième rang au niveau mondial, avec une part atteignant 3 % sur la période 2016-2021, tous domaines technologiques confondus, loin derrière l’Allemagne (9 %).

Dans un rapport publié en 2021, la Cour des comptes pointe également du doigt les carences de la France en matière de R&D. Sur l’année 2020, le pays se classe au dixième rang de l’Union Européenne et au douzième rang mondial en matière d’innovation dans les classements internationaux. Et il se situe seulement au 26e rang mondial en matière de synergies entre recherche académique et entreprises, ce qui pénalise ses performances globales sur les résultats de la recherche.

Les Sages de la rue de Cambon formulent plusieurs recommandations pour améliorer la stratégie du soutien public français à l’innovation des entreprises. Ils proposent d’améliorer « le suivi et la lisibilité des aides financières actuelles », de « mieux articuler les dispositifs de soutien à l’innovation avec d’autres interventions publiques », par exemple en facilitant les partenariats public/privé, et enfin de « renforcer la dimension européenne du soutien à l’innovation ».