Réduire les quantités d’herbicides en appliquant un traitement localisé

Faute d’accord entre les États membres de l’UE, la Commission européenne a décidé de prolonger pour dix ans, jusqu’en 2033, l’utilisation du glyphosate. Alors que l’usage habituel de cet herbicide en agriculture consiste à le pulvériser de manière uniforme sur l’ensemble d’une parcelle, une autre approche, plus économe, consiste à traiter de manière ciblée uniquement les mauvaises herbes. Cette stratégie peut aussi s’appliquer à d’autres produits de substitution, même s’ils sont peu nombreux. Elle est née aux États-Unis dans les années 1990 avec l’agriculture de précision et le développement du GPS. Depuis, elle est arrivée en Europe et les technologies pour la mettre en œuvre ont évolué.

La première étape nécessite de cartographier un champ dans le but d’identifier les adventices. Différents moyens sont disponibles et se différencient notamment en fonction du degré de résolution de l’image obtenue. Avec le satellite SPOT 7, il est possible d’obtenir des images où chaque pixel représente un carré d’une surface au sol de 8 mètres de côté. Étant donné que les mauvaises herbes se répartissent souvent par tache dans une parcelle, cette technologie est adaptée lorsque leur dimension est supérieure à 8 mètres.

Pour plus de précisions, il est nécessaire de recourir à la proxidétection, une technique de collecte des images plus précise fonctionnant avec des capteurs positionnés de manière très proche de leurs cibles. Des prestataires de services proposent l’utilisation de drones dont il est possible de faire varier leur altitude, par exemple à deux mètres au-dessus des cultures. « Pour encore plus de résolutions, des capteurs et des caméras embarqués peuvent être utilisés et sont positionnés à l’avant du pulvérisateur, explique Jean-Paul Douzals, responsable R&D Pulvérisation à l’Inrae. Cette solution est notamment adaptée pour détecter des plantules qui viennent de sortir de terre. L’idée est de s’y prendre le plus précocement possible dans le but d’économiser les quantités d’herbicides pulvérisées. »

Des technologies en développement pour la détection à l’intérieur d’un rang

Pour l’analyse des images, on distingue deux grands types de technologies. La première consiste à rechercher du « vert sur du brun », on emploie le terme de « Green on Brown », dans l’objectif de définir des indices de végétation. La gamme de longueur d’onde la plus utilisée est celle du visible et du proche infrarouge. Les capteurs mesurent la réflectance, c’est-à-dire la lumière émise par les objets : le marron du sol étant réfléchi dans le rouge, tandis que les plantes réfléchissent dans le vert. Ce type d’approche est adapté pour faire de la détection entre les rangs de cultures, sauf dans certaines situations particulières où un couvert végétal est maintenu au sol, comme cela peut être le cas en viticulture.

Pour détecter des mauvaises herbes à l’intérieur des rangs d’une culture, il convient alors de procéder à une recherche de « Vert sur du vert », encore appelée « Green on Green ». Des techniques multispectrales doivent alors être employées, notamment dans l’infrarouge. L’objectif est de faire la distinction entre deux grandes classes de végétaux. Les monocotylédones qui correspondent notamment aux céréales et qui se caractérisent par des feuilles plus ou moins fines et allongées. Et les dicotylédones, qui regroupent d’autres types de plantes, dont un nombre important de mauvaises herbes. Il est possible de différencier ces deux classes grâce à leur couverture spectrale qui n’est souvent pas la même ainsi que par la forme des plantes qui n’est pas identique.

« Cette technique reste encore beaucoup au stade de la R&D, car il y a nombreuses problématiques à résoudre en termes de traitement d’images, complète le responsable de l’Inrae. Nous ne sommes pas dans le domaine industriel et il peut y avoir des difficultés notamment avec l’ensoleillement et les ombres sur les plantes. Dans ce domaine, on assiste à un fort développement de l’utilisation de l’IA, notamment les réseaux de neurones et l’apprentissage profond. La finalité est de parvenir à atteindre un seuil de détection minimum en limitant le pourcentage de faux négatifs, c’est-à-dire les cas où les mauvaises herbes sont considérées comme des plantes de culture, ou inversement les faux positifs.»

Des pulvérisateurs à très haute résolution commercialisés

Tous les fabricants de pulvérisateurs commercialisent aujourd’hui leur propre système pour appliquer un traitement herbicide localisé, avec la particularité qu’ils peuvent atteindre une plus ou moins grande précision. Sur certains pulvérisateurs, la gestion est réalisée par tronçons, cela signifie que certaines parties de la rampe de traitement est activée ou non en fonction des besoins. L’identification des adventices se fait soit en temps réel avec capteurs et caméras embarqués à l’avant du pulvérisateur. Ou alors en deux temps avec d’abord la cartographie de la parcelle, par exemple à l’aide d’un drone, puis l’importation des données dans l’interface du tracteur.

« Certains pulvérisateurs fonctionnent avec une précision allant jusqu’à la buse et permettent d’actionner ou non chacune d’entre elles de manière individuelle, complète Jean-Paul Douzals. Elles sont généralement espacées tous les 50 cm sur une rampe de traitement. On voit aussi apparaître des systèmes à très haute résolution, comme c’est le cas de celui développé par la société Ecorobotix et nommé ARA. La rampe de traitement de cet équipement permet d’atteindre une résolution spatiale très fine puisque les buses sont espacées tous les 4 cm. »

Même s’ils pourraient permettre d’éviter le déplacement de gros engins agricoles dans les champs, l’utilisation de drones pour appliquer le traitement n’est pas autorisée par la réglementation. Ils entrent en effet dans la catégorie des traitements aériens qui sont interdits en Europe, sauf dérogation.

Quant à l’économie en herbicides réalisée grâce à cette stratégie de traitement localisée, elle dépend de plusieurs paramètres, notamment du niveau d’infestation global de la parcelle, du type de mauvaises herbes responsable de l’infestation et enfin du degré de résolution du moyen de traitement utilisé.

« Les entreprises foncent tête baissée dans l’IA sans se poser de questions »

Depuis le lancement de ChatGPT en novembre 2022, l’intelligence artificielle est dans toutes les bouches, et nombre d’entreprises souhaitent surfer sur la vague IA pour ne pas se faire distancer. Pourtant, peu d’entre elles prennent le temps d’avoir une démarche raisonnée et de comprendre les impacts d’une telle technologie.

Experte en intelligence artificielle, Amélie Cordier a été maître de conférence et a travaillé dans le privé en tant que chercheuse en IA. Depuis un an, elle a créé son entreprise Graine d’IA pour aider les entreprises dans leur adoption raisonnée de cette technologie. A travers cet accompagnement, elle leur fait prendre conscience des impacts environnementaux, sociétaux, économiques, stratégiques de cette technologie, et les aide à l’implanter efficacement.

Techniques de l’Ingénieur : Qu’est-ce qui vous a poussé à créer Graine d’IA ?

Amélie Cordier, experte en IA
Amélie Cordier, experte en IA

Amélie Cordier : Depuis 2017, je travaille dans le privé en tant que directrice scientifique, donc ma mission était de résoudre un problème de l’entreprise en apportant une solution basée sur l’IA. Or depuis novembre 2022 et la sortie de ChatGPT, tout le monde s’est inventé expert en IA. Mais quand on y regarde de plus près, les entreprises se lancent tête baissée dans l’adoption de l’IA, certaines par réels besoins, d’autres par peur de passer à côté d’une « révolution », mais sans se poser aucune question. Je suis effarée par leur inconscience des impacts environnementaux, des transformations des métiers que cela va provoquer en interne et des enjeux géopolitiques. En utilisant des solutions souvent américaines, elles perdent toute souveraineté sur leurs propres données. D’autre part, j’ai remarqué que les dirigeants d’entreprise sont complètement démunis et ne savent pas comment prendre le problème ni vers qui se tourner pour se faire accompagner. Je me suis dit qu’il fallait faire quelque chose, à commencer par de la sensibilisation et de l’accompagnement.

Aujourd’hui, quelles solutions ont les entreprises qui veulent se faire aider pour implanter l’IA ?

Le marché est monopolisé par des offreurs de solutions en IA, à savoir des personnes capables d’apporter la brique solutionniste à un problème, mais sans aucun questionnement éthique autour. Or avant d’implanter l’IA, il faudrait une réflexion pour savoir quelle est notre position sur le sujet en tant que citoyen. Quand des entreprises se demandent si l’IA qu’ils veulent implanter est en accord avec leurs valeurs ou s’il y a des alternatives, ils ne savent pas vers qui se tourner, car souvent les offreurs de solutions sont déjà engagés auprès d’une technologie particulière et sont dépendants des produits de Microsoft, Google, Amazon…

Peut-on réellement utiliser l’IA de manière éthique dans son entreprise ?

La réponse n’est pas binaire, mais plutôt une question de curseur. Dès lors que l’on s’inscrit dans une certaine éthique et qu’on essaie d’œuvrer selon un ensemble de valeurs, la question est « quelle IA puis-je adopter pour respecter mes valeurs ? ». Si une entreprise fait de la création de contenus et a besoin d’illustrations, elle a l’option d’embaucher un illustrateur ou de générer des images par Bing. La seconde option est beaucoup moins chère mais elle peut aussi prendre en compte d’autres critères comme la consommation de CO2, l’impact social en faisant travailler quelqu’un en France etc. L’entreprise peut comparer les critères économiques, écologiques, sociaux et décider de la meilleure option selon les valeurs qu’elle défend, voire de choisir des solutions intermédiaires. Si elle n’a pas les moyens de payer un illustrateur, elle peut éventuellement utiliser une autre IA à plus faible impact environnemental ou dont les serveurs sont en France, et choisit donc en toute conscience.

Que conseillez-vous aux entreprises qui veulent implanter l’IA ?

Le conseil numéro 1, c’est de ne jamais perdre de vue l’objectif et l’usage. Pour ne pas se faire avoir et s’éparpiller vers des solutions dont on n’a pas besoin, il faut avoir une approche extrêmement scientifique et rationnelle et se poser différentes questions : quel est le problème que j’essaie de résoudre ? Comment l’IA peut m’aider à résoudre ce problème ? De quoi ai-je besoin pour mettre en place cette IA ? Et enfin, comment maîtriser mon investissement ? Une fois les réponses à ces questions, il faut rester focalisé dessus et ignorer les discours marketing.

D’autre part, beaucoup de personnes pensent que ce sont des solutions clés en main, mais une fois installée, l’IA nécessite une maintenance. Dès la mise en production, il faut définir des métriques pour évaluer la qualité des résultats produits, et mettre en place des stratégies en cas de dérives. Implanter une solution d’IA nécessite une démarche de gestion de projet rigoureuse.

Comment faire pour utiliser les données de manière responsable ?

Les entreprises doivent être capables de trouver l’équilibre entre la quantité de données dont elles ont besoin pour être efficaces, et les valeurs qu’elles cherchent à respecter. Prenons l’exemple d’une déchèterie qui utilise un algorithme de vision pour faire du tri de déchets, et qui obtient 97% de performance. Aurait-elle besoin d’investir plus d’argent pour avoir un dataset plus conséquent qui causerait davantage d’impacts sociaux et écologiques, afin d’atteindre les 100% ? C’est un équilibre subtil à trouver.

Avant 2022, il y avait besoin de beaucoup de données pour être performant, ce qui soulève de nombreuses questions sur où récupérer les données. Cependant, on a dorénavant accès à des modèles « fondation » donc des modèles génériques qu’on réentraîne localement pour une tâche spécifique. Cela pose d’autres questions : certes, on réduit le nombre de données et l’impact carbone, mais on devient dépendants des modèles originaux, or ces modèles ont peut-être leurs propres biais. Grâce à la recherche, on arrive à faire mieux avec moins, et cette tendance va se maintenir. Je regrette juste que la course à la performance empêche de faire les choses bien dès le départ, car on veut sortir son produit avant le concurrent.

Certaines entreprises ont-elles renoncé à implanter l’IA après un accompagnement en amont ?

Oui ! C’est très fréquent chez les entreprises spécialisées dans leur domaine d’activité, qui souhaitent se moderniser via des technologies qu’elles ne maîtrisent pas. Avec notre œil d’expert, on s’aperçoit parfois que, pour une problématique donnée, l’IA leur coûtera cher pour peu de résultats. Avec l’accompagnement, les entreprises comprennent davantage où l’IA peut être réellement efficace et quelles autres solutions sont possibles.

Que pensez-vous des solutions alternatives aux mastodontes américains et chinois ?

La concurrence est vitale. Elle est très compliquée à maintenir car il y a un énorme monopole aujourd’hui, et c’est très dur pour les entreprises alternatives qui n’ont pas accès aux mêmes ressources de calcul, aux mêmes possibilités de salaires etc. Mais c’est la responsabilité des entreprises de leur donner leur chance. Pourquoi ? D’abord, car l’innovation vient de la diversité, et ensuite car il ne faut pas laisser le pouvoir à une seule entité. Que se passera-t-il si à l’avenir on se fâche avec les Etats-Unis ? De nombreuses entreprises mettront la clé sous la porte. Toutes les boîtes qui osent se lancer dans la compétition devraient être plus soutenues, ce qui n’est pas encore le cas aujourd’hui en France.

Est-il souhaitable que l’IA soit autant présente dans notre société ?

C’est surtout la façon dont elle se fait aujourd’hui qui n’est pas souhaitable, avec la mise sous le tapis des impacts environnementaux, sociétaux, culturels, et dans l’inconscience totale des enjeux géopolitiques. Il y a un énorme besoin d’acculturation et de médiation sur le sujet. C’est un débat de société, et plus on en parle, plus les individus s’en préoccupent et comprennent les enjeux. Il leur est alors possible d’exprimer leur avis en choisissant des solutions alternatives, en laissant leur chance aux solutions souveraines etc.

Propos recueillis par Alexandra Vépierre

Les tendances majeures de l’intelligence artificielle pour les ingénieurs en 2024

Selon les prévisions de Forrester, les initiatives d’IA en entreprise devraient augmenter la productivité et la résolution créative des problèmes de 50 % en 2024. L’IA aura un impact sur le travail des ingénieurs et des éducateurs, en leur faisant gagner du temps et en leur permettant de se consacrer à d’autres projets qui font progresser la science et l’ingénierie.

Voici les trois tendances majeures qui permettront à l’IA de poursuivre son essor en 2024.

Prévision nº1 concernant l’IA : l’IA et la simulation deviennent essentielles dans le design et le développement des systèmes techniques

À mesure que l’IA s’impose dans tous les domaines et toutes les applications, les quelques systèmes techniques complexes qui n’en seront pas dotés deviendront marginaux.  Les systèmes techniques combinent des composants et des sous-systèmes issus de plusieurs domaines pour créer des systèmes intelligents capables de percevoir le monde qui les entoure et de réagir en conséquence. Une éolienne, par exemple, combine des composants mécaniques (pales de la turbine et système de transmission), électriques (générateur) et de contrôle (contrôle du pas des pales). Le succès croissant des systèmes d’IA complexes est principalement dû à l’intégration de plus en plus courante de la simulation dans le design et le développement de ces systèmes.

La simulation est un moyen éprouvé de réaliser la modélisation multi-domaines nécessaire au développement de systèmes complexes. L’IA peut traiter des données provenant de capteurs afin de contribuer au développement de systèmes de perception et de systèmes autonomes. Cependant, à mesure que les systèmes se complexifient, certaines simulations peuvent devenir trop gourmandes en ressources informatiques pour le design au niveau du système et le design embarqué, en particulier pour les tests qui nécessitent l’exécution d’un modèle en temps réel. Dans ce scénario, l’IA peut également améliorer les simulations en utilisant des modèles d’ordre réduit.

Les modèles d’ordre réduit (ROM, Reduced Order Models) peuvent accélérer les simulations tout en offrant une précision acceptable pour les tests d’algorithmes de contrôle au niveau système. Ils peuvent compléter les modèles basés sur les principes fondamentaux, en créant des implémentations de variants qui permettent une analyse de compromis entre la précision, la performance et la complexité.

De plus en plus d’ingénieurs envisagent d’intégrer des modèles ROM basés sur l’IA dans leurs systèmes. Cela peut contribuer à accélérer la simulation sur ordinateur affectée par un modèle haute-fidélité tiers, permettre des tests Hardware-in-the-Loop en réduisant la complexité des modèles, ou accélérer les simulations d’analyse par la méthode des éléments finis (FEA).

Prévision nº2 concernant l’IA : les petits modèles sont privilégiés pour l’IA embarquée, tandis que les grands modèles persisteront pour la Computer Vision et les modèles de langage

Les modèles d’IA peuvent comporter des millions de paramètres dont l’exécution nécessite une grande quantité de mémoire. Dans le domaine de la recherche, la précision est primordiale, mais pour ce qui est du déploiement de modèles d’IA sur du hardware, les compromis entre la mémoire et la précision entrent en conflit. Les professionnels de l’IA doivent réfléchir à la manière dont la performance de leurs modèles diffèrera lorsqu’ils seront déployés sur des dispositifs où la vitesse et la mémoire sont cruciales. Il est possible d’ajouter l’IA en tant que composant plus petit dans les systèmes de contrôle existants plutôt que de s’appuyer sur des modèles d’IA de bout en bout, tels que ceux généralement utilisés dans la Computer Vision pour détecter des objets.

L’apprentissage incrémental est un sujet particulièrement pertinent lorsqu’il s’agit de petits modèles d’IA. L’apprentissage incrémental est une approche de Machine Learning qui permet au modèle d’apprendre en continu en mettant à jour ses propres connaissances en temps réel au fur et à mesure que de nouvelles données sont disponibles. Cette méthode est considérée comme efficace pour le déploiement sur dispositif périphérique.

Prévision nº3 concernant l’IA : l’IA générative aide les professeurs d’ingénierie à enseigner des sujets plus avancés

L’IA générative est une technologie révolutionnaire que les professeurs d’ingénierie utiliseront en cours pour aider les étudiants à grande échelle en 2024 et au-delà. À l’instar d’Internet ou des téléphones portables, l’IA générative lance une révolution qui améliorera l’ensemble du paysage de la formation des ingénieurs.

Le principal avantage de l’IA générative en classe est qu’elle permet de gagner du temps lors de l’enseignement des compétences fondamentales aux étudiants en ingénierie, telles que la programmation informatique. En libérant le temps que les professeurs consacraient auparavant à la présentation de concepts de base, ils peuvent désormais se concentrer sur l’enseignement de sujets pointus tels que le design et l’implémentation de systèmes d’ingénierie complexes. Les professeurs peuvent gagner du temps et mieux impliquer les étudiants en utilisant des technologies telles que ChatGPT pour effectuer des simulations et créer des exercices et des travaux pratiques interactifs.

Les professeurs peuvent enseigner aux étudiants les compétences nécessaires à l’utilisation efficace de l’IA générative, comme la manière de concevoir des prompts. Cela aidera les élèves à développer un esprit critique dont ils pourront tirer profit au lieu de s’en remettre exclusivement aux machines pour trouver des solutions. En conséquence, les étudiants seront encouragés à pratiquer l’apprentissage autonome dans diverses disciplines de l’ingénierie, tandis que les enseignants pourront élargir davantage leur programme en transmettant leur expertise sur des concepts plus avancés.

Ainsi, à mesure que l’IA s’affirme, son rôle dans l’amélioration de la productivité et du potentiel des ingénieurs et des enseignants devient de plus en plus prononcé. Lors de la construction de systèmes techniques complexes, il serait avisé pour les ingénieurs de recourir à la simulation assistée par l’IA et à des modèles d’IA plus petits. Au sein de la communauté académique, l’IA générative offre aux enseignants la possibilité de réduire leurs efforts, tout en permettant aux étudiants d’accroître leur autonomie. L’IA permet de prendre des décisions plus éclairées, d’obtenir des informations exploitables et d’améliorer l’efficacité dans de nombreux domaines de l’industrie et de l’enseignement.

Johanna Pingel, responsable du marketing des produits d’IA, MathWorks

Réduire les coûts d’utilisation des matériaux composites dans le secteur naval

Les polymères renforcés de fibres (PRF) sont des matériaux composites offrant une combinaison unique de légèreté, de résistance mécanique élevée et de durabilité. Dans le secteur naval, ils sont traditionnellement utilisés pour construire des structures légères, jusqu’à 25 mètres. La réglementation maritime autorise aussi à les employer dans la fabrication de navires de plus grande envergure, jusqu’à 50 mètres, cependant ils sont peu utilisés en raison de coûts de production élevés. Un projet européen1 baptisé FIBER4YARDS vient de se clôturer et a eu pour objectif d’optimiser l’utilisation des PRF grâce aux concepts de l’usine 4.0.

« Comparés aux matériaux traditionnels tels que l’acier, les composites en fibres présentent une forte résistance à la corrosion saline, ce qui leur confère une durée de vie prolongée dans des environnements marins hostiles, analyse Julio Cesar de Luca, coordinateur technique Europe à l’IRT Jules Verne. Mais l’avantage le plus important est qu’ils sont beaucoup plus légers, environ 60 %, et qu’ils possèdent malgré tout une rigidité et une résistance mécanique élevée. Cette réduction du poids permet de diminuer la consommation de carburant et par conséquent de réduire l’empreinte carbone des navires. L’utilisation de ces matériaux entraîne un cercle vertueux puisque la perte de poids permet de gagner sur d’autres aspects, notamment d’utiliser un moteur moins puissant ou de transporter plus de passagers. »

La construction d’un catamaran de transport de passagers de 50 mètres a été retenue comme cas d’études pour mener à bien ce projet. Et pour réduire le coût lié à l’introduction de PRF, le principal axe de travail a consisté à digitaliser les processus de fabrication. Par exemple, la technique de fabrication de composites par infusion de résine, qui consiste à faire pénétrer la résine dans la structure en fibre, a fait l’objet d’un monitoring et d’un contrôle en temps réel. Pour cela, des capteurs et des caméras ont été installés afin de comparer le processus de fabrication avec des modèles de simulation et l’utilisation de jumeaux-numériques.

Gagner en efficacité de production grâce au monitoring et à l’instrumentation

Cette nouvelle méthode de fabrication a abouti à une meilleure maîtrise de cette technique d’infusion en homogénéisant l’ajout de la résine dans la fibre. « Le monitoring et l’instrumentation des procédés de fabrication permettent de faire bien du premier coup et de générer moins de déchets, complète Julio Cesar de Luca. Ils ont aussi pour effet d’aller plus vite et donc de gagner en efficacité de production, c’est-à-dire de passer moins de temps pour une production équivalente. Cette optimisation numérique entraîne également un gain sur la quantité de matières premières utilisées ainsi que sur le besoin en unités de main-d’œuvre. »

Les équipes de ce projet ont su tirer profit des possibilités offertes par les PRF pour fonctionnaliser les pièces. En partenariat avec l’Université du Mans, ils ont développé la technologie des Trous Noirs Acoustiques (TNA), encore appelée ABH pour Acoustic Black Holes, dans le but de réduire les bruits vibratoires du navire. Un relief a été ajouté à la structure afin de piéger les ondes, et cela, sans augmenter sa masse. Plusieurs pièces fonctionnalisées avec la technologie ABH et d’une dimension d’environ 1 mètre² ont ainsi été fabriquées et des essais ont mis en évidence une réduction du rayonnement acoustique d’environ 40 %.

Le projet a démontré qu’il est possible de réduire le poids des navires fabriqués en PRF d’environ 20 % par rapport à ceux conçus en acier. Le coût de production lié à l’utilisation de ces composites reste malgré tout supérieur à l’acier, mais des bénéfices associés sont également à prendre en considération, comme le souligne Julio Cesar de Luca : « à partir de notre cas d’études, nous montrons que la réduction du poids du navire permet d’augmenter la capacité de transport des passagers et de réduire le temps de trajet d’environ 15 %. Ce gain entraîne une réduction proportionnelle de la consommation de carburant ainsi que des émissions de gaz toxiques (NOx : oxyde d’azote) et d’effet de serre (CO2). Quand on fait le bilan économique et environnemental, on s’aperçoit qu’il est possible de rendre compétitifs les composites par rapport à l’acier grâce aux outils 4.0 développés dans le cadre du projet FIBER4YARDS. »

 


[1] Le projet FIBER4YARDS a réuni 13 participants venant de 6 pays différents : CIMNE (Espagne); COMPASSIS (Espagne); TSI (Espagne); CW (Pays-Bas); NAVAL GROUP (France); INEGI (Portugal); IRURENA (Espagne); TUL (Pologne); 10XL (Pays-Bas); L-UP (France); Ateknea (Hongrie); BUREAU VERITAS (France); IRT Jules Verne (France)

 

Nouvel équilibre électrique en 2023

L’année 2022 avait été spéciale pour le système électrique français : une crise d’approvisionnement du gaz en Europe induisant des prix élevés, un parc nucléaire français historiquement fragilisé, et une faible production hydroélectrique. Le gestionnaire du réseau de transport d’électricité, responsable de l’équilibre du système, évalue annuellement les grandes tendances passées. Son dernier bilan prouve que l’année 2023 renoue avec un profil plus classique, même si elle est caractérisée par un « nouvel équilibre » selon Thomas Veyrenc, membre du directoire en charge de l’Économie, de la stratégie, et des finances de RTE.

Voici les six principaux marqueurs de 2023.

Consommation

Portée par les efforts d’économies d’énergie de l’hiver 2022-2023, la population française a persévéré, d’où une consommation d’électricité de 445 TWh l’an dernier (donnée corrigée des effets météorologiques et calendaires). C’est une baisse de 3,2 % par rapport à 2022, et une baisse de 6,9 % par rapport à la moyenne 2014-2019. Il faut remonter 20 ans en arrière pour retrouver ce faible niveau de consommation. Une victoire pour les tenants de la sobriété et de l’efficacité énergétiques, mais jusqu’à quand ? Si les prix de l’électricité restent élevés, il est probable que cette situation perdure, d’autant plus que les collectivités et entreprises qui ont vu leurs efforts payés seront enclines à continuer. Mais RTE envisage toujours une hausse de la consommation à terme, à cause des politiques de décarbonation qui vont conduire à une électrification des usages (véhicules électriques, pompes à chaleur, procédés industriels, production d’hydrogène, etc.).

Nucléaire

Le cœur de la production électrique française a retrouvé des couleurs en 2023. Il était difficile de faire autrement après l’annus horribilis que l’atome civil a connu en 2022. Grâce à une reprise des réacteurs qui avaient été arrêtés pour maintenance ou réparation des tuyaux endommagés par de la corrosion sous contraintes, la production a connu un rebond de 11 % pour atteindre 320 TWh. Ce niveau est celui de 1992, et il reste 19 % en dessous de la moyenne de 2014-2019. Le taux de disponibilité du parc nucléaire est repassé de 54 % en 2022 à 63 % en 2023. Il est donc encore loin de son fonctionnement nominal (le taux était de 74 % en moyenne entre 2015 et 2019). L’objectif affiché par la filière de remonter la pente fait espérer à RTE que le nucléaire puisse atteindre un volume annuel de 360-400 TWh, dès que l’EPR de Flamanville aura démarré.

Hydroélectricité

La production hydroélectrique a retrouvé sa 2e place après une année 2022 à faible pluviométrie. La pluie – en particulier sur la deuxième moitié de 2023 – a permis aux stocks hydrauliques de se reconstituer. La production a ainsi augmenté de 18 % pour s’élever à 58,8 TWh. Ce retour au meilleur niveau des années passées est rassurant pour 2024.

Éolien et solaire photovoltaïque

Juste derrière l’hydroélectricité, la production éolienne culmine à 50,7 TWh en 2023 dont 1,9 TWh d’éolien en mer. Ce bon chiffre tient à l’augmentation du parc installé (+1 300 MW sur terre et +350 MW en mer) et à de bonnes conditions de vent, en particulier les mois d’hiver où plus de 6 TWh mensuels ont pu sécuriser l’approvisionnement sur la saison froide. RTE note également que le facteur de charge de l’éolien terrestre dépasse 25 %.

Pour le solaire photovoltaïque, le parc a grandi plus vite que les années précédentes en passant de 15,8 à 19 GW en 2023, permettant de produire 21,5 TWh. On notera que cette croissance des renouvelables se fait avec un niveau modéré de batteries dont le parc est passé de 490 à 807 MW.

Cumulées, les productions éoliennes et photovoltaïques dépassent désormais celle de l’hydroélectricité, une position qui ne s’inversera plus désormais. Pour l’avenir, RTE rappelle la nécessité d’accélérer le développement de ces énergies renouvelables variables, indispensables pour alimenter la future hausse de la consommation.

Émissions de CO2

Le système électrique français a émis 16,1 MtCO2 en 2023. Ce chiffre, beaucoup plus faible que celui de 2022 (23,8 MtCO2) tient au fait que les centrales thermiques fossiles ont été beaucoup moins sollicitées. En effet, elles n’ont produit que 32,6 TWh dont 30 TWh pour la seule filière gaz. Ainsi, l’intensité carbone de l’électricité française est de 32 gCO2/kWh quand l’Allemagne est encore à 303 gCO2/kWh (malgré une baisse de 29 % depuis 2017). La partie d’électricité que la France a importée représente 0,8 Mt CO2, un chiffre en forte baisse par rapport à 2022 (5,2 MtCO2), car la France est redevenue exportatrice nette (voir point suivant) et parce que les autres pays européens décarbonent aussi leur parc de production. Ainsi, 64 % des importations françaises étaient décarbonées.

Échanges et prix

Alors qu’elle avait été fortement importatrice d’électricité en 2022 (-16,5 TWh) à cause du déficit nucléaire, la France a renoué avec sa tradition exportatrice nette, à hauteur de +50,1 TWh en 2023. Les échanges avec les autres pays sont soutenus et la France se retrouve à importer plus régulièrement qu’auparavant. Elle profite notamment des périodes où l’électricité est moins chère dans d’autres pays, comme en Espagne, seul pays avec lequel l’Hexagone est importateur net (voir carte ci-dessous). Au niveau des prix, les marchés de gros ont connu une accalmie, avec une moyenne annuelle des prix spot horaires de 97 €/MWh en 2023, loin des 276 € de 2022 ! Un niveau moindre qu’en 2021 également, mais encore au-dessus de ceux de la période 2014-2019.

L’excès de production renouvelable non arrêtable lors de périodes de moindre consommation, notamment le solaire photovoltaïque l’été, a conduit à 147 heures de prix négatifs sur le marché français. Cet effet se retrouve dans d’autres pays européens et nécessite, selon RTE, de faire évoluer le profil de consommation vers les moments de forte production solaire, et de développer les flexibilités de la demande.

Carte Europe import export électricité RTE
Échanges commerciaux d’électricité entre la France et les pays voisins en 2023 (Source : RTE)

Deux nouveaux pôles de compétitivité sur l’eau : un pour le nord, un pour le sud

Ces deux nouvelles entités succèdent à France Water Team, le pôle dédié à l’eau, lui-même issu de la fusion en 2019 de trois clusters : Dream, Hydreos et Aqua-Valley. En janvier 2024, le gouvernement a donc décidé de revenir à une répartition plus territoriale : Dream et Hydreos fusionnent pour former le « Pôle Eau Nord » et Aqua-Valley, qui garde son nom, devient le pôle pour le sud.

Une annonce particulièrement attendue

L’annonce en mars 2023 du non-renouvellement de la labellisation du pôle France Water Team avait provoqué l’incompréhension. Cette décision paraissait d’autant plus étrange qu’un mois plus tard, le gouvernement annonçait son plan d’action pour une gestion résiliente et concertée de l’eau, le fameux « Plan eau » et ses 53 mesures pour répondre aux grands enjeux de sobriété, de disponibilité, de qualité de l’eau, et aussi de lutte face aux crises de sécheresse.

Alors que les problèmes liés à l’eau s’accumulent d’année en année, imaginer pouvoir se passer d’un pôle chargé de soutenir l’innovation dans ce domaine paraissait impossible.

Suite à ce refus, les clusters Dream Eaux et Milieux (basé à Orléans) et Hydreos (Grand Est) ont alors déposé une demande commune, finalement acceptée le 8 janvier dernier.

Des spécificités géographiques qui ont leur importance

Dans le journal quotidien, La République du Centre, Hervé Gaboriau, le directeur de Dream explique pourquoi l’aspect géographique a une grande importance en gestion de l’eau. Selon lui : « Les spécificités régionales, avec, par exemple, les grandes nappes phréatiques et des problématiques de pollution industrielle au nord et les pluies cévenoles au sud, sont très différentes. »

La charte régionale de l’eau de la région PACA met d’ailleurs en avant ces spécificités :

  • une géographie contrastée, qui possède à la fois des caractéristiques méditerranéennes et alpines ;
  • une ressource relativement abondante, mais très inégalement répartie dans le temps et dans l’espace ;
  • de grands aménagements de stockage et de transfert des ressources en eau ;
  • une expérience historique de la gestion collective de ressources superficielles, notamment en irrigation.

Par ailleurs, la charte évoque aussi des caractéristiques culturelles bien particulières et constate la perte de la « culture provençale de l’eau »[1]. De plus, le fait que le sud de la France soit une zone très touristique a aussi des conséquences sur la ressource en eau. On sait que l’eau est consommée en abondance par les hébergements touristiques, pour le confort des clients (piscines, spa, terrains de golf, etc.). Ce phénomène est d’ailleurs transposable à d’autres régions touristiques, notamment en Méditerranée. En Espagne, par exemple, la consommation moyenne d’un touriste équivaut au double de la consommation des citadins espagnols !

La coordination pour répondre aux enjeux nationaux et internationaux

Disposer de deux pôles intégrant les spécificités régionales paraît donc logique. En revanche, une collaboration étroite entre les deux entités nord et sud devra être mise en œuvre pour répondre aux grands enjeux de portée nationale ou internationale. En effet, il ne faut pas oublier que, s’ils reposent sur un ancrage territorial, les pôles de compétitivité sont avant tout des moteurs de croissance et d’emploi, actifs sur le volet international depuis leur création en 2004.

Le Pôle Eau Nord, comprend plus de 300 acteurs des bassins versants hydrographiques Artois-Picardie, Loire-Bretagne, Rhin-Meuse et Seine-Normandie.

Le pôle Aqua-Valley fédère 250 adhérents, principalement en région Occitanie et en région Sud.

 

[1] « L’eau, miroir de la culture provençale»

JO 2024 : le Village des Athlètes, laboratoire pour le traitement des eaux usées

Ces projets sont d’autant plus remarquables qu’ils sont mis en œuvre alors que la réglementation concernant la réutilisation des eaux usées (REUT) est actuellement en pleine transition. Leur intérêt est donc d’autant plus fort qu’ils vont au-delà des utilisations autorisées jusqu’ici par la législation !

Le plus ambitieux : un bâtiment « cycle » qui retraite les eaux usées

Cet immeuble à structure mixte bois et béton, est un projet pionnier à l’échelle mondiale. Celui-ci servira à démontrer la capacité de réutiliser et recycler les déchets, séparés en quatre flux :

  • les eaux grises (douches, éviers, lavabos) ;
  • les biodéchets ;
  • les urines ;
  • la matière fécale.

L’idée de ce bâtiment « cycle » a été proposée par le bureau d’études environnementales Oasiis, avec le soutien d’Icade et de CDC Habitat[1], dans le cadre de l’appel d’offres lancé par la Solideo[2]. L’ensemble de la partie recyclage des eaux usées et traitement a été confié à Nereus, spécialiste de la filtration et du traitement des eaux.

Concernant les eaux noires, après séparation des excréments par centrifugation, les urines seront d’abord stockées dans des cuves, puis confiées à Toopi Organics, une entreprise de biotechnologies, en vue de leur valorisation en agriculture. Les excréments pourront alors être valorisés en compost, au même titre que les biodéchets.

Pour les eaux grises provenant des douches et des éviers, il est prévu qu’elles soient traitées puis réinjectées dans un réseau alimentant les chasses d’eau et les lave-linge (selon l’évolution de la législation). Elles pourront aussi servir au nettoyage des espaces communs.

Le bâtiment sera réhabilité à l’issue des JO et accueillera 26 logements locatifs.

Un centre de secours qui traite les eaux grises par phytoépuration

S’il est le plus ambitieux, le bâtiment « cycle » n’est pas le seul projet REUT en cours. Il est également prévu que les eaux du futur centre de secours construit en bordure de seine soient retraitées par phytoépuration, grâce à la végétalisation des 300 m² de terrasse en toiture, selon un processus en trois étapes :

  • prétraitement des Matières en Suspension (MES) ;
  • filtration par phytoépuration en massifs filtrants ;
  • désinfection par microfiltration à bobine et à zéolithe.

Les 3,5 m3 d’eau ainsi retraités chaque jour serviront à l’irrigation des espaces verts, à l’alimentation des sanitaires et éventuellement au nettoyage des sols extérieurs. Après les jeux, le centre de secours sera occupé exclusivement par les pompiers.

Projet Green Bow : puisage des eaux usées dans les égouts pour l’arrosage des espaces verts

Enfin, le projet Green Bow est une solution innovante proposée par Nereus[3]. Celle-ci consiste à pomper les eaux usées dans le réseau souterrain du Village des Athlètes pour les envoyer dans la station de traitement de Nereus.

L’eau filtrée sera alors stockée dans des cuves et servira à l’arrosage d’un demi-hectare d’espaces verts, notamment dans le but de créer des îlots de fraîcheur.

Des actions qui vont au-delà de ce que la législation autorise !

C’est un fait : par rapport aux autres pays d’Europe, la France est très en retard sur la réutilisation des eaux usées, avec seulement 1 % d’eau réutilisée actuellement, contre 15 % en Italie et 20 % en Espagne. En Israël c’est même 90 % des eaux usées qui sont réutilisées !

Pourquoi une telle situation ? En partie pour des raisons culturelles. D’une part nous avons trop longtemps considéré l’eau comme une ressource « infinie ». D’autre part, ce retard est lié à une réglementation trop stricte qui autorise peu d’usages pour l’eau de REUT, essentiellement pour des raisons sanitaires.

Dans un article, Florence Chahid-Nourai, directrice grands projets à Icade, affirmait ainsi en 2022 : « Nous voulons aller plus loin que les législations sanitaires, nous sommes actuellement en discussion avec l’État pour obtenir l’autorisation de la mise en place de ces solutions. »

Une réglementation REUT en pleine transformation

Depuis 2022, les choses ont heureusement évolué. Pour commencer, une réglementation européenne est entrée en vigueur au 26 juin 2023.

Ensuite, afin de rattraper son retard dans le domaine et dans le contexte du plan Eau, la France a récemment amorcé une transformation des règles en matière de REUT. Le but affiché est clair : atteindre les 10 % de REUT d’ici 2030.

Le 30 août 2023, un premier décret a ainsi été signé afin de simplifier les procédures de REUT pour les usages non domestiques.

En décembre, plusieurs, nouveaux décrets et arrêtés ont également été publiés :

  • Irrigation agricole : Arrêté du 14 décembre 2023.
  • Arrosage des espaces verts : Arrêté du 18 décembre 2023.
  • Utilisation d’eaux impropres à la consommation humaine (EICH) pour des usages domestiques : arrêté du 19 décembre 2023

Le dernier décret en date a été publié le 24 janvier 2024. Il concerne les eaux réutilisées dans les entreprises du secteur alimentaire. Il aborde notamment diverses dispositions relatives à la sécurité sanitaire des eaux destinées à la consommation humaine.

Enfin, un prochain décret est attendu plus tard cette année concernant les usages urbains.


[1] Les opérateurs immobiliers en charge de la construction du Lot D du village des Athlètes

[2] La société de livraison des ouvrages olympiques

[3] Avec F-Reg, Qista et La compagnie du paysage

La silphie : un rayon de soleil opportun, face au marasme de l’agriculture française

Des tiges d’un vert éclatant, surmontées de capitules semblables à de grandes marguerites, colorées d’un jaune vif à faire pâlir le soleil qui les fait pousser… Derrière ce portrait idyllique qui en fait une parfaite plante d’ornement, la silphie cache aussi une solution agroécologique séduisante pour les agriculteurs. Utilisable pour alimenter les installations de méthanisation, cette culture pérenne peut aussi être employée pour l’alimentation animale et possède en outre un caractère mellifère. Adaptée aux terrains humides tout en étant résistante à la sécheresse ou encore au froid, elle est facile à cultiver et ne demande, après implantation, quasiment aucun intrant. Autant de vertus que met en avant Amédée Perrein : fils d’agriculteur, il est aussi le co-fondateur de Silphie France, qui distribue dans l’hexagone la variété de silphie ABICA Perfo.

À rebours d’une certaine tendance à « l’agribashing » observée ces dernières années, l’homme voit dans cette plante déjà très populaire en Allemagne un moyen pour les agriculteurs français de démontrer leur attachement au respect de l’environnement, malgré des contraintes toujours plus fortes.

Techniques de l’Ingénieur : Quelles sont les origines de la silphie ? Comment est-elle arrivée jusqu’à nous ?

Amédée Perrein co-fondateur Silphie France
Fils d’agriculteur, Amédée Perrein a suivi un cursus scolaire axé sur l’agrofourniture et le commerce. Il est ensuite devenu co-gérant d’un négoce agricole (Hadn), avant de co-fonder Silphie France en 2020 aux côtés d’Arnaud Febvay.

Amédée Perrein : La silphie est originaire d’Amérique du Nord. Elle a d’abord été importée par les Russes sur le continent européen dans les années 1860, en tant que plante d’ornement. Ensuite, quand les premières installations de méthanisation sont arrivées outre-Rhin dans les années 1950, les Allemands ont eu l’idée d’étudier le potentiel méthanogène de la plante, qui s’est révélé très bon. C’est comme cela que sa culture à des fins énergétiques a démarré. Son développement s’est toutefois révélé compliqué. Au départ, on ne maîtrisait en effet pas bien le tri mécanique de la semence, ce qui conduisait à un faible taux de germination. L’ensemencement se révélait ainsi très onéreux : l’équivalent de 5 à 6 000 €/ha. Il y a donc eu beaucoup de travaux de recherche menés à ce sujet. Dans les années 2000, le process idéal a toutefois fini par être trouvé et a permis d’atteindre aujourd’hui un taux de germination de plus de 90 %, pour un coût d’implantation de 1 500 à 1 800 €/ha. Voilà comment tout a commencé en Allemagne il y a plus d’une quinzaine d’années maintenant.

Quant à son arrivée jusqu’à nous en France, elle est liée à la genèse de l’entreprise que j’ai co-fondée avec Arnaud Febvay, Silphie France. Tout a débuté par la demande que j’ai reçue de la part d’un agriculteur. Je suis en effet gérant d’un négoce agricole, dans lequel je vends engrais, semences, aliment pour bétail… Ce client avait pris connaissance de l’existence de la silphie par le biais de vidéos mises en ligne par des Allemands. Il souhaitait donc acheter de la semence pour implanter cette culture et l’utiliser pour alimenter son méthaniseur. Je me suis alors tout simplement rendu en Allemagne, où je suis parti à la découverte, pendant cinq jours, de la culture de cette plante que je ne connaissais pas. Cela m’a complètement séduit ! J’ai alors négocié avec des producteurs allemands qu’ils me laissent en développer la vente sur le marché français. Près de six ans plus tard, ils ont maintenant confié à Silphie France le business mondial, à l’exception de l’Allemagne et du Royaume-Uni.

Elle n’est pas endémique en France… N’y a-t-il donc pas un risque qu’elle se révèle invasive dans l’Hexagone ?

La silphie, alliée des abeilles et de leur production de miel.
Grâce à sa floraison étalée de mi-juillet à fin septembre, la silphie se révèle l’alliée des abeilles et de leur production de miel.

Le genre Silphium compte au moins 23 espèces dans le monde. Or, une grande majorité de ces espèces sont envahissantes ! L’espèce que nous commercialisons, Silphium perfoliatum – et plus précisément la variété Abica Perfo – est quant à elle garantie non-invasive : elle ne développe pas de stolons ou de rhizomes profonds. Cette variété est issue d’un croisement de pieds venus de Russie, de Roumanie, et de deux autres variétés allemandes.

Quel est le cycle de culture de cette plante ?

La silphie est une culture pérenne : une fois semée, elle peut perdurer des années, quinze ans au moins, et sans doute plus. Après les semis, réalisés au mois de mai, la première année la plante ne forme qu’une simple rosette, semblable à un chou. Au premier hiver, toute la partie végétative de la silphie meurt, pour repousser au printemps. Elle va ensuite, chaque année, pouvoir atteindre le stade de montaison[1], et pousser jusqu’à 2,5-3 mètres de hauteur, avec une floraison étalée de début juillet à fin septembre. Ces deux mois de floraison, en plein été, intéressent notamment le monde apicole. À cette période où les fleurs et les arbres produisant du pollen et du nectar se font rares, la plante constitue en effet un parfait relais pour les abeilles et la production de miel. D’autant plus qu’elle est très mellifère.

Quels usages peut-on en faire ?

La silphie et la méthanisation
Pour un usage en méthanisation, la plante est récoltée à l’aide d’une ensileuse, puis stockée en silos.

Le premier usage de la silphie est la méthanisation. La récolte de la plante est alors réalisée fin août – début septembre, avec une ensileuse, comme pour du maïs. La plante broyée est alors stockée en silos et permet ensuite d’alimenter, tout au long de l’année, une installation de méthanisation.

L’autre utilisation possible de la plante est l’alimentation animale. Dans ce cas de figure, les éleveurs vont la récolter deux à trois fois dans l’année, sans attendre qu’elle soit en fleurs, à l’aide d’une faucheuse traditionnelle. Ils la coupent dès qu’elle atteint une hauteur d’un mètre, puis la laissent sécher quelques jours en andains, avant de la presser en bottes puis de l’enrubanner, comme cela se fait pour le foin. On peut aussi utiliser une ensileuse équipée d’un pick-up pour ramasser les andains, et amener ensuite cette matière dans un silo, renfermé par une bâche.

Sur le plan nutritionnel, la plante est très riche en protéines, un peu plus qu’une luzerne, par exemple. Or, il s’agit-là d’un enjeu majeur que celui de l’autonomie protéique des élevages français… ! Le marché a commencé à s’ouvrir depuis 2022, et les éleveurs sont aujourd’hui séduits par les résultats de cette culture. 80 % de nos ventes de semences s’orientent donc désormais vers l’implantation pour de l’alimentation animale.

Enfin, comme je l’évoquais, le troisième usage de la silphie consiste à l’implanter sur de petites surfaces pour l’apiculture.

Dans quelles conditions, sur quels types de terrains la silphie peut-elle être ensemencée ?

La silphie – que je qualifie volontiers de plante « couteau-suisse » – peut tout d’abord être implantée sur de grandes parcelles. Certains de nos clients ont par exemple ensemencé des parcelles de plus de cinquante hectares, essentiellement pour de la méthanisation. Les éleveurs, quant à eux, peuvent implanter la silphie sur de plus petites surfaces, notamment les zones de non-traitement (ZNT). Cela leur permet ainsi de montrer une image positive à leurs concitoyens, à l’opposé des accusations de pollution qui leur collent encore trop souvent à la peau ! La silphie est selon moi un bon moyen de rallier défenseurs de l’environnement, agriculteurs, méthaniseurs, apiculteurs et citoyens. Quand on met à disposition du monde agricole des solutions écologiques et rentables, ses acteurs sont naturellement partants pour les adopter !

Les agriculteurs peuvent aussi utiliser la silphie dans des zones de terre très humides, y compris sur des parcelles soumises aux inondations en hiver, sur lesquelles il est très difficile d’implanter d’autres cultures, qui meurent étouffées sous l’eau.

À l’inverse, la plante résiste aussi très bien à la sécheresse, notamment grâce à son système racinaire très bien développé et à une structure particulière, qui forme de petits réservoirs à la base de ses feuilles. Ces petites poches d’eau de quelques centilitres se remplissent à la faveur de la rosée matinale et des précipitations, et peuvent aussi servir d’abreuvoirs à la biodiversité : abeilles, papillons, petits oiseaux… La plante nécessite certes 400 mm de précipitations pour atteindre un très bon rendement – équivalent à un maïs – mais ceci sur une période où les sécheresses sont plus rares ou en tout cas moins intenses : du 1er mars au 1er août.

Pour les parcelles en bordure de forêt, la silphie présente aussi l’avantage de résister aux dégâts de gibiers. Elle n’est en effet pas très appétente pour des animaux tels que les cerfs ou les sangliers.

Enfin, la plante est aussi indiquée dans les zones de captage d’eau. Nous avons d’ailleurs mis en place plusieurs essais ces dernières années en lien avec les Agences de l’eau de différentes régions. La plante permet notamment de capter des nitrates, et se passe très bien de produits phytosanitaires. Certaines de ces Agences de l’eau commencent ainsi à co-financer avec les régions ou départements des implantations. C’est par exemple le cas en Loire-Atlantique, où l’ensemencement de 23 hectares a été entièrement financé par la collectivité pour préserver une zone de captage.

Certaines agglomérations nous contactent également pour implanter la culture sur des terres en friche, éventuellement en association avec la mise en place de ruchers collectifs.

Si elle est donc adaptée à de nombreux types de sols, il faut toutefois simplement éviter les terres acides, où son développement est plus lent.

Quelle est aujourd’hui l’ampleur de son déploiement en France ?

La culture de la silphie
Plus de 7 000 hectares de silphie sont aujourd’hui cultivés en France. Une surface que Silphie France espère tripler dans les deux ans à venir.

La culture de la silphie en France a émergé dans le Grand Est. Je suis en effet Vosgien et les premières ventes de semence se sont naturellement faites dans la région. Petit à petit, la médiatisation a permis de faire connaître la silphie et ses vertus. Nous avons aussi organisé un « silphie Tour » après la création de Silphie France en 2020. Cette initiative a notamment eu des impacts positifs importants dans l’ouest et le nord de la France, qui concentrent en effet un grand nombre d’élevages et d’installations de méthanisation. Les implantations se sont petit à petit multipliées dans toute la France, pour atteindre aujourd’hui une surface de plus de 7 000 hectares, répartis dans environ 70 départements. Seul le sud-est ne présente pas un potentiel suffisant – les modes de culture et les surfaces y sont assez différents. Une belle dynamique est également en train de se mettre en place dans le sud-ouest depuis 2022, à la faveur notamment de la disparition de certains vignobles. Nous espérons ainsi tripler cette surface de 7 000 hectares de silphie dans les deux ans à venir, et développons en outre sa culture à l’étranger, dans huit autres pays. On sent un vrai engouement pour la plante, y compris de la part des Chambres d’agriculture, ou d’institutions telles qu’INRAE, qui ont en effet pris le dossier en main depuis deux ans maintenant. La culture a aussi obtenu une reconnaissance dans le cadre de la PAC, ce qui a été pour moi un long combat.

Si elle n’est bien entendu pas vouée à remplacer quelque autre culture que ce soit, la silphie peut se révéler un complément intéressant pour n’importe quelle exploitation française ; chaque ferme peut lui trouver une utilité ! Il s’agit d’une « niche » qui peut aider les agriculteurs à faire face aux nombreuses problématiques qui s’imposent désormais à eux.


[1] « Premier stade de développement des tiges florifères d’une plante », source CNRTL.

Retrouvez-nous au salon JEC World 2024 ! Le plus grand salon international des composites

Sont attendus 1300 exposants français et internationaux de l’industrie et 43 500 visiteurs, preuve que ce salon parvient à réunir l’ensemble des acteurs et décideurs de l’industrie mondiale des composites autour d’un programme riche, inspirant et fédérateur.
Décideurs de l’industrie, c’est l’occasion pour vous d’encourager les opportunités d’affaires au travers de rendez-vous d’affaires appelés “Business Meetings Program”.
Son programme de conférences mettra à la fois l’accent sur les défis de l’industrie dans sa globalité, mais également sur les secteurs d’application, en particulier dans les domaines de l’énergie éolienne, de l’aéronautique et des transports.

En parallèle, à travers les compétitions JEC Startup Booster et JEC Innovation Awards ; les Innovation Planets ou encore la zone Discover Composites, un panorama complet des innovations en termes de procédés, matériaux et produits s’offre à vous. Assistez à des démonstrations grandeur nature dans la Live Demo Area grâce aux nombreuses machines et produits présentés en fonctionnement.
Enfin, l’accent sera mis sur l’éducation et le recrutement, grands challenges de l’industrie des composites. La zone Campus s’agrandit avec la présence de 12 universités, centres de recherches, agences de recrutement, créant un carrefour de rencontre pour les diplômés, experts et passionnés de composites en recherche de nouveaux projets ou nouvelles opportunités.
Profitez de cette occasion unique pour développer vos activités, anticiper la prochaine évolution de l’industrie et trouver des solutions, plus intelligentes et plus durables. Techniques de l’ingénieur sera également présent au stand 6N120, pour vous accompagner dans vos réalisations.

Profitez dès maintenant d’un code promotionnel exclusif : TECHNIKINGEJW24

Si vous souhaitez en savoir plus sur cet événement et connaître le programme complet, rendez-vous directement sur le site.

Obtenez votre badge ici !

Éolien en mer : accélération en cours

L’année 2023 a fait souffler un vent heureux en Europe sur la filière de l’éolien en mer. Le Vieux Continent a vu s’installer 4,2 GW de nouvelles installations le long de ses côtes, dont 3 GW pour les seuls pays de l’Union européenne. La fédération européenne des professionnels de l’éolien, Wind Europe, s’est félicitée de ces capacités complémentaires ayant très largement dépassé celles de 2022, qui étaient respectivement de 2,5 GW et 0,9 GW. En comparaison, 14 GW d’éoliennes terrestres ont été installées dans l’Union européenne en 2023. Le parc éolien total installé dans l’UE est de 220 GW dont une petite vingtaine pour l’éolien en mer.

L’objectif de l’Union européenne est de porter la capacité éolienne offshore à 60 GW en 2030 et à 300 GW en 2050. Le rythme de construction de nouveaux parcs doit donc s’accélérer. Fin 2023, la Commission européenne a acté un paquet de 15 mesures allant en ce sens, et les acteurs de la filière ont signé une charte pour faciliter les projets avec la majorité des États Membres, 21 d’entre eux ayant spécifiquement annoncé leurs objectifs de développement. Un contexte qui semble porteur, d’autant plus que les machines progressent toujours, se traduisant notamment par une hausse du facteur de charge pour les installations neuves de 50% pour l’éolien en mer et de 30-48% pour l’éolien terrestre. Wind Europe est néanmoins attentive aux conditions réelles des appels d’offres, malmenés par la hausse de l’inflation. Elle veille aussi à ce que le Net Zero Industry Act ne perturbe pas la situation actuelle : il prévoit qu’une part minimum (20 %) des marchés européens soient alimentés par des produits européens. Si cela fait sens pour les filières industrielles avec de fortes importations, cela n’a pas de raison d’être pour le secteur éolien européen où quasiment toutes les éoliennes posées sont fabriquées en Europe (250 usines, 300 000 emplois au total dans la filière).

Des parcs de très grande taille

Les pays ayant le plus porté la dynamique haussière de 2023 sont les Pays-Bas, le Royaume-Uni et la France. Au large des côtes néerlandaises a été inauguré le plus grand parc éolien en mer du Monde, nommé Hollandse Kust Zuid, avec une puissance de 1 529 MW, soit l’équivalent d’un EPR ! Réalisé par l’énergéticien suédois Vattenfall, il est constitué de 139 éoliennes de Siemens Gamesa, d’une puissance unitaire de 11 MW. Réparties sur quatre parcelles représentant au total une superficie de 115 km2, à une distance de 18 à 36 km de la terre, elles ont été installées en seulement deux ans. Sans subvention, l’électricité sera vendue directement sur les marchés ou à des industriels (BSF, Air Liquide) dans le cadre de contrats de long terme.

Le Royaume-Uni a déjà 14,7 GW d’éolien offshore en service et compte arriver à 50 GW en 2030. Face à l’inflation, il a rehaussé le prix plafond des appels d’offres de 44 à 73 £/MWh[1], ce qui a remis sur les rails une dizaine de projets qui pourraient cumuler 10 nouveaux gigawatts. À elle seule, la ferme éolienne en mer de Hornsea 3, en projet au nord-est de Norwich, deviendrait la plus grande du monde avec 231 éoliennes totalisant 2,9 GW.

La France, de son côté, a enfin vu émerger les premières éoliennes de ses premiers parcs. Après celui de Fécamp en 2022 (480 MW), ce sont ceux de Saint-Brieuc et Fécamp qui ont commencé de produire de l’électricité en 2023. Toujours en cours de chantier, ils doivent atteindre 496 MW pour le premier et 497 MW pour le second. À Fécamp, par exemple, ce sont plus de la moitié des 71 éoliennes qui sont installées, de 7 MW chacune, et les autres devraient l’être au printemps 2024. Neuf autres projets sont en cours sur les façades nord et ouest de la France (voir carte). En Méditerranée, l’objectif est de privilégier l’éolien flottant, technologie déjà en test avec la ferme pilote de Faraman où trois éoliennes flottantes ont été installées en 2023, pour un total de 23 MW. Deux autres sites pilotes sont en construction à Gruissan (30 MW) et à Leucate-Le Barcarès (30 MW) pour une mise en service prévue cette année. Deux projets commerciaux de 250 MW chacun sont en cours de mise en concurrence.

L’objectif français est d’avoir 45 GW d’éolien en mer en 2050. À la dizaine de gigawatts déjà en développement ou identifiés, une quinzaine supplémentaire doit l’être dans les 10 ans, et le reste ensuite. Une accélération s’impose, surtout quand on voit que les premiers parcs sont sortis de mer plus de 11 ans après les premiers appels d’offres… Et les progrès récents ne doivent pas faire oublier que la France est en retard sur ces objectifs d’électricité renouvelable, comme le récent baromètre d’Observ’ER, de l’Ademe et de la FNCCR l’a confirmé.


[1] avec le taux de change de 0,8526, au 2 février 2024 selon la Banque de France, 1€=0,8526 £, cela fait, traduit en euro, un passage de 51,6 à 85,6 €/MWh.

Le mix énergétique italien, entre dépendance au gaz et ambition nucléaire

L’Italie est, pour son approvisionnement énergétique, fortement dépendante de l’extérieur. En 2021, près de 80% de l’énergie consommée par le pays était importée, faisant du pays le second importateur net d’électricité au monde.

A l’heure actuelle, le mix énergétique italien est composé à près de 80% d’énergies fossiles :

  • 42% de gaz ;
  • 36% de pétrole ;
  • 4% de charbon.

Pour s’approvisionner en gaz, l’Italie fait aujourd’hui principalement appel à l’Algérie, depuis le début de la guerre entre la Russie et l’Ukraine. En effet, la Russie fournissait près de 40% du gaz importé par l’Italie avant 2020. Ce chiffre se situe aujourd’hui aux alentours de 10%.

Pour autant, l’Italie a considérablement développé son potentiel de production d’énergies renouvelables depuis dix ans. En 2020, les énergies renouvelables représentaient ainsi près de 18% de la consommation énergétique brute finale du pays, au-delà des objectifs fixés par le gouvernement (17%).

L’hydroélectricité joue un rôle de plus en plus prépondérant dans la production d’énergie dans la péninsule : entre 12 et 17% de la production électrique italienne sont ainsi d’origine hydroélectrique, le pays est même un des premiers à avoir mis en oeuvre des installations hydroélectriques, à la fin du 19ème siècle. Ainsi, en 2022, le pays se place au septième rang des producteurs d’hydroélectricité en Europe (5,3% de la production totale du vieux continent). L’Italie occupe même le premier rang européen en ce qui concerne les dispositifs de pompage turbinage, avec 14% du total européen, et se place au quatrième rang mondial, derrière les géants chinois, américains et japonais.

L’électricité géothermique est aussi une spécificité italienne. Le pays se plaçait en 2019 au sixième rang mondial – 6 TWh – en termes de production d’électricité via des sources géothermales, l’ensemble des centrales de production étant situé en Toscane.

En ce qui concerne les sources de production renouvelables plus classiques, à savoir l’éolien et le photovoltaïque, même si le pays dispose d’un potentiel important pour ces deux sources de production, les difficultés administratives liées à la mise en place de nouvelles infrastructures freinent la croissance de ces dernières. Une situation qui fait actuellement l’objet de simplifications, et qui doit permettre au pays d’être en cohérence avec les objectifs fixés par l’UE pour 2030.

En effet, selon les prévisions liées aux mesures Fit For 55, les capacités en énergies renouvelables installées en Italie devraient passer de 58 GW en 2021, à 128 GW en 2030, faisant grimper la part des énergies renouvelables dans le mix électrique transalpin de 41 à 72%. Pour parvenir à faire de cette ambition une réalité, il faudra cependant accompagner la croissance des énergies renouvelables d’infrastructures de stockage et de réseau importantes pour intégrer ces énergies de manière efficace dans le réseau transalpin.

Enfin, l’Italie, qui a participé ces derniers mois aux réunions de l’Alliance du nucléaire en tant qu’observateur, regarde avec une attention particulière le regain d’intérêt de plusieurs pays européens pour l’atome. Et pour cause, la perspective d’un retour au nucléaire permettrait à l’Italie de réduire sa dépendance en termes d’approvisionnement énergétique. Cette dernière était de 73% en 2020, alors que la moyenne en Europe se situe autour de 58%. Aussi, l’industrie nucléaire italienne est toujours très active et le gouvernement vient d’acter la relance de la recherche sur le nucléaire.

Plantes NTG : les discussions avancent au niveau européen

Le 5 juillet 2023, la Commission européenne a proposé un règlement visant à encadrer l’utilisation de plantes issues des nouvelles techniques génomiques (NTG), qualifiées par les ONG écologistes de « nouveaux OGM ». Le 24 janvier 2024, la commission de l’environnement du Parlement européen a adopté sa position en faveur de la proposition de la Commission relative aux nouvelles techniques génomiques (NTG), introduisant plusieurs amendements. Un vote en plénière est prévu le 6 février avant les négociations avec les États membres.

Deux catégories de « plantes NTG »

Le texte adopté, comme la proposition initiale de la Commission européenne, prévoit de distinguer deux catégories de végétaux issus des NTG. Les plantes de catégorie 1, entrant dans le cadre de l’annexe 1 de la proposition de règlement, seront considérées comme « équivalentes aux végétaux conventionnels ». Les autres plantes NTG – de catégorie 2 – entreront dans le cadre de la législation sur les OGM.

Les promoteurs des NTG défendent le fait que ces plantes obtenues par modification génomique en laboratoire auraient pu apparaître naturellement, ou via des croisements traditionnels. Les députés prévoient l’étiquetage des semences de ces plantes et l’instauration d’une liste publique en ligne de ces végétaux. En revanche, ils renoncent à tout étiquetage obligatoire pour informer les consommateurs. Seules les plantes NTG de catégorie 2 seraient soumises à un étiquetage obligatoire pour les produits à destination des consommateurs.

Quel que soit leur classement, les députés ont amendé la proposition pour interdire totalement les brevets sur tous les végétaux NTG. Ils considèrent également que tous les végétaux NTG devraient rester interdits dans la production biologique.

Quelles différences entre les deux catégories de NTG ?

L’annexe 1 de la proposition de règlement de la Commission européenne définit les critères d’équivalence entre les plantes NTG et les plantes conventionnelles. Pour avoir cette équivalence, toute plante ne devrait pas présenter plus de « 20 modifications génétiques » dans sa séquence d’ADN ciblée par rapport à la plante d’origine, propose-t-elle.

Cette annexe énumère les possibilités comptant comme une modification. Ainsi, il serait possible de substituer ou insérer 20 nucléotides maximum ou supprimer autant de nucléotides que voulu, « à condition que la modification génétique n’interrompe pas un gène endogène ». Il sera également possible de réaliser une inversion ciblée d’une séquence d’un nombre quelconque de nucléotides ou « toute autre modification ciblée de toute taille, à condition que les séquences d’ADN qui en résultent soient déjà présentes […] dans une espèce du pool génétique des obtenteurs ».

Les députés souhaitent modifier les règles proposées concernant la taille et le nombre de modifications nécessaires pour qu’un végétal NTG soit considéré comme équivalent aux végétaux conventionnels. Ils souhaitent retirer la limite des « 20 modifications génétiques », mais introduire une limitation du « nombre de mutations » à « 3 par séquence codante pour une protéine ».

Des critères à renforcer selon l’Anses

En décembre, l’Anses, l’agence sanitaire française a publié un avis critiquant les critères d’inclusion dans la catégorie 1 proposés par la Commission européenne. Elle invite notamment à envisager des seuils de modifications génétiques en fonction des tailles des génomes de chaque plante.

Contrairement à l’Académie des technologies qui prônait dans son avis de février 2023 de ne faire aucune différence entre les techniques utilisées pour modifier le génome – hors transgénèse –, l’avis de l’Anses appelle aussi à différencier les techniques utilisées. En particulier, elle appelle clairement à exclure de la catégorie 1 les plantes issues de l’intragénèse ou encore de la cisgénèse.

Enfin, l’agence soulève l’absence de « définition de ce qu’est un végétal conventionnel ». Elle recommande de « clarifier les définitions de plusieurs termes », comme la notion de « site ciblé », de « matériel génétique » ou encore de « pool génétique des obtenteurs ».

Écoutez notre podcast Cogitons Sciences : Comment l’IA révolutionne notre façon de travailler ? [L’IA s’invite dans nos métiers #1]

Distinguer l’IA classique, générative et hybride, accepter l’IA dans son quotidien professionnel, déterminer des tâches à déléguer aux différentes IA, faire des prompts précis. Frédéric Pascal et Marie-Aude Aufaure nous apportent leurs éclairages sur ces technologies déjà ancrées dans nos métiers.

Écoutez l’épisode ici !

Evoluer aussi vite que l’IA [01:12 – 07:40]

 L’intelligence artificielle est « un ensemble de procédés complexes, logiques et automatisés, au travers d’algorithmes, qui permettent de réaliser des tâches pouvant être réalisées par des humains » définit Frédéric Pascal. Deux type d’IA se distinguent, faisant appel à des compétences différentes : la classique (à programmer) et la générative (dont les prompts doivent être définis précisément). Les outils d’intelligence artificielle évoluant vite, il faut régulièrement se mettre à jour.

L’IA modifie la façon de travailler [07:46 – 13:12]

L’IA générative offre de nombreuses possibilités, notamment de s’affranchir des tâches chronophages. « Il faut déterminer ce qu’on a intérêt à laisser à l’IA et ce qui est vraiment cœur de métier, à conserver” affirme Marie-Aude Aufaure. Une fois les tâches sélectionnées, il est important de se former afin de maîtriser le langage de l’IA – comme les prompts de l’IA générative – afin de l’utiliser le plus précisément possible.

Se différencier [13:18 – 21:38]

L’intelligence artificielle peut faire monter tout utilisateur en compétence, notamment dans la qualité des données récoltées ou encore dans les tâches fastidieuses, telles que la recherche d’information, de code, la traduction ou encore la synthèse, afin de se libérer du temps. Toutefois, pour tirer leur épingle du jeu, les chercheurs et ingénieurs vont devoir utiliser les bénéfices de l’intelligence artificielle de concert avec leur propre intelligence. Mais également de prendre en considération les enjeux éthiques et environnementaux.

L’IA n’est pas une option ! [21:44 – 26:24]

 Difficile aujourd’hui de se passer de l’IA sans se faire dépasser. Pour Marie-Aude Aufaure, il est nécessaire d’identifier les tâches qui ont intérêt à être automatisées, et ne pas se focaliser uniquement sur l’IA générative. « Sur un processus ou un problème défini, il faut combiner l’IA générative et classique, afin d’avoir par exemple un processus un peu plus frugal », affirme-t-elle. Un autre point important est de maîtriser les risques en protection de données, de cyberattaques ou encore d’évolution d’emploi.

Cliquez ici pour écouter l’épisode !

Références citées :

ChatGPT d’OpenAI, Olympiades de Mathématiques, Google Bard, AI Act, SNCF, SPOC, MOOC

Ressources pour aller plus loin :

Artificial Intelligence : a modern approach de Stuart Russell et Peter Norvig

L’IA éducative : l’intelligence artificielle dans l’enseignement supérieur de Frédérique Guénot

Le temps des algorithmes de Serge Abiteboul et Gilles Dowek

Quand la machine apprend de Yann Le Cun

 

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet. Le générique a été réalisé par Pierre Ginon.

La crise peut-elle stopper la timide phase de réindustrialisation de la France ?

Les chiffres sont tombés. En 2023, la France a enregistré 57 729 nouvelles procédures liées à des défaillances d’entreprises, selon le dernier baromètre du cabinet Altares. Sur un an, la hausse atteint près de 36 % et est certes moins forte que celle de 2022, qui avait été une année exceptionnelle (+49 %), mais reste toutefois la deuxième la plus rapide de l’histoire. Plus inquiétant, le rythme de nouvelles procédures ne semble pas faiblir, puisque 16 820 dossiers ont été ouverts au dernier trimestre, soit une hausse de plus de 37 %, ce qui correspond à l’un des pires chiffres des trente dernières années.

L’industrie semble un peu mieux résister, puisque les nouveaux dossiers de défaillance ont augmenté d’un peu plus de 29 % l’an dernier, grâce notamment aux activités de manufacture (+ 23,6 %). Ce secteur reste toutefois fragilisé par les activités du textile et de l’habillement, qui enregistrent une augmentation des nouvelles procédures de 41,5 %. Alors que la progression des défaillances dans le secteur agroalimentaire est identique à la moyenne des autres secteurs, on assiste à une grave crise dans les activités de transformation et de conservation de la viande de boucherie, avec un nombre d’entreprises en difficulté au plus haut depuis au moins dix ans et en hausse de 125 %. Dans la construction, les défaillances d’entreprises s’accélèrent et concentrent à elles seules 24 % des faillites.

Bien au-delà des effets de rattrapage post Covid observés en 2022, ces défauts d’entreprise sont directement corrélés à l’environnement économique particulièrement tendu auquel elles doivent faire face. Une situation, confirmée par l’analyse de Thierry Millon, directeur des études de la société Altares : « activité en berne, niveau d’inflation encore élevé, taux d’intérêt toujours hauts, consommation qui flanche, forment un dangereux cocktail pour des entreprises aux trésoreries épuisées après une succession de crises. Même les plus grands acteurs ne sont pas épargnés, transférant ainsi potentiellement le risque vers leurs fournisseurs et sous-traitants. 171 entreprises d’au moins 100 salariés ont défailli en 2023, c’est 80 % de plus qu’en 2022 et un nombre au plus haut depuis 2014 (185 défauts). »

Ces mauvais chiffres pourraient porter préjudice à la timide phase de réindustrialisation observée en France depuis quelques années. Alors que la part de l’industrie française dans le PIB atteignait 19 % au début des années 70, ce niveau n’a cessé de chuter pendant près de cinquante ans, pour s’établir à 9 % en 2022, selon les chiffres de Bpifrance. « Il faut cependant attendre 2022 pour observer une véritable évolution dans la relocalisation française et la réindustrialisation, amorcée en 2017 », analyse la banque publique. Une tendance confirmée par le cabinet Trendeo, qui a enregistré 300 créations nettes d’usines sur la période 2017-2022, alors que 600 disparitions nettes avaient été comptabilisées après la crise financière, entre 2008 et 2016.

France 2030 : encore une trentaine de milliards à dépenser

Il est malgré tout trop tôt pour affirmer que la conjoncture économique difficile que traverse la France va stopper la dynamique de réindustrialisation. D’autant que cette dynamique devrait continuer à être portée par le plan d’investissement France 2030, qui représente le principal instrument du développement de l’industrie du pays, doté d’une enveloppe de 54 milliards sur 5 ans. L’objectif est de financer dix secteurs innovants, et en 2 ans, environ 25 milliards ont déjà été dépensés. Une trentaine de milliards vont donc encore alimenter l’économie sur 3 ans, une enveloppe à laquelle il faut ajouter l’effet de levier, c’est-à-dire l’effet d’entraînement sur l’investissement privé, généralement estimé à 1,6 fois le montant public.

L’autre enjeu est aussi celui de la décarbonation de l’industrie. La moitié des fonds du plan France 2030 est destinée à la transition écologique et énergétique du pays. En octobre dernier, pour donner un coup d’accélérateur à la réindustrialisation, une loi « industrie verte » a été promulguée et vise, entre autres, à faciliter l’implantation en France d’industries vertueuses sur le plan environnemental et à faire de la France le leader de l’industrie verte en Europe. Tout juste nommé Premier ministre, Gabriel Attal a annoncé son intention de déposer un deuxième projet de loi « industrie verte » et dont l’un des axes serait de soutenir des projets d’envergure nationale.

Avec cette politique volontariste, le gouvernement espère porter la part de l’industrie dans l’économie à 15 % du PIB tricolore d’ici à 2027. Un objectif ambitieux, mais l’un des freins à la réindustrialisation pourrait ne pas être économique et se situer au niveau du manque de compétences nécessaires au développement industriel. « Dans les dix ans qui viennent, on va avoir besoin de recruter plus d’un million de personnes parce qu’on se réindustrialise et parce qu’il va falloir remplacer de nombreux départs à la retraite », a déclaré Roland Lescure, ministre délégué chargé de l’Industrie. Entre 2017 et 2022, le nombre d’emplois industriels vacants a été multiplié par trois, passant d’environ 20 000 à 60 000.

IA & sécurité routière : INNOV+ trace sa route

Hébergée jusqu’alors à Gif-sur-Yvette dans les locaux de Centrale SupElec, INNOV+ a déménagé le 30 novembre dernier à quelques centaines de mètres de là, dans les locaux de la Ferme du Moulon. Forte d’une douzaine de salariés à temps plein, l’entreprise réalise un chiffre d’affaires proche du million d’euros grâce aux solutions d’IA qu’elle développe au service de la sécurité des conducteurs, mais aussi aux missions de conseil qu’elle réalise à la demande des constructeurs et équipementiers. Pour accélérer son développement, INNOV+ a lancé il y a peu une levée de fonds en série A pour un montant de 5 M€, qu’elle espère voir aboutir à la fin de ce premier trimestre 2024.

Début janvier, l’entreprise présentait aux équipementiers mondiaux, à l’occasion du CES de Las Vegas, ses dernières innovations, et notamment sa « tête robotisée » permettant de reproduire les mouvements de tête et des yeux d’un conducteur. Stéphane Arnoux, co-fondateur et CEO d’INNOV+, nous en dit plus sur cette nouveauté, mais aussi sur toutes les avancées réalisées par l’entreprise depuis sa création en 2014, ainsi que sur ses projets en cours.

Techniques de l’Ingénieur : Vous avez cofondé INNOV+ avec Patrice Lacroix en 2014. Comment vous êtes-vous rencontrés, et comment cette aventure entrepreneuriale a-t-elle débuté pour vous ?

Stéphane Arnoux co-fondateur et CEO d’INNOV+
Stéphane Arnoux a co-fondé l’entreprise INNOV+, dont il est aujourd’hui CEO, avec son ami d’enfance Patrice Lacroix, qui en est quant à lui le CTO.

Stéphane Arnoux : La rencontre s’est faite de longue date… ! Nous avons en effet grandi sur les bancs de l’école ensemble, du collège au bac, et même jusqu’à un cursus en électronique à Bac+2. Je suis ensuite parti en école de commerce, et mon associé a quant à lui poursuivi ses études en électronique. Nous nous sommes ainsi perdus de vue pendant une quinzaine d’années. Nous avons toutefois fini par nous retrouver aux environs de nos trente ans à l’occasion du Salon de l’Automobile : Patrice gérait les contrôles d’accès de l’évènement, et j’y étais pour ma part présent de par mes fonctions professionnelles au sein d’une filiale de Bosch.

Nous avons alors commencé à travailler en collaboration tous les deux, puis décidé, à nos quarante ans, de monter une entreprise ensemble. Nos profils nous semblaient en effet très complémentaires, Patrice avec ses compétences « tech » et moi avec mon profil « business ».

Notre ambition, avec INNOV+, était de créer des logiciels innovants, dans un domaine qui était historiquement le mien : celui de l’automobile. Très vite, nous avons commencé à construire des prototypes sur Android, tout en prenant conscience de l’intérêt que pouvaient revêtir les capteurs optiques pour la détection du sommeil. Nous avons ainsi opéré un pivot stratégique, et INNOV+ est devenue une start-up, en 2014.

Qui vous a accompagnés dans ce virage que vous avez décidé d’opérer ? Quelles ont été les étapes qui ont suivi ?

Nous avons bénéficié d’une phase d’incubation à IncubAlliance[1]. Nous sommes par ailleurs entourés des compétences d’experts de SupOptique[2] afin de concevoir un capteur optique spécifique, fonctionnant dans le proche infrarouge afin de nous permettre d’analyser les yeux des conducteurs derrière des lunettes de soleil ou encore de nuit. En parallèle, nous nous sommes lancés dans le développement d’un algorithme de suivi des mouvements de tête et du rythme oculaire, dans le but de détecter les microsommeils, mais aussi les distractions. Ceci, afin de pouvoir diffuser dans l’habitacle d’un véhicule des alertes visuelles et sonores en cas de somnolence ou d’inattention du conducteur. Pendant six ans, nous avons ainsi combiné développement hard- et software, afin d’aboutir à notre preuve de concept. Nous avons ensuite expérimenté cette POC sur des autocars de Transdev, sur des camions de Total, ou encore des véhicules utilitaires d’Enedis, GRTGaz, Vinci ou encore Bouygues.

INNOV+ développe notamment des solutions d’IA spécifiquement axées autour de la surveillance intérieure d’un véhicule
INNOV+ développe notamment des solutions d’IA spécifiquement axées autour de la surveillance intérieure d’un véhicule.

Nous avons finalement abouti à deux versions de hardware et créé par ailleurs la marque Toucango, afin de proposer un compagnon de route aux conducteurs.

Nous avons aussi tenté d’industrialiser la technologie au niveau hardware, juste avant la crise sanitaire. Le COVID a malheureusement été une barrière au « go to market » que nous comptions réaliser à destination des flottes de véhicules. Cependant, nous travaillions déjà depuis 2015 pour PSA, aujourd’hui Stellantis, à l’intégration de ce type de capteur dans les tableaux de bord, afin d’en faire un Driver Monitoring System (DMS), dans la droite ligne de l’ADAS (Advanced Driver Assistance System). Ce nouveau type de système a été rendu obligatoire par l’UE en 2019, pour tout véhicule immatriculé à partir de 2025.

Comment ce type de système fonctionne-t-il ?

Un DMS comprend tout d’abord une caméra proche infrarouge, équipée de LED chargées d’éclairer la scène, de nuit comme de jour afin de suivre plus facilement le rythme oculaire et la dynamique de tête. Ce module-caméra est placé dans l’axe du volant et raccordé au calculateur ADAS du véhicule. Ce calculateur est équipé du logiciel chargé d’analyser la dynamique du regard et du visage, ce que l’on appelle le gaze[3]. C’est ainsi que le DMS est capable de détecter les distractions ou les microsommeils qui sont les prémices d’une somnolence. Le logiciel caractérise ces alertes, et envoie l’information au calculateur. Charge à lui, ensuite, en fonction de la programmation faite par le constructeur, d’envoyer des alertes sonores et visuelles, voire des vibrations dans les sièges.

La chaîne logicielle a beaucoup évolué ces dernières années au fil de l’amélioration de la résolution des capteurs optiques. En ce qui concerne le traitement de l’image, nous traitions au départ les visages en deux dimensions. Nous arrivons aujourd’hui à reproduire une tête en 3D, grâce à de l’IA embarquée, plus précisément des réseaux neuronaux de type GAN et CNN. Cela nous permet par exemple de reconstruire un œil masqué derrière des lunettes, ou un visage à demi caché dans l’ombre, et donc in fine d’améliorer nos prédictions de la somnolence et des distractions.

INNOV+ a développé une tête robotisée capable de reproduire les mouvements de tête et des yeux d’un conducteur
Afin de conseiller constructeurs et équipementiers sur l’emplacement des caméras, le choix de leur qualité, ainsi que celui des logiciels qui traitent ensuite le signal de ces capteurs optiques, INNOV+ a développé une tête robotisée capable de reproduire les mouvements de tête et des yeux d’un conducteur derrière son volant.

Ce DMS fait ainsi entrer une première caméra dans l’habitacle du véhicule, mais bien d’autres devraient suivre, pour surveiller ou offrir plus de confort aux occupants, sous la forme d’OMS, pour « Occupant monitoring systems », ou encore d’IMS : des «Interior monitoring systems ».

 

Qui sont aujourd’hui vos clients ? Quels sont vos projets pour les mois et années à venir ?

Depuis la crise de la COVID, nous jouons un rôle de « coach », de partenaire de validation et d’intégration pour Stellantis et son équipementier fabricant les capteurs et développeur logiciel, Forvia. Nous les conseillons sur l’emplacement des caméras, le choix de leur qualité, ainsi que celui des logiciels qui traitent ensuite le signal de ces capteurs optiques.

Nous avons pour cela développé une tête robotisée, qui permet de reproduire les mouvements de tête et des yeux d’un conducteur derrière son volant. Elle peut en outre être équipée de lunettes, afin d’étudier les phénomènes de réflexion qui perturbent l’analyse d’image.

Nous livrons un rapport à nos clients à l’issue de phases de tests que nous menons sur une durée de deux semaines, qui pointe d’éventuelles faiblesses du système, afin ensuite de leur permettre d’en améliorer le fonctionnement.

La part de véhicules équipés d’un DMS aujourd’hui en Europe est d’environ 10 %. Le marché va se développer à la faveur de l’évolution législative que j’évoquais. Nous avons notamment cinq ou six modèles de véhicules de Stellantis à tester dans les prochains mois. Nos propres algorithmes d’IA ne sont pas encore embarqués à bord des véhicules de nos clients, qui ont opté pour la solution d’homologues suédois. Nous préparons en revanche activement l’intégration de nos logiciels, cette fois dans le domaine aéronautique, avec l’aide de la DGAC. Nous allons pour cela transposer les IA Toucango dans un environnement d’aéronef, avec en outre un système à deux caméras : l’une pour le pilote, l’autre pour son copilote.

Nous continuons par ailleurs à déployer Toucango par petites touches, auprès de clients qui ont des besoins spécifiques. Cela représente entre cent et deux cents véhicules par an, surtout des flottes francophones, ou encore des véhicules utilisés sur des sites miniers en Afrique, où la sécurité est primordiale. Même si nous n’avons pas véritablement pu industrialiser la solution, 700 à 800 véhicules dans le monde sont aujourd’hui sécurisés grâce à notre solution Toucango. Nous livrons ainsi chaque mois des rapports de somnolence et de distraction à nos clients. Elle nous sert aussi de laboratoire pour améliorer nos logiciels.

Par ailleurs, nous n’avons pas encore exploré la voie de la biométrie, mais je pense que nous y arriverons un jour… Cela pourrait en effet apporter de nombreuses fonctionnalités intéressantes, telles que la mémorisation automatique de la position des sièges. Nous ne sommes pas forcément les plus avancés dans ce domaine, en comparaison des Chinois par exemple, mais nous avons l’avantage d’un environnement réglementaire protecteur, à même de prévenir les éventuelles dérives de l’IA et de la vision par ordinateur.

Nous avançons en outre sur deux autres axes de développement fort. Le premier vise à développer des logiciels de in-cabin monitoring toujours plus utiles. Nous avons pour ambition de mettre au point un système de real time video cleaner destiné à fournir aux constructeurs des images homogènes, de la meilleure qualité possible, afin de faciliter la prise de décision des calculateurs. Nous avons aussi pour ambition de développer un « eye cleaner », un algorithme qui vise à gommer les lunettes du conducteur, qu’il s’agisse de la monture ou du reflet des verres. Nous sommes pour cela soutenus par Bpifrance, et espérons aboutir à une première version dans les prochains mois. Cette brique logicielle, qui s’annonce assez disruptive, pourra être proposée au marché, nous l’espérons, courant 2024.

D’autre part, nous créons une salle que nous appelons la lighting room. Elle devrait voir le jour en ce début d’année 2024 dans nos nouveaux locaux. Il s’agit d’une salle équipée d’un plateau tournant, sur lequel peut être placé un véhicule. Une rampe d’éclairage reproduit sous la forme d’une ellipse le mouvement et l’intensité du soleil. Cela va nous permettre de tester les caméras des véhicules de nos clients dans des conditions d’éclairage comparables à celles rencontrées tout au long d’une journée, et ceci sur différents types de visages, ainsi que sur notre tête robotique équipée de différents types de lunettes.

Pour mettre à l’épreuve les caméras des véhicules de ses clients, INNOV+ développe actuellement une salle équipée d’un plateau tournant et d’une rampe d’éclairage reproduisant la trajectoire elliptique du soleil ainsi que ses variations d’intensité lumineuse.


[1] Incubateur deeptech de Paris-Saclay, créé en 2000.

[2] Institut d’optique – Graduate School de Paris-Saclay

[3] En anglais, « regard fixe », littéralement.

Félix Tréguer : “La surveillance croit largement avec les techniques d’IA”

Depuis 2008, la Quadrature du Net* défend les libertés fondamentales des citoyens dans l’univers numérique. Initialement centrée sur le web, cette association politique s’est désormais ouverte à tout le secteur du numérique et lutte entre autres contre la censure et la surveillance, pour promouvoir à l’inverse un Internet libre et décentralisé.

Chercheur associé au Centre Internet et Société du CNRS, Félix Tréguer est membre fondateur de la Quadrature du Net et auteur du livre Contre-histoire d’Internet. Pour Techniques de l’Ingénieur, il revient sur les risques de l’intelligence artificielle pour notre démocratie et invite à une réflexion profonde sur notre utilisation du numérique.

Techniques de l’Ingénieur : Qu’est-ce que la Quadrature du Net ?

Félix Tréguer, chercheur au CNRS et membre de la Quadrature du Net
Félix Tréguer, chercheur au CNRS et membre de la Quadrature du Net.

Félix Tréguer : La Quadrature du Net est une association politique qui a pour rôle de défendre une vision émancipatrice du web et le respect des droits humains dans tout ce qui touche au numérique. Elle a été créée par des militants qui revendiquent la possibilité d’une informatique démocratique contrôlée par les utilisateurs, et qui ménage un large espace aux communications et aux services non marchands.
Initialement centrés sur les sujets liés au web comme les droits d’auteur ou la neutralité du net, nous avons évolué en 2019 vers des sujets qui concernent le numérique de manière plus large. Par exemple, notre initiative Technopolice porte sur l’incorporation de l’IA dans les pratiques de surveillance policière.

Concrètement, nous avons des activités de lobbying citoyen : nous récupérons des informations, nous menons des analyses techniques, politiques, juridiques, nous rencontrons des parlementaires français et européens, et nous menons des actions en justice si besoin.

Sur quels sujets allez-vous travailler en 2024 ?

Notre volet Technopolice prend de l’ampleur avec les JO 2024 et l’expérimentation de la loi sur la vidéosurveillance algorithmique. Cette surveillance est utilisée depuis des années illégalement et entre cette année dans le cadre législatif expérimental. Un autre dossier concerne la défense du droit au chiffrement des communications pour lutter contre la surveillance étatique. Il y a eu de grands progrès dans la démocratisation de ces techniques, qui ont été déployées par WhatsApp par exemple, mais elles restent criminalisées car elles gêneraient la surveillance policière des communications. Il nous semble important de rappeler pourquoi le chiffrement est fondamental et d’alerter sur la surveillance numérique croissante.

Nous souhaitons aussi pousser l’interopérabilité pour casser les monopoles des grands réseaux sociaux toxiques qui dominent nos espaces de communication. Enfin, nous allons continuer à dénoncer les pratiques anti-fraude et l’utilisation d’algorithmes de scoring dans des organismes comme la Caf. Ils utilisent des scores de risques pour évaluer les allocataires susceptibles de frauder, or ces dispositifs sont intrinsèquement discriminatoires et réorientent les contrôles vers les personnes déjà en situation de précarité très forte. Nous allons tenter de faire interdire ce type de pratique.

Quelles dérives avez-vous observé concernant l’IA ?

Nous avons beaucoup travaillé sur les IA policières, et nous nous inquiétons du déploiement à très grande vitesse des innovations dans ce domaine, car nos sociétés sont peu armées pour y faire face. Concrètement, la surveillance croit largement avec les techniques d’IA et elles ont un effet “boîte noire” car on ne sait pas exactement comment elles fonctionnent. Ainsi, ces dernières années, la police prédictive a été déployée dans une opacité totale. Tout un tas de statistiques sur la délinquance sont croisées avec des données sociodémographiques pour évaluer dans quelles zones il risque d’y avoir des incidents. Or, comme pour les scores de risques de la Caf, il y a de grandes chances pour que les facteurs de risques élevés soient corrélés avec des variables discriminatoires.

Prenons maintenant la vidéosurveillance algorithmique, donc l’idée d’automatiser la vidéosurveillance pour repérer automatiquement certaines personnes selon des critères spécifiques. Si ces techniques avaient été déployées dans les années 40, il n’aurait pas été possible d’organiser des réseaux clandestins de résistance contre le nazisme. Parfois, la démocratie tient en l’absence d’infrastructures de surveillance. Or ces technologies permettent une surveillance permanente et exhaustive de l’espace public donc elles nous semblent fondamentalement antidémocratiques. En parallèle, nous avons constaté une forme de laisser-faire total de la Cnil sur ces questions.

En quoi l’IA augmente les rapports de force dans nos sociétés ?

Contrairement à l’idée initiale du web et des ordinateurs personnels qui étaient de décentraliser l’accès aux ressources informatiques, nous sommes revenus à un numérique aux mains de quelques grandes organisations. Et c’est particulièrement le cas avec l’IA. Même si des alternatives émergent, elles ne sont pas encore à même de concurrencer les grands acteurs qui ont accès à des capacités de données et de calculs énormes. L’informatique centralise le pouvoir, elle inscrit les relations sociales dans des dispositifs techniques qui sont très difficiles à comprendre et donc à critiquer.

Un autre aspect qui a été beaucoup passé sous silence, c’est le coût écologique de ces systèmes. Le numérique est devenu un rouage essentiel d’une société industrielle qui a des impacts écologiques massifs et qui menace la survie de nombreuses espèces. Aujourd’hui, on ajoute de l’informatique à tous les échelons de la société alors que l’utopie première était juste de communiquer entre humains. Cela s’accompagne d’un coût énergétique énorme et de l’exploitation de ressources minières extrêmement rares avec tous les désordres géopolitiques que cela suppose. Ainsi, l’informatique est une machine au service du pouvoir qui ne fait qu’augmenter les désordres qu’occasionne une société saturée de rapports de domination.

Quelle marge de manœuvre avons-nous en tant que société civile ?

C’est le problème d’une société pas véritablement démocratique car, collectivement, nous n’avons pas vraiment de prise sur ces trajectoires. Quand la Caf décide d’utiliser des algorithmes pour les scores de risques, il n’y a pas de discussions, de débats au Parlement, ou même de communication publique. Pareil pour les IA policières qui se sont développées dans l’illégalité. Et une fois les technologies installées, les citoyens sont tellement habitués qu’ils ne cherchent pas à revenir en arrière. Nous sommes dans un régime politique en mauvaise santé, qui prend des décisions avec des intérêts capitalistes.

C’est pour cela que le travail que nous réalisons avec la Quadrature du Net est très important. Mais si nous arrivons à remporter quelques manches, j’ai l’impression de perdre la guerre car la surveillance numérique contre laquelle nous nous battons progresse. C’est assez compliqué de créer des effets de masse car ces questions restent techniques. Je pense qu’il faudrait davantage politiser les informaticiens, les techniciens. Ces personnes gèrent un pan crucial du système politique et économique mondial, et leurs voix pourraient faire pencher la balance.

Quelles sont vos propositions pour un numérique plus éthique ?

Il faut repenser les pratiques et se défaire de nos dépendances. Parmi les nouveaux dossiers que nous aimerions lancer, il y aurait une réflexion sur un numérique lowtech, moins énergivore. Il existe déjà tout un tas de réflexions intéressantes dans le milieu universitaire et militant. Pour commencer, nous pourrions retirer le numérique de plein d’endroits de la société où il n’est pas nécessaire. Il ne faut d’ailleurs pas oublier que les machines restent fragiles et créent des vulnérabilités dans les domaines qui ne fonctionnent plus que grâce au numérique. Il faudrait également repenser les terminaux avec des machines plus rudimentaires pour revenir à notre objectif initial qui était de communiquer entre humains.

Ensuite, nous pourrions questionner nos usages, et sortir du modèle du réseau social centralisé, où les débats sont polarisés et les discours de haine valorisés. Cela passe par des questionnements comme : comment faire communauté autour du web ? Comment s’échanger de l’information de qualité ? Il s’agit donc de repenser le web sans se faire imposer des outils par les GAFA, et en sortant des discours de greenwashing courants dans le secteur.

Que répondre aux personnes qui voient les limitations comme des entraves au progrès scientifique ?

La recherche en science n’est pas du tout une sphère de réflexion autonome dont les conséquences seraient séparées des sphères sociale et économique. On ne peut pas travailler dans l’IA en se disant que la question énergétique n’est pas de son ressort. Ces arguments produisent une forme d’irresponsabilité collective des scientifiques vis-à-vis de leurs travaux. La science et la technoscience sont partie prenante des logiques délétères de notre société, notamment écologiques, donc il me semble assez logique que les acteurs de ce secteur se saisissent de ces enjeux et cessent la complicité passive ou active avec ce type de tendances.

Que pensez-vous des initiatives de régulation comme l’AI Act à venir dans l’Union européenne, ou les propositions du AI Safety Summit qui a eu lieu en novembre dernier ?

Etant données les controverses autour d’une IA qui remplacerait certains métiers, il y a des tentatives de régulations. Mais je regrette que le débat soit dominé par la perspective d’une menace lointaine car elle laisse sous silence tous les dommages de l’IA aujourd’hui. L’AI Act part probablement d’une bonne intention, mais je le vois surtout comme une manière de rassurer la population et renforcer l’acceptabilité sociale d’une technologie controversée, en proposant quelques encadrements. Évidemment, il faudrait réussir à réguler le numérique par le droit mais je pense qu’il faudrait plutôt mener une vraie réflexion pour se demander si ces technologies nous sont vraiment utiles. Pour l’instant, les règlements autour de l’IA me semblent être des gestes de communication dont les effets restent marginaux face aux enjeux.

Propos recueillis par Alexandra Vépierre


* La Quadrature du Net

Flambée des cours, situation géopolitique… l’uranium en crise ?

Le 2 décembre 2023 lors de la COP28 à Dubaï, la France a signé une déclaration, aux côtés de 21 autres pays, dont les États-Unis, les Émirats arabes unis, et le Japon, appelant à tripler les capacités de production nucléaire mondiales d’ici 2050 par rapport à 2020. Alors que la production nucléaire a représenté 9,2 % du mix électrique mondial en 2022, mais 21,5 % de l’Union européenne, la question de l’approvisionnement en uranium s’avère particulièrement stratégique pour l’Europe. C’est l’une des questions majeures explorées par le dernier rapport annuel de l’agence européenne d’approvisionnement Euratom (ESA), publié le 29 janvier 2024.

Cette question intéressera les experts du secteur alors que les cours de l’uranium s’envolent depuis septembre 2023. Si le cours de référence – celui de l’oxyde d’uranium (U3O8) – était plutôt stable, autour de 50 dollars la livre (environ 450  grammes) sur les premiers mois de l’année 2023, il a atteint 106 dollars la livre entre le 16 et le 22 janvier 2024. C’est son plus haut niveau depuis 2007, lorsque le cours avait atteint 140 dollars.

Le regain des tensions géopolitiques en ligne de mire

Le regain d’intérêt mondial pour le nucléaire, combiné à la guerre en Ukraine lancée en février 2022 et au coup d’État au Niger en juillet 2023, participent activement à cette hausse des prix. Et pour cause, le Niger et la Russie comptent parmi les premiers fournisseurs européens en uranium. D’après le rapport de l’ESA, les approvisionnements européens proviennent majoritairement de quatre pays. En haut de ce podium pour l’année 2022, se positionnent le Kazakhstan (26,8 %), le Niger (25,4 %) et le Canada (22 %). La Russie (16,9 %) suit, loin devant l’ Ouzbékistan (3,8 %), l’Australie (2,8 %), l’Afrique du Sud et la Namibie (2,2 %). La nouvelle situation géopolitique invite donc les entreprises à varier leurs approvisionnements. En particulier, les livraisons d’uranium en provenance de Russie ont baissé de 16 % entre 2021 et 2022. Elles ont été contrebalancées par la hausse des importations en provenance notamment du Kazakhstan, de l’Ouzbékistan et du Canada.

Garantir la continuité d’approvisionnement en uranium

En plus de la production électrique, des millions d’Européens dépendent chaque année des diagnostics et thérapies utilisant des rayonnements ionisants. En ce sens, « des ruptures d’approvisionnement auraient des conséquences désastreuses pour les populations, les hôpitaux et l’industrie », rappelle l’ESA.

Face à « un risque accru lié à l’approvisionnement russe et lié à la nouvelle situation géopolitique », l’ESA appelle l’industrie nucléaire et les exploitants d’électricité à mieux anticiper et à « s’efforcer de garantir un approvisionnement régulier et suffisant, quelle que soit la structure du marché d’approvisionnement ». L’agence appelle en ce sens à conclure des « contrats pluriannuels provenant de diverses sources d’approvisionnement ». En ligne avec cette recommandation, les livraisons d’uranium à l’UE se sont faites à 98 % dans le cadre de contrats pluriannuels en 2022.

L’agence recommande en plus aux États membres qui adoptent la production d’énergie nucléaire la définition de conditions à remplir pour garantir la sécurité des chaînes d’approvisionnement. Elle appelle aussi ces industriels à se doter d’ « un niveau de stocks approprié » et d’avoir des « itinéraires et moyens de transport alternatifs ».

L’ESA l’affirme : « Une sécurité d’approvisionnement idéale implique au moins deux fournisseurs alternatifs pour chaque étape du cycle du combustible et, si possible, au moins un fournisseur européen de services ». Ainsi, l’agence invite à moyen terme à engager des investissements dans l’UE et dans ses pays partenaires « fiables et à faible risque » pour développer la prospection et l’exploitation de nouveaux gisements, « dans le respect des aspects de durabilité ».

Aura-t-on assez de monde pour construire six EPR ?

Les parlementaires n’ont pas encore eu l’occasion de donner leur avis sur la politique nucléaire de la France, mais toute la filière est déjà sur le pont pour organiser la construction de six nouveaux réacteurs EPR 2. Au-delà du déni démocratique que représente ce choix acté par le pouvoir exécutif (dès le discours de Belfort d’Emmanuel Macron en 2022) sans l’aval du pouvoir législatif, de nombreuses incertitudes se font jour : quel sera réellement le design de ces EPR par rapport à la tête de série de Flamanville ? Dans quels délais trois paires de réacteurs peuvent être réellement construites sur les sites déjà existants de Penly, Gravelines et Bugey ? À quel coût ? Et avec quels nouveaux besoins en amont pour l’approvisionnement et l’enrichissement de l’uranium, et en aval pour le traitement des déchets radioactifs ? Alors qu’EDF vient d’annoncer de nouveaux retard et surcoût du chantier EPR d’Hinley Point C au Royaume-Uni, on pourrait penser que le projet industriel français dépasse les forces d’une filière ayant vécu de nombreux déboires ces dernières années. Voire qu’il serait plus raisonnable de l’abandonner pour concentrer nos moyens sur la sobriété, l’efficacité énergétique et les énergies renouvelables…

Remise en question de la filière nucléaire

Mais si le Gouvernement persiste, une des questions les plus vivaces porte sur les ressources et les compétences nécessaires à cette relance de l’atome. Un cabinet de conseil spécialisé, Sia Partners, a étudié le sujet en partant du constat que la filière avait effectivement eu un passage à vide entre la fin du premier programme nucléaire (de 1977 à 1999) et la pose du premier béton de l’EPR de Flamanville en 2007. Cette « mise en sommeil durable » a été renforcée par le fait que l’accident de Fukushima au Japon en 2011 a freiné l’envie de lancer d’autres EPR. De plus, l’examen des retards successifs et de l’augmentation des coûts de l’EPR de Flamanville dans le rapport Folz en 2019 a froidement posé sur la table une « perte généralisée des compétences, leur gestion faillible ainsi qu’une gouvernance de projet inappropriée ».

Consciente de devoir remonter la pente pour être crédible, la filière – au premier chef desquels EDF et Framatome – a revu sa façon de gérer les compétences et ses programmes de formation. Un minimum pour assurer la qualité des missions d’un bout à l’autre de la chaîne d’un projet si complexe d’EPR. Mais encore faut-il arriver à recruter ! Comme toutes les autres filières industrielles, l’industrie électronucléaire est en déficit de profils dans plusieurs familles de métiers « considérées comme critiques pour tenir les objectifs de construction de six nouveaux EPR ». Certaines sont en tension de manière globale en France, d’où une concurrence qui ne facilitent pas les recrutements (ingénieries des procédés, travaux électriques, contrôle et qualité, gestion de projet), mais d’autres, spécifiques au nucléaire, sont dans une situation encore plus critique (radioprotection, soudage et travaux mécaniques, génie civil, sûreté nucléaire).

Étaler le rythme de construction des EPR

Face à ce défi des ressources humaines, Sia Partners évoque deux options différentes de construction à partir de mai 2027. La première est la tenue simultanée des six chantiers qui donnerait l’avantage (en théorie, si tout se passe bien) de réaliser une mise en service rapide et quasi simultanée des réacteurs entre 2035 et 2038, et de permettre une optimisation des coûts globaux. Mais, revers de la médaille, cette construction simultanée « générerait des pics de charges conséquents, auxquels il faudrait répondre dans des délais très courts ». En l’occurrence, un pic de près de 21 000 équivalents temps plein (ETP) serait atteint à mi-chantier ce qui, selon le cabinet de conseil, ne serait pas faisable. De plus, la tenue des chantiers en parallèle limiterait la possibilité d’échanges et de retours d’expériences, sans parler de la « problématique majeure de reconversion » des employés à la fin des chantiers.

L’autre option est de mener chaque paire d’EPR en cascade, en espaçant leurs chantiers de 40 mois. Dans ce cas, les constructions seraient étalées dans le temps, créant un plateau de huit années pendant lesquelles seraient mobilisés entre 10 000 et 11 700 ETP (voir graphe). Inconvénient, le dernier doublet de réacteurs ne serait livré qu’en 2043, sous couvert de ne pas avoir de probables « retards en chaîne engendrés par la dépendance des plannings entre chantiers ».

Même si le groupement des industriels français de l’énergie nucléaire (GIFEN) a un programme dédié à « la mise en concordance de la charge et des ressources » pour les dix prochaines années, la filière n’est pas au bout de ses peines en termes de recrutement. À moins de faire appel à de la main-d’œuvre étrangère, comme dans les années 1970-80 ?

Nombre d’ETP en fonction de la stratégie de construction des six EPR2
Nombre d’ETP en fonction de la stratégie de construction des six EPR2. Source : Sia Partners

Des chaussées perméables absorbant les polluants des pneus

Plus de 1,5 million de tonnes de particules issues de l’usure des pneus sont émises chaque année rien qu’aux États-Unis. Ces particules comptent pour près de 30 % des microplastiques libérés dans l’environnement, et représentent 5 à 10 % de tous ceux retrouvés dans les océans mondiaux. Après s’être accumulées sur les routes et les parkings, elles sont transportées jusqu’aux écosystèmes aquatiques par les eaux de pluie. Or, au-delà de la pollution plastique, certaines de ces particules sont extrêmement toxiques pour la faune locale. Ainsi, l’anti-ozonant 6PPD, qui retarde la dégradation du caoutchouc des pneus, se transforme en 6PPD-quinone (ou 6PPDQ) sous l’effet de l’ozone ou de l’ensoleillement. Ce produit chimique est mortel pour les saumons coho (Oncorynchus kisutch), et notamment pour les futurs géniteurs et génitrices. Face au danger environnemental, Chelsea Mitchell et Anand Jayakaran, tous deux membres de l’université d’État de Washington à Pullman (États-Unis), ont cherché un moyen efficace de retirer ces polluants de l’environnement avant qu’ils n’atteignent les rivières urbaines…

Le 6PPDQ est mortel pour les saumons coho
Le 6PPDQ, mortel pour les saumons coho (dont un spécimen est visible ici), pourrait être piégé par les chaussées perméables. Crédits : Photographie de K.King, USFWS/ Washington State University.

Les chaussées perméables à la rescousse des saumons coho

Les chaussées imperméables forment un véritable boulevard pour les contaminants issus des pneus de voitures. Et si on les rendait perméables ? C’est l’idée avancée par les deux chercheurs basés à Pullman. Leur chaussée perméable consiste en une couche supérieure poreuse, avec des espaces vides connectés pour laisser l’eau s’infiltrer, posée sur une couche de gravier, elle-même surplombant un drain souterrain capable de capturer les effluents. Durant les expériences menées à l’IDEA (Industrial Design Engineering and Art) High School de Tacoma, les scientifiques ont pu tester leur système conçu à partir de béton et d’asphalte, avec et sans fibres de carbone durcies, ces dernières visant à améliorer la résistance de l’ensemble, fragilisée par la porosité du matériau.

Après leurs tests réalisés entre le 23 et le 25 août 2021, Chelsea Mitchell et Anand Jayarakan ont pu analyser les résultats… et s’en réjouir ! Leur chaussée perméable a retenu plus de 96 % de la masse des particules issues des pneus, et entre 14 et 100 % de leurs produits chimiques solubles. Quant au 6PPDQ, ils ont observé une réduction moyenne de sa masse de 68 %. La conclusion, présentée le 15 janvier 2024 dans le journal Science of The Total Environment, laisse présager que l’invention des deux chercheurs pourrait fournir un type d’infrastructure verte pour le traitement des eaux de pluie. D’autant plus que les fibres de carbone ont parfaitement joué leur rôle de renfort ! Un premier pas prometteur vers un déploiement sur les routes au trafic élevé, là où le risque environnemental est le plus fort.

L’Europe veut devenir la « vallée quantique » du monde

Les technologies quantiques sont perçues comme un moteur clé de l’avenir économique et offrent des avantages majeurs dans divers secteurs industriels. Mais encore faut-il « soutenir la prise de risque qui n’est pas assez présente dans la culture européenne », rappelait il y a un peu plus d’un an Herbert Zeisel, directeur général adjoint à la recherche pour la souveraineté technologique et l’innovation au ministère fédéral allemand de l’Éducation et de la Recherche.

La recherche seule ne fera pas de l’Europe un acteur majeur du quantique. « Plus on fera des allers-retours entre excellence académique et besoins industriels, plus on avancera et plus on renforcera la capacité européenne », insistait à la même époque François Jacq, administrateur général du CEA.

Aujourd’hui, l’Europe franchit une nouvelle étape avec cette déclaration qui ambitionne d’harmoniser les efforts de recherche dans le domaine des technologies quantiques. L’objectif ? La positionner en tant que leader mondial dans ce domaine. Ni plus ni moins !

Un avantage compétitif

Le vieux continent se rêve d’être la « vallée quantique » du monde. En devenant la première région mondiale pour l’excellence et l’innovation quantiques, l’UE pourrait attirer des investissements et des talents, même si plus de 5 000 scientifiques travaillent sur le quantique en Europe. La France en compte déjà quelques belles pépites comme Pasqal, la start up cofondée par le Prix Nobel de physique Alain Aspect, Siquance[1]  ou Quandela[2].

Certes, ces ordinateurs quantiques sont encore loin d’être capables de prendre le relais de machines classiques. Mais ils devraient jouer un rôle essentiel dans la compétitivité industrielle future. Leur potentiel d’impact sur l’économie et la société est considérable. Par exemple, ces technologies pourraient accélérer le diagnostic médical en permettant d’observer l’intérieur des cellules plus rapidement. De plus, elles pourraient offrir des solutions de cryptage inviolables pour sécuriser les informations sensibles.

Être en mesure de développer et d’adopter ces technologies en premier lieu conférera un avantage compétitif considérable aux pays et aux entreprises qui réussissent dans ce domaine. Les pays de l’UE qui investissent dans les technologies quantiques et développent des stratégies nationales à cet égard se préparent à saisir ces opportunités. Les initiatives nationales, telles que celles de l’Allemagne, de la France, des Pays-Bas, du Danemark et de l’Irlande, montrent un engagement fort envers le développement des technologies quantiques. L’année dernière, la France a lancé sa stratégie nationale de recherche et de développement quantique, dotée d’un budget de 150 millions d’euros sur cinq ans, jusqu’en 2027.

« L’Europe court après de nouvelles technologies qui ne sont pas matures, qui sont très intégrées dans un discours idéologique. Résultat, elles bénéficient d’importants plans de financement, sans que nous sachions précisément ce qu’on pourrait en faire », prévient Ophélie Coelho, chercheuse spécialisée en géopolitique du numérique et membre du Conseil scientifique de l’Institut Rousseau.


[1] Siquance, spécialisée dans le calcul intensif, est devenu Quobly, toujours située à Grenoble

[2] Quandela est spécialisée dans la photonique quantique

IA : Comment Microsoft entend accélérer la recherche scientifique

La recherche scientifique s’accélère grâce à l’intelligence artificielle (IA) de pointe. Combinée au Cloud nouvelle génération, les scientifiques s’attendent à une accélération encore plus rapide. Dans ce cadre, Microsoft a annoncé en juin 2023 Azure Quantum Elements, une solution combinant la puissance de l’intelligence artificielle et du cloud computing, conçue spécifiquement pour la recherche en chimie et en science des matériaux. Elle est basée sur les investissements de Microsoft dans l’IA, le calcul haute performance et les futures technologies quantiques. « Notre objectif est de comprimer les 250 prochaines années de chimie et de progrès de la science des matériaux dans les 25 prochaines », annonçait Satya Nadella, PDG de Microsoft lors de ce lancement.

Microsoft s’est alors associé au Pacific Northwest National Laboratory (PNNL), un laboratoire du Département de l’énergie américain qui mène des recherches en IA dans plusieurs domaines, notamment la chimie et la science des matériaux. Les deux organisations combinent leurs forces pour démontrer comment la chimie et la science des matériaux peuvent tirer parti de cette accélération.

Un premier matériau pour batterie obtenu par IA

Et un premier résultat est au rendez-vous ! Les chercheurs du PNNL testent ainsi actuellement un nouveau matériau de batterie pour jouer le rôle d’électrolyte de batterie à l’état solide. Le matériau dérivé de l’IA est un électrolyte à l’état solide qui fait appel au lithium, au sodium et à d’autres éléments. Il pourrait permettre de réduire la teneur en lithium jusqu’à 70 %. La chimie exacte est sujette à optimisation, mais pourrait ne pas fonctionner à plus grande échelle, prévient Brian Abrahamson, directeur des technologies numériques au PNNL, dans un communiqué de Microsoft.

« Ces travaux ouvrent la voie à une nouvelle façon d’accélérer la résolution des problèmes urgents liés au développement durable, aux produits pharmaceutiques et autres, tout en donnant un aperçu des progrès qui seront rendus possibles par l’avènement de l’informatique quantique », assure Microsoft.

Apprendre des réussites, mais aussi des erreurs !

Habituellement, les chercheurs commencent leur travail par une revue de la littérature scientifique sur le sujet. Cela leur permet de faire des hypothèses sur la façon d’atteindre de nouveaux résultats et améliorer ce qui a été fait dans le passé. Mais comme les chercheurs publient peu leurs échecs, difficile de s’appuyer dessus pour avancer. Ainsi, plusieurs hypothèses fausses peuvent être testées par différents chercheurs, ce qui constitue une perte de temps.

Dans cette nouvelle approche, l’IA et les algorithmes d’apprentissage automatique permettent de prendre en compte tous les matériaux potentiels et, par élimination, d’aboutir à un nouveau matériau. Ce laboratoire virtuel a ainsi passé au crible numérique 32 millions de matériaux non organiques potentiels, pour retenir 18 candidats prometteurs susceptibles d’être utilisés dans le développement de batteries, en seulement 80 heures. Puis les chercheurs ont retenu la configuration qui présente les meilleures propriétés pour jouer le rôle d’électrolyte dans la batterie envisagée. « Ces modèles d’IA laissent planer un avenir où la conception d’une nouvelle molécule pourrait être aussi facile que de demander à Bing Image Creator de peindre un tableau », a déclaré Matthias Troyer, chercheur chez Microsoft et vice-président de Quantum lors du lancement en juin dernier.

Le cloud, comme solution aux attentes interminables

La majeure partie du tri a été faite via IA, ce qui représente environ 90 % du temps de calcul. « La partie HPC a représenté 10 % du temps de calcul, et ce sur un ensemble de molécules déjà ciblées », partage Microsoft. S’il est possible de gagner beaucoup de temps dans le calcul haute performance, c’est grâce au cloud computing, le cloud ayant l’avantage d’être toujours accessible. Habituellement, les chercheurs doivent réserver leurs tours pour utiliser les superordinateurs des universités ou instituts de recherche, et peuvent attendre plusieurs semaines avant d’avoir un créneau de calculs. « Nous sommes convaincus que le cloud est une ressource formidable pour améliorer l’accessibilité des communautés de recherche », explique Brian Abrahamson.

Le projet en est aujourd’hui à l’étape d’expérimentation. Le matériau a été synthétisé avec succès et transformé en prototypes de batteries qui subiront des tests en laboratoire. Brian Abrahamson l’assure : « Nous sommes à l’aube de la maturité des modèles d’intelligence artificielle, de la puissance de calcul nécessaire pour les entraîner et les rendre utiles, et de la capacité à les entraîner dans des domaines scientifiques spécifiques avec une intelligence spécifique. Nous entrons dans une période d’accélération sans précédent. »


Crédit image de une : geralt – Pixabay

Osmosun mise sur le solaire pour dessaler l’eau de mer

1,1 milliard de personnes souffrent de pénurie d’eau à travers le monde. Le dérèglement climatique, en modifiant le régime de précipitations, amplifie déjà le phénomène et 3,9 milliards en souffriront d’ici 2050 selon l’OCDE. Dans cette perspective, plusieurs entreprises misent sur le dessalement d’eau de mer et d’eau saumâtre pour produire de l’eau potable. Parmi elles, Osmosun fait notamment le pari de l’énergie solaire, afin de « devenir un acteur de référence du marché de l’eau “bas carbone” ».

L’entreprise, qui a levé 10 millions d’euros en 2023, a déjà déployé une soixantaine de projets permettant de produire de 1 à 5 000 m3 d’eau potable par jour par osmose inverse, en Afrique, dans l’Océan Indien, en Asie du Sud-est et dans le Pacifique sud. Elle a lancé en octobre dernier Osmosun MA au Maroc, coentreprise à parité avec le groupe industriel marocain PCS, pour répondre au Programme national d’approvisionnement en eau potable et d’irrigation (PNAEPI). Ce dernier compte porter la part de l’eau potable provenant de l’eau de mer dans le pays, de 11 % à 50 % d’ici 2030.

Une question de pression et d’électricité

Pour filtrer l’eau de mer à travers la membrane d’osmose inverse, il faut la monter fortement en pression. « Pour l’eau de mer salée à 35 g/L, la pression se situe entre 70 et 80 bars », détaille Quentin Ragetly. Et qui dit forte pression, dit consommation électrique importante. « Pour dessaler 1 m3 d’eau de mer à 35 g/L, il faut environ 2,5 kilowattheures [kWh] pour la partie osmose inverse, calcule le PDG. Si vous ajoutez des pompes pour aller chercher l’eau de mer plus loin, alimenter un stockage en hauteur en sortie pour l’eau douce, vous pouvez monter à 3-4 kWh. »

Pour produire de l’eau « bas carbone », l’enjeu principal réside dans l’origine de l’électricité utilisée. « Le point de départ a été le solaire sans batterie afin d’avoir l’élément le plus robuste dans les zones reculées, partage Quentin Ragetly, PDG d’Osmosun. Désormais, on regarde la meilleure option énergétique locale en termes d’émissions de CO2 pour produire l’eau dessalée la moins chère. En fonction du contexte [communauté reculée, municipalité, situation d’urgence, agriculture, hôtellerie, industrie minière, activité industrielle, NDLR], on peut faire de l’hybridation avec le réseau, de l’éolien ou installer une batterie. » Maxime Therrillion, responsable du développement commercial indique, ainsi que « sur de l’eau de mer, on est sur un coût de production entre 80 centimes et 1,5 € par m3 ».

Les trois innovations d’Osmosun

Le procédé et le bon fonctionnement des pompes et des membranes sont très sensibles à toute variation brutale de pression. Osmosun a ainsi développé trois innovations qui permettent de s’affranchir de batteries dans le cas d’une production électrique intermittente. « Un équipement mécanique compense et stabilise en continu la pression, à la hausse ou à la baisse, dans le système lorsqu’il y a des modifications d’alimentation électrique », partage Quentin Ragetly. Sans cette innovation, « nos concurrents doivent ajouter des batteries pour lisser la production d’électricité  », ce qui augmente le coût et la complexité des projets.

L’entreprise a également développé deux algorithmes pour optimiser la production d’eau potable. Un premier permet de suivre en temps réel la puissance maximale des panneaux solaires afin de consommer le moindre électron produit. Un deuxième redéfinit en conséquence le meilleur réglage de tous les paramètres du procédé. « En temps réel, on a un système qui nous protège de la pression et deux algorithmes qui viennent en permanence ajuster en fonction de l’alimentation électrique le meilleur niveau de production en eau », résume Quentin Ragetly. L’entreprise assure ainsi l’intégralité des projets. « Pour un projet de dessalement, on fait toute la conception, de la prise d’eau jusqu’au point de connexion pour la distribution dans le réseau ».

Énergies renouvelables : les défis à surmonter pour respecter les objectifs de la COP 28

Dans son dernier rapport, l’AIE (Agence internationale de l’énergie) révèle que les capacités de production des énergies renouvelables ont augmenté de près de 50 % en 2023, comparé à l’année précédente, avec une mise en service de près de 510 gigawatts (GW) supplémentaires. Cette progression importante correspond au taux de croissance le plus rapide des deux dernières décennies et est portée par l’énergie photovoltaïque qui représente les trois quarts des nouvelles capacités dans le monde. « Alors que l’augmentation en Europe, aux États-Unis et au Brésil a atteint des sommets sans précédent, l’accélération de la Chine a été extraordinaire, note l’AIE. En 2023, la Chine a mis en service autant d’énergie photovoltaïque que le monde entier en 2022, tandis que l’énergie éolienne a augmenté de 66 % sur un an. »

Ce rythme élevé de nouvelles installations est malgré tout insuffisant pour respecter les objectifs de la COP 28, à savoir : tripler la capacité mondiale d’énergie renouvelable d’ici à 2030. Pour atteindre cet objectif, il faudrait porter la capacité des énergies renouvelables à 11 000 GW en 2030. Or, l’AIE analyse que : « dans le cadre des politiques actuelles et des conditions de marché, la capacité mondiale des énergies renouvelables devrait atteindre 7 300 GW d’ici à 2028. Cette trajectoire de croissance verrait la capacité mondiale augmenter jusqu’à 2,5 fois son niveau actuel d’ici à 2030, ce qui serait loin d’atteindre l’objectif de triplement. »

Afin d’accélérer davantage le déploiement des énergies renouvelables, l’AIE a identifié plusieurs défis à surmonter par les gouvernements du monde entier et qu’elle a classés en quatre catégories. La première concerne les incertitudes politiques liées au nouvel environnement macroéconomique. Pendant la crise énergétique engendrée, entre autres, par la reprise économique post-Covid et la guerre en Ukraine, il apparaît que les gouvernements sont intervenus sur les marchés de l’énergie pour protéger les consommateurs des prix élevés. Ces interventions étaient justifiées, mais ont également créé une incertitude pour les investisseurs quant à l’environnement futur des investissements dans le secteur de l’électricité. « Les changements macroéconomiques ont fait grimper les coûts et les prix contractuels des projets éoliens et photovoltaïques, et le manque d’ajustement des prix de référence et de méthodologie d’indexation des prix contractuels a réduit la rentabilité des projets, principalement dans les économies avancées », pointe du doigt l’AIE.

Développer plus rapidement les infrastructures de réseaux électriques

Le deuxième obstacle à soulever se situe au niveau de l’insuffisance des investissements dans les infrastructures de réseaux électriques, qui ont empêché une expansion plus rapide des énergies renouvelables. Les délais de développement dans l’amélioration des infrastructures de réseau apparaissent nettement plus longs pour les projets éoliens et photovoltaïques. « Aujourd’hui, plus de 3 000 GW de capacités de production d’énergies renouvelables sont en attente sur le réseau et la moitié de ces projets sont à un stade avancé de développement », note l’AIE. Ce problème concerne aussi bien les économies avancées que les pays émergents et en développement.

Les barrières administratives et les procédures d’autorisation ainsi que les problèmes d’acceptation sociale constituent le troisième défi à surmonter. Le temps nécessaire pour obtenir un permis peut varier de un à cinq ans pour les projets photovoltaïques, de deux à neuf ans pour l’éolien terrestre et de neuf ans en moyenne pour les projets éoliens offshore. « Les retards résultant de procédures d’autorisation complexes et longues ralentissent la croissance du portefeuille de projets, limitent la participation aux enchères, augmentent les risques et les coûts du projet et, en fin de compte, affaiblissent l’économie du projet », signale l’AIE.

Le quatrième obstacle à lever se situe au niveau de l’insuffisance de financement des projets dans les pays émergents et en développement, par exemple au Kenya, en Afrique du Sud et au Nigeria. L’AIE souligne que dans ces pays : « les services publics sont confrontés à des difficultés financières et le coût moyen pondéré du capital (CMPC) peut être deux à trois fois plus élevé que sur les marchés matures des énergies renouvelables, ce qui réduit la rentabilité des projets ».

À partir de simulations de scénarios qu’elle a réalisées, l’AIE estime qu’en parvenant à surmonter ces quatre défis, il serait possible d’augmenter la trajectoire actuelle de croissance des énergies renouvelables de 21 % supplémentaires. Et que ce scénario, s’il venait à se concrétiser, pourrait permettre d’être sur la bonne voie pour respecter l’engagement de la COP 28 de tripler les capacités des énergies renouvelables d’ici à 2030.

Des bouteilles d’eau, saveur « nanoplastiques »

Les microplastiques sont présents dans l’air, les sols et l’eau. Ils contaminent l’eau des océans, des fleuves, des rivières… et des bouteilles en plastique ! Ce qui surprend, c’est l’ampleur de cette contamination. Une nouvelle étude publiée le 8 janvier par les chercheurs de l’université de Columbia (États-Unis) dénombre en moyenne 240 000 particules de plastique par litre. Et ce dans trois marques d’eau en bouteilles vendues aux États-Unis. C’est 10 à 100 fois plus que les précédentes estimations.

Les noms des marques testées n’ont pas été révélés par les chercheurs. « Nous pensons que toutes les eaux en bouteille contiennent des nanoplastiques, donc en mettre certaines en évidence pourrait être considéré comme injuste », a expliqué Beizhan Yan, coauteur de l’étude, auprès de l’AFP.

Déceler et compter les nanoplastiques, un défi

Habituellement, les études donnent une estimation de la masse des particules nanométriques comprises dans une bouteille d’eau. Toutefois, elles ne comptent pas le nombre de particules et n’arrivent pas à différencier les nanoplastiques des autres types de particules. L’étude repose ici sur une technique d’imagerie par diffusion Raman stimulée, une technique couramment utilisée en imagerie médicale.

Grâce à cette technique sensible et spécifique et au développement d’un algorithme destiné à cibler les particules de sept types de plastique, ils ont pu identifier des nanoplastiques jusqu’à 100 nanomètres. Résultat : les scientifiques ont décelé entre 110 000 et 370 000 particules de plastique par litre d’eau. 90 % de ces particules sont des nanoplastiques, plus dangereux que les microplastiques, car leur taille les rend plus à même de pénétrer dans le système sanguin.

Des particules de nylon, avant le PET

D’après les résultats de l’étude, les particules les plus communes sont des résidus de polyamide (nylon), provenant de filtres servant à purifier l’eau, et de polytéréphtalate d’éthylène (PET), qui compose les bouteilles d’eau. Les chercheurs ont également identifié d’autres plastiques : polystyrène, polypropylène, polyéthylène. Ils contaminent l’eau en amont des usines d’embouteillage.

Les sept plastiques recherchés ne représentaient que 10 % du total des particules observées en microscopie. Si ces particules s’avéraient être d’autres types de nanoplastiques, cette classe de contaminants pourrait se chiffrer en dizaines de millions par litre. Mais à l’heure actuelle, « elles pourraient être presque n’importe quoi », a commenté l’Université de Columbia. Les chercheurs comptent bien clarifier cette question dans une étude future. Ils projettent également d’analyser l’eau du robinet et d’autres sources d’eau, notamment pour évaluer les nanoplastiques dans les eaux usées.

iUMTEK : des analyses en temps réel pour dévoiler la matière

Nichée sur le plateau de Saclay, la start-up iUMTEK* a été créée par Ronald Berger-Lefébure en partenariat avec le CEA Investissement en octobre 2017. En 2019, elle a été lauréate de i-Lab par le ministère de l’Enseignement supérieur et de la Recherche.

iUMTEK conçoit et fabrique des instruments de mesure basés sur la technologie LIBS (spectroscopie sur plasma induit par laser). Il s’agit d’une méthode en temps réel qui permet l’analyse élémentaire grâce à l’émission d’un rayon laser. Il entre en interaction physico-chimique avec la matière et crée un plasma. Les spectres qui en sont issus possèdent une multitude de raies d’émission. Enchevêtrées, voire recouvertes, les longueurs d’onde sont interprétées à l’aide du machine learning qui réduit le niveau d’incertitude. Avec vingt-cinq années d’expérience dans la mise en œuvre expérimentale, l’équipe sait quel algorithme est le plus adapté à la situation. Les résultats obtenus par l’instrument permettent d’identifier et de quantifier les molécules désirées. Cette technologie analyse tout type de matériaux, c’est-à-dire les 118 atomes du tableau de Mendeleïev sans préparation et quel que soit son état (liquide, solide, gazeux). La start-up a déjà vendu des analyseurs LIBS, baptisés TX 1000, à des laboratoires de recherche et développement en France, mais aussi en Israël et aux États-Unis.

Une technologie au service de l’économie circulaire

La petite dizaine d’employés, qui comprend des stagiaires et des thésards, est capable de réaliser des mesures at-line et off-line où les analyses sont exécutées sur des échantillons. Mais d’ici la fin de l’année, la start-up pourra effectuer des mesures on-line, c’est-à-dire de manière continue au sein même des lignes de production. L’avantage ? Obtenir des données plus représentatives en temps réel. Cette technologie peut ainsi être embarquée au cœur des procédés industriels afin de les optimiser, à chaque étape, dans une démarche d’économie circulaire. IUMTEK souhaite donc s’adresser aux domaines du nouveau nucléaire, des véhicules électriques à travers la détection du lithium dans le cycle de fabrication et recyclage des batteries, de la filière de l’hydrogène verte ou encore du recyclage du cuivre. Ces analyses permettront d’éviter un gaspillage de matière première, de dioxyde de carbone et d’énergie en aval.

Dans un futur proche, la start-up s’attaquera à la détection en temps réel des éléments chimiques des rejets industriels.


* iUMTEK

Les thèses du mois : L’efficacité énergétique comme clé de compétitivité

Pour notre dossier de janvier, « L’efficacité énergétique comme clé de compétitivité », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Cooling and heat recovery of data centers: optimization and energy management
Ahmad Alamir Sbaity
Thèse de doctorat en Mécanique des fluides, énergétique, thermique, combustion, acoustique soutenue le 07-01-2022
Laboratoire universitaire des sciences appliquées de Cherbourg

 

Développement d’une unité de stockage thermochimique pour la récupération des énergies fatales d’un réseau de chaleur urbain
Elliot Scuiller
Thèse de doctorat en Chimie des matériaux, soutenue le 08-09-2022
Institut de Science des Matériaux de Mulhouse

Récupération de chaleur par intégration de générateur de vorticité, hybridation avec des générateurs thermoélectriques, utilisation d’énergies renouvelables et analyse du cycle de vie
Rima Al Aridi
Thèse de doctorat en Énergétique, thermique, soutenue le 08-09-2023
Laboratoire Angevin de Recherche en Ingénierie des Systèmes

Pyrolysis and gasification of a solid recovered fuel (SRF) and its model materials
Oscar Sosa Sabogal
Thèse de doctorat en Génie des Procédés et de l’Environnement, soutenue le 08-06-2022
Laboratoire d’innovation pour les technologies des énergies nouvelles et les nanomatériaux

Thermochemical energy storage on « salt/supports » composites
Minh Hoang Nguyen
Thèse de doctorat en Chimie des matériaux, soutenue le 14-11-2022
Institut de Science des Matériaux de Mulhouse

Approche multi-échelle pour la modélisation de fluides de travail des procédés de revalorisation de la chaleur fatale.
Thomas Di Pietro
Thèse de doctorat en Génie des procédés, des produits et des molécules, soutenue le 25-11-2022
Laboratoire réactions et génie des procédés

Diagnostic et amélioration de l’efficacité énergétique en distillation discontinue.
Marie Rougier
Thèse de doctorat en Génie des procédés, Soutenue le 22-09-2022
Laboratoire de Thermique et Energie de Nantes

Méthodes et outils pour un processus de modélisation collaboratif et ouvert des systèmes énergétiques
Sacha Hodencq
Thèse de doctorat en Génie électrique, soutenue le 23-09-2022
G2Elab-Modèles, Méthodes et Méthodologies Appliqués au Génie Électrique

Development of a falling-film desorber combining vapor generation and purification for ammonia-water absorption chiller (Modeling and Experiments)
Mathide Wirtz
Thèse de doctorat en Énergétique et Génie des Procédés, Soutenue le 24-02-2022
Laboratoire d’optimisation de la conception et ingénierie de l’environnement

Energy Storage & Conversion: Waste Heat Recovery in Microgrids by a free piston stirling engine
Mahdi Majidniya
Thèse de doctorat en Énergie et Mécanique, soutenue le 02-12-2021
Laboratoire d’énergétique et de mécanique théorique et appliquée

Valoriser la chaleur fatale des sites industriels

Un extrait de « Chaleur fatale industrielle : valorisation par le stockage thermocline » par Doan PHAM MINH, Yasmine LALAU, Thibaut ESENCE

Historiquement, le stockage massif de chaleur à haute température a principalement été développé pour les centrales solaires thermodynamiques. Le stockage permet d’absorber les variations de l’ensoleillement et de piloter la conversion de chaleur en électricité. La technologie qui s’est imposée dans les centrales actuellement en activité est le stockage thermique à deux cuves. Un fluide caloporteur circule entre deux cuves, l’une dite « cuve chaude » et l’autre « cuve froide ». En phase de charge, le fluide circule de la cuve froide vers la cuve chaude, en récupérant de la chaleur de la source située entre les deux cuves. En phase de décharge, le fluide circule en sens inverse et restitue la chaleur au point de consommation. La récupération et la restitution de chaleur peuvent être effectuées de manière directe, en contact avec la source, ou indirecte, via un échangeur. Le stockage thermique de type thermocline peut être vu comme une évolution du stockage à deux cuves. Il consiste à faire cohabiter les fluides chaud et froid dans une seule cuve. La séparation se matérialise alors par une « zone de thermocline ».

Le stockage thermocline, qu’est-ce que c’est ?

Ce type de système est constitué d’une enveloppe isolante, remplie d’un matériau de stockage thermique. Lors de la phase de charge, les fumées chaudes générées par un site industriel passent par cette enveloppe et cèdent la chaleur au matériau de stockage. Une zone de gradient de température (zone de thermocline) est formée au sein de ce matériau, qui délimite les zones chaude et froide. Cette thermocline se déplace au fur et à mesure vers la sortie de l’enveloppe de stockage. Lors de la phase de décharge, un fluide à la température ambiante (par exemple de l’air) circule dans le système et récupère la chaleur stockée, générant un fluide chaud en sortie. Ce fluide chaud est utilisé et ainsi la chaleur fatale est valorisée.

Le stockage thermocline peut se présenter sous deux formes.

  • Sans garnissage : le réservoir est intégralement occupé par le fluide caloporteur, qui fait également office de matériau de stockage thermique. Le fluide est donc un liquide sélectionné pour sa capacité thermique volumique élevée. En pratique, le liquide de stockage doit posséder une faible conductivité thermique pour limiter les échanges de chaleur entre les zones chaude et froide.
  • Avec garnissage : le réservoir est occupé par un lit fixe de matériau de stockage. Une partie du fluide caloporteur est donc remplacée par un solide, dont les performances en termes de densité énergétique et/ou de coût sont plus avantageuses. Ces systèmes de stockage sont étudiés depuis les années 1980 pour leur utilisation au sein de centrales solaires et plus récemment pour des applications de valorisation de chaleur fatale.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 février 2024 !

Chaleur fatale industrielle : valorisation par le stockage thermocline, par Doan PHAM MINH, Yasmine LALAU, Thibaut ESENCE

Le concours Ingénieuses 2024 : Une édition renouvelée pour l’ingénierie au féminin

Techniques de l’Ingénieur soutient une nouvelle fois le concours Ingénieuses, organisé par la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs). 

Ce concours ambitieux a pour objectif de mettre en lumière les défis auxquels les femmes sont confrontées dans la sphère professionnelle, tout en encourageant les jeunes filles à poursuivre des formations scientifiques et technologiques. 

Dans ce milieu, traditionnellement masculin, où les femmes peuvent encore être confrontées à des inégalités dues à leur genre et à un déséquilibre numérique manifeste. Ingénieuses 2024 s’inscrit dans une logique de promotion de l’égalité des genres et d’ouverture vers un avenir où chacun, indépendamment du genre, ou de l’origine, peut contribuer aux avancées du domaine de l’ingénierie.

Pour 2024, une nouveauté significative est mise en avant : le “Prix de l’excellence Numérique” sera attribué à la candidate (élève ou ingénieure) ayant démontré un parcours inspirant dans le secteur du numérique. Ce partenariat avec la Fondation Inria s’inscrit dans le cadre de la participation de la CDEFI au programme TechPourToutes.

Ce concours est axé sur l’innovation et l’inclusion, en célébrant les projets novateurs des écoles et les parcours exceptionnels des femmes ingénieures. 

L’opération Ingénieuses est à destination : 

  • Des écoles d’ingénieur.e.s accréditées par la Commission des titres d’ingénieur (CTI).
  • Des femmes ingénieures diplômées
  •  d’une école d’ingénieur.e.s
  • Des élèves-ingénieures en France et en Afrique du Nord, quel que soit le niveau d’études

Les dates à garder en tête : 

  • 22 janvier 2024 : Lancement de l’appel à projets et à candidatures
  • 8 mars 2024 : Clôture de l’appel à projets et à candidatures
  • Mars – avril 2024 : Réunion des jurys
  • 16 mai 2024 : Annonce des lauréat·e·s lors de la cérémonie de remise des prix en présentiel à Paris

La remise des prix : 

10 prix seront remis pour 2024 :

  • Cinq prix pour les écoles d’ingénieur·e·s
  • Un prix pour l’élève-ingénieure France
  • Un prix pour l’élève-ingénieure Afrique du Nord
  • Deux prix pour la femme ingénieure, récompensant des parcours inspirants.
  • Un prix de la femme du numérique

Pour soumettre votre candidature ou votre projet au concours Ingénieuses, rendez-vous sur l’espace de dépôt des candidaturesCet espace dédié est accessible jusqu’au 8 mars 2024.

Obtenez plus d’informations sur le concours Ingénieuses et ses précédentes éditions, sur le site ingenieuses.fr

Fabriquer des pièces de structure à forte tenue mécanique grâce au procédé MBJ

Apparu au cours des années 2010, le procédé MBJ (Metal Binder Jetting) est une technique de fabrication additive qui consiste à étaler une poudre de métal (de céramique ou d’autres matériaux) couche par couche, tout en projetant un liant sur la surface de chacune d’entre elles. Elle est qualifiée d’indirecte, car la pièce obtenue à la sortie de l’imprimante doit ensuite subir des étapes de post traitement. Pour les industriels, ce procédé leur permet de fabriquer des pièces de grande précision aux états de surface fins, en petite et moyenne série. Le Centre des Matériaux de Mines Paris-PSL mène des travaux de recherche pour concevoir des pièces de structure à forte tenue mécanique à partir de ce procédé.

« Une machine MBJ est une imprimante de type jet d’encre, sauf qu’au lieu de projeter de l’encre, on projette un liant, c’est-à-dire un polymère, là où la matière doit être consolidée, explique Jean-Dominique Bartout, responsable de la plateforme EPROM (Élaboration, Procédés et Matériaux) du Centre des Matériaux de Mines Paris-PSL. À la sortie de la machine, on obtient une pièce dite à vert qui doit ensuite subir plusieurs étapes, avec d’abord un traitement thermique pour polymériser le liant, suivi d’une étape de dépoudrage qui consiste à retirer la poudre sur laquelle il n’y a pas de liant, une autre de déliantage, et enfin de frittage qui permet aux grains métalliques de se resserrer afin de créer la pièce finale. Ces procédés de post traitement ont pour conséquence de provoquer un important retrait de la matière et tout l’objectif est d’obtenir des pièces à la bonne cote tout en s’assurant de leur bonne santé-matière. »

Un travail préalable consiste à quantifier les différents retraits de matières au cours de chaque étape. Toute la complexité est de parvenir à prendre en compte le caractère anisotrope de chaque retrait, c’est-à-dire le fait qu’ils n’ont pas les mêmes caractéristiques dans les trois directions du volume « x y z ». Un point important consiste à les anticiper dès la conception de la pièce et pour cela, les scientifiques ont recours à des vérifications pendant la fabrication, grâce à l’envoi de données provenant de capteurs disposés sur l’imprimante.

Le recours à de la modélisation est aussi nécessaire pour parvenir à obtenir une pièce « near net shape », c’est-à-dire dont la forme se rapproche au plus près des cotes exigées par l’utilisateur final. Le CEMEF (Centre de mise en forme des matériaux de Mines Paris-PSL) est partenaire de ce projet de recherche et a développé des modèles multiphysiques de frittage, pour notamment prédire les déformations anisotropes des pièces lors des étapes de densification.

Vérifier la composition atmosphérique à chaque étape

La bonne santé-matière des pièces finales dépend en partie de sa composition chimique. Or, les étapes de post traitement peuvent entraîner leur modification. C’est le cas par exemple, lors du traitement thermique au cours duquel le polymère est brûlé, ce qui entraîne la formation de carbone résiduel qui peut venir enrichir le matériau, ou alors la présence d’oxydes. « Nous travaillons sur chaque étape en contrôlant les atmosphères pour rendre les phénomènes de décarbonation et d’oxydation compatibles, alors qu’ils sont normalement incompatibles, ajoute Jean-Dominique Bartout. Pour cela, nous plaçons des capteurs pour mesurer les compositions atmosphériques de chaque étape. »

La qualité de la pièce finale est mesurée dans un premier temps par des analyses chimiques des matériaux obtenus, puis par des études métallographiques au microscope optique ou électronique à transmission dans le but de déterminer la qualité des microstructures. Pour évaluer les propriétés mécaniques des pièces, plusieurs types d’essais mécaniques sont aussi réalisés : essais monotones, de fatigue, de fluage…

Les pièces développées par le Centre des Matériaux de Mines Paris-PSL sont principalement destinées au secteur de l’aéronautique, telles que les entreprises JPB Systems et Safran. « L’enjeu est qu’elles soient utilisables en tant que pièces de structure et qu’elles respectent les normes de ce secteur, complète Jean-Dominique Bartout. Le marché des machines MBJ est quasiment en situation monopolistique avec le risque que cette technologie devienne de plus en plus fermée. Grâce à nos travaux, nous apportons des préconisations aux utilisateurs finaux afin qu’ils gardent la maîtrise de ce procédé et notamment de toutes les étapes intermédiaires. Nos travaux se poursuivent avec quatre thèses qui doivent démarrer prochainement. »