En 2022, 72 000 hectares ont brûlé en France. Neuf feux sur dix sont d’origine humaine (chantiers de BTP, activités agricoles, câbles électriques, mégots de cigarettes, barbecues, incendies de véhicules…).
En France, la majorité des départs d’incendie sont repérés par des randonneurs ou des automobilistes qui avertissent les pompiers. Mais, comme ils ne sont pas formés à ce risque, ils transmettent souvent des informations peu détaillées, ce qui pénalise les pompiers pour localiser précisément le lieu et adapter les moyens.
Pour être plus réactive tout en limitant au maximum les fausses alertes, l’association Pyronear a mis au point une solution basée sur l’IA. Elle est capable de détecter en quelques minutes le début d’un feu de forêt.
Un temps précieux, car passé une dizaine de minutes, il devient très difficile d’arrêter un feu de forêt ! Pour être traité efficacement dans les secteurs où le risque incendie est élevé, un feu doit avoir parcouru moins d’un hectare lorsque les premiers intervenants commencent à le combattre.
Images du Chili
Dans un premier temps, ces bénévoles ont alimenté leur algorithme avec des données américaines (130 caméras sont en libre accès), car en France aucune donnée n’est publique.
« Notre modèle analyse les images et s’il indique qu’il y a un feu, nous conservons l’image, car il y a deux possibilités. Soit il y a vraiment un feu, soit c’est un faux positif. Dans les deux cas, il s’agit de données intéressantes qui sont annotées pour optimiser notre solution », explique Mateo Lostanlen, l’un des cofondateurs de l’association.
Pour cet ingénieur, l’IA peut être très utile pour repérer rapidement un panache de fumée signifiant un début d’incendie. Il a acquis la conviction de l’intérêt de l’IA en travaillant auparavant pour SquareMind, une entreprise de détection automatique de cancers de la peau à partir de photos de grains de beauté.
Aujourd’hui, l’association peut s’appuyer sur des images provenant de neuf tours, soit 36 caméras (Ardèche, Gironde…). Elle peut également entraîner son modèle en exploitant des images provenant du Chili et de la Catalogne, à la suite de partenariats respectifs avec des chercheurs et des pompiers (qui disposent de 17 caméras). « C’est essentiel pour notre modèle d’être confronté à de nombreux types de terrain », précise Mateo Lostanlen.
Boîtier intégrant le micro-ordinateur qui contrôle les caméras et d’autres équipements pour détecter les incendies – Copyright : DR
Au bout de trois ans, le bilan est positif. « Depuis cet été, nous sommes satisfaits de nos résultats grâce notamment aux pompiers de l’Ardèche qui nous ont fait confiance. Nous n’avons raté aucun feu. Mais, nous avons encore un peu trop de faux positifs. Pour l’instant, ce n’est pas très pénalisant, car cela ne concerne que deux tours en Ardèche. Mais, lorsque notre système couvrira tout un département, il sera impossible de gérer de nombreux faux positifs », souligne-t-il.
Prédiction
Deux pistes d’amélioration sont prévues. « Nous travaillons à développer un protocole pour valider plus rapidement une alerte et cet hiver, nous allons étudier la détection temporelle. Actuellement, nous prenons une image fixe pour faire une prédiction. Mais même à l’œil nu, il est difficile de faire la distinction entre une fumée et un nuage qui est bas. Or, si nous regardons une série d’images, il est plus facile de faire cette prédiction », précise Mateo Lostanlen.
Bénéficiant de soutiens publics et privés, cette association a intégré le programme Accélérateur d’initiatives citoyennes de la direction interministérielle du numérique. Elle prévoit de fournir une fois par an un jeu de données publiques sur les incendies. Ce jeu de données sera une combinaison de toutes les sources de l’association (France, États-Unis, Chili, Espagne). Souhaitant rester une association, Pyronear prévoit dès janvier prochain de salarier une équipe afin de mieux gérer les relations avec ses différents partenaires et animer la communauté de bénévoles.
D’autres déclinaisons pourraient être envisagées comme la détection d’inondations, de fortes crues ou encore des avalanches.
En 2022, la part des énergies renouvelables dans le mix électrique espagnol s’est élevée à 42,2 %, selon Red Eléctrica de España, le gestionnaire du réseau de ce pays. Un chiffre en recul de 4,5 % comparé à celui de l’année précédente où cette part avait enregistré un pic historique pour atteindre 46,7 %. La raison principale de cette baisse est liée à la chute de la production hydraulique de près de 40 %, qui a atteint un niveau historiquement bas à cause de la sécheresse. Pour l’année 2023, les énergies renouvelables pourraient représenter 50 % de la production annuelle d’électricité.
En 2019, l’Espagne a défini un plan stratégique pour l’énergie et le climat qui fixe les objectifs du pays en matière d’efficacité énergétique, d’énergies renouvelables et d’émissions de gaz à effet de serre. D’ici à 2030, le pays prévoit que les énergies renouvelables atteignent 74 % du bouquet électrique et à l’horizon 2050, il vise 100 % de renouvelables dans sa production d’électricité.
Pour atteindre ces objectifs, le pays développe massivement les énergies renouvelables. Avec une moyenne annuelle de plus de 2 500 heures d’ensoleillement selon l’agence météorologique nationale AEMET (Agencia Estatal de Meteorología), l’Espagne peut profiter de conditions favorables au déploiement de panneaux solaires. Ses vastes territoires, balayés par les vents et peu peuplés, sont également particulièrement propices au développement de l’éolien. En 2022, la puissance installée du parc électrique renouvelable a grimpé de 9,1 % par rapport à l’année précédente. Cette hausse est principalement liée à l’augmentation de l’énergie solaire photovoltaïque (+4 498 MW), dont la puissance installée représente à présent 16,6 % de la puissance totale, devant l’hydraulique (14,4 %). La capacité de l’énergie éolienne a quant à elle augmenté de 1 400 MW en 2022 et demeure la technologie principale, avec 25,2 % du parc national de production d’électricité.
Baisse de 60 % des émissions de CO2 liées à la production d’électricité
En incluant le nucléaire, qui représente 20,3 % de la production électrique, la part de la production d’électricité à faible émission de CO2 en Espagne a atteint 62,5 % du mix électrique en 2022. Les énergies fossiles représentent donc encore 37,5 % de la production électrique. D’ici à 2030, le pays a décidé de sortir du charbon, qui représente 2,8 % du bouquet électrique. Il envisage aussi de fermer toutes ses centrales nucléaires d’ici à 2035.
Selon Red Eléctrica de España, l’Espagne occupe la deuxième place en termes d’énergies renouvelables installées en Europe, derrière l’Allemagne, avec une capacité totale se chiffrant à 119 091 MW en 2022. Cette année-là, les émissions de CO2 associées à la production nationale d’électricité ont augmenté de 23,8 % par rapport à l’année précédente, mais restent tout de même inférieures de 60,0 % aux émissions enregistrées en 2007.
Dans sa course au déploiement des énergies renouvelables, l’Espagne se concentre également sur le développement de l’hydrogène pour faire face à leur intermittence. En 2020, le gouvernement espagnol a annoncé une feuille de route qui prévoyait de développer 4 GW (gigawatts) d’électrolyseurs d’ici à 2030. Mais le pays a déjà atteint quatre fois ses objectifs en matière de capacité de production d’hydrogène vert, puisqu’il dispose aujourd’hui d’une capacité de 15,5 GW. Le pays souhaite devenir le premier producteur européen d’hydrogène vert. Preuve de son engagement dans ce secteur, l’Espagne a récemment décidé d’investir 18 milliards d’euros dans l’hydrogène vert pour produire et distribuer l’hydrogène produit à partir des énergies renouvelables.
Les plantes sont capables d’utiliser l’énergie solaire pour convertir le CO2 atmosphérique en sucres. À l’intérieur, toutes les cellules sont remplies d’eau et de sucres et se retrouvent mises sous pression ; on parle de turgescence. Cette pression est très importante, car elle peut atteindre jusqu’à 10 fois celle de l’atmosphère. Pour maintenir leur intégrité, les cellules sont toutes entourées d’une paroi rigide qui sert à la fois de barrière protectrice et de support pour le squelette de la plante. Jusqu’ici, la communauté scientifique ne comprenait pas comment les cellules parvenaient à grossir, tout en maintenant la rigidité de leur paroi. Des chercheurs de l’INRAE, du CNRS, en collaboration avec des équipes suisses et belges, ont réussi à percer ce secret et ont publié leurs travaux dans la revue Science.
La paroi est constituée de fibres de cellulose entourées d’une matrice composée de plusieurs polysaccharides, dont des pectines. Ces pectines sont des polymères synthétisés dans la cellule, sous la forme méthylée, c’est-à-dire possédant des groupements CH3, puis sécrétés dans la paroi. À l’intérieur de cette paroi, des enzymes, plus précisément des pectines méthylestérases, sont également présentes et viennent modifier ce polymère, en lui retirant ses groupements méthyle, afin qu’il devienne un acide porteur d’une charge négative. Cette déméthylation a pour effet de faire gonfler la paroi et cela contribue donc à la croissance de la cellule.
Pour comprendre comment cette paroi peut grossir tout en conservant sa rigidité, les scientifiques se sont intéressés à la croissance du tube pollinique de l’arabette des dames, une plante très étudiée dans la recherche, aussi bien biologique que génétique. Ce tube pollinique est constitué d’une structure longiligne qui pousse à partir d’un grain de pollen. Contrairement aux cellules d’un tissu, les cellules à l’intérieur se trouvent isolées et ont en plus une des vitesses de croissance les plus rapides dans le monde du vivant, ce qui permet de les analyser plus facilement.
L’étude du tube pollinique a permis de mettre en évidence qu’une famille de peptides, c’est-à-dire des petites protéines constituées d’une chaîne d’une cinquantaine d’acides aminés, intervient dans le mécanisme d’assemblage de la paroi. Elle est produite par la plante et est sécrétée en même temps que les pectines. Il apparaît que ces peptides ont la particularité de porter des charges positives et de se combiner avec une protéine, appelée « LRX8 » et présente dans la paroi, pour créer un complexe, qui expose ces charges positives à sa surface.
Résultat : lorsque les pectines sont déméthylées (perdent leurs groupements CH3) et qu’elles se mettent à gonfler à cause de leur charge négative, elles se retrouvent ensuite face à ce complexe positivement chargé. In vitro, les chercheurs ont alors observé que cette interaction a pour effet de condenser les pectines, leur structure devient réticulée, et cela a pour effet de donner de la rigidité à la paroi.
Mieux prédire le comportement des plantes face au changement climatique
« Jusqu’à présent, on pensait que la paroi était organisée grâce à des interactions entre les polysaccharides, révèle Herman Höfte, directeur de recherche à l’Inrae. Grâce à nos travaux, nous démontrons qu’une interaction se produit avec une protéine, au même moment où la paroi se forme et grandit, et que cela lui permet de résister à la turgescence dans la cellule. Il s’agit d’un résultat de recherche fondamentale que l’on devrait ensuite retrouver dans des manuels de biologie. »
Cette découverte devrait avoir de multiples applications. Il va être à présent possible de modéliser avec plus de précision le mécanisme de la croissance des plantes, et ainsi prédire avec moins d’incertitude, la manière dont elles vont se comporter face aux changements de leur environnement, notamment climatique. Dans le domaine de la génétique quantitative, l’identification des parties du génome qui ont des effets favorables sur la croissance des plantes et qui déterminent les rendements futurs des cultures devrait aussi être plus facile à réaliser.
« Nos travaux devraient aussi avoir des répercussions dans le domaine de l’immunité des plantes, c’est-à-dire sur la manière dont elles parviennent à résister aux pathogènes, aux champignons et aux bactéries qui attaquent les plantes à travers leurs parois, ajoute le chercheur. En étudiant le mécanisme d’une façon très fondamentale, nous commençons à comprendre comment la plante se défend. À terme, nous devrions parvenir à sélectionner les plantes qui ont des stratégies de modification de leurs parois plus efficaces que d’autres afin de réduire l’utilisation des fongicides. »
L’Europe s’est engagée à installer 30 millions de pompes à chaleur (PAC) d’ici à 2030 dans le cadre du plan REPowerEU. Les ventes de PAC devraient donc décoller. Pourtant, la transition énergétique fait de la résistance. L’association européenne des pompes à chaleur (EHPA) suit les ventes dans 10 pays européens : l’Autriche, la Suisse, l’Allemagne, le Danemark, la Finlande, la France, l’Italie, les Pays-Bas, la Norvège et la Suède. Dans ces pays, après une hausse des ventes de 22 % au premier trimestre 2023 par rapport au même trimestre de 2022, les ventes ont stagné au deuxième trimestre, avant de reculer de 14 % au troisième trimestre.
La baisse des ventes de PAC atteint 66 % en Finlande, 56 % au Danemark et 45 % en Italie. La France se situe dans la moyenne avec une diminution de 13 %. Seule l’Allemagne sort son épingle du jeu avec une hausse des ventes de 60 %. Cette différence illustre le rôle prépondérant de l’État et du marché dans la généralisation des solutions bas carbone. En Allemagne, le gouvernement d’Olaf Scholz est particulièrement ambitieux sur le sujet et il veut aller encore plus loin. Après des mois de controverses, la loi de la coalition gouvernementale sur le chauffage a été adoptée en septembre 2023, rapportent Les Échos. Dès 2024, cette loi imposera aux nouveaux bâtiments l’installation de systèmes de chauffage fonctionnant à 65 % à partir d’énergie renouvelable en remplacement des chaudières au gaz et au fioul. Jusqu’à 70 % des frais d’installation pourront être subventionnés pour aider les ménages.
Pompes à chaleur et aides font bon ménage
Pour expliquer ce recul dans la plupart des pays européens, l’association européenne des pompes à chaleur accuse en premier lieu l’évolution des politiques et des subventions gouvernementales, avec des signaux contradictoires pour les particuliers. En particulier, le plan d’action pour les pompes à chaleur était annoncé par la Commission européenne pour début 2024. Fin décembre, la commission a annoncé reporter sa parution après les élections européennes. En attendant l’élection d’une nouvelle Commission, le retard sera donc considérable.
« Retarder la finalisation de ce plan après les élections ne peut être qualifié que d’erreur », estime l’EHPA. Elle appelle la présidente von der Leyen, la commissaire à l’énergie Kadri Simson et tous les commissaires à « réexaminer et revenir de toute urgence » sur ce report. Avec un tel décalage, les fabricants de pompes à chaleur et de leurs composants craignent pour leur plan d’investissements de 7 milliards d’euros dans la capacité de production et la logistique sur les trois prochaines années.
Réduire l’écart entre le prix de l’électricité et du gaz
L’association européenne des pompes à chaleur met aussi en cause la baisse des prix du gaz fossile et la stagnation des prix de l’électricité à des niveaux particulièrement élevés. Dans ces conditions, l’installation d’une pompe à chaleur semble moins attractive à court terme pour les particuliers.
Dans ce cadre, l’association appelle à une fiscalité énergétique plus équilibrée et à supprimer progressivement les subventions fossiles. Afin de stimuler la demande de pompes à chaleur, elle appelle aussi à réduire les taxes et prélèvements sur l’électricité. Et ce, afin de réduire la différence souvent très importante entre les prix du gaz et de l’électricité. Thomas Nowak, secrétaire général de l’EHPA, recommande via communiqué : « Dans l’immédiat, la politique doit viser à réduire le coût de l’électricité pour les applications résidentielles, commerciales et industrielles. Ce prix ne devrait pas dépasser le double du prix du gaz fossile. »
En France, au 1er janvier 2024, les aides de Ma Prime Rénov’ augmenteront de 1 000 euros pour l’installation d’une pompe à chaleur air/eau et de 2 000 euros pour une pompe à chaleur géothermique pour les ménages modestes et intermédiaires. Pour être éligible, il faudra réaliser au moins deux types de travaux d’isolation.
Née en 2017, la société rennaise Purecontrol a décroché le label Greentech en 2021, puis l’estampille Solar Impulse Efficient Solution l’année suivante. Aujourd’hui forte d’une équipe de 55 salariés, elle réalise environ 80 % de son chiffre d’affaires dans le domaine du traitement de l’eau. Les 20 % restant se répartissent quant à eux dans différents domaines de l’industrie. Un marché que Purecontrol compte pénétrer davantage dans les mois à venir, grâce, notamment, aux quelque 7 millions d’euros qu’elle a levés en mai dernier.
Très remarquée lors de la cinquième édition du salon CYCL’EAU[1] Bordeaux-Nouvelle Aquitaine, où elle était présente en mars dernier, l’entreprise vise, pour 2024, l’objectif de 5 000 sites pilotés grâce à sa solution. Chargée de projets de Purecontrol, Pauline Nerdeux nous dresse un portrait exhaustif de l’entreprise et de son savoir-faire technologique.
Quel est, en quelques points clés, l’historique de Purecontrol et quel est aujourd’hui votre rôle au sein de l’entreprise ?
Pauline Nerdeux : J’ai intégré Purecontrol il y a un peu plus d’un an après six années d’expérience en tant qu’ingénieure d’études dans le domaine de la reconnaissance d’écriture. En tant que chargée de projets, j’accompagne les clients dans le déploiement et le suivi des pilotages. Je m’assure également que ces derniers soient adaptés aux contraintes et objectifs du site, chaque projet ayant ses spécificités.
Quant à Purecontrol, l’entreprise a été fondée en 2017 par Gautier Avril et Geoffroy Maillard, venus du monde des télécoms. Dans le cadre de leurs fonctions, ils se sont aperçus que, dans ce secteur des télécommunications, existaient de très grosses puissances de calcul, propices au développement et à la démocratisation de l’usage de l’IA. En se penchant sur le monde des automatismes et de l’industrie, ils se sont rendu compte de la complexité grandissante de ces métiers, notamment dans un contexte d’accroissement des contraintes environnementales. Tout cela avec en toile de fond le problème de l’immobilisme des programmations : une fois réalisée, une programmation demeurait jusqu’alors figée, sans possibilité d’évoluer à la faveur de facteurs externes (météo, coûts de l’énergie…). Elle n’était donc pas capable de s’adapter à un contexte fluctuant. Ils ont donc cherché à rapprocher ces deux mondes pour obtenir, in fine, des réductions d’empreinte carbone des installations, ainsi qu’une réduction des coûts de l’énergie consommée pour les besoins de ces sites. Ils ont commencé par développer une solution pour les piscines. Ils ont pour cela fait appel à l’IA, qui leur a permis de modéliser la température du bassin, et donc d’anticiper le pilotage des équipements de chauffage de l’eau.
À partir de là, ils ont commencé à travailler également sur les stations d’épuration (STEP), en croisant l’ensemble des données produites par ce type de site avec des données externes, telles que la météo, mais aussi la consommation électrique fournie par le compteur communicant du site en question.
Que peut apporter votre solution à ces stations d’épuration ?
Nos algorithmes permettent, dans un premier temps, de décomposer le signal pour y déceler les consommations énergétiques de chacun des équipements de l’usine de traitement. En connaissant le rendement des pompes, on peut ainsi faire de la détection d’anomalies, et de la maintenance prédictive.
Avec toutes ces données, nous créons par ailleurs un jumeau numérique de l’installation, grâce auquel nous allons modéliser des variables d’intérêt pour son exploitation. Pour les STEP, la principale variable que nous cherchons à modéliser est le niveau de pollution dans le bassin d’aération – bassin qui permet de dégrader la pollution grâce à la biomasse. Cette modélisation donne naissance à ce que nous appelons un « capteur virtuel » ou « soft sensor », qui permet de prédire de façon fiable la concentration en ammonium (NH4+) dans les bassins d’aération. Le jumeau numérique va ainsi pouvoir planifier sur les prochaines 24 heures le meilleur scénario de fonctionnement des aérateurs, en tenant compte des volumes d’eau à traiter et des tarifs d’électricité. Le tout, en atteignant finalement l’objectif de l’exploitant, qui est celui de la conformité de l’eau rejetée.
Le serveur et l’installation communiquent toutes les minutes. En cas d’écart entre la prédiction et la réalité, l’algorithme va calculer un nouveau scénario, ou du moins le corriger pour tenir sa prédiction. C’est ce que l’on appelle du MPC : du model predictive control.
Au-delà de ces aspects que j’évoquais, notre solution permet aussi de réduire l’utilisation des réactifs qui sont injectés dans le but de faire baisser les niveaux de pollution phosphorée. Nous mettons dans ce cas également en place un « capteur virtuel » capable de modéliser les niveaux de phosphore de l’eau en sortie de station, et pilotons ainsi les pompes d’injection des réactifs en fonction des prédictions de l’algorithme.
Le modèle se renforce avec les données issues de l’automate, mais aussi les données de terrain fournies par l’exploitant, qui viennent enrichir l’algorithme.
Nous travaillons aussi sur une autre solution avec Cobalt Water, le numéro 1 américain de la lutte contre l’un des plus puissants gaz à effet de serre émis par les STEP, le protoxyde d’azote (N2O). Le principe de cette solution est assez simple : nous récupérons les données du site, que nous transmettons à notre partenaire, qui les traite à l’aide de ses propres algorithmes. Cobalt Water nous renvoie alors une valeur qui est celle de la production de N2O par la STEP à un instant donné. Notre modèle intègre cette valeur et modifie la séquence d’aération afin de minimiser cette production de protoxyde d’azote. Nous avons notamment mis en place cette solution sur la station rennaise de Beaurade.
Ce travail autour du pilotage des stations d’épuration représente aujourd’hui une bonne part de nos activités. Nous travaillons avec des entreprises telles que Saur, Suez et Veolia. Nous leur permettons ainsi de réaliser des économies sur les coûts énergétiques de l’aération de 15 à 20 %, mais aussi une réduction d’au moins 20 % des quantités de réactifs de déphosphatation.
Quels sont les autres usages possibles de votre technologie ?
Notre technologie s’adresse aussi aux gestionnaires de réseaux d’assainissement. Nous sommes en effet en mesure de leur apporter une solution de gestion dynamique. Cette approche permet de gérer les automatismes de plusieurs postes de relevage en même temps, en leur donnant des ordres de pilotage cohérents, il s’agit de « pilotage holistique ». Grâce à notre partenaire Meteomatics, nous sommes capables d’intégrer à notre modèle des données météo spatialisées. Cela permet à notre modèle de prévoir les quantités d’eau arrivant à chaque poste de relevage, tout en distinguant la part d’eaux usées strictes de la part liée aux eaux de pluie, ou encore aux eaux de ressuyage et aux eaux claires parasites. Il s’agit de « décomposition de débits ».
À partir de là, notre solution permet de scinder le fonctionnement des postes de relevage en deux modes : temps sec et temps de pluie. En période sèche, nos algorithmes visent à faire des économies d’énergie, en maintenant l’eau dans le poste de relevage à un niveau plus élevé. La pompe a ainsi moins de travail à faire pour relever l’eau. Grâce à la décomposition de puissance, nous sommes aussi en mesure de faire tourner en priorité les pompes qui bénéficient du meilleur rendement. Une troisième source d’économie consiste également à éviter de réaliser les marnages pendant les heures pleines.
En temps de pluie, notre modèle commence par déclencher la vidange de l’ensemble des postes pour bénéficier d’un niveau de stockage maximal avant l’arrivée des précipitations. Nos algorithmes sont par ailleurs en mesure de prédire les postes les plus à risques de débordement, et vont donc piloter les postes amont pour éviter ces débordements. Cette gestion dynamique des réseaux permet une économie d’énergie de 10 % au minimum, ainsi qu’une diminution des débordements de 20 % au moins.
Un autre domaine d’utilisation de notre technologie est celui de l’eau potable. Elle permet en effet notamment de définir des scénarios d’optimisation des pompages, en prenant en compte autant de contraintes que nécessaire, par exemple la limitation du prélèvement dans un forage en particulier. Ce qui était un véritable casse-tête – et même souvent complètement impossible à réaliser avec une solution conventionnelle de gestion d’automates – devient simple. Nous pouvons aussi piloter les pressions afin de réduire les fuites.
Nous sommes également capables d’intégrer les énergies renouvelables (EnR) dans le pilotage global d’une installation. En fonction des conditions météo, nos algorithmes sont en mesure de prédire la production d’électricité photovoltaïque ou éolienne, et calent les périodes de fonctionnement des installations pour maximiser l’autoconsommation de ces EnR.
Enfin, nous avons aussi beaucoup d’autres applications dans le domaine de l’industrie : pilotage des installations de production de froid dans l’agroalimentaire, optimisations thermiques dans des usines de galvanisation, ou encore contrôle du stockage de gaz d’installations de méthanisation agricole. Notre expertise s’applique finalement à n’importe quelle installation, quelle qu’elle soit, et permet d’en optimiser le fonctionnement et d’en réduire l’empreinte carbone.
Après une première levée de fonds de 1,7 million d’euros en 2021, vous en avez réalisé il y a peu une deuxième, pour un montant de 7 millions d’euros[2]. Quelles sont les perspectives ouvertes par cette nouvelle opération de financement ?
Nous sommes aujourd’hui bien implantés dans le domaine du traitement de l’eau. Même s’il reste encore beaucoup à faire sur ce plan, notre objectif est aussi de pénétrer davantage le marché industriel. Nous espérons aussi conquérir différents marchés européens : Allemagne, Benelux, Italie, Royaume-Uni, Espagne… Nous avons d’ailleurs ouvert une antenne à Liège il y a peu.
Nous visons aussi une augmentation de notre CA et prévoyons en parallèle de multiplier les embauches.
Plus de 15 ans après sa création, Nuclear Valley poursuit ses missions qui visent à favoriser le développement de solutions innovantes et compétitives pour la filière nucléaire en France. Ce pôle de compétitivité, dont le siège est situé à Chalon-sur-Saône, fédère aujourd’hui près de 450 adhérents (PME, ETI, grands groupes), dont près de la moitié est installée dans les régions Bourgogne-Franche-Comté et Auvergne-Rhône-Alpes. Depuis le lancement de France 2030, il est également en appui de ce plan d’investissement, dont l’objectif est notamment de faire émerger de nouveaux réacteurs nucléaires de petite taille et favoriser la formation aux métiers du nucléaire.
« Sur les quinze dossiers déposés dans le cadre de l’appel à projets « Réacteurs nucléaires innovants » de France 2030, tous les porteurs de projets sont membres de notre association, se réjouit Jean-François Debost, directeur général de Nuclear Valley. Et nous en avons accompagné 11, certains sur la labellisation de leurs briques technologiques, d’autres sur la recherche de fonds propres ou encore la recherche de partenaires industriels. »
À travers son conseil scientifique, composé d’une vingtaine d’experts indépendants, Nuclear Valley a pour mission de labelliser certains projets d’innovation dans le nucléaire. Pour cela, ceux-ci doivent respecter deux conditions : démontrer leur caractère innovant et leur capacité à créer des emplois en France. « Un projet labellisé a ensuite trois fois plus de chances d’obtenir une subvention, révèleJean-François Debost. Les financeurs publics n’ont pas les compétences techniques pour évaluer tous les projets, et en quelque sorte, ils nous sous-traitent ce service pour lever les risques. »
Une autre mission de Nuclear Valley, qui prend de plus en plus d’ampleur, consiste à aider les entreprises dans la recherche de fonds propres. Pour percevoir des subventions publiques, comme celles attribuées dans le cadre du dispositif France 2030, elles doivent en effet respecter le principe d’un pour un, qui signifie que pour un euro de subvention perçu, l’entreprise doit disposer d’un euro de fonds propre. Nuclear Valley a donc créé un club investisseurs, baptisé Nuc Tech, qui fédère quinze fonds d’investissement, parmi lesquels des fonds souverains, régionaux et bancaires. « Nos entreprises adhérentes ont beaucoup de difficultés à trouver des investisseurs, ajouteJean-François Debost. Nous les aidons à préparer leurs dossiers, à les entraîner à pitcher leurs projets, puis nous soumettons leurs dossiers à nos quinze investisseurs. Ils sont prêts à investir dans le nucléaire, et ce malgré toutes les contraintes de ce secteur, notamment le fait de devoir faire face à une industrie du temps long et fortement capitalistique. »
Nuclear Valley est membre fondateur de l’Université des métiers du Nucléaire
Ce soutien aux entreprises peut aussi prendre la forme d’un appui aux adhérents dans leur recherche de futurs partenaires industriels ou pour les aider à accroître leur chiffre d’affaires. Pour cela, Nuclear Valley organise régulièrement des rencontres entre tous les acteurs de la filière nucléaire. La dernière en date, baptisée Les rendez-vous Nuclear Valley, a réuni plus de 650 personnes et un peu plus de 300 entreprises lors de sa septième édition en novembre dernier.
Alors que le soutien à la formation aux métiers du nucléaire est le deuxième axe fort porté par France 2030 dans ce secteur, Nuclear Valley intervient dans ce domaine à plusieurs niveaux. Il est membre fondateur de l’Université des métiers du Nucléaire (UMN), une association qui a pour vocation de dynamiser les dispositifs de formation du secteur nucléaire, aux échelles régionale, interrégionale et nationale et d’apporter des réponses aux besoins de recrutement sur des métiers essentiels à la filière.
Dans le cadre du dispositif « Compétences et métiers d’avenir (CMA) » mis en place par France 2030, le pôle de compétitivité intervient également en appui de certains organismes de formation qui ont déposé des dossiers à cet « Appel à manifestation d’intérêt » (AMI) ». « Nous sommes partenaires d’un certain nombre d’initiatives pour attirer les jeunes dans les écoles, complète Jean-François Debost. Par exemple, nous relayons les nouvelles formations proposées pour les faire connaître auprès de notre écosystème d’adhérents. Nous nous rendons aussi dans des écoles et organisons des forums, pour faire entrer les entreprises dans les écoles afin qu’elles présentent leurs activités aux élèves, et certains d’entre eux peuvent décrocher des offres d’emploi ou des stages. L’enjeu de la formation est important, car la filière nucléaire française aura besoin de 100 000 compétences de plus dans les dix années à venir. »
Les hautes puissances pulsées sont une technologie permettant de générer de très hautes tensions électriques, pouvant atteindre plusieurs milliers de volts, sous la forme d’impulsions extrêmement brèves, allant de quelques millisecondes à quelques nanosecondes. Ce procédé est par exemple utilisé pour tester la résistance des appareils à la foudre. Jusqu’ici, il n’existait aucune métrologie pour caractériser des impulsions hautes tensions allant jusqu’à 500 kV (kilovolts), avec des temps de montées de seulement quelques nanosecondes. Le LNE (Laboratoire national de métrologie et d’essais) vient de développer le premier instrument capable de réaliser ces mesures.
« Pour les industriels, il est important de pouvoir générer une onde qui monte et redescend le plus proprement possible afin qu’elle puisse être utilisée efficacement, déclare Pierre-Jean Janin, responsable du département basse fréquence au LNE. Pour cela, cette onde ne doit avoir ni oscillation, ni grésillement et ni double pic. Pour obtenir cette qualité d’impulsion, il est nécessaire de la maîtriser, et pour la maîtriser, il convient de la mesurer à l’aide d’outils de mesure qui sont calibrés et étalonnés au système international d’unités. »
La pièce principale de ce nouveau système de mesure est constituée d’un diviseur de tension. Étant donné qu’il n’existe aucun instrument capable de mesurer directement une haute tension, ce diviseur a pour fonction d’atténuer le signal, et peut par exemple ramener une tension de 500 kV, à seulement 10 volts. Un oscilloscope, positionné à la sortie, vient ensuite mesurer cette tension. Tout l’enjeu du développement de ce nouveau système de mesure a été de fabriquer un diviseur le plus précis possible, capable de diviser une tension sans déformer le signal.
« Pour concevoir notre outil, nous avons d’abord réalisé un travail de modélisation électro-magnétique et mécanique, précise Pierre-Jean Janin. Ensuite, nous avons cherché des entreprises de précision capables de coller les pièces les unes aux autres avec une couche très mince, de seulement quelques micromètres d’épaisseur, et constituées de matériaux aux propriétés et aux caractéristiques très particulières. Enfin, des tests ont été réalisés avec des tensions atteignant plusieurs centaines de kV, tout en veillant à ce qu’ils ne soient pas destructifs. L’ensemble de ces travaux est très complexe et nous a demandé quatre années de développement. »
Les impulsions haute tension de plus en plus utilisées dans de multiples domaines
En plus de mesurer un très court signal de seulement quelques nanosecondes, ce nouvel appareil a la particularité d’être raccordé au système international d’unités (SI), ce qui est une première dans le monde. D’autres instruments de mesure proposent déjà cette garantie de traçabilité, mais uniquement pour des impulsions allant de la milliseconde à la microseconde. Ce nouvel instrument est transportable pour caractériser des générateurs d’ondes pulsées ainsi que des diviseurs de tension. Les industriels et les laboratoires de recherche pourront ainsi bénéficier de la garantie de la traçabilité sur tous leurs types d’impulsions, leur apportant précision et sécurité. La génération d’impulsions requérant de l’énergie, cet instrument de mesure permettra aussi de ne pas en utiliser plus que nécessaire et donc limitera tout gaspillage.
Les ondes pulsées sont historiquement utilisées dans le domaine militaire pour détecter des mines dans les sols et évaluer leur profondeur. Plus l’impulsion est brève et rapide et moins le risque de ne pas les identifier est élevé. Elles trouvent également des applications dans le domaine spatial et sont à l’origine des signaux de haute fréquence des satellites. Dans l’agroalimentaire, de nombreux procédés de pasteurisation, de stérilisation et de conservation des aliments utilisent aussi cette technologie d’ondes impulsionnelles.
Dans le domaine médical, ce procédé est notamment employé pour traiter les cancers. « La radiothérapie utilise à la base des ondes hautes tensions qui sont produites par un générateur puis sont transformées en rayons X, poursuit Pierre-Jean Janin. Plus l’impulsion haute tension est propre et plus les rayons seront précis et localisés afin de tuer les cellules cancéreuses, tout en évitant les débordements sur les cellules saines. Il est donc important d’étalonner les équipements utilisés pour maîtriser parfaitement la forme de l’onde. »
Microsoft et la start-up allemande Cerabyte travaillent sur des technologies de remplacement des archives sur bande qui pourraient déboucher sur un produit livrable d’ici cinq ans. Ce support de stockage serait destiné à être installé dans les datacenters.
Microsoft a publié un document académique de 16 pages, présenté lors du 29e symposium ACM (Association for Computing Machinery) sur les principes des systèmes d’exploitation. L’éditeur travaille au développement de systèmes de stockage durables (ce qu’on appelle l’archivage de ces fameuses données « froides ») et hautement efficaces.
Ce projet, baptisé Silica, n’est pas vraiment nouveau puisque l’entreprise y travaille depuis des années et avait même présenté un prototype dès 2019, vantant les avantages de son support WORM (Write Once Read Many) « peu coûteux et durable, résistant aux champs électromagnétiques et offrant des durées de vie de dizaines, voire de centaines de milliers d’années ».
« Le matériel et le logiciel de Silica ont été conçus et optimisés conjointement, depuis le support jusqu’au niveau de service, avec la durabilité comme objectif principal », précisent les auteurs du document publié par Microsoft.
Réduction des coûts de 75 %
Le projet Silica a, semble-t-il, évolué depuis que Microsoft s’est rapproché de Cerabyte qui développe un support de stockage basé sur la céramique. La nanomémoire céramique offre une solution idéale pour l’archivage de données « froides ». Elles sont stockées en permanence dans des nanocouches de céramique, ce qui permet de réduire le coût total de possession de 75 % et la consommation d’énergie et les émissions de CO2 de 99 % selon la start-up allemande.
Mais les deux projets divergent sur quelques points. Cerabyte utilise des impulsions laser femtosecondes (impulsions ultra-courtes), utilisées notamment en recherche, dans l’industrie et dans le domaine des applications biomédicales. Elles permettent de créer des changements physiques dans un revêtement céramique sur des plaques de verre carrées. Les changements sont des trous à l’échelle nanométrique, comme une carte perforée de haute technologie.
Comme pour Cerabyte, les données sont inscrites sur un plateau de verre carré à l’aide de lasers femtosecondes ultrarapides à travers des voxels, un « mot-valise créé en contractant “volume” et “pixel”, [et qui sont] à la 3D ce que le pixel est à la 2D », selon Wikipédia.
Il s’agit de modifications permanentes de la structure physique du verre, qui permettent d’écrire plusieurs bits de données en couches sur la surface du verre. Ces couches sont ensuite empilées verticalement par centaines.
Chaque voxel code 3 à 4 bits de données. Les voxels sont écrits côte à côte en couches 2D sur le plan XY du plateau. Ils sont organisés en secteurs rectangulaires, un groupe 2D de plus de 100 000 voxels dans un plan XY, soit environ 100 Ko de données. Un ensemble de secteurs en 3D est appelé piste et il peut y avoir plusieurs To de données par plateau.
Toutefois, les trous de Cerabyte sont générés dans le cadre de codes QR, tandis que les voxels du projet Silica sont déposés sur des pistes. Ses plaques sont placées sur une plate-forme qui se déplace de gauche à droite et d’avant en arrière sous des dispositifs de tête de lecture et d’écriture (lasers et microscopes à polarisation). Par contre, le support en verre de Cerabyte ne se déplace que d’avant en arrière et est un support à couche unique.
Cerabyte et Microsoft envisagent tous deux des rayonnages de bibliothèque pour contenir le support de stockage des données. Pour Cerabyte, il s’agirait de cartouches contenant des supports en verre. Microsoft opterait pour des dalles de verre de quartz brut.
Cette bibliothèque dispose d’un système de transfert robotisé composé de plusieurs robots pickers (navettes) indépendants et alimentés par batterie. Un petit essaim en quelque sorte qui est capable de se déplacer verticalement de haut en bas entre plusieurs rails horizontaux traversant les rayonnages de la bibliothèque jusqu’aux rayonnages de lecture et d’écriture. Une vidéo en fait la démonstration.
Le document de Microsoft conclut : « Les propriétés uniques du support en verre et la conception conjointe du matériel et du logiciel, dans une optique de “cloud first” (tous les processus et les infrastructures sont dans le cloud et non plus en local dans l’entreprise, NDLR), permettent à Silica d’être fondamentalement plus durable et d’atteindre des coûts d’archivage des données nettement inférieurs à ceux des bandes magnétiques. »
Les récents règlements européens ReFuelEU Aviation et FuelEU Maritime misent sur un important développement des carburants de synthèse entre 2025 et 2050. Dans son nouveau rapport Électro-carburants en 2050 : Quels besoins en électricité et CO2 ?, l’agence de la transition écologique (Ademe) analyse deux scénarios de production d’e-carburants en France pour atteindre les objectifs de décarbonation des secteurs maritime et aérien à 2050. Ils se différencient notamment par le niveau de trafic à venir.
Résultat : l’Ademe recommande un déploiement « raisonné » pour ne pas pénaliser les autres secteurs qui auront aussi besoin d’électricité et de CO2 pour se décarboner, comme l’industrie et les transports terrestres. L’Ademe insiste également sur la nécessité de prioriser les ressources électriques et de CO2 à l’échelle nationale. En ce sens, l’agence invite à mettre en place rapidement des politiques de modération de la croissance du trafic international dans le cadre de la planification écologique.
« Les électro-carburants, ou e-carburants, sont des carburants liquides ou gazeux synthétisés à partir d’hydrogène – produit à partir d’électricité par électrolyse de l’eau – et de CO2 : e-kérosène, e-méthanol, e-ammoniac, e-méthane », rappelle l’Ademe. Au-delà de 2040, ce CO2 devra être obtenu à partir de la biomasse ou par captage direct dans l’air. La directive européenne relative aux énergies renouvelables interdit à cet horizon le recours à du CO2 d’origine fossile pour la production de ces carburants.
Une question d’électricité et de captage deCO2
L’électrolyse de l’eau, ainsi que le captage, le transport et l’utilisation de CO2 industriel nécessiteront beaucoup d’électricité. Le scénario «haut» étudié par l’Ademe implique une demande d’énergie 70% supérieure à celle d’aujourd’hui. Les besoins en électricité s’établissent alors en 2050 à 175térawattheures(TWh), soit environ 13réacteurs nucléairesEPR. Les besoins en CO2 biogénique s’élèvent à 18,6millions de tonnes(MtCO2). Ces niveaux nécessiteraient le développement d’infrastructures dédiées à la collecte et au transport de ce CO2. « L’utilisation de ce CO2 biogénique pour fabriquer des e-carburants entrerait par ailleurs en concurrence avec la nécessité de le stocker dans le sol et le sous-sol pour atteindre la neutralité carbone souligne l’Ademe.
Le scénario « bas » intègre des leviers de sobriété des usages, basés sur les scénarios Transition(s)2050 de l’Ademe. La demande d’énergie y est 35% inférieure à celle d’aujourd’hui. Avec une augmentation plus modérée du trafic, les ressources à mobiliser s’élèveraient de 44 à 68TWh d’électricité, soit au moins 3EPR, et de 5,8 à 7,3millions de tonnes de CO2 biogénique. « Dans ce cas, les objectifs européens de décarbonation sur l’aérien et le maritime sembleraient atteignables», observe l’Ademe.
Dans son récent rapport «Décarboner le secteur aérien avec du carburant durable», l’Académie des technologies estimait de son côté qu’il faudrait 20TWh d’électricité pour produire 2millions de tonnes de kérosène durable en 2035 et 170TWh en 2050 pour 6millions de tonnes de kérosène durable. La majorité du carburant serait alors obtenu par électrolyse de l’eau et capture du CO2. « À terme, un doublement de la production électrique sera nécessaire en 2050 pour décarboner les différents secteurs de l’économie », estimait DanielIracane, expert du pôle énergie de l’Académie des technologies, pilote du rapport. Le secteur aérien mobiliserait de 10à 15% de cette nouvelle production électrique issue des énergies renouvelables et de nouveaux réacteurs nucléaires.
VAL. Trois lettres derrière lesquelles se cache une véritable technologie de rupture, un procédé innovant au service du traitement de l’eau, protégé par deux brevets : le Vacuum AirLift. Aujourd’hui portée par l’entreprise montpelliéraine Coldep, l’innovation est née il y a une douzaine d’années de l’intuition de Julien Jacquety et de Bertrand Barrut, alors respectivement étudiant ingénieur et doctorant. Flairant la possibilité de traiter et de recycler l’eau utilisée en circuit fermé dans le domaine de l’aquaculture via un système de colonne d’extraction particulaire à dépression, les deux scientifiques se lancent dans des essais, qu’ils mènent en collaboration avec deux enseignants-chercheurs d’instituts de renom, l’INSA Lyon et l’Ifremer. « Rapidement, ils se sont rendu compte que cela fonctionnait ! », retrace celui qui a rejoint l’aventure Coldep en juin dernier pour en devenir le directeur général, Sébastien Latz. « Bertrand Barrut s’est alors chargé de corédiger les brevets, pendant que Julien Jacquety s’attelait à la création de la société », poursuit le DG de Coldep. S’ensuivent des travaux de prototypage et de test, qui aboutissent quelques années plus tard – il y a huit ans environ – à l’industrialisation de la solution. « Un partenariat stratégique a alors été noué avec la société marocaine Omega chargée de produire l’élément central du système : la colonne », dévoile Sébastien Latz.
Coldep multiplie depuis lors les installations, tant et si bien qu’elle a aujourd’hui franchi le cap de la centaine de sites – majoritairement aquacoles – équipés de sa technologie aux multiples vertus.
Peu gourmand en énergie et en foncier – grâce à ses colonnes d’une hauteur de quatre à six mètres pour une emprise au sol de seulement un à quatre mètres carrés –, le Vacuum AirLift assure en outre à lui seul trois fonctions clés du traitement de l’eau « historiquement assurées par trois technologies distinctes », comme le note Sébastien Latz.
La première d’entre elles est l’extraction particulaire, qui permet d’ôter les matières minérales présentes en suspension dans l’eau, au même titre que les particules organiques : virus, bactéries et autres microalgues. La deuxième concerne le rééquilibrage des gaz dissous dans l’eau, assurant au passage son oxygénation. La troisième, enfin, est quant à elle d’ordre mécanique : par la mise en mouvement des masses d’eau qu’elle implique, la technologie VAL permet de se passer d’une bonne partie des pompes jusqu’alors indispensables aux installations de traitement de l’eau. Son principe de base consiste en effet en une mise sous vide partielle de la pièce maîtresse de la technologie – la colonne – associée à une injection d’air. Des conditions qui vont alors mécaniquement entraîner une mise en circulation hydraulique. Le VAL permet ainsi, selon les chiffres avancés par Coldep, de diminuer de trois à cinq fois (en fonction de la configuration et des objectifs de traitement visés) la consommation électrique liée à la mise en mouvement de l’eau à traiter, par rapport à des équipements de pompage conventionnels. Le tout, avec des débits pouvant atteindre plusieurs centaines de m3/h.
Les particules indésirables concentrées dans une écume
L’injection d’air comprimé entraîne également la formation de microbulles d’air, capturant sur leur passage les particules en suspension dans l’eau pour les amener finalement jusqu’au sommet de la colonne. Une écume s’y forme alors progressivement, sous l’action de ce procédé dit de « moussage-écumage ». « Cette fonction est probablement l’une des plus intéressantes de notre technologie. Elle permet en effet l’obtention d’une matière résiduelle très concentrée, que nous extrayons par aspiration grâce, encore une fois, à la mise sous vide de la colonne », explique Bertrand Barrut lui-même, aujourd’hui directeur R&D de Coldep. Le vide remplace ainsi les opérations de raclage qu’impliquent les approches conventionnelles de moussage-écumage. « L’intérêt est double : cela permet d’une part d’extraire un concentrat fortement déshydraté, qui occupe donc un volume moins important, mais aussi d’assurer d’autre part une extraction totale du concentrat, sans aucune stagnation », ajoute Bertrand Barrut.
Ceci, de surcroît, sans utiliser le moindre filtre ou autre consommable et avec une efficacité record : « Il est possible de filtrer l’eau avec un résultat inférieur à trois SDI[1] (indice de colmatage de l’eau) en quelques heures, de concentrer les particules en suspension jusqu’à cent fois, et d’éliminer plus de 99 % des particules présentes dans l’eau, y compris la majorité de la matière organique dissoute, les huiles et les hydrocarbures, le tout sans l’utilisation d’additifs chimiques », fait en effet valoir Coldep dans son dossier de presse.
Un concentrat valorisable
Évoqué plus haut par Bertrand Barrut, la très faible hydratation du concentrat représente en outre un avantage non négligeable sur le plan de sa valorisation. « Son indice de siccité, qui reflète son niveau de déshydratation, est près de deux fois plus important que celui d’un concentrat obtenu via des approches de moussage-écumage plus conventionnelles », assure Sébastien Latz. Riche en matière organique, la matière extraite de l’eau grâce au procédé VAL de Coldep peut ainsi facilement être valorisée, par exemple en méthanisation. Cette possibilité reste toutefois difficilement envisageable dans le cadre du marché historique de déploiement de la technologie de Coldep qu’est l’aquaculture, comme le concède Sébastien Latz.
Outre le traitement de l’eau de fermes conchylicoles et autres installations de pisciculture, l’entreprise montpelliéraine a cependant choisi il y a peu d’explorer également, en parallèle, la voie du traitement des effluents industriels. Un domaine dans lequel les matières extraites peuvent cette fois bel et bien être valorisées, notamment par méthanisation. « Nous avons par exemple équipé avec notre technologie le site de production d’un industriel de l’agroalimentaire, avec l’objectif de traiter les eaux issues de la transformation des aliments en plats préparés. Cela lui a permis d’obtenir une nouvelle matière valorisable, à hauteur d’environ 300 tonnes par an », se félicite Sébastien Latz. « Alors qu’elle n’était qu’un centre de coûts pour les industriels, la gestion de leurs effluents peut ainsi devenir, si ce n’est profitable, en tout cas beaucoup moins coûteuse qu’auparavant », ajoute le DG de Coldep.
En matière de coûts, justement, si la mise de départ est peu ou prou comparable à celle d’installations de traitement plus conventionnelles, les montants nécessaires à l’exploitation de la solution de Coldep se révèlent quant à eux moins élevés selon l’entreprise : moins énergivore, sa technologie VAL ne nécessite en outre ni changements de filtres, ni remplacement de pièces d’usures, ce qui implique des temps de maintenance eux aussi moins importants. « Notre technologie est aussi très automatisée, et nécessite donc moins d’interventions humaines », souligne Sébastien Latz.
De nombreuses perspectives d’avenir
Au-delà de l’aquaculture et désormais des effluents de l’industrie, Coldep envisage également d’explorer la voie de la réutilisation des eaux usées traitées (REUT), comme le dévoile son directeur général : « Nous avons déjà mené un projet à la Fondation Luma, qui visait à traiter toutes les eaux grises et jaunes du site, en vue de les réutiliser pour des besoins d’irrigation ».
De manière plus prospective encore, Coldep s’intéresse également au sujet du pré-traitement d’eau de mer avant désalinisation, ou encore à une approche innovante de lutte contre les émissions de CO₂ : l’algo-bioremédiation. « Cela désigne le fait de capter le CO₂ issu de fumées industrielles par le biais d’algues, dont le dioxyde de carbone booste la croissance », éclaire Sébastien Latz. Coldep est ainsi impliquée sur ce plan dans la série de projets VASCO, dont la troisième itération a été lancée en 2022. « Nous figurons parmi les six partenaires du projet VASCO3, qui vise à faire passer à une échelle plus industrielle les tests que nous menons en la matière », explique le DG de Coldep. L’entreprise montpelliéraine figure également parmi les acteurs du projet portugais REDWine, qui vise quant à lui à capter, toujours grâce à la culture d’algues, le CO₂ issu du processus de fermentation alcoolique.
Pour mener à bien tous ces projets, Coldep peut compter sur les fonds qu’elle a récemment levés : 1 M€, comme elle l’a annoncé le 6 novembre dernier. Une somme que l’entreprise aujourd’hui forte d’une équipe de onze salariés compte également mettre à profit pour recruter, mais aussi pour développer des démonstrateurs mobiles qui pourront être amenés sur site afin de démontrer la pertinence de la technologie auprès de potentiels clients industriels. « Notre levée de fonds vise également à rendre notre technologie VAL la plus autonome possible, en développant les possibilités de pilotage à distance, notamment par le biais d’une application très facile d’accès qui constituera une sorte de jumeau numérique de chaque installation », projette finalement Sébastien Latz.
Très confiant dans sa technologie, le DG des Coldep assure que l’entreprise ne fait que commencer l’exploration des nouveaux marchés qu’elle vise… La cleantech montpelliéraine compte ainsi sur des « ingénieurs qui veulent changer le monde » pour l’aider à faire perdurer son esprit pionnier, à renforcer son engagement environnemental dans le domaine du traitement de l’eau, mais aussi à lutter contre le changement climatique.
Chaque année, on compte entre 4 et 5 millions de cas de mort subite cardiaque à travers le monde. Or, 80 % d’entre eux sont dus à des arythmies ventriculaires malignes. Celles-ci se traduisent par une perte de contraction des ventricules cardiaques et par des pulsations très rapides et asynchrones, menant finalement à une disparition du flux sanguin et à un arrêt du cœur. Jusqu’à maintenant, cartographier l’activité électrique du cœur pour déterminer les personnes à risque restait rare. La faute à la nécessité d’insérer un cathéter dans la cavité cardiaque, ou bien d’avoir recours à des instruments coûteux, à usage unique et dont l’implantation est chronophage. Pour faciliter la prévention, des chercheurs de l’UCL (University College London) ont décidé d’associer imagerie électrocardiographique (ECGI) et résonance magnétique cardiovasculaire (RMC) dans une « simple » veste…
Une veste brodée d’électrodes pour mesurer l’activité cardiaque
Les électrodes conventionnelles sont en argent-chloride d’argent (Ag/AgCl) et conduisent les signaux électriques de surface à l’aide d’un conducteur métallique, muni d’une couche de gel électrolyte le séparant de la peau. Mais ces accessoires sont facilement cassables, non réutilisables et peuvent causer des irritations. L’étude technique de faisabilité et de répétabilité de la veste ECGI-RMC a été détaillée par les chercheurs de l’UCL dans le Journal of Cardiovascular Magnetic Resonance du 4 décembre 2023. Ils y annoncent notamment leur préférence pour des électrodes (256) à base de textile, confortables, pliables et lavables. Ces électrodes carrées de 2 cm sur 2 ont été fabriquées à l’École Nationale Supérieure des Arts et Industries (ENSAIT) de Roubaix, en France. Elles sont constituées de fils en polyamide recouvert d’argent et brodés directement sur une veste 100 % coton.
La veste développée à l’UCL est portée ici par un étudiant en médecine de l’université. Crédits : UCL Institute of Cardiovasculary Science/James Tye.
77 participants entre 30 et 78 ans ont été invités à la porter pour réaliser des modèles numériques 3D de leurs cœurs. Les tests performés à 3 Tesla ont montré une bonne qualité du signal reçu après 50 lavages en machine, soit l’équivalent de 250 patients. À l’avenir, l’usage simplifié de la veste ECGI-RMC pourrait aider à identifier plus efficacement les personnes ayant besoin d’un défibrillateur automatique implantable. Ce petit dispositif se glisse sous la peau en vue de détecter et de corriger les activités électriques anormales du cœur. Depuis l’étude initiale, la veste a été revêtue par plus de 800 patients. Et ce n’est sans doute qu’un début…
Organisé en sept « hubs », le Pôle de compétitivité Systematic Paris-Region couvre une vaste palette de technologies : infrastructures numériques, cybersécurité, photonique, open source, ou encore drones, ingénierie et informatique avancées. Pour mener à bien les projets d’innovation qu’il accompagne dans ces domaines, le pôle Systematic a défini une stratégie axée autour de deux thèmes « forts et complémentaires », tels qu’il les définit : l’innovation structurante, mais aussi la transformation numérique. Le pôle compte ainsi plus de 200 experts réunis au sein de ses Comités de pilotage, et a mené depuis sa création pas moins de 796 projets jusqu’au stade du financement, pour un montant total de 3,6 milliards d’euros… À nouveau labellisé en mars dernier par l’État à l’issue de l’appel à candidatures relatif à la phase V de la politique des Pôles de compétitivité (2023-2026), Systematic ambitionne désormais de décupler les capacités d’innovation et la croissance de l’écosystème francilien des Deep Tech qu’il anime, comme nous l’explique Jean-Luc Beylat. Actuellement à la tête de Nokia Bell Labs France, il préside par ailleurs le pôle Systematic depuis 2011.
Techniques de l’Ingénieur : Quelle est la genèse du Pôle de compétitivité Systematic Paris-Region ?
Jean-Luc Beylat : Systematic est né de la première vague d’appels à candidatures de la politique nationale des Pôles de compétitivité : il existe depuis la première phase, en 2005. Il s’est structuré autour d’un écosystème constitué, au départ, essentiellement de grands groupes : Thales, Dassault Aviation, Renault, Alcatel-Lucent, etc. Ces acteurs basés en Île-de-France se sont rassemblés sur des thématiques telles que la simulation numérique, les technologies de défense, de sécurité, ou encore de télécommunication.
Le Pôle de compétitivité a ainsi commencé avec une petite centaine de membres. Il a toutefois très rapidement pris de l’ampleur sur des axes technologiques aussi bien logiciels que hardware, en demeurant, donc, un pôle assez généraliste, là où d’autres, tels que NextMove, se sont quant à eux développés en tant que pôles de filière.
J’ai, pour ma part, pris la présidence de Systematic en 2011. Le pôle comptait alors environ 200 membres, contre presque un millier aujourd’hui. Nous avons alors entrepris de le transformer pour en faire le pôle européen des Deep Tech, en le restructurant autour d’aspects aujourd’hui prédominants, comme la data, l’IA, l’open source, les technologies cyber, les infrastructures numériques, la photonique… Nous avons eu cette volonté de mettre particulièrement en avant les technologies, afin de fédérer les différents acteurs de ces domaines.
Quelle est à l’heure actuelle la typologie des membres de Systematic, et leur répartition ?
Systematic compte aujourd’hui beaucoup de grands groupes, 140 environ. Notre Pôle de compétitivité regroupe aussi près de 600 PME, ETI et startups innovantes. Des jeunes poussent qui œuvrent par exemple dans le domaine de l’informatique quantique, à l’image de Quandela, Pasqal, Alice & Bob, Craft AI… Plus largement, à peu près toutes les startups Deep Tech qui ont émergé en Île-de-France sont membres de Systematic.
À ces acteurs économiques privés s’ajoutent aussi 160 laboratoires de recherche publics. C’est l’une des forces des Pôles de compétitivité que de faire se rencontrer cette diversité d’acteurs, publics comme privés. La mission globale d’un pôle tel que le nôtre consiste en effet à animer un écosystème très divers pour générer de la recherche partenariale. Ceci afin de permettre à ces acteurs de croître, dans le cas des PME et startups, ou, pour les grands groupes, de les aider à se transformer.
Quels sont les principaux enjeux auxquels sont confrontées les différentes catégories d’acteurs que vous citiez ?
Pour les grands groupes, l’enjeu principal actuellement réside dans ce que l’on appelle le scouting de l’innovation, c’est-à-dire le fait d’aller chercher les technologies innovantes dont ils ne disposent pas en interne. Ils bénéficient, certes, de pôles R&D importants, mais vu la diversité des technologies que l’on connaît aujourd’hui, ces grands groupes ont besoin de trouver des partenaires pour accompagner leur dynamique d’innovation.
Les PME, quant à elles, sont confrontées au besoin de consolider leur savoir-faire technologique, mais aussi à la nécessité de faire croître leur chiffre d’affaires avec de nouveaux produits innovants.
Les startups, elles, ont besoin de l’appui d’un écosystème à même d’accompagner leur croissance rapide. Elles ne sont pas forcément préoccupées d’emblée par leur chiffre d’affaires, et se concentrent ainsi plutôt dans un premier temps sur l’accès aux compétences, aux laboratoires publics, etc.
Enfin, ces universités et laboratoires publics sont quant à eux bien souvent à la recherche de partenaires industriels, dans l’optique de valoriser leurs technologies et de mettre en place leurs stratégies de transfert technologique.
Chacun de ces acteurs fait ainsi face à des problématiques diverses et adopte donc une démarche sensiblement différente. La possibilité qu’ils ont de se rencontrer, ensemble, au sein d’un même pôle, fait que finalement, tout cela fonctionne malgré tout de concert.
Quels rôles concrets jouez-vous, en tant que Pôle de compétitivité, pour accompagner vos membres à faire face à ces enjeux ?
Comme je l’évoquais, notre rôle premier est celui de l’animation d’un écosystème. Pour cela, sur une technologie donnée, nous amenons les partenaires à se réunir afin qu’ils définissent une feuille de route commune, des trajectoires collectives dans lesquelles se projeter.
Cela se traduit ainsi par la mise en place de projets de R&D collaboratifs, entre grands groupes, PME, laboratoires… Cela leur permet aussi de partager des connaissances sur les enjeux technologiques : nous organisons un grand nombre de rencontres, de webinaires, d’évènements à l’occasion desquels nos membres se retrouvent pour interagir.
Nous aidons aussi nos membres à s’orienter vers les différents guichets de financement. Nous travaillons pour cela avec les services de l’État, avec le Secrétariat général pour l’investissement, avec Bpifrance… Nous travaillons aussi étroitement avec les régions : la Région Île-de-France est notamment très impliquée dans la vie de Systematic. Elle définit elle-même un certain nombre de technologies qu’elle souhaite voir se développer sur son territoire. C’est le cas par exemple de l’IA ou du quantique, des piliers de notre pôle.
Vous avez, il y a quelques années, organisé le pôle Systematic en sept « hubs ». Pourquoi ?
Vous l’avez compris, Systematic est une grande structure qui regroupe beaucoup de monde… Il nous fallait donc recréer des structures plus petites, pour plus d’agilité, mais aussi pour donner plus de visibilité aux différentes technologies autour desquelles sont axés chacun de ces hubs : les infrastructures numériques, la cybersécurité, la photonique, l’open source, les drones, ainsi que l’ingénierie & l’informatique avancées.
Pour éviter que tout cela soit uniquement technology driven – axé sur les technologies –, nous avons par ailleurs défini trois enjeux transverses liés aux grandes transformations de notre société : santé, territoires, ainsi qu’industrie & services. Associés aux technologies que je citais, ces grands enjeux permettent de définir une sorte « d’approche matricielle » de la transformation de notre société.
Tout cela s’est fait il y a cinq ans environ, à un moment où nous devions redéfinir notre stratégie pour la phase IV de labellisation des Pôles de compétitivité et où nous avons décidé de faire de Systematic un pôle européen des Deep Tech. Plutôt que de former des groupes de filières, nous avons ainsi décidé des constituer des groupes technologiques, en créant ces sept hubs.
À l’occasion du lancement de la phase V en janvier 2023, nous avons d’ailleurs renforcé cette approche autour des technologies, auxquelles nous donnons encore plus de visibilité. Nous avons concentré nos efforts sur des thématiques qui connaissent une véritable accélération : IA, quantique, 5G… Nous sommes d’ailleurs, sur ce dernier point, opérateurs d’un grand projet qui s’appelle 5G Open Road. Son objectif est de lier les enjeux de la mobilité avec ceux des infrastructures, en accompagnant le développement de la voiture – si ce n’est autonome – en tout cas connectée, capable par exemple d’anticiper les perturbations de trafic. Ce projet rassemble une quarantaine de partenaires. Il s’agit, en quelque sorte, d’un laboratoire de développement de nouveaux concepts pour la mobilité de demain. Nous faisons de même sur d’autres aspects que j’évoquais, tels que l’IA ou l’informatique quantique. L’Île-de-France est en effet très riche en acteurs de l’innovation : il s’agit du premier pôle de R&D d’Europe. Nous essayons donc de soutenir cet environnement afin d’accélérer le développement de ces technologies clés pour notre avenir. C’est ce qui guide notre feuille de route pour 2027, dans le cadre de cette labellisation en phase V.
Que représente justement cette labellisation, s’agit-il simplement d’une reconnaissance purement formelle… ?
Non, cela se traduit de manière très concrète ! Le pôle n’existerait d’abord tout simplement pas sans ce label de l’État. En plus du label en tant que tel, l’État nous apporte, via les régions, un financement qui compte pour environ 20 % de notre budget, auquel s’ajoutent 25 % d’aide de la région elle-même. Cette labellisation a aussi pour vertu de mettre en mouvement la dynamique de l’écosystème, en lien avec la région, les entreprises, les universités. C’est cette dynamique-là qui est finalement le moteur de la démarche globale de Systematic, et qui nous permet d’aboutir chaque année à beaucoup de grandes réussites, comme nous l’avons encore constaté mi-décembre à l’occasion de notre assemblée générale.
De « grandes réussites » auxquelles vous décernez chaque année le label de « Champion du Pôle »…
Tout à fait ! C’est notre plus beau label. Nous l’avons décerné depuis la création du pôle à 68 entreprises. Il permet de mettre en avant, de donner de la visibilité à des acteurs au potentiel de développement important. Nous avons d’ailleurs révélé, le 14 décembre dernier, nos quatre nouveaux champions : les entreprises tout à fait remarquables que sont Accenta, Ecomesure, Naarea et SiPearl.
Fin octobre, le Secours catholique, le CCFD-Terre solidaire et la commission diocésaine justice et paix (CDJP) publiaient le rapport « La compensation carbone au prix des droits humains ». À travers l’étude du projet BaCaSi de plantation d’arbres de TotalEnergies au Congo-Brazzaville, ce rapport examine les impacts de la compensation carbone sur les droits des populations locales. Au-delà de cet exemple, Judith Lachnitt, chargée de plaidoyer international Climat et souveraineté alimentaire au Secours catholique – Caritas France, nous explique les limites de la compensation carbone.
Techniques de l’ingénieur : La compensation carbone est un mécanisme qui montre des limites inquiétantes. Plantations d’arbres victimes d’incendies, crédits fantômes, surestimation de la captation de carbone… Quelles sont les limites actuelles du système ?
Judith Lachnitt : Le marché volontaire de la compensation carbone est assez décrié. Il y a eu plusieurs scandales concernant notamment des crédits carbone fantômes et des atteintes aux peuples autochtones. L’article 6.4 de l’accord de Paris créera un marché mondial du carbone supervisé par une entité des Nations unies. Dans ce marché, des pays, des entreprises ou même des particuliers pourront acheter des crédits. Par effet ricochet, on s’attend à ce qu’il influence le cadre du marché carbone volontaire. Mais le cadre réglementaire est toujours en cours de négociations et la COP28 n’a abouti à aucune évolution sur ce point.
Nous avons réalisé récemment une enquête sur un projet de TotalEnergies au Congo-Brazzaville. L’entreprise dit mettre en place les meilleurs standards sociaux et environnementaux. Mais en allant sur le terrain, on voit qu’il y a des propriétaires expropriés de leurs terres, des agriculteurs et agricultrices qui ont perdu l’accès aux terres pour leurs ressources alimentaires, et des populations autochtones qui n’ont plus accès à la forêt. D’autres atteintes au droit des peuples autochtones ont été documentées.
On voit certaines limites, mais êtes-vous contre le principe même de compensation ?
La compensation carbone est un sujet qui est très controversé par la nature même du mécanisme. Celui-ci permet à des entreprises ou des États de compenser leurs émissions en finançant des projets de réduction de gaz à effet de serre ou de séquestration de carbone. C’est en quelque sorte un droit à polluer.
Certes, tous les projets ne se valent pas. Ceux que l’on critique le plus sont les projets de conservation qui accordent des crédits sur la base d’émissions évitées. Par exemple, en luttant contre le braconnage ou la déforestation. Il est très difficile d’évaluer l’intérêt de tels projets par rapport au statu quo.
Il faut des sources de financement innovantes pour l’adaptation et les pertes et les dommages. Pourquoi ne pas taxer les entreprises polluantes par exemple, mais les crédits carbone ne nous semblent pas être la bonne solution tels qu’ils sont déployés aujourd’hui. Le risque est d’avoir des projets qui ne diminuent pas réellement les émissions ou qui ont des impacts sur les populations.
Les partisans de la compensation carbone disent qu’elle reste aujourd’hui indispensable, pour financer des initiatives écologiques qui ne se feraient pas sans elle. Vous n’êtes pas de cet avis ?
C’est faux. Il y a d’abord un problème mathématique. Une étude d’Oxfam a montré que pour éliminer les émissions de carbone dans le monde afin d’atteindre la neutralité carbone d’ici 2050 à partir de la seule utilisation des terres, il faudrait planter au moins 1,6 milliard d’hectares de forêts, soit l’équivalent de cinq fois la superficie de l’Inde ou plus que la totalité des terres arables de la planète.
En plus, les projets de plantation d’arbres à grande échelle doivent être développés dans une approche intégrale pour qu’ils aient un impact intéressant en matière de biodiversité, car il n’y a pas que l’intérêt carbone. Souvent, il s’agit de projets de monoculture à croissance rapide – acacias ou eucalyptus – qui peuvent être très gourmands en eau. Enfin, il y a un risque incendie sur les forêts de plus en plus élevé. Avec le réchauffement climatique, les forêts sont aussi moins capables de stocker du carbone qu’avant.
Il faut toutefois protéger les puits de carbone. S’il devait y avoir des projets d’afforestation ou de boisement déployés pour revaloriser certains puits de carbone, ils devraient se faire sur la base de la contribution et non de la compensation. Car lorsqu’il s’agit de compensation, les entreprises se défaussent de leurs obligations de réduction d’émissions à la source. Il faut bien d’abord réduire. Et si des entreprises veulent avoir un impact positif sur les puits de carbone et reforester, qu’elles contribuent, mais qu’elles n’avancent pas d’allégations mensongères sur la neutralité en 2050 grâce à ce soutien.
Pouvez-vous nous expliquer l’origine des Parcours Pratiques ?
DG : Nous sommes nombreux à avoir à un moment de notre carrière dû travailler sur un projet qui nous a fait sortir de notre zone de confort. Par exemple, dans des situations telles que le management d’un projet à distance, communiquer sur des indicateurs financiers d’un projet, se lancer dans un autre type d’organisation telle que l’approche intrapreneuriale. C’est dans ces moments que l’on aimerait avoir sous la main l’explication, la démarche à suivre, les outils adaptés et savoir à quel moment les utiliser. Nous nous sommes mis à votre place et pour répondre à toutes ces questions, nous avons élaboré les Parcours Pratiques.
Concrètement, que trouve-t-on dans un Parcours Pratique ?
DG : Un Parcours Pratique thématique est décomposé en séquences, au nombre de 6 à 8. Chaque séquence répond à une problématique au sein de cette thématique. Pour vous donner un exemple, le Parcours Pratique sur l’approche intrapreneuriale débute par une première séquence pour comprendre les différences entre exploration et exploitation.
Les séquences sont elles-mêmes découpées en plusieurs étapes, et se concluent par un quiz de 3 questions permettant au lecteur de valider sa compréhension.
Les séquences sont enrichies d’outils et de modèles téléchargeables.
Comment navigue-t-on dans un Parcours Pratique ?
DG : La navigation des Parcours Pratiques a été pensée pour accompagner le lecteur dans sa progression. Ainsi, par exemple, vous suivez l’ordre des séquences et des étapes pour bien assimiler toutes les informations. Une fois que la séquence a été intégralement vue, vous pouvez bien entendu y retourner et naviguer librement.
Une barre de progression vous indique à chaque instant à quel niveau du Parcours vous vous trouvez. Lorsque vous quittez le Parcours et que vous y retournez ultérieurement, vous reprendrez automatiquement à l’étape suivante.
En cliquant sur les contenus liés, vous avez directement accès à la bibliographie, aux sites internet de référence et au PDF imprimable de la séquence.
Qui sont les auteurs des Parcours Pratiques ?
DG : Les séquences ont été rédigées par des professionnels du métier concerné, qui ont une expérience concrète et pratique des sujets abordés. Leurs conseils sont issus de leur quotidien, et les outils qu’ils nous mettent à disposition sont ceux qu’ils utilisent également.
Quelles sont les thématiques abordées par les Parcours Pratiques ?
DG : Nous avons volontairement sélectionné 8 thématiques transversales, qui vont de l’innovation jusqu’à la transition énergétique, en passant par la gestion de projet, la veille, la conception ou encore la propriété intellectuelle. Ces thématiques ont en commun de concerner, à un moment de sa carrière, tous les ingénieurs.
Vous êtes client des Techniques de l’Ingénieur et une thématique vous intéresse davantage d’une autre ? Vous pouvez demander à notre service client de remplacer votre Parcours Pratique par un autre plus adapté à vos problématiques actuelles.
Allez-vous développer de nouveaux Parcours Pratiques ?
DG : Nous n’allons pas nous arrêter en si bon chemin ! En 2024, dix nouveaux Parcours Pratiques seront intégrés aux thématiques existantes afin de vous accompagner encore plus loin.
Ces appareils aux apparences anodines sont de plus en plus utilisés et installés chez les particuliers. Problème, en étant connectés, ils récupèrent des données plus ou moins sensibles sur notre vie privée, qui sont ensuite stockées sur des serveurs.
Comme de nombreux produits sont fabriqués par des industriels chinois et/ou commercialisés par des marques américaines, on peut légitimement se poser la question de l’usage qui est fait de cette masse d’informations.
Même si le RGPD renforce la protection des données personnelles de tous les citoyens européens depuis 5 ans, différentes affaires ont fait la une des médias à propos d’une exploitation exagérée ou d’un niveau de sécurité trop faible de ces données.
En 2019, les données de 2,4 millions d’utilisateurs de Wyze, un fabricant d’appareils de sécurité, avaient fuité. La même année, la CNIL mettait déjà en garde contre des appareils qui commençaient à être de plus en plus présents dans nos cuisines, les robots.
Selon la loi sur la cyberrésilience ou Cyber ACT (Cyber Resilience Act), les appareils connectés devront bénéficier d’un niveau de cybersécurité de base lorsqu’ils seront vendus dans l’UE. Le texte adopté à titre provisoire maintient l’orientation générale de la proposition de la Commission, notamment en ce qui concerne les points suivants :
des règles visant à rééquilibrer la responsabilité de la conformité vers les fabricants, qui doivent remplir certaines obligations telles que fournir des évaluations des risques de cybersécurité, délivrer des déclarations de conformité et coopérer avec les autorités compétentes ;
les processus de traitement des vulnérabilités pour les fabricants afin de garantir la cybersécurité des produits numériques, et les obligations des opérateurs économiques, tels que les importateurs ou les distributeurs, en ce qui concerne ces processus ;
des mesures visant à améliorer la transparence sur la sécurité des produits matériels et logiciels pour les consommateurs et les utilisateurs professionnels ;
un cadre de surveillance du marché pour faire respecter les règles.
Mais la cybersécurité de ces produits ne sera pas si simple à instaurer. Pour l’instant, la majorité d’entre eux présente un très faible niveau de cybersécurité, ce qui se traduit par des vulnérabilités généralisées.
Dans certaines conditions, ces appareils connectés peuvent servir de vecteur d’attaque pour les acteurs malveillants. Sous couvert d’anonymat, un hacker nous a expliqué qu’il est en effet très facile d’accéder à des caméras de surveillance installées chez des particuliers.
« Dans la plupart des cas, les mots de passe par défaut des marques ne sont pas changés. En scannant des adresses IP de ces appareils, je trouve facilement le moyen de regarder le salon de particuliers… Il suffit que je connaisse la référence de la caméra pour ensuite trouver sur internet le mot de passe généré en usine ».
Autre risque, la récupération de données personnelles à votre insu. En novembre 2022, l’expert britannique en sécurité Paul Moore a publié une vidéo dans laquelle il accuse le fabricant Eufy d’envoyer des données au cloud, même si cette option est désactivée.
Pour renforcer le niveau de sécurité et s’assurer de la transparence des fabricants, des travaux vont se poursuivre au niveau technique dans les semaines à venir, afin de finaliser les détails du nouveau règlement.
L’an dernier, Marc-Henri Frouin, PDG de Niryo, nous présentait son robot collaboratif dédié à l’apprentissage et à la recherche. Il nous expliquait notamment la volonté de Niryo21 de faire évoluer ses gammes de produits pour aller vers une implantation dans l’industrie.
Des bras robots collaboratifs compacts et abordables
Depuis sa création en 2017, Niryo s’efforce de proposer des bras robots collaboratifs qui soient à la fois compacts, financièrement abordables et simples d’utilisation, notamment grâce à l’application Niryo Studio.
L’idée de départ était la création d’un robot destiné à la formation et à l’éducation, qui soit plus accessible et beaucoup plus léger qu’un robot industriel. On peut dire qu’en sept ans d’existence, cette idée a fait du chemin, puisque 300 universités à travers le monde (dont les 50 plus prestigieuses) sont dorénavant équipées d’un robot Niryo.
Mais ce n’est pas tout : les cobots Niryo ont déjà séduit plus de 200 entreprises, dont plusieurs grands acteurs industriels comme Siemens, Texas Instruments, Airbus, Ariane Group ou encore Coca-Cola. En tout cela représente plus de 3 000 cobots vendus à travers le monde (30 % en France) !
Son dernier-né, le robot éducatif « NED2 », est d’ailleurs orienté industrie, puisqu’il s’adresse à la formation des ingénieurs et permet la simulation de scénarios industriels réels en connectant plusieurs unités.
Objectifs de la levée de fonds : adresser de nouveaux cas d’usage et développer une gamme à destination des professionnels
La levée de fonds en série A qui vient d’être annoncée par un communiqué de presse comprend une levée de 6,4 millions d’euros apportée par des fonds d’investissement, complétée par 3,6 millions d’euros de prêts apportés par un pool bancaire.
Elle est menée par :
le fonds d’investissement BPI Digital Venture ;
le fonds d’investissement Innovacom ;
quatre autres fonds historiques – IRD, Finorpa, NFA et Go Capital.
À travers cette levée de fonds, Niryo souhaite poursuivre sa croissance, consolider sa présence internationale et développer sa gamme de robots professionnels.
Marc-Henri Frouin, CEO de Niryo, est enthousiaste : « Chez Niryo, nous sommes animés par une conviction profonde en la puissance de la technologie pour façonner un avenir plus durable et plus humain. Niryo rend la robotique collaborative accessible à tous et promeut une vision plus résiliente de la technologie. Avec cette levée de fonds, nous continuons à écrire notre histoire en repoussant les limites de ce que la robotique peut accomplir. C’est par ailleurs pour nous l’occasion de démontrer que la collaboration entre l’homme et la machine est la clé de l’innovation dans tous les secteurs ».
20 nouveaux postes en CDI seront ouverts !
Pour Niryo, cette nouvelle phase de financement ouvre donc un nouveau chapitre vers son objectif de transformer la robotique collaborative pour en faire une force durable. La start-up est déjà à pied d’œuvre puisque 20 postes en CDI seront ouverts pour mener à bien l’ensemble des projets !
En tout cas, les financeurs croient en l’avenir de Niryo ! Dans le communiqué de presse, Marion Aubry, directrice d’investissement chez Bpifrance Digital Venture, déclare : « Nous sommes convaincus que le marché des cobots devrait connaître une forte croissance dans les prochaines années. Grâce à son offre de robots collaboratifs légers, peu encombrants, facilement programmables et avec une UX simple, Niryo nous semble idéalement positionnée pour démocratiser l’utilisation de cobots dans de nombreux secteurs, au-delà des usages traditionnels de la robotique dans l’industrie. »
Depuis quelques années, on est plutôt habitué à parler de flexibilité pour la production et la consommation d’électricité. Pourrait-on faire de même avec le biogaz ? Un projet nommé Fleximétha vient justement de dessiner les contours de la modulation de la production de biométhane injecté dans les réseaux de gaz. Ce travail a été conduit dans le cadre de la Chaire Innovation biogaz, créée en 2020 par l’INSA Toulouse et GRDF, avec l’entreprise associative Solagro. Autour d’un cas d’étude modélisant un méthaniseur type, Fleximétha montre les conséquences d’une adaptation de la matière organique mise en méthanisation aux besoins du réseau de gaz, tant en termes de production de biométhane, que de quantité de gaz torchés et de rendement économique.
L’enjeu, dans quelques années, pourrait être de taille. À fin novembre 2023, on compte 643 sites de méthanisation, majoritairement agricoles, qui injectent leur production de biométhane sur les réseaux de transport, mais surtout de distribution de gaz. L’énergie ainsi délivrée dépasse 11,5 TWh par an. La programmation pluriannuelle de l’énergie en cours de consultation prévoit un objectif entre 50 et 85 TWh/an en 2035. Avec ces niveaux de production croissants, les mailles locales des réseaux de gaz, notamment de distribution, pourraient se retrouver saturées en biométhane, en particulier l’été lorsque la demande de gaz est moindre. Les gestionnaires de réseaux imaginent déjà des solutions comme la construction de jonctions entre des mailles, ou bien des stations de rebours permettant de compresser le méthane du réseau de distribution vers le réseau de transport. Fleximétha envisage une alternative complémentaire : moduler la production du biométhane en fonction des contraintes de réseau.
Modélisation et cas d’étude
Pour analyser cette solution, trois étapes ont été nécessaires. Tout d’abord, un cas pilote a été étudié sur le micro-méthaniseur Biobricks de la société Ineo MPLR. Son digesteur, d’une dizaine de mètres cubes, a été soumis à des périodes de « famine » où plus aucune matière organique n’était introduite, et à des périodes d’alimentation avec passage d’un régime légumes-fruits à des déchets de cantine plus carnés. Deux premiers enseignements ont été tirés de cette expérimentation : après une période de famine, la reprise de la charge nominale se fait sans difficulté majeure ; par contre, la réalimentation en déchets de cantines présente un risque de déstabilisation à cause d’une modification des charges en azote et en lipides, entraînant une perturbation des activités bactériennes dans le digesteur.
La deuxième étape a été la modélisation dynamique de tout le système : composition des substrats introduits dans le digesteur, méthanisation et production de biogaz, stockage du biogaz dans un gazomètre, épuration du biogaz en biométhane, injection du biométhane sur le réseau, brûlage en torchère du biogaz excédentaire. La cinétique de production de biogaz est simulée à partir de la composition des substrats (matière sèche, matière organique / potentiel méthanogène, etc.), du programme d’alimentation, des paramètres physico-chimiques (équilibres liquide/liquide et gaz/liquide) et des paramètres cinétiques (constante d’hydrolyse de matières, etc.). En fonction du volume du gazomètre et des performances de l’épurateur, les capacités d’injection sur le réseau sont évaluées au pas de temps horaire.
Troisièmement, Fleximétha a analysé les résultats de la modélisation d’une installation type, avec un digesteur de 4 250 m3 alimenté à moitié par des déjections animales et à moitié par des cultures intermédiaires à vocation énergétique (CIVE). Le gazomètre de 1 200 m3 permet un stockage de 8 heures. La production est de 150 Nm3/h, mais entre les pertes et l’utilisation pour des besoins internes, 139 Nm3/h sont potentiellement injectables dans le réseau si celui-ci n’a aucune contrainte, soit 13,5 GWh/an avec un taux d’injection à 100 %. Au contraire, si le réseau présente une soixantaine de jours estivaux avec des limitations d’injection, plusieurs cas de figure ont été simulés. Un fonctionnement en mode classique d’alimentation sans interruption permet une production constante, mais oblige à brûler le gaz en torchère les jours de contraintes, soit 12,9 GWh/an injectés et un taux d’injection de 95,4 %.
Une première alternative est d’arrêter l’alimentation en CIVE du digesteur la veille de chaque jour d’effacement : on limite alors les pertes en torchère (taux d’injection de 99,9 %), mais la quantité injectée baisse fortement, à 12,2 GWh/an. Une seconde solution est de procéder avec le même arrêt la veille, mais en surchargeant le digesteur en CIVE au moment de la reprise. On a alors un peu plus de biométhane injecté (12,6 GWh/an) et un taux d’injection un peu moins bon (99,5 %). Enfin, la dernière simulation reprend le cas précédent en ajoutant une surcharge supplémentaire de CIVE lors des périodes hivernales. Dans ce cas, on retrouve le niveau nominal d’injection (13,5 GWh/an) sans dégrader le taux d’injection (99,5 %). De tous les cas étudiés, cette solution de flexibilité est aussi la plus intéressante économiquement. Même si les coûts d’exploitation sont 10 % plus élevés pour gérer les arrêts et surcharges d’alimentation, son taux de retour sur investissement de 6,2 % équivaut quasiment à celui de la situation sans contrainte (6,3 %), tout comme son taux de couverture de la dette (128,3 % contre 131 %).
Grâce à cette étude, les acteurs de la méthanisation peuvent commencer d’envisager une marge de flexibilité de la production journalière de biogaz en fonction des besoins du réseau gazier. Elle repose sur la gestion d’arrêts d’alimentation du digesteur et de reprises en surchargeant un « substrat pivot » comme les CIVE. Pour rendre cette flexibilité totalement opérationnelle, les porteurs du programme Fleximétha appellent à une expérimentation sur un site réel, à une analyse plus fine de la sensibilité du modèle selon la typologie des substrats et les profils temporels de capacité d’injection, et soulèvent la question de la qualification systématique des propriétés cinétiques des substrats.
Un webinaire détaillant les résultats a été organisé par le Centre technique national du biogaz et de la méthanisation (CTBM). Documentation disponible ici.
Ce 3 décembre, le Journal officiel a fait paraître un arrêté qui autorise la recherche d’hydrogène naturel, aussi surnommé « hydrogène[1] blanc » dans le sous-sol français. Cette autorisation, inédite en France, aboutit à l’octroi d’un permis exclusif de recherche (PER) à la société TBH2 Aquitaine installée à Pau. Pour une durée de cinq ans, celle-ci pourra effectuer des forages et explorer une superficie de 225 km² dans le département des Pyrénées-Atlantiques. Cette première fait suite à l’amendement du Code minier français qui a ajouté l’hydrogène naturel à la liste des ressources minières en avril 2022.
De nouveaux permis devraient suivre concernant cinq autres demandes qui sont actuellement « à l’instruction », selon le ministère de la Transition énergétique et parmi elles une demande conjointe des start-up 45-8 Energy[2] et Storengy[3].
Une source d’énergie décarbonée et potentiellement renouvelable
Alors qu’on le pensait rare à l’état pur sur Terre, la découverte d’importants gisements d’hydrogène naturel fait entrevoir une alternative aux hydrocarbures.
Pour produire de l’hydrogène, il faut dissocier le dihydrogène des autres composants qui sont l’oxygène dans l’eau (H2O) et le carbone dans le méthane. Aujourd’hui, 95 % de l’hydrogène exploité provient des énergies fossiles dont pour près de la moitié est issu du « reformage » du gaz naturel. Dans ce cas, l’hydrogène est dit « gris », le distinguant ainsi de l’hydrogène dit « noir » réalisé à partir du charbon.
L’hydrogène est dit « vert » s’il est issu de l’électrolyse de la molécule d’eau, à condition que la source d’électricité utilisée soit renouvelable (éolienne, solaire, hydraulique). Une solution écologique mais peu compétitive car le procédé est très onéreux.
L’hydrogène blanc, lui, étant directement présent dans des gisements souterrains, n’a pas besoin de l’appui d’autres sources d’énergie pour être généré. Il est le fruit, entre autres, des interactions entre les roches riches en fer ou radioactives et les molécules d’eau.
Cette source d’énergie décarbonée présente aussi l’avantage d’être peu coûteuse. Dans le village de Bourakébougou au Mali, l’unique gisement exploité dans le monde, l’hydrogène blanc est produit pour moins d’un euro le kilogramme. À titre de comparaison, le coût de l’hydrogène gris est estimé[4] entre 0,9 et 3 € par kilogramme.
Autre atout : l’écorce terrestre produirait en continu de l’hydrogène blanc. Ce renouvellement, qui reste hypothétique, s’effectuerait sur quelques années contre plusieurs centaines de millions d’années pour le pétrole.
Cependant que l’hydrogène industriel est utilisé principalement dans la pétrochimie pour la fabrication des engrais agricoles et dans le raffinage pétrolier, les usages pourraient être multiples si cette manne tenait ses promesses : stockage des énergies renouvelables ou alimentation du secteur des transports pour les véhicules équipés d’une pile à combustible. Néanmoins, le potentiel de dispersion de l’hydrogène lié à sa légèreté augmente le risque de fuite à travers les parois du réservoir.
Au moment où d’autres pays comme l’Australie ou les États-Unis sont déjà lancés dans la course à l’or blanc, le président de la République a lancé ce lundi un appel aux industriels pour positionner la France à la pointe de ce nouvel eldorado.
[1] Abus de langage ; en réalité, il s’agit du dihydrogène H2
[2] Entreprise dédiée à l’exploration et à la production de gaz industriels écoresponsables
[3] Filiale d’Engie spécialisée dans le stockage souterrain de gaz naturel
[4] Le coût a doublé (6 €/kg) en raison des augmentations des prix du gaz découlant du conflit russo-ukrainien.
Le contenu carbone de l’énergie peut être réduit, en substituant du gaz naturel au charbon, ainsi qu’en augmentant la part de nucléaire et de renouvelables dans le mix énergétique. Mais il existe encore de nombreux freins. Le nucléaire est par exemple confronté au niveau élevé des investissements nécessaires et à des réticences de l’opinion dans de nombreux pays, suite notamment aux accidents de Tchernobyl et de Fukushima. De ce fait, la part du nucléaire dans la fourniture d’électricité au niveau mondial a fortement reculé, passant de 17,5 % en 1996 à un peu plus de 10 % en 2019. Toutefois, la nécessité d’augmenter la part d’électricité décarbonée pourrait conduire à sa renaissance. Dans le cas des énergies renouvelables, la rentabilité économique reste souvent insuffisante en l’absence de subventions. En outre, leur intermittence nécessite soit un système de génération d’électricité modulable en back-up, soit le recours à des dispositifs de stockage d’électricité coûteux et générateurs de déperdition d’énergie.
Différents types d’énergies renouvelables
La première des énergies renouvelables à avoir été exploitée est l’hydraulique, qui a servi dès le Moyen Âge à entraîner les moulins à eau. L’énergie hydraulique présente de nombreux avantages. Elle conduit à la construction d’installations de taille relativement importante, de l’ordre de 300 MW en moyenne, utilisées majoritairement à environ 50 % de la pleine puissance. Elle est facilement modulable et peut même servir à stocker l’électricité. La disponibilité en ressources hydroélectriques reste néanmoins limitée. Au niveau mondial, sa part relative dans la fourniture d’électricité est passée d’environ 20 % il y a une trentaine d’années à 16 % aujourd’hui.
La biomasse, elle, présente l’intérêt de pouvoir se substituer facilement aux ressources fossiles, à la fois comme combustible et comme matière première. Le carbone de la biomasse est considéré comme recyclé, étant donné qu’il est capté dans l’atmosphère. De ce fait, la combustion de la biomasse est censément neutre en bilan carbone. Ceci suppose toutefois que la biomasse soit entièrement régénérée, ce qui n’est pas toujours le cas.
L’énergie géothermique a l’avantage d’une haute disponibilité. C’est également l’une des rares énergies renouvelables pouvant être utilisées sur une base continue. Toutefois, le flux de chaleur géothermique est faible. De ce fait, une centrale fonctionne avec une quantité finie de chaleur stockée, qui s’épuise en quelques décennies, ce qui conduit à une baisse des performances. Ce stock ne peut être renouvelé qu’au bout d’un temps très long. L’énergie géothermique ne peut donc jouer un rôle important que dans des zones volcaniques où le gradient géothermique est élevé, comme en Islande (où il peut dépasser 20 °C/100 m).
La puissance cinétique du vent varie comme le cube de sa vitesse. Elle est d’environ 612 W/m2 pour une vitesse de vent de 10 m/s. La puissance éolienne disponible en moyenne varie entre 50 et 400 W/m2, selon les régions. La production d’énergie éolienne est intermittente et ne peut pas être modulée en fonction de la demande. La rentabilité économique est d’autant mieux assurée que la vitesse du vent est régulière. Cette condition est en général mieux réalisée en mer ou sur des hauteurs. En raison de l’intermittence de la production, il est nécessaire de lui associer un système de stockage d’énergie ou une production d’électricité en back-up par une centrale fonctionnant avec un combustible fossile.
Enfin, l’énergie fournie par irradiation solaire dans le monde varie entre 500 et 2 500 kWh/m2 × an, soit d’un facteur 5. En France, elle se situe entre 1 200 et 1 800 kWh/m2 × an, du nord au sud. Cette énergie solaire de rayonnement peut ensuite être convertie en chaleur (capteurs thermiques) ou bien en électricité (capteurs photovoltaïques).
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 28 décembre 2023 !
Pour notre dossier de décembre, « Les énergies renouvelables, épicentre de l’innovation », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
Après deux semaines de négociations, les 197 pays réunis à Dubaï pour la COP28 ont abouti à un accord ce mercredi 13 décembre. Ce texte appelle notamment le monde à « s’éloigner des énergies fossiles dans les systèmes énergétiques » et à « accélérer les efforts en faveur d’une réduction progressive de l’électricité au charbon sans dispositif de captage et de stockage de carbone ». Les pays devront contribuer à ces « efforts mondiaux » à leur niveau national.
Pour s’éloigner des énergies fossiles, il s’agira notamment de « tripler la capacité énergétique renouvelable mondiale et doubler le taux annuel moyen d’amélioration de l’efficacité énergétique d’ici 2030 ». Le texte invite par ailleurs à développer le nucléaire, les technologies de captage et de stockage de carbone (CSC) et l’hydrogène bas carbone. S’il ne mentionne pas la fin de toutes les subventions aux énergies fossiles, il évoque « une sortie des subventions inefficaces qui ne s’attaquent pas à la précarité énergétique ou aux transitions justes, le plus tôt possible ».
Un accord vraiment historique ?
« Cet accord est un bon accord » et « une victoire du multilatéralisme », a salué la ministre de la transition énergétique Agnès Pannier-Runacher. Elle a souligné que le texte fait référence à treize reprises à l’objectif de limiter le réchauffement climatique à 1,5°C. Il mentionne la nécessité d’atteindre un pic mondial d’émissions de gaz à effet de serre en 2025, de baisser les émissions de gaz à effet de serre de 43 % d’ici 2030, de 60 % en 2035 par rapport à 2019 et d’atteindre la neutralité carbone en 2050. « Ce texte a été assis sur tous les constats du GIEC », a assuré la ministre.
De son côté, Arnaud Gilles, chargé de plaidoyer climat et énergie au WWF France, évoque « une étape importante » et « un vrai tournant » à se détourner des énergies fossiles. Pour autant, Romain Ioualalen, chargé de campagne « politique mondiale » à l’ONG Oil Change International, dénonce la mention des technologies de CSC et du recours potentiel à des énergies de transition, à savoir « le gaz naturel et le gaz naturel liquéfié, des énergies fossiles ». Il craint également que la restriction d’une réduction des énergies aux seuls systèmes énergétiques « laisse la place pour l’extension des énergies fossiles dans des secteurs comme la pétrochimie, les plastiques ou les engrais ».
Désormais, tout reste à faire. « C’est vraiment une très bonne base de travail, mais il ne faut pas perdre de vue que c’est une course contre la montre et aujourd’hui, chaque minute de mise en œuvre compte, ce ne sont pas juste des mots sur un accord », a prévenu Agnès Pannier-Runacher. Arnaud Gilles du WWF annonce son intention pour les prochaines COP : « il faudra faire passer le message qu’il faut le [l’accord, ndlr] prendre sérieusement, avec beaucoup d’énergies renouvelables, mais pas le mirage des technologies de capture et de stockage de carbone ».
Élaborée en 2020, la stratégie française de production et consommation d’hydrogène devait être révisée l’été dernier. Elle ne sera finalement calée que dans la première moitié de 2024, certains sujets méritant arbitrage. La filière, réunie lors de la conférence annuelle de son association France Hydrogène, est à la fois soulagée et inquiète : les arbitrages en question pourraient ralentir certains développements en cours ; mais les mois à venir vont donner l’occasion à chacun de défendre ses positions.
Annoncée par les ministres Agnès Pannier-Runacher et Roland Lescure lors de l’inauguration de la gigafactory de Symbio le 5 décembre, les grandes lignes de cette nouvelle stratégie confirment d’abord la direction globale prise il y a trois ans : la France veut devenir productrice d’hydrogène bas-carbone en visant 6,5 GW d’électrolyse en 2030 et – c’est un nouvel objectif – 10 GW en 2035. La filière estime qu’on pourrait pousser jusqu’à 12 ou 14 GW, mais se satisfait déjà du maintien de cet élan.
Nouvelle priorité à l’industrie ?
Autre point de satisfaction : la poursuite du soutien étatique aux projets, notamment pour la production d’hydrogène par électrolyse. Celle-ci bénéficiera en effet d’une enveloppe de 4 milliards d’euros à partir de janvier 2024, distribuée par l’Ademe avec l’appui de la Commission de régulation de l’énergie. L’objectif est d’aider l’émergence du premier gigawatt d’électrolyse en France en finançant l’écart de coût entre l’hydrogène bas-carbone et l’hydrogène carboné fabriqué par vaporeformage de méthane fossile. Ce soutien va favoriser des projets prévoyant de gros volumes d’hydrogène, donc très probablement des projets industriels, pour faire baisser les coûts.
La ministre de la transition écologique a justement indiqué que la stratégie allait désormais privilégier l’industrie et la mobilité lourde. D’où une première inquiétude de la filière et des territoires qui ont porté la mobilité hydrogène légère depuis trois ans. Certes la Tiruert (taxe incitative relative à l’utilisation des énergies renouvelables dans le transport) va représenter un soutien non négligeable à cette mobilité légère, mais France Hydrogène redoute un essoufflement de ce type de projets, alors qu’il y a un vivier d’acteurs motivés par la mobilité dite intensive, c’est-à-dire à fort kilométrage (comme les taxis) ou ayant besoin de recharge rapide.
Si le pays veut disposer de volumes importants d’électrolyse et décarboner son industrie, certains secteurs à fort potentiel devraient être prioritairement visés, telles les productions d’ammoniac, d’oléfines et d’acier primaire, comme l’a défendu l’Association négaWatt lors de la publication d’une étude à ce sujet mi-octobre. Elle propose aussi que les capacités de modulation de consommation d’électricité des électrolyseurs soient valorisées comme service rendu au réseau, et les ministres ont justement annoncé que cela serait mis sur la table des discussions. Le sujet n’est pas bénin, puisque cette modulation permettrait de stocker de l’hydrogène en période de surplus pour l’utiliser plus tard, ce qui engendrerait d’importantes économies pour le système énergétique, chiffrée à 1,5 milliard d’euros par an par RTE et GRTgaz.
Interrogation sur le recours aux imports d’hydrogène
Le nouvel écosystème de l’hydrogène décarboné se met tout juste en place, aidé par un cadre régulatoire européen naissant, mais il reste encore beaucoup d’efforts à faire pour le déployer avec l’ampleur attendue et de façon pérenne. Car il ne suffit pas de construire des gigafactory, il est également nécessaire que des produits fonctionnant ou fabriqués à partir d’hydrogène soient achetés en France et en Europe. La stimulation de cette demande est encore embryonnaire, et peu facilitée par des prix élevés. C’est le cas dans la mobilité, avec des véhicules encore très chers. Pas mieux du côté des électrolyseurs, où c’est encore la Chine qui fait la course en tête avec des électrolyseurs 3 à 5 fois moins chers.
Dans la course à la compétitivité, des pays comme l’Allemagne ont déjà décidé qu’ils importeront de l’hydrogène décarboné produit à bas coût hors d’Europe. La France s’y refusait jusqu’alors, mais les déclarations ministérielles viennent d’ouvrir la possibilité d’étudier cette option. Il faut dire que des réseaux hydrogène sont déjà prévus en France avec le corridor H2Med qui va relier la péninsule ibérique à Marseille, et d’autres prévus pour longer la vallée du Rhône jusqu’à Dijon puis l’Outre-Rhin. Le pays verra-t-il transiter cet hydrogène sans en utiliser une partie ? L’intérêt économique d’importer un hydrogène décarboné moins coûteux laissera-t-il la priorité à l’enjeu d’une production nationale souveraine ? Les débats des mois à venir vont devoir se pencher sérieusement sur ces questions pour déterminer quelle voie la France veut prendre.
Si l’amélioration des technologies liées à la production électrique via des sources d’énergies renouvelables, solaire et éolien en tête, permet d’obtenir des rendements de plus en plus intéressants, l’Etat, via le plan France 2030 et d’autres mécanismes existant au niveau européen, veut se donner toutes les chances de produire l’électricité renouvelable dont la société va avoir besoin dans un avenir proche.
Pour la massification des transports électrifiés, pour décarboner les activités industrielles et les électrifier quand cela est possible, et plus généralement pour répondre aux besoins en électricité sur le territoire qui vont augmenter, avec une consommation d’électricité qui, selon RTE, pourrait atteindre 640 TWh en France, alors qu’elle était de 460 TWh en 2022, il va falloir mettre en oeuvre des moyens de production électrique décarbonés, au-delà de ce que nos installations nucléaires, et dans une tout autre mesure pour le moment nos moyens de production hydroélectriques, solaires et éoliens peuvent produire.
L’hydrogène est une piste, qui a pour principale atout sa capacité à être un outil de stockage d’énergie électrique sous forme de gaz. Et des faiblesses, comme sa volatilité et son explosivité. La découverte récente de gisements d’hydrogène blanc, en Lorraine et, l’avenir le dira, dans les Pyrénées, laisse entrevoir une alternative à la production d’hydrogène vert, via des électrolyseurs alimentés en électricité décarbonée, pourquoi pas d’origine nucléaire.
D’autres pistes existent, qui font appel au solaire et à l’éolien. panneaux solaires transparents pour les vitres, les serres ou les fenêtres de voitures par exemple, tuiles photovoltaïques, éoliennes équipées de technologies solaires sur leurs pâles… La combinaison du solaire et de l’éolien est intéressante car elle permet de gommer, au moins en partie, l’intermittence de production de ces énergies, leur talon d’Achille. Reste à savoir s’il sera possible de rendre ces innovations rentables pour les déployer à grande échelle.
Les dispositifs de production d’électricité miniaturisés, ou du moins imaginés pour prendre place dans les habitations, les véhicules ou les usines, se multiplient. Du radiateur intelligent, qui stocke l’électricité en heures creuses pour la rendre disponible au besoin, équipé de panneaux solaires et d’une batterie, au pneu électrique qui se recharge tout seul, ces dispositifs répondent tous à un cahier des charges implicite : créer de l’électricité d’origine renouvelable, de manière ultra localisée, et même accolée à l’endroit où la consommation d’électricité aura lieu. Avec le souci de l’intelligence. En effet, l’intégration d’intelligence artificielle, de connectivité dans ces dispositifs, comme dans les dispositifs destinés à produire de l’électricité à grande échelle, permettra d’ajuster la production étroitement à la demande, ce qui n’est pas réalisé à l’heure actuelle de la manière la plus efficiente possible.
Si cette liste n’est bien sûr pas exhaustive, Les caractéristiques communes à toutes ces innovations forment une liste qui elle est non exhaustive : efficience, intelligence et rentabilité.
Dans un article publié dans Nature communication, des chercheurs du Département de l’énergie du Laboratoire national d’Oak Ridge (ORNL) ont annoncé avoir développé, grâce au machine learning, un supercondensateur capable de stocker quatre fois plus d’énergie que les meilleurs matériaux actuels.
Les supercondensateurs sont composés de deux électrodes (anode et cathode) principalement constituées de carbone poreux et immergées dans un électrolyte. Ce sont des systèmes rechargeables, aussi appelés générateurs secondaires. Les pores du carbone permettent d’emmagasiner la charge électrostatique. Les supercondensateurs servent dans des applications qui nécessitent une densité de puissance élevée et une longue durée de vie, comme les systèmes de freinage par récupération dans les véhicules électriques, les alimentations sans interruption et les niveleurs de puissance pour l’électronique.
Les scientifiques de l’ORNL souhaitaient développer un carbone poreux performant afin d’améliorer les capacités des superconducteurs. Ils ont donc utilisé le machine learning pour y parvenir. En l’espace de trois mois, ils ont réussi à découvrir un nouveau matériau, ce qui aurait pris un an auparavant. « En combinant une méthode axée sur les données et notre expérience en matière de recherche, nous avons créé un matériau de carbone aux propriétés physicochimiques et électrochimiques améliorées qui a permis de repousser les limites du stockage d’énergie pour les supercondensateurs au carbone », a déclaré le chimiste Tao Wang de l’ORNL et de l’université du Tennessee, à Knoxville.
Ce superconducteur possède une architecture en carbone riche en oxygène avec une surface de plus de 4 000 mètres² par gramme, l’une des plus élevées enregistrée pour ce type de matériau. Cela est notamment possible grâce à une structure particulière. Le matériau, qui ressemble à une balle de golf avec de profondes fossettes au microscope, comprend à la fois des mésopores entre 2 et 50 nanomètres et des micropores inférieurs à 2 nanomètres. Au cours de leurs analyses expérimentales, les chercheurs ont constaté que l’alliance des mésopores et des micropores prodiguait non seulement une surface élevée pour le stockage de l’énergie, mais aussi des canaux pour le transport de l’électrolyte, surtout quand les mésopores sont dopés à l’oxygène et à l’azote. « Les pores plus petits offrent une plus grande surface pour stocker la charge, mais les pores plus larges sont semblables à une autoroute qui peut accélérer la performance du taux de charge/décharge », a déclaré Tao Wang. « Une quantité équilibrée de petits et de grands pores permet d’obtenir les meilleures performances, comme le prédit le modèle de réseau neuronal artificiel », a-t-il ajouté.
Cela donne à ce matériau une capacité de 611 farads par gramme, soit quatre fois plus qu’un supercondensateur commercial typique. « Il s’agit de la capacité de stockage la plus élevée jamais enregistrée pour le carbone poreux », conclut Sheng Dai, qui a conçu et mis au point les expériences avec le premier auteur de l’étude Tao Wang.
La start-up française Sweetch Energy, basée à Rennes, a brisé ce plafond de verre. En effet, les trois créateurs de Sweetch Energy, Bruno Mottet, Pascal Le Melinaire et Nicolas Heuzé, sont parvenus à faire monter à l’échelle le phénomène de diffusion nano-osmotique, mis en évidence par une équipe du CNRS en 2013. Son exploitation a permis à la start-up de produire des membranes aux performances décuplées. Une rupture technologique, qui permet à Sweetch Energy de préparer la mise en service, dans les mois qui viennent, d’une installation pilote sur les rives du Rhône, de production d’électricité issue de l’énergie osmotique, à grande échelle.
Le directeur général de Sweecht Energy, Nicolas Heuzé, a retracé pour les Techniques de l’Ingénieur le cheminement de cette aventure entrepreneuriale, de la découverte scientifique d’un phénomène physique à son exploitation industrielle, dans le contexte de la transition énergétique.
Techniques de l’Ingénieur : Pourquoi l’énergie osmotique est-elle si difficile à exploiter ? Quel est son potentiel ?
Nicolas Heuzé : Cela fait plus de 70 ans que l’on cherche à exploiter l’énergie osmotique pour produire de l’électricité. Tout d’abord parce que c’est une source d’énergie massivement présente à l’état naturel, et qui permet de mettre en place des installations de production électrique flexibles.
Pour capter cette énergie et la transformer, il y a eu beaucoup de travaux académiques et industriels autour de technologies de membranes, avec une première génération de technologies qui s’appelait la PRO : ce sont des membranes semi-perméables qui laissent passer de l’eau pour générer une pression dans un compartiment et engager une turbine. C’est une approche très mécanique de la production d’électricité. La faiblesse de ce genre de système est la rentabilité, notamment parce que les membranes ne sont pas assez performantes et sont très chères.
Depuis une trentaine d’années, un autre procédé, physico-chimique, avec une membrane sélective, trie les anions et les cations, pour produire de l’électricité à l’aide d’électrodes, à l’image des procédés utilisés dans les batteries. Là aussi, on a besoin de membranes sélectives, mais comme pour la PRO, la performance des membranes disponibles n’était pas suffisante : elles sont sélectives, mais leur puissance est trop faible, autour 0,5 W/m², et un prix de plusieurs centaines d’euros par mètre carré de membrane. Le principe fonctionne, mais le coût des membranes empêche un déploiement à grande échelle.
Comment êtes-vous parvenu à lever ces freins ?
Nous avons mis au point une membrane totalement nouvelle. Tout est parti d’un article publié dans Nature en 2013 par Lyderic Bocquet et son équipe du CNRS, dans lequel ils constatent que dans un nanotube en nitrure de bore, ils parviennent par pression osmotique à générer des courants ioniques gigantesques. Pour résumer, ils ont réussi à sélectionner les ions de manière beaucoup plus rapides que ce que font les membranes traditionnelles : ce phénomène s’appelle la diffusion nano-osmotique.
Le principe de la diffusion nano-osmotique est le suivant : au niveau du nanomètre sont mis en jeu des phénomènes de surface liés à la charge des matériaux utilisés et à leur nature. Ce phénomène permet la sélectivité des ions, mais en laisse passer beaucoup plus qu’une membrane classique, dont la maille est de l’ordre de l’angström.
Cette publication nous a beaucoup intrigué, Bruno Mottet, Pascal Le Melinaire et moi-même, car cela laissait entendre que si nous parvenions à mettre en oeuvre ce phénomène de diffusion nano-osmotique dans des membranes à plus grande échelle, il était possible d’obtenir une densité de puissance suffisamment élevée pour rendre rentable l’exploitation de l’énergie osmotique. La création de Sweetch Energy en 2015 a comme origine la volonté de passer à l’échelle industrielle ce phénomène, pour mettre au point de nouvelles membranes plus performantes.
Comment s’est déroulée cette phase de passage à l’échelle ?
La problématique a consisté à monter ce phénomène de diffusion nano-osmotique à l’échelle en effet, mais pas que. Il fallait le faire dans des membranes qui ne coûtent pas cher, et à l’aide de biomatériaux. Ce sont les critères que nous nous étions fixés.
Nous avons passé quatre ans à développer cette nouvelle membrane, et mis au point une preuve de concept fin 2020, avec une membrane qui a les caractéristiques suivantes : une densité de puissance vingt fois supérieure aux membranes déjà existantes. Fabriquée avec un matériau biosourcé, elle coûte dix fois moins cher à produire que les membranes existantes.
Ces caractéristiques nous ont permis d’imaginer une production d’énergie électrique osmotique à grande échelle et à prix compétitif, ce qui est notre objectif de départ.
Où en êtes-vous aujourd’hui ?
Depuis près de trois ans, nous avons démarré la mise à l’échelle de la technologie, qui va aboutir au démarrage d’un premier site pilote à l’embouchure du Rhône, sur le site de Barcarin sur la commune de Port-Saint-Louis. C’est un site idéal pour tester cette technologie, car il y a une coupure nette entre l’eau douce et l’eau salée. Les travaux pour construire l’installation se déroulent actuellement, pour une mise en service courant 2024.
Nous sommes en partenariat avec la compagnie nationale du Rhône pour mettre au point le démonstrateur et plus généralement pour déployer l’énergie osmotique sur le Rhône, qui est le plus gros gisement naturel d’énergie osmotique en France, avec près de 500 mégawatts de potentiel d’installation.
Nous avons aussi un partenariat avec EDF hydro, et des projets en France métropolitaine et en outre mer.
Plus généralement, nous avons une activité assez large aujourd’hui, entre la mise au point des générateurs osmotiques, leur industrialisation à venir, l’identification et le développement de projets osmotiques.
Vous êtes également très largement impliqués dans le déploiement à venir de la filière industrielle de production d’énergie osmotique.
En effet. Dans l’optique du déploiement de cette nouvelle filière industrielle centrée sur la production d’énergie osmotique, nous avons besoin de travailler sur la réglementation : nous avons ainsi, ces derniers mois, contribué à faire entrer l’énergie osmotique dans la nouvelle directive européenne sur les énergies renouvelables RED III.
Nous participons donc à la mise en place d’une nouvelle filière, avec nos partenaires en France et en Europe.
Plus largement, comment peut s’inscrire l’énergie osmotique dans le paysage des énergies renouvelables à l’avenir ?
Les prochaines générations d’énergies renouvelables, dont fait partie l’énergie osmotique, doivent selon toute évidence être totalement décarbonées, venir pallier les limites des énergies renouvelables traditionnelles de par leur flexibilité et leur permanence, et démontrer une acceptabilité en termes de paysage. On voit aujourd’hui que cette acceptabilité peut être un frein au déploiement massif de certaines technologies renouvelables.
Travaillez-vous au développement d’autres applications utilisant les membranes que vous avez mises au point ?
Notre technologie peut permettre de produire de l’hydrogène, directement sans apport d’électricité extérieure. Il y a aussi la possibilité d’exploiter d’autres sources d’énergie osmotique, sur les sites industriels par exemple, via la génération de gradients de salinité, pour exploiter les chaleurs perdues basse température. Cette piste fait l’objet d’un programme financé par l’Europe, qui a octroyé à Sweetch Energy une subvention de 2,5 millions d’euros pour travailler sur le sujet.
Enfin, il y a aussi des applications potentielles dans tout ce qui touche au traitement de l’eau, et plus généralement sur toutes les applications faisant appel à des membranes.
Calaisis, Boulonnais, Audomarois… Il y a un mois, une partie de ces régions historiques et naturelles du département du Pas-de-Calais – ainsi que plusieurs communes du Nord – se retrouvaient sous les eaux, souvent pour plusieurs jours, parfois pendant de longues semaines. Selon le bilan établi par la préfecture du département, rapporté par la gendarmerie nationale, 262 communes, 6 000 habitations, 290 commerces et entreprises, ainsi que 53 exploitations agricoles ont ainsi été touchés par ces inondations, qui si elles ne sont pas sans précédent – comme le souligne à juste titre Le Monde –, restent toutefois d’une ampleur majeure.
La faute, tout d’abord, aux tempêtes Ciaran et Domingos, qui ont fait s’abattre sur les Hauts-de-France en l’espace de quelques jours, autant de pluie qu’il n’en tombe en moyenne en trois ou quatre semaines, selon La Chaîne Météo, citée par Le Figaro. À ces évènements météorologiques ponctuels de forte intensité se sont, en outre, ajoutées des précipitations quasi continues au cours des jours et semaines suivantes. Sur la seule période du 1er au 20 novembre, le littoral du département a ainsi eu à faire face à des cumuls de pluie flirtant par endroit avec les 270 mm. Des niveaux qui font pour la plupart figure de records, au moins pour les deux dernières décennies. Sur l’ensemble du mois de novembre, la station de Boulogne a par exemple enregistré un cumul de précipitations de près de 317 mm, contre un précédent record de 304 mm, établi en 2000. Même chose au Touquet, où un total de près de 318 mm de pluie a été mesuré en ce mois de novembre 2023, contre un peu plus de 269 à la même période en 2009.
Pas entièrement absorbée dans les sols par infiltration – nous y reviendrons –, une partie de cette pluie a ruisselé depuis les crêtes des bassins versants jusqu’aux exutoires en fonds de vallées, faisant naturellement grimper les niveaux de ces cours d’eau. L’Aa, la Canche, la Liane ou encore la Hem, ont donc fini par sortir de leur lit mineur pour s’étendre dans leur lit majeur, inondant ainsi les plaines environnantes.
Au vu de l’ampleur du phénomène, une question a rapidement fait la une de nombreux médias, locaux et nationaux, « Pourquoi ? » : Quelles sont les raisons qui peuvent expliquer des crues d’une telle importance, des inondations d’une telle ampleur et d’une telle durée ? Et surtout pourquoi autant de dégâts matériels ?
Sur ce dernier point tout d’abord, un élément de réponse est à juste titre rappelé par la Préfecture du Nord : « Le lit majeur fait partie intégrante de la rivière. En s’y implantant, on s’installe donc dans la rivière elle-même. […] En zone inondable, le développement urbain et économique constitue l’un des principaux facteurs aggravants par augmentation de la vulnérabilité. »
Quant aux origines plus fondamentales de ces crues et des inondations qu’elles ont provoquées, plusieurs aspects sont à prendre en compte.
Comme l’explique sur l’antenne de BFM Grand Lille le géologue Francis Meilliez, professeur émérite à l’Université de Lille et directeur de la Société Géologique du Nord, tels une éponge desséchée, les sols très secs n’ont pu, d’emblée, absorber la pluie arrivée de manière soudaine. « Une éponge qu’on laisse se dessécher n’est pas capable de jouer immédiatement son rôle quand on la remet en présence d’eau […] c’est pareil pour les sols », illustre Francis Meilliez. Au fil des jours, les sols ont toutefois fini par se gorger d’eau, jusqu’à saturation, amplifiant ainsi le phénomène de ruissellement depuis la crête de l’Artois. Un élément du relief local qui nous amène à un autre aspect de l’explication, d’ordre topographique, qu’éclairent deux universitaires lillois interrogés par Le Monde et La Voix du Nord : « Dans certaines zones [un cours d’eau] peut se retrouver “topographiquement piégé” », explique Jama El Khattabi, hydrogéologue à Polytech Lille. Dans le Boulonnais, « le relief monte à un peu plus de deux cents mètres, il n’y a pas de zone à forte pente », explique à son tour l’hydrogéologue Arnaud Gauthier, professeur à l’Université de Lille.
Outre ces aspects liés au relief, la nature des sols a elle aussi joué un rôle dans la survenue de ces inondations : par endroit très argileux, ils ont en effet pu jouer un rôle de barrière imperméable, empêchant – ou du moins freinant très fortement – l’infiltration de l’eau accumulée lors de la crue. « Les sols sont par exemple très peu perméables au sein de la boutonnière du Boulonnais, là, justement, où ont été observés les maxima de précipitations », analysait le géologue Francis Meilliez sur le plateau de BFM Grand Lille le 16 novembre dernier.
Naturelle sur une partie du territoire touché, l’imperméabilité des sols est aussi, à d’autres endroits, le résultat de l’action humaine, comme l’explique Francis Meilliez : « L’imperméabilisation des sols [d’origine humaine] – voiries, parkings… – se cumule avec les autres raisons [évoquées précédemment] ». Une influence des activités humaines qui va d’ailleurs au-delà de ce seul aspect, comme le note la Préfecture du Nord : « Les aménagements (activités, réseaux d’infrastructures…) modifient les conditions d’écoulement (imperméabilisation et ruissellement), tout en diminuant les champs d’expansion des crues. Sur les cours d’eau, les aménagements (pont, enrochement…) et le défaut chronique d’entretien de la part des riverains aggravent l’aléa ».
Et quand même bien l’eau parvient à s’infiltrer à la faveur d’une nature des sols différente qui les rend plus perméables, un autre phénomène peut prendre le relais : la remontée des nappes d’eau souterraines. Faisant d’ordinaire plutôt craindre une baisse trop importante de leur niveau, en période de sécheresse, les nappes ont en effet, cette fois, largement bénéficié des conditions météorologiques, en se rechargeant à la faveur des précipitations. « Avec ces pluies longues et intenses, on observe de fait une forte remontée des nappes dans le Pas-de-Calais », rapporte Libération, reprenant les explications apportées par l’hydrogéologue Florence Habets sur le réseau social X. « Près de Saint-Omer, à Blendecques, la nappe est affleurante : elle déborde », observait ainsi le 12 novembre la directrice de recherche au CNRS. « Si les nappes se sont bien rechargées et vont pouvoir par endroit continuer à le faire, le problème, c’est qu’elles vont aussi contribuer à faire durer l’inondation. […] Parce qu’on l’oublie souvent, mais les nappes contribuent aux débits des rivières toute l’année, avec des flux plus importants en hiver qu’en été. […] dans ces régions avec des nappes parfois très capacitives, cela peut faire durer l’inondation », analysait ainsi l’experte.
Enfin, un dernier élément de réponse est à chercher dans la nature même d’une partie du territoire touché par ces inondations : les wateringues, 100 000 hectares de terres gagnées sur la mer par l’être humain, aujourd’hui maintenues hors d’eau à grand renfort d’ouvrages hydrauliques, tels qu’une centaine de stations de pompage, qui s’ajoutent à un vaste réseau de canaux et de fossés (les watergangs). « Du 1er au 14 novembre 2023, l’Institution Intercommunale des Wateringues a évacué en gravitaire et par pompage plus de 150 millions de mètres cubes d’eau », indique ce syndicat mixte en charge, notamment, de la réalisation et de la gestion des ouvrages permettant l’évacuation des eaux vers la mer. Des ouvrages qui ont donc, malgré leur ampleur, rencontré leurs limites en ce mois de novembre 2023.
Pallier… ou prévenir ?
À l’aune de cette réponse – pour le moins complexe et multifactorielle – à la question a priori simple du « pourquoi » de ces inondations, émerge naturellement une autre interrogation : celle du « comment ». Comment éviter que de tels évènements ne se reproduisent à l’avenir, ou du moins, comment en limiter les dégâts ? Des dégâts qui vont d’ailleurs bien au-delà des seules atteintes aux biens et aux infrastructures, avec notamment des risques de pollution des sols et terres cultivables, des nappes ou encore des cours d’eau…
Pour faire face à de tels phénomènes naturels, en outre sensiblement renforcés, on l’a vu, par des facteurs anthropiques, des aménagements peuvent être mis en place, notamment des bassins de rétention, qui permettent « de diminuer les débits de pointe en servant de “zone tampon” aux eaux pluviales avant leur déversement dans le milieu récepteur ». Certes efficaces dans bien des cas, ils peuvent toutefois atteindre leurs limites dans certaines situations, et ne font, en outre, que pallier un processus contre lequel il serait pourtant possible de lutter à la source, notamment en restaurant les zones humides, propices à l’infiltration. En somme, prévenir plutôt que guérir, ou pire, panser une jambe de bois…
« Tout ce qui favorise l’infiltration dans l’écosystème et les sous-sols pour recharger les nappes mérite d’être envisagé. Cela suggère de limiter l’artificialisation des sols, de planter des haies… Toutes les solutions qui sont fondées sur la nature sont favorables. Une bonne adaptation serait d’encourager l’agriculture à migrer vers un système plus soutenable », explique ainsi à nos confrères de La Voix du Nord, dans un article consacré à la préservation de la ressource en eau, Gonéri Le Cozannet, ingénieur au Bureau des recherches géologiques et minières (BRGM) et contributeur du 6e rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) sur les impacts, l’adaptation et la vulnérabilité au changement climatique en Europe.
La question – épineuse – de la présence actuelle, mais aussi de la construction future, de bâtiments en zones inondables se pose également. Comme l’explique le géologue et directeur de la Société géologique du Nord Francis Meilliez auprès de nos confrères de France 3 : « Les promoteurs et les constructeurs doivent intégrer cette problématique. Je pense qu’aujourd’hui il ne faut plus tourner autour du pot. Il faut réfléchir aux milieux dans lesquels on s’installe avant de construire ». Et le professeur émérite de conclure : « Regardez où sont les maisons les plus anciennes, elles ne sont jamais dans les fonds de vallée. Depuis les années 1950, on s’est affranchi de la simple observation de la nature. On s’est dit qu’avec la technologie on pouvait faire ce qu’on veut… Mais l’eau a toujours raison, ça n’est qu’une question de temps ».
Pour générer cette chaleur, la start-up a conçu un micro-réacteur de type HTR (réacteur à haute température), qui utilise l’uranium comme combustible, le graphite en tant que modérateur de fission et où le fluide caloporteur est l’hélium.
Dès 2026, Jimmy veut industrialiser son premier générateur et équiper son premier client, un industriel de l’agroalimentaire, en chaleur industrielle bas carbone. Une aubaine pour de nombreux secteurs industriels désireux de produire la chaleur nécessaire à leurs process en limitant leur impact carbone. La solution développée par Jimmy pourrait leur permettre de se passer des actuelles chaudières à gaz ou au fioul.
Antoine Guyot, co-fondateur de Jimmy, a répondu aux questions des Techniques de l’Ingénieur.
Techniques de l’Ingéineur : Quel cheminement vous a conduit à co-créer Jimmy en 2020 ?
Antoine Guyot : Après avoir été diplômé d’une école d’ingénieurs en 2018, j’ai travaillé dans le domaine du conseil en stratégie. Domaine que j’ai quitté car je ressentais l’envie de créer quelque chose. La problématique climatique s’est rapidement imposée à moi, et le constat qui va avec : aujourd’hui, le devenir écologique va à l’encontre des marges. En poussant cette réflexion, l’idée de développer une énergie peu chère et décarbonée s’est vite imposée comme étant le moyen le plus efficace de limiter les émissions de CO2 dans l’atmosphère. En ce sens, la fission nucléaire présente un intérêt particulier, puisqu’elle produit une très grande quantité de chaleur, avec un coût du combustible très faible. Il faut donc être en capacité de mettre en œuvre des réacteurs nucléaires à bas prix, pour que les industriels n’aient plus à choisir entre économie et écologie. C’est l’objet même de la genèse de Jimmy.
Les chaudières nucléaires développées par Jimmy ciblent spécifiquement les industriels. Pour quelles raisons ?
Fournir une grande quantité de chaleur grâce au nucléaire permet de résoudre plusieurs contraintes rencontrées par certains secteurs industriels. En effet, ces derniers consomment de la chaleur en grande quantité, leurs besoins sont prévisibles et ils ne sont pas mobiles.
Aussi, ils sont prêts à assumer des risques, puisqu’ils en gèrent au quotidien sur les sites industriels. Ainsi, les besoins des industriels correspondent pleinement aux atouts d’une chaudière nucléaire.
Après avoir identifié les clients potentiels, l’enjeu a consisté à être en mesure de réaliser l’outil en tant que tel, et notamment la réaction nucléaire. Nous avons étudié les différentes filières de réacteurs existantes, et nous nous sommes arrêtés sur le HTR, dont la chaîne industrielle est mature. La maturité de la chaîne industrielle est un facteur clé pour espérer développer un outil sûr et performant. Aussi, le HTR est un réacteur qui a des propriétés de sûreté intrinsèques, ce qui est intéressant pour en faire usage dans différents contextes industriels.
Enfin, les réacteurs HTR fournissent de la chaleur à plus haute température, ce qui permet d’aller conquérir de nombreux marchés.
En quoi le fait de recourir à des technologies déjà mâtures était important pour développer Jimmy ?
Cette approche constitue l’ADN de Jimmy. Une fois le choix du réacteur HTR arrêté, notre démarche, qui caractérise notre vision du projet, a été de reprendre toutes les briques technologiques existantes pour créer un réacteur low tech. Nous ne voulions pas entrer dans un travail de requalification des technologies que nous aurions développées à partir de ce qui existe. L’idée est d’utiliser des techniques déjà éprouvées, pour être en mesure de fournir une offre énergétique sure, économique et écologique.
Où en êtes-vous aujourd’hui ?
Nous sommes actuellement en phase de conception et nous préparons aujourd’hui la demande d’autorisation de création. Notre design est conçu pour optimiser l’industrialisation du générateur et de son réacteur, avec l’objectif de proposer un modèle le plus évolutif possible.
Quelles sont les contraintes auxquelles vous faites face ?
La première contrainte est de développer un outil sûr. La deuxième est que cet outil sûr soit rentable.
Le travail scientifique est mature dans notre projet, puisque les combustibles et les matériaux utilisés sont déjà qualifiés. Les enjeux se situent surtout sur notre capacité à simplifier suffisamment nos réacteurs et à les industrialiser. Ainsi, toutes les pièces constituant l’intérieur de notre réacteur seront fabriquées en série.
Et la contrainte de sûreté ?
En termes de sûreté, notre interlocuteur est l’ASN, avec qui nous échangeons très régulièrement. L’évaluation de la sûreté de nos réacteurs est pour l’ASN une mission qui diffère un peu de ses prérogatives habituelles. De notre côté, nous sommes un acteur privé, nouveau dans le monde du nucléaire et nous devons faire nos preuves. Il y a donc des deux côtés – Jimmy et l’ASN – un travail à faire pour évaluer de manière pertinente et efficace la sûreté de notre outil.
Plus largement, l’ASN a initié une démarche d’actualisation de ses procédures pour répondre au mieux aux nouveaux enjeux et spécificités que recouvrent les SMR. Les tailles, formes et puissances de ces nouveaux réacteurs sont en effet très différentes (et moindres) de celles des réacteurs opérationnels traditionnels.
Quand est prévue la phase d’industrialisation à proprement parler ?
Le démarrage du chantier est prévu pour début 2026 et doit prendre fin la même année, c’est l’objectif. Pour être en mesure de réaliser cela, la structure du bâtiment est conçue de façon à pouvoir assembler rapidement les réacteurs puis les générateurs.
De même, nous voulons mener le plus grand nombre de tests possibles au sein de nos installations, afin de limiter au minimum les tests à effectuer sur le site du client.
Avez-vous des concurrents sur la technologie des chaudières nucléaires ?
En réalité, nos principaux concurrents, à l’heure actuelle, sont le gaz et la biomasse. Au niveau technologique, des projets similaires sont en développement aux Etats-Unis, sur des niveaux de chaleur moins élevés. Nous n’avons pas de concurrents au niveau européen sur les micro-réacteurs HTR. Des projets sont en cours sur des réacteurs à sels fondus, mais nous sommes là sur du long terme, puisqu’il faut tout réinventer technologiquement.
Enfin, prévoyez-vous de recruter d’ici à 2026 et le passage à l’industrialisation du projet ?
Nous sommes actuellement 60 salariés. Nous prévoyons de doubler ce chiffre d’ici 2026, pour atteindre les objectifs et passer concrètement à une phase d’exploitation où l’entreprise devient de plus en plus industrielle. Cela passe par la construction d’une plateforme industrielle, c’est l’ambition qui nous anime actuellement.
C’est dans les vieux pots que l’on fait les bonnes soupes. Cela vaut aussi pour les actes de piratage. Année après année, le phishing reste toujours l’une des techniques les plus répandues pour dérober des informations privées ou sensibles.
Selon la société spécialisée dans la cybersécurité Zscaler, une entreprise de taille moyenne reçoit chaque jour des dizaines d’e-mails de phishing. Et beaucoup de salariés tombent dans les pièges des cybercriminels : un utilisateur sur trois clique sur le contenu malveillant des e-mails d’hameçonnage, selon SoSafe, le leader européen de la sensibilisation et de la formation des salariés.
Mais la situation pourrait empirer avec le recours massif à ChatGPT pour élaborer des emails malveillants. Dans le cadre d’une récente étude, IBM X-Force (une équipe d’IBM qui regroupe plus de 200 hackers dans le monde) a utilisé la solution d’OpenAI, ChatGPT.
Son bot a créé en quelques minutes (contre 16 heures par l’équipe d’experts d’IBM) un émail convaincant à partir de cinq simples prompts, qui s’est avéré presque aussi séduisant qu’un message rédigé par un humain. Interrogé sur la meilleure méthode pour piéger les 800 salariés d’une entreprise mondiale de soins de santé, ChatGPT a répondu par la confiance, l’autorité et la preuve sociale, ainsi que par la personnalisation, l’optimisation et l’appel à l’action. L’IA a donc conseillé d’usurper l’adresse émail et l’identité du responsable des ressources humaines.
Gain de temps pour les pirates !
Pour rendre plus crédible leur émail malveillant, l’équipe d’IBM a recueilli des informations importantes sur des sites tels que LinkedIn, le blog de l’entreprise visée et les évaluations de Glassdoor. Sur le blog, elle a notamment découvert un article annonçant le lancement récent d’un programme de bien-être pour les employés et le DRH.
Le piège était prêt. Il se matérialisait sous la forme d’un courriel comprenant une enquête auprès des employés avec « cinq brèves questions » qui ne prendrait que « quelques minutes » et qui devait être renvoyée pour « ce vendredi ».
Enfin, l’objet du message généré par l’équipe humaine était concis (« Enquête sur le bien-être des employés ») alors que celui de l’IA était plus long (« Déverrouillez votre avenir : avancements limités dans l’entreprise X »), ce qui a probablement éveillé les soupçons dès le départ.
Autant de ressorts psychologiques pour inciter les salariés à répondre rapidement à cet émail. Résultat, l’émail de phishing réalisé par l’équipe s’est avéré plus efficace, mais de justesse. Le taux de clics pour l’e-mail généré par l’homme était de 14 %, contre 11 % pour l’IA.
« Au fur et à mesure que l’IA évolue, nous continuerons à la voir imiter le comportement humain avec plus de précision, ce qui pourrait conduire à ce que l’IA finisse un jour par battre les humains », a prévenu IBM.
Cette étude a surtout révélé que l’IA génératrice permettait d’accélérer la capacité des pirates à créer des émails d’hameçonnage convaincants. Le temps ainsi gagné leur permet de se tourner vers d’autres objectifs malveillants ou d’affiner leur enquête préalable pour être encore plus efficaces.
Le but de l’IA n’est pas de remplacer l’homme, mais de l’assister, en lui facilitant la tâche. Des études récentes ont ainsi prouvé comment la combinaison de systèmes basés sur l’IA pouvait aider les médecins à prédire l’apparition de cancers du sein, du poumon et plus récemment du pancréas et du cerveau.
Le gliome diffus : une tumeur cérébrale courante et difficile à diagnostiquer précisément
Il existe plusieurs types de gliomes diffus, chaque type présentant des mutations génétiques différentes. Or, l’efficacité des traitements varie suivant cette constitution génétique. Il a ainsi été prouvé que des patients atteints d’un gliome diffus appelé astrocytome pouvaient gagner cinq ans d’espérance de vie après ablation complète de la tumeur, par rapport à d’autres types de gliomes diffus !
Dans ce contexte, les techniques de classification moléculaire des tumeurs ont donc une importance considérable. Malheureusement, les méthodes actuelles sont difficiles d’accès, ce qui complique la prise de décision chirurgicale et le choix des traitements de chimiothérapie.
La méthode développée par l’équipe de neurochirurgiens et d’ingénieurs de la Michigan Medicine[1] est donc la bienvenue, car elle ouvre la voie à une identification précise et plus rapide, en permettant aux chirurgiens de distinguer la nature du gliome diffus pendant l’opération.
DeepGlioma, un système d’IA qui exploite l’imagerie rapide
DeepGlioma, dont l’idée a émergé en 2019, est un système qui associe des algorithmes de machine learning appelés Deep Neural Networks (DNN) et une méthode d’imagerie optique. Cette technique connue sous le nom d’histologie Raman stimulée, également développée à l’Université du Michigan, permet d’obtenir une image en temps réel des tissus des tumeurs cérébrales.
L’efficacité du système a été testée dans le cadre d’une étude conduite sur plus de 150 patients atteints de gliome diffus. Dans un papier publié dans Nature, les chercheurs expliquent que le nouveau système DeepGlioma a permis d’identifier des mutations utilisées par l’OMS pour définir des sous-groupes moléculaires de la maladie, avec une précision de plus de 90 % en moyenne.
Dans un communiqué de presse, Todd Hollon, neurochirurgien à l’University of Michigan Health et premier auteur de l’étude, déclare que « cet outil basé sur l’IA a le potentiel d’améliorer l’accès et la rapidité du diagnostic et des soins pour les patients atteints de tumeurs cérébrales mortelles ».
Selon lui, « DeepGlioma ouvre la voie à une identification précise et plus rapide qui donnerait aux prestataires une meilleure chance de définir les traitements et de prédire le pronostic des patients ».
CHARM : un outil aux objectifs similaires, développé à Harvard
Les chercheurs de l’université du Michigan ne sont pas les seuls à travailler sur le sujet et d’autres travaux sont aussi en cours à travers le monde.
Une équipe de l’Harvard Medical School vient également de présenter, dans la revue Med, un outil de séquençage de l’ADN des gliomes utilisant l’intelligence artificielle. Celui-ci s’appelle CHARM, un acronyme qui signifie « Cryosection Histopathology Assessment and Review Machine ». L’outil a aussi la particularité d’être disponible gratuitement. Il est téléchargeable en ligne à cette adresse.
[1] En collaboration avec l’Université de New York, l’Université de Californie, de San Francisco et d’autres instituts de recherche.