« Les gros gisements de chaleur fatale sont très souvent à proximité de PME et de petites ETI »

L’énergie est stockée sous forme chimique dans des batteries, qui sont transportées par camion, entre l’endroit où la chaleur est récupérée, et celle où elle est utilisée. Un service précieux pour les entreprises désireuses de valoriser leur chaleur fatale, et pour les utilisateurs de cette chaleur, qui sont en mesure de mettre en place des projets sans pour autant investir massivement dans des infrastructures propres.

Jean-Emmanuel Faure, CEO et fondateur de Water Horizon*, a expliqué aux Techniques de l’Ingénieur la technologie développée dans son entreprise, et aussi le choix fait de prioriser le marché de la fourniture de froid.

Techniques de l’Ingénieur : Expliquez-nous l’innovation qui est derrière la genèse de Water Horizon ?

Jean-Emmanuel Faure : Water Horizon est une entreprise toulousaine créée en 2017. Nous développons une technologie de stockage de chaleur sous forme de batterie thermique. La chaleur va être stockée sous forme de potentiel de réaction chimique, ce qui veut dire qu’il n’y a pas de déperdition dans le temps, et elle va être redistribuée, sous forme de chaud ou de froid (ou les deux), à un autre endroit. Il s’agit de thermochimie, avec une réaction réversible, exothermique dans un sens et endothermique dans l’autre. Cette réaction est couplée à des pompes à absorption – une technologie ancienne aujourd’hui remplacée par les pompes à chaleur qui offrent un meilleur rendement – qui permettent de produire du froid sans électricité, le compresseur ne fonctionnant pas électriquement mais chimiquement.

Nous visons le marché de la récupération de la chaleur fatale industrielle. Les gros gisements de chaleur fatale industrielle sont nombreux. Pour avoir un ordre de grandeur, en Europe, la chaleur fatale industrielle représente l’équivalent de 100 réacteurs nucléaires, ce qui est absolument colossal.

Pourquoi cette chaleur est aujourd’hui aussi peu valorisée ?

Aujourd’hui en effet la majorité de cette chaleur fatale n’est pas valorisée car les industriels n’ont pas à leur disposition de solutions techniques simples à mettre en place. C’est ce que Water Horizon leur apporte, et étant en mesure d’utiliser la capacité de stockage de nos batteries en tant que vecteur énergétique, en récupérant la chaleur d’un point où elle est perdue et en l’amenant à un point où elle peut être consommée. Le but étant de créer une économie circulaire locale, où les points de collecte de chaleur et de redistribution sont relativement proches, théoriquement de l’ordre de cinquante kilomètres – une heure de route – au plus. Dans la réalité, sur les 250 projets sur lesquels nous travaillons aujourd’hui, la distance la plus importante entre la récupération de chaleur et la distribution est de 21 kilomètres. Le maillage industriel territorial est tel que les gros gisements de chaleur fatale sont très souvent à proximité de PME et de petites ETI qui ont des besoins en chaud ou en froid.

Quel est le business modèle derrière la technologie développée par Water Horizon ?

Nous ne sommes pas équipementiers, nous ne vendons pas de batteries. Ce que nous vendons, ce sont des Kwh de chaud ou de froid. Nous visons plus la livraison de froid, ce que l’on appelle le CAAS, cooling as a service, car c’est un marché en forte croissance, contrairement à celui de la fourniture de chaleur qui a tendance à baisser depuis une dizaine d’années.

Pour faire simple, nous allons installer chez le client un compteur de froid Linky, et ce dernier va consommer le froid dont il a besoin, tout simplement. Pour assurer une continuité de service le cas échéant, deux batteries sont déployées, l’une déchargeant pendant que l’autre recharge. C’est par exemple ce qui se passe sur un projet qui a permis à Water Horizon de mettre en service sa première batterie thermique industrielle, pour récupérer la chaleur fatale de l’incinérateur de Toulouse afin d’alimenter en chaud et en froid un complexe sportif local, équipé d’une piscine et d’une patinoire.

Quelles sont les motivations pour une entreprise qui va vous contacter pour récupérer sa chaleur fatale ?

Premièrement, ce qui est intéressant pour le client est que nous nous occupons de tout : trouver le consommateur, monter le projet, le financer. C’est-à-dire que ni le producteur ni le consommateur n’a besoin d’investir dans la technologie, dans les batteries pour pouvoir bénéficier de la valeur ajoutée créée.

Ensuite, nous allons intégrer de façon active le producteur dans le projet pour qu’il puisse au mieux profiter des retombées en termes d’images, de retombées économiques, et bientôt en termes de taxes, puisque la chaleur fatale sera un jour taxée.

A notre niveau, nous avons observé un virage dans la façon dont les producteurs de chaleur fatale traitent la problématique de la valorisation de ces chaleurs. Surtout les producteurs importants de chaleur fatale, qui comprennent que le sujet de la récupération de ces chaleurs prend de l’importance, notamment parce qu’il entre en compte aujourd’hui dans les critères ESG.

Enfin, il y a la question de l’image. Aujourd’hui, les DRH des entreprises très polluantes ont de plus en plus de mal à recruter, et se montrent intéressées par les technologies de récupération de chaleur fatale, dont l’implémentation démontre la volonté de l’entreprise de limiter son impact, améliorant aisni leur image auprès des jeunes actifs.

Vous évoquez 250 projets sur lesquels Water Horizon est impliqué à ce jour. Comment se répartissent géographiquement ces projets ?

A peu près 90% de ces projets se situent en France, et les 10% restants sont à l’étranger. Nous ne faisons pas de prospection commerciale, et nous avons même tendance à freiner les demandes entrantes. Aujourd’hui, nous sommes en phase d’industrialisation de nos batteries, donc nous nous situons plutôt en phase amont des projets dans lesquels nous sommes impliqués, en attendant de pouvoir disposer d’une usine pour produire nos batteries. Cela devrait être le cas à la fin 2025. D’ici-là, nous allons monter en cadence, avec deux projets déjà prévus pour cette année et 3 à 5 l’année prochaine.


* Water Horizon

Prix des énergies : un retour à la normale ?

« Le prix de l’électricité va revenir dans la norme » : la déclaration du Président Emmanuel Macron n’est pas passée inaperçue lors de sa conférence de presse le 16 janvier 2024. Après une crise énergétique qui a fait s’envoler les prix du gaz et de l’électricité en Europe en 2022, tout le monde espère en effet un retour à la normale. Mais entre la lente réforme du marché de l’électricité sur la plaque européenne, les tendances mondiales sur le marché du gaz et les dispositions fiscales et tarifaires prises en France, que va-t-il réellement se passer pour nos factures d’énergie ?

Tout d’abord, il est nécessaire de lever un malentendu. Beaucoup de personnalités politiques se sont émues en 2022, et encore actuellement, que les prix sur les marchés de gros de l’électricité en Europe dépendent du prix du gaz. Rien de mystérieux dans ce lien : les centrales de production sont appelées par coût marginal croissant, et le prix de marché s’aligne sur celui de la dernière centrale sollicitée. Sur le principe de ce « merit order », les modes de production renouvelable et nucléaire sont appelés en premier car le coût de l’eau, du vent et du soleil est nul et celui de l’uranium pèse faiblement dans le coût de production d’électricité. Inversement, les centrales gaz sont mises en fonctionnement en dernier car le prix du gaz est une composante majeure de leur coût d’exploitation.

Aucun espoir de voir la réforme du marché de l’électricité en Europe changer quelque chose à court terme : les prix vont continuer de se former sur le principe du « merit order », donc en fonction des prix du gaz. « Certes, l’annonce de la réforme a un peu réduit l’aversion au risque sur le marché car elle permet désormais aux États membres d’inciter producteurs et fournisseurs à élaborer des contrats de long terme qui, plus tard, éviteront des fluctuations trop fortes des prix. Mais pour comprendre les évolutions des prix sur les marchés cette année, il faut seulement considérer les sous-jacents classiques : disponibilité du nucléaire et évolution du prix du gaz », analyse Mathias Laffont, directeur Usages et territoires de l’UFE (Union française de l’électricité).

Accalmie sur les fondamentaux

Sur le premier aspect, le parc nucléaire français a retrouvé des couleurs après ses déboires dues à la détection d’un phénomène de corrosion fin 2021. L’année  2023 a vu le retour de plusieurs centrales après travaux ou maintenance, ce qui a permis au nucléaire d’EDF de produire 320,4 TWh alors que 2022 avait connu le plus faible niveau (279 TWh) depuis bien longtemps. Même si on est encore loin des plus hauts niveaux historiques (430 TWh), le retour de l’atome rassure les marchés européens et évite les phénomènes d’écarts qui avaient été constatés en 2022 entre les prix de la France et ceux de l’Allemagne.

Sur le second aspect, les prix du gaz en Europe ont connu une accalmie. La réduction des importations de gaz russe – elles ne représentent plus que 7 % de la consommation de gaz contre 31 % avant la crise – avait induit une forte hausse des prix, d’environ 20 €/MWh début 2021 (moyenne mensuelle) à 100 €/MWh fin 2021, et jusqu’à plus de 200 €/MWh à l’été 2022. Le remplacement progressif du gaz russe par du GNL a permis une redescente des prix autour de 40-50 €/MWh depuis le premier trimestre 2023. « La part du GNL dans la consommation de gaz en Europe est ainsi passée de 19 % à 38 %. Presque la moitié des importations viennent des États-Unis. Mondialement, les investissements dans des infrastructures GNL vont faire croître les capacités de liquéfaction de plus de 60 milliards de m3 d’ici 2026, ce qui va réduire les tensions d’approvisionnement entre l’Europe et l’Asie qui se concurrencent actuellement » détaille Laurent Néry, directeur de l’analyse des marchés de l’entité GEMS d’ENGIE.

Ainsi, le Vieux Continent se dirige vers une sorte de stabilisation du prix de l’électricité. Il est actuellement de l’ordre de 90-110 €/MWh sur les marchés et les livraisons pour 2025-2026 se vendent autour de 80-90 €/MWh, bien loin des 200-250 €/MWh de fin 2022. Le marché est aussi moins tendu car la baisse de la demande s’est installée sous la contrainte de l’inflation, et la forte progression de la production des énergies renouvelables sécurise l’offre. Sauf nouvel incident géopolitique – et malheureusement les tensions au Proche-Orient restent très inquiétantes –, la situation est relativement sous contrôle.

Le grand retour de la fiscalité

Néanmoins, comme les niveaux de prix sont plus élevés qu’avant la crise, il est illusoire d’évoquer un « retour à la normale ». Ou alors il faut l’entendre comme la fin du bouclier tarifaire qui avait été mis en place depuis février 2022 pour éviter une trop forte inflation de la facture énergétique des ménages. Le Gouvernement vient d’annoncer la fin de ce bouclier avec deux conséquences. Premièrement, les tarifs ne sont plus gelés, mais l’accalmie sur les marchés compense cette décision. Deuxièmement, la fiscalité reprend ses droits et cela va se sentir : abaissée de 32,44 à 1 €/MWh au moment du bouclier, le tarif de l’accise sur l’électricité (taxe appelée auparavant TICFE) va repasser à un niveau substantiel (autour de 20 €/MWh). La répercussion sur la facture d’électricité des clients résidentiels, annoncée par le ministre de l’Économie Bruno le Maire, va être de 8,6 % pour un tarif de base et de 9,8 % pour le tarif heures pleines/heures creuses. La taxe sur le gaz (TICGN) est, elle, relevée à 16 €/MWh. D’où l’interrogation des acteurs du secteur électrique : « Il y a quelques années, la TICFE était en lien avec le financement des énergies renouvelables, mais ce n’est plus le cas aujourd’hui car la taxe nourrit le budget général de l’État. Nous avons donc deux questionnements : pourquoi maintenir un tel niveau de taxe si elle ne concourt plus à ce financement ? Et pourquoi la mettre à un niveau plus élevé que celle sur le gaz par exemple, alors que l’électricité est très décarbonée et que le gaz émet du CO2 ? Il nous semble qu’il y a là un signal à inverser », argumente Mathias Laffont.

Dans son allocution optimiste, le Président évoquait peut-être à mots couverts les évolutions futures que le Gouvernement espère mettre en place, comme le « versement universel nucléaire » qui doit permettre à chaque consommateur de bénéficier du coût de production plus faible du parc nucléaire historique. Mais ce versement n’arrivera pas avant 2026, et ses modalités sont encore à bien définir. Les inquiétudes sur le niveau de la facture ont encore de beaux jours devant elles…

Quelles solutions pour valoriser les chaleurs fatales industrielles ?

Au niveau de la collecte tout d’abord, la chaleur industrielle fatale est la plupart du temps récupérée via des échangeurs. 

Ces derniers vont permettre une utilisation directe de la chaleur récupérée, en interne ou en externe. En interne, cette chaleur va être utilisée sur l’équipement générateur de vapeur pour le préchauffage d’eau, de matières ou de pièces, sur le site industriel. D’autres utilisations de cette chaleur peuvent être faites sur site, pour alimenter d’autres procédés, ou pour chauffer les locaux par exemple.

L’usage externe de cette chaleur se fait via l’injection de cette chaleur dans un réseau (de chaleur) urbain ou industriel, raccordé à d’autres sites.

Avant d’être utilisée, la chaleur fatale doit parfois être rehaussée en température. Cela peut se faire via la recompression mécanique de la vapeur, ou par des pompes à chaleur à compression ou à absorption. Ces techniques vont permettre à l’industrie de produire du froid. Ce froid peut, comme la chaleur, être valorisé en interne ou en externe. En interne, pour autoconsommation, et en externe pour l’injection dans un réseau de froid. Il s’agit là d’un enjeu fort, puisque la demande de froid industriel est de plus en plus importante.

Enfin, il est également possible, à partir de la récupération de chaleur fatale, de produire de l’électricité ou de l’énergie mécanique, pour des procédés industriels ou de l’autoconsommation par exemple.

Ainsi, les techniques de récupération et de valorisation des chaleurs industrielles vont beaucoup varier selon les finalités attendues : la mise en œuvre de projets de récupération de chaleur commence par une étude approfondie pour évaluer la faisabilité du projet, en intégrant la dimension géographique du site, les réseaux de chaleur existants, les besoins… et les retombées attendues, qu’elles soient financières, en termes d’image, de performance énergétique, ou les trois.

Les préoccupations de plus en plus grandes autour de la récupération des chaleurs fatales par les industriels obligent ces derniers, qui plus est si leur chaleur fatale est valorisée en externe, à se projeter sur l’écosystème existant autour du site industriel : est-il proche d’un réseau de chaleur existant auquel il peut se raccorder ? Quels sont les besoins en chaleur autour du site ? La récupération de la chaleur fatale a besoin d’être pensée tant du point de vue du fournisseur que du client pour être mise en œuvre de manière pertinente et rentable. 

Aujourd’hui, des entreprises se sont lancées dans la fourniture de services aux entreprises, en collectant une partie de leur chaleur fatale. Ainsi, l’entreprise industrielle qui veut récupérer sa chaleur fatale peut confier ce service à un tiers, qui va récupérer cette chaleur et même trouver un client qui va l’utiliser. Pour être en mesure de réaliser cela, les entreprises qui proposent ces services sont amenées à se pencher sur des solutions de stockage de la chaleur, pour être en mesure de fournir aux clients finaux de l’énergie au moment où ils en ont besoin. 

A plus grande échelle, ces solutions de stockage pourraient permettre de résoudre la plus grande difficulté inhérente à la récupération de chaleur, à savoir le décalage dans le temps entre l’offre et la demande chaleur.

Marché automobile français : après douze mois ensoleillés, 2024 encore nimbée de brume

Une trouée d’azur dans un ciel nébuleux… Alors que l’incertitude plane encore largement sur 2024 – nous y reviendrons – et que 2022 fut une année pour le moins difficile pour le marché automobile français – comme le laissaient d’ailleurs présager les tendances observées au cours de ses premiers mois – 2023 a quant à elle été marquée par une nette embellie pour la filière automobile française. C’est en effet ce qu’ont révélé les chiffres publiés le 1er janvier dernier par la Plateforme automobile (PFA), association qui réunit en son sein les quelque 4 000 entreprises du secteur automobile national – constructeurs, équipementiers, sous-traitants et autres acteurs de la mobilité.

Les chaînes d’assemblage ont tourné à plein régime en 2023
La fin de la pénurie de semi-conducteurs a permis aux chaînes d’assemblage de tourner à nouveau à plein régime en 2023. Crédit : Image de usertrmk sur Freepik

Sans aller jusqu’à la qualifier d’exceptionnelle, le directeur de la communication de PFA et expert du secteur automobile François Roudier dresse ainsi un bilan tout à fait positif de l’année qui vient de s’écouler : « 2023 a été une bonne année dans le sens où elle a permis la résolution des problèmes de production, notamment celui de l’approvisionnement en semi-conducteurs, qui est maintenant véritablement dernière nous ». Bonne, donc, mais pas exceptionnelle, car même si les douze derniers mois ont enfin permis aux livraisons de véhicules commandés, parfois de longue date, de se concrétiser, les ventes sont restées en deçà des niveaux mesurés avant la crise sanitaire et les événements géopolitiques qui s’y sont ajoutés : de l’ordre de deux millions d’unités par exemple en 2019. En dépit d’une hausse de pas moins de 16 % par rapport à 2022, les ventes se sont en effet limitées, sur les 12 mois de 2023, à un peu plus de 1,7 million de véhicules particuliers (VP).

Quoi qu’il en soit, c’est également à une très nette hausse des immatriculations que l’on a pu assister du côté des véhicules utilitaires légers (VUL) et des véhicules industriels (VI), avec un bilan respectif de + 8,9 % et + 11 % sur les 12 mois de 2023 par rapport à la même période en 2022 pour ces deux autres segments de marché.

Bonne année, donc, pour le secteur automobile dans sa globalité, 2023 l’a été d’autant plus pour un marché en particulier : celui des véhicules électriques et hybrides.

L’électrique fait des étincelles

« En 2023, un peu plus d’une voiture sur deux immatriculée en France – 50,4% – était un véhicule “électrifié”, c’est-à-dire 100 % électrique, hybride ou hybride rechargeable », chiffre François Roudier, qui constate ainsi une « importante ouverture » du marché vers ces voitures dont la propulsion est assurée, tout ou partie, par des moteurs électriques. « Cette évolution est tout bonnement impressionnante quand on se remémore l’état du marché au début des années 2010, où l’on était quasiment à 75 % des ventes représentées par des véhicules diesel… », analyse le porte-parole de PFA. Une dé-diésélisation à marche forcée du véhicule particulier qui transparaît dans les ventes de 2023 : avec à peine plus de 171 700 immatriculations, le diesel a vu sa part de marché chuter à 9,7 %, contre 15,6 % encore un an auparavant. « Cette chute en-dessous des 10 % est historique, c’est du jamais vu », assure François Roudier, qui concède toutefois une baisse moins marquée en dehors du seul segment des véhicules particuliers, du côté des VUL notamment. « Il faut aussi distinguer cette dé-diésélisation que connaît aujourd’hui le marché, de celle du parc automobile français en tant que tel, qui demeure en effet majoritairement composé de voitures diesel », souligne l’expert.

De plus en plus nombreux malgré tout, les ex-adeptes du gazole convertis à l’électromobilité optent pour l’heure majoritairement pour la solution de l’hybridation, qu’elle soit complète (full hybride), légère (mild hybride), ou rechargeable. À elles trois, ces options ont en effet représenté pas moins de 33,5 % des ventes en 2023, juste derrière l’essence, à 36,2 %. Avec une part de marché de près de 17 %, les véhicules 100 % électriques ne sont toutefois pas, eux non plus, restés sur le bord de la route. Et ce au profit, notamment, de véhicules à batteries haut de gamme, à l’image de certains modèles de l’américain Tesla, dont le Model Y s’est notamment hissé à la 8e position des ventes de véhicules particuliers en 2023, juste devant le Dacia Duster et la Fiat 500. « Cette 8e position de Tesla est vraiment impressionnante. Le constructeur tire le marché électrique tout en faisant beaucoup de mal aux marques de luxe d’outre-Rhin ».

Toutes énergies confondues, les groupes français Renault et Stellantis règnent toutefois toujours en maîtres sur le marché hexagonal, avec une pénétration sur 12 mois de 52 %, en dépit des difficultés de certaines de leurs marques. Le quinté du classement des ventes de véhicules particuliers est ainsi trusté par Renault, Dacia, Peugeot et Citroën, au travers de leurs très populaires Clio, Sandero, 208 et C3. Un temps à la peine sur l’électrique, les constructeurs hexagonaux commencent en outre à rattraper leur retard, comme l’observe François Roudier : « Chez Stellantis, la e-208 de Peugeot a très bien fonctionné. De même du côté du Groupe Renault, dont la Dacia Spring [14e du top 100, n.d.r.] ou encore la Mégane E-Tech se sont elles aussi bien vendues ».

Preuve supplémentaire, s’il en est, que le véhicule 100 % électrique est désormais promis à un essor certain, même des marques historiquement peu enclines à électrifier leurs gammes – telles que Toyota – prennent désormais ce virage. « Longtemps vu comme l’irréductible anti-électrique, le constructeur vient malgré tout d’annoncer une gamme de véhicules à batterie assez impressionnante », note en effet l’expert et porte-parole de PFA.

Cet immanquable essor de la voiture 100 % électrique – qui plus est dans le contexte de la fin programmée de la production de véhicules thermiques en Europe à l’horizon 2035 – augurerait-il, alors, une baisse des prix de ces véhicules à batterie ? Probablement, selon François Roudier.

Coup de frein sur la hausse des prix en 2024 ?

« On sent que la tendance à la hausse de prix est en train de s’inverser… Je pense que nous connaîtrons, en 2024, des baisses assez importantes. Une véritable bagarre sur les prix est à l’œuvre sur le marché des véhicules électriques », observe en effet l’expert. 2023 a en outre été marquée, plus largement, par une diminution – relative (lire plus loin) – de la part de marché des véhicules particuliers de la gamme économique et inférieure, au profit des gammes moyenne supérieure, supérieure, et de luxe. « Cette progression des gammes les plus chères représente un vrai changement, qui explique d’ailleurs en partie l’augmentation des prix des voitures que l’on constate », analyse François Roudier, qui met toutefois aussi en avant l’effet mathématique de la disparition des petites voitures thermiques, telles que la Citroën C1 ou la Peugeot 108. « Ces petites voitures qui faisaient beaucoup de volumes étaient en outre très accessibles, ajoute l’expert. Or, elles n’existent plus maintenant. L’enjeu pour les constructeurs va donc être de recréer ce type de modèle, en version électrique cette fois. »

En 2023, le soleil a brillé sur le marché des véhicules «électrifiés»
En 2023, le soleil a brillé sur le marché des véhicules «électrifiés» – 100 % électrique, hybride ou hybride rechargeable – qui ont en effet représenté plus d’une voiture sur deux immatriculée en France. Crédit : Image par (Joenomias) Menno de Jong de Pixabay

Outre l’évolution des critères d’éligibilité au bonus écologique, dont l’attribution ne peut désormais plus se faire que pour les véhicules 100 % électriques, la mise en place du dispositif de leasing social, pourrait elle aussi renforcer l’accessibilité des véhicules à batterie. Marginalement toutefois, comme l’explique François Roudier : « L’État a fixé une limite à 20 000 véhicules pour 2024… Cela ne va donc évidemment pas créer d’effet de volume ».

Et l’expert de pointer aussi un certain attentisme dont semblent faire preuve les automobilistes, encore dans le flou quant à la mise en place des ZFE, par exemple. « Comme le constatent les concessionnaires, les acquéreurs ont aujourd’hui plus de questions sur tout ce qui tourne autour de l’automobile, plutôt que sur les voitures elles-mêmes », assure le porte-parole de PFA, qui ne se risque ainsi pas à des prévisions pour 2024 : « Nous sommes, dans notre appréciation du marché, très dépendants de paramètres qui sont extérieurs à “l’objet automobile”. C’est donc la première fois, je crois, que nous ne faisons pas de prévisions ! Les inconnues dans l’équation sont trop nombreuses : inflation et hausse du prix des matériaux, problèmes géopolitiques, et même élections… »

S’il est donc encore trop tôt pour établir des prévisions fiables pour les douze prochains mois, les tendances de ce début 2024 semblent toutefois, pour l’heure, moins au beau fixe qu’elles ne l’ont été tout au long de 2023. « Les commandes d’octobre-novembre qui seront livrées en ce début d’année n’ont pas été très bonnes, avec un recul de l’ordre de 30 %. Les choses se sont toutefois un peu améliorées en décembre », constate François Roudier.  Le marché va-t-il, pour autant, repartir durablement à la hausse en 2024 ? « Nous ne le savons tout simplement pas », concède finalement l’expert.

Le secteur automobile arrivé à un carrefour de défis

Alors qu’elle doit déjà composer avec un monde désormais en « crise permanente », tel que le décrit l’expert du secteur automobile et directeur de la communication de PFA François Roudier, l’industrie automobile est en outre confrontée au défi d’un bouleversement technologique majeur, à l’œuvre depuis quelques années. « Le secteur automobile dans son ensemble a la lourde tâche de convertir à l’électrique toute une industrie centrée depuis des décennies sur le thermique, souligne en effet l’expert. Au-delà de tous les aspects positifs visibles de l’électrification du marché, en arrière-plan se joue aussi une véritable remise en ordre du système de production. »

Le défi est d’autant plus grand que l’industrie se mobilise aussi sur d’autres fronts, tels que celui du développement, et de l’intégration à bord des véhicules, de matériaux plus vertueux, ou encore – au-delà des enjeux écologiques – celui de l’intégration de systèmes d’IA dans les véhicules, voire du véhicule autonome… « Nous nous trouvons aujourd’hui face à un monde en plein renouveau, et nous sommes encore, sur bien des plans, en phase de découverte. Tout cela est fascinant, d’autant plus pour de jeunes ingénieurs », se réjouit ainsi finalement François Roudier.

R-CUA valorise de la chaleur industrielle fatale dans la zone des Ports de Strasbourg

Les Ports de Strasbourg* sont au cœur des enjeux de transition du territoire. Ils sont un acteur majeur pour la massification des flux de marchandises au niveau local et national et pour le report modal vers les transports ferroviaires et fluviaux, moins émetteurs.

Ils sont à ce titre un acteur majeur de la décarbonation, notamment au travers d’une démarche d’écologie industrielle, opérationnelle depuis près de 10 ans, et d’un réseau de chaleur de récupération actif depuis 2021. Ce réseau de chaleur doit permettre aux industriels de valoriser la chaleur générée par et pour leurs activités, qui se retrouve sinon perdue.

La société R-CUA (Réseaux de Chaleur Urbains d’Alsace)* créée en 2014, implantée dans la région Grand Est, a pour vocation d’étudier, financer, réaliser et exploiter des réseaux de chaleur bas carbone. Pour des finalités variées allant de l’alimentation de réseaux de chaleur au niveau d’un éco-quartier, le réaménagement de friches industrielles, par exemple. Aussi, R-CUA répond à des délégations de services publics lancées par des collectivités et développe dans ce cadre des réseaux de chaleur avec des centrales énergétiques basées sur les énergies renouvelables et de récupération sur des usages qui peuvent être de tout type, du résidentiel, mais également du tertiaire et de l’industriel de petite taille.

Enfin, R-CUA collabore avec de grosses entreprises industrielles sur des projets de valorisation de chaleur de récupération, de synergies entre industriels ou de création de solutions décarbonées dédiées pour ces derniers. En adaptant les technologies et les sources d’énergies renouvelables ou de récupération en fonction des opportunités et du contexte.

La société a créé, en partenariat avec le port autonome de Strasbourg (PAS) et la banque des territoires, une société, R-PAS, pour porter la réalisation des projets récupérant et valorisant la chaleur de récupération industrielle sur Strasbourg. Plus de 300 entreprises sont en activité dans la Zone du PAS.

Arnaud Boyer, Directeur développement et prospective au sein de R-CUA/R-CUE, a expliqué aux Techniques de l’Ingénieur comment la chaleur industrielle générée dans la zone du PAS était valorisée, notamment grâce aux projets concrétisés avec deux entreprises industrielles : Blue Paper* et Trédi*.

Techniques de l’Ingénieur : La zone portuaire de Strasbourg, le PAS, est en pleine transition énergétique, avec la volonté, notamment, de récupérer de la chaleur industrielle pour la valoriser. Comment l’entreprise R-CUA intervient-elle dans cette optique ?

Arnaud Boyer : R-CUA est une société créée en 2014, qui a mis en place dès 2016 un partenariat avec le PAS (port autonome de Strasbourg) afin de réfléchir aux synergies énergétiques potentielles entre les industriels de la zone ou entre les industriels et des tiers (collectivités, bâtiments tertiaires, résidentiel…).

Au départ, nous avons travaillé sur le sujet de la performance énergétique de manière globale, aux synergies de flux, que ce soit au niveau électrique, chaleur, froid. Très vite, nous nous sommes rendus compte que la PAS, qui regroupe près de 300 entreprises dans des secteurs industriels variés au niveau de la bande rhénane strasbourgeoise, constituait un potentiel très important.

Nous avons alors mené des études approfondies qui ont abouti à la création de la société R-PAS, qui associe R_CUA, le PAS et la banque des territoires, en 2021. Ceci afin de concrétiser les projets de récupération de chaleur sur des sites industriels de la zone.

Donnez-nous un exemple de projet réalisé avec une entreprise évoluant dans la zone du PAS.

Le projet le plus emblématique, qui est aussi le premier à avoir abouti, est le partenariat établi avec l’industriel Blue Paper, qui est implanté dans la zone du port autonome de Strasbourg. Blue Paper est en effet le premier industriel qui nous a fait confiance pour récupérer et valoriser en dehors de son site la chaleur fatale issue de son activité industrielle. Aujourd’hui, ce sont 100 Gwh par an de chaleur décarbonée qui sont valorisés via ce partenariat.

Se faisant, nous espérons que cette réalisation inspire d’autres industriels désireux de valoriser d’une façon ou d’une autre la chaleur fatale générée par leurs procédés et qui, aujourd’hui, est perdue.

C’est également un exemple intéressant car les technologies mises en place autour de la récupération de chaleur évoluent. Nous avons commencé avec Blue Paper par la récupération de chaleur à différents niveaux sur une co-génération biomasse, avec de la chaleur directement utilisable à une centaine de degrés, obtenue grâce à la mise en place d’un économiseur sur les fumées. Aussi, de la chaleur est récupérée via un condenseur, toujours sur ces mêmes fumées mais elle a besoin d’être réhaussée en température via une pompe à chaleur haute température, pour permettre de la rendre compatible avec les réseaux de chaleur existants en dehors du site, pour un usage global autour de 95-100°C d’exportation de cette chaleur.

Au-delà de ces projets qui sont déjà lancés et qui fonctionnent aujourd’hui, de multiples pistes de développement de nouvelles sources de récupération de chaleur vont encore nous amener à travailler de longues années avec Blue Paper, afin d’améliorer continuellement la performance énergétique et la valorisation de cette chaleur qui initialement était complètement perdue.

Un autre projet sur la zone du PAS est mené en collaboration avec la société Trédi, spécialisée dans l’incinération de déchets.

En effet. Trédi est un acteur industriel œuvrant dans l’incinération de déchets dangereux avec lequel nous avons contractualisé en 2023. L’activité d’incinération de déchets de Trédi génère des fumées, et donc un potentiel de récupération de chaleur. Nous avons donc, pendant plusieurs années, réfléchi avec Trédi aux différentes solutions pour récupérer et valoriser cette chaleur.

Aujourd’hui, Trédi nous permet de récupérer de la chaleur haute température, au sens où elle n’a pas besoin d’être relevée en température par des pompes à chaleur ou par autre système : elle est directement utilisable au niveau du réseau. Aussi, ce sont des installations qui fonctionnent 24h/24, 365 jours par an, hors opérations de maintenance programmées. Elles ont donc une très grande disponibilité et un très grand lissage sur l’année de production. Ce qui nous garantit des volumes réguliers que l’on peut valoriser aussi bien sur des usages industriels, tertiaires ou résidentiels.

Aujourd’hui ce sont 50 Gwh de chaleur qui sont valorisés chaque année via ce projet, chiffre qui va croître à l’avenir puisqu’il ne s’agit là que de la première phase du projet.

Vous avez également mis en place une sous-station de découplage entre Blue Paper et Trédi. Expliquez-nous pourquoi.

En effet, que ce soit avec Trédi ou Blue Paper, la chaleur récupérée et valorisée dans le réseau va alimenter une sous station de découplage. Cette station va valoriser de la chaleur venant du sud et du nord pour alimenter l’ensemble des réseaux strasbourgeois. Concrètement, nous avons créé une sorte de hub énergétique qui permet de faire entrer différentes sources de chaleur de récupération provenant notamment des industriels du port autonome de Strasbourg, en fonction des besoins des uns et des autres sur d’autres industriels, des écoquartiers ou sur des réseaux en délégation de services publics au niveau de l’agglomération strasbourgeoise.

Quels sont aujourd’hui les axes d’amélioration pour massifier la récupération de chaleur industrielle ?

La marge d’amélioration est très importante, tout d’abord parce que même si c’est un principe qui semble relativement simple, récupérer de la chaleur fatale issue des activités industrielles, dans les faits, est une activité assez récente. L’Ademe pousse à l’heure actuelle à la mise en œuvre de projets de récupération de chaleur, notamment car il s’agit d’une chaleur décarbonée, vouée à être utilisée localement.

L’autre sujet concerne la décorrélation entre la production de chaleur par les industriels et les besoins en chaleur des réseaux urbains, qui sont beaucoup plus saisonniers. Le stockage énergétique est une réponse à cette saisonnalité des besoins, et certains pays comme le Danemark l’utilisent déjà à grande échelle. Ce qui n’est pas encore le cas en France.

Propos recueillis par Pierre Thouverez


* Ports de Strasbourg

* Société R-CUA

* Blue Paper

* Trédi

Techniques de l’Ingénieur partenaire du salon Systèmes et Objets Connectés !

Le salon incontournable de l’IoT, la cybersécurité, et de l’intelligence embarquée !
L’intégration des systèmes et des objets connectés représente un défi crucial pour l’avenir de l’industrie française. Il est essentiel de se concentrer sur l’Internet des objets (IoT), la cybersécurité et l’intelligence embarquée pour répondre aux demandes et aux projets émergents des marchés.

Réunissant les acteurs et les décideurs engagés sur les marchés de l’IoT, du MtoM, de l’Embarqué, de la Data, du Cloud et de l’IA, vous aurez l’opportunité d’échanger avec les professionnels du milieu. Pour adresser les défis liés à la protection des données à tous les niveaux de l’industrie, des services et des collectivités, le Forum Cloud+Security a lieu simultanément et dans le même hall que le salon S.O.C.

En deux jours, découvrez les dernières tendances dans l’industrie au travers d’ateliers, tables rondes, keynotes, avis d’experts, témoignages-projets et plus de 80 conférences vous permettant d’enrichir vos connaissances et ainsi, choisir les solutions adaptées à vos besoins.

Au programme : 

  • Un cycle de 12 conférences “Conduire un projet IoT”
  • 5ᵉ colloque “Asset Tracking Systems – ATS™
  • Le 1ᵉʳ printemps de la 5G d’entreprise
  • Le Forum “Innovative City”

Pour plus d’informations, veuillez consulter le site.

La récupération des chaleurs fatales industrielles, une clé de performance énergétique, écologique et financière

On appelle chaleur fatale l’énergie thermique produite lors du fonctionnement de certains procédés de production ou de transformation qui n’est pas utilisée. En effet, de nombreux processus industriels requièrent de la chaleur pour leur fonctionnement. Cette chaleur est en partie perdue, que ce soit sous forme d’air chaud, d’eaux de refroidissement, ou encore de buée, de fumée ou de vapeur de procédés. 

L’Ademe milite massivement en faveur de la récupération des chaleurs fatales industrielles : en effet, les chaleurs fatales sont décarbonées, puisque produites « de toute façon », et pourraient devenir une source d’énergie non négligeable. Les chiffres publiés par l’agence montrent le gisement énergétique considérable que constitue la chaleur fatale industrielle : pas moins de 109,5 Twh de chaleur fatale rejetée par l’industrie dans son ensemble, ce qui correspond à 36% de sa consommation de combustible. Des chiffres qui donnent à réfléchir, au vu des objectifs tricolores et européens en termes de décarbonation de l’industrie. 

Au-delà des chiffres, plusieurs questions se posent pour les industriels désireux de récupérer leur chaleur.

D’abord, dans quel but. Un acteur industriel peut vouloir récupérer de la chaleur fatale pour la réutiliser en interne, pour économiser de la chaleur sur d’autres procédés. Cela permet d’améliorer la performance énergétique du procédé industriel. Seul bémol, mais de taille, les investissements pour réaliser ces installations sont souvent très importants, même en étant rentables à long terme. 

La chaleur fatale industrielle récupérée peut aussi être vendue en externe, pour répondre aux besoins de chaleur d’autres entreprises ou d’autres usagers, par exemple par le biais d’un réseau de chaleur.   

Les incinérateurs et les data centers sont des installations particulièrement émettrices de chaleur, et qui auraient donc intérêt à mettre en place des stratégies de récupération et de valorisation de chaleur. En effet, les incinérateurs cumulent 4,37 Twh et les data centers 3,61 Twh de chaleur perdue. Plus largement, les secteurs industriels ou le gisement de chaleur perdue sont les plus « prometteurs », en pourcentage des 109,5 Twh évoqués plus haut, sont l’agro-alimentaire (31%), le secteur chimie/plastique (22%), et l’activité papier/carton (13%)… On citera également les activités métallurgiques et matériaux non métalliques.

En France, le fonds chaleur piloté par l’Ademe a déjà permis à quelque 7100 entreprises et collectivités de bénéficier d’aides financières pour la mise en place de systèmes de récupération de chaleur. Ces systèmes de récupération de chaleur vont varier, selon la nature de l’activité industrielle génératrice de chaleur, et d’autres paramètres, qui dépendent aussi de la destination de la chaleur récupérée. 

Aujourd’hui, les installations les plus répandues pour utiliser la chaleur fatale d’un site industriel et la fournir ailleurs sont les réseaux de chaleur. Ces derniers sont très efficaces énergétiquement, et peuvent permettre de développer des synergies industrielles sur le territoire couvert par le réseau de chaleur. Cela peut notamment concerner les gros bassins d’activité industrielle, où les entreprises sont situés relativement proches géographiquement. L’exploitation locale de ces gisements de chaleur fatale peut servir à la fois les industriels, les installations publiques et les particuliers, avec chacun des usages spécifiques.

Au-delà des synergies locales générées par la récupération de chaleur, l’effet potentiel d’une massification de la récupération de chaleur fatale industrielle est considérable, aussi bien au niveau écologique qu’en termes d’autonomie et d’économie. En effet, la valorisation de la chaleur fatale industrielle permettrait de réduire les importations d’énergie, et par là même notre dépendance énergétique. Cela aurait aussi des conséquences favorables sur la balance commerciale tricolore.

Accord UE-Nouvelle-Zélande : importation et baisse des émissions de CO2, est-ce compatible ?

Au premier abord, faire venir des produits agricoles de l’autre bout de la planète peut sembler totalement aberrant du point de vue environnemental, en raison des émissions de CO2 liées au transport.

En réalité, le transport « de la ferme à l’assiette » est presque négligeable si l’on prend en compte les émissions de gaz à effet de serre des produits agricoles sur l’ensemble de leur cycle de vie !

Pour s’en convaincre, il faut commencer par rappeler que le CO2 est loin d’être le gaz à effet de serre le plus puissant. Or, le monde agricole émet massivement deux substances extrêmement « réchauffantes ».

  • Le protoxyde d’azote (N2O), 298 fois plus puissant que le CO2, est émis par la décomposition des déjections animales et des engrais azotés.
  • Le méthane (CH4), 23 fois plus puissant, est produit par la fermentation des végétaux et surtout par les rejets gazeux des ruminants.

Ces deux gaz représentent à eux seuls 90 % des émissions de l’agriculture ! De plus, le CO2, c’est-à-dire les 10 % restants, est principalement émis par :

  • les machines agricoles ;
  • les procédés de transformation des engrais et pesticides ;
  • le transport des aliments et les déplacements intermédiaires par camions vers les zones d’élevage.

La nécessité de revoir notre modèle agricole

Dans ce contexte, l’empreinte carbone de la viande de moutons élevés à l’herbe en Nouvelle-Zélande et transportée par cargo demeure inférieure à celle de moutons nourris au soja en France !

Revoir le modèle agricole actuel ne serait-il pas le cœur du problème ? Si faire venir des produits agricoles de Nouvelle-Zélande semble absurde pour réduire notre impact carbone, ne devrions-nous pas plutôt chercher à réduire nos consommations d’engrais, de pesticides et revoir les modes d’alimentation du bétail ?

La vraie aberration est en réalité dans le modèle productiviste actuel : nous avons fait l’erreur de séparer l’agriculture de l’élevage, grâce à l’utilisation massive d’engrais azotés pour compenser l’azote présent dans les déjections. En procédant de la sorte, nous avons aussi oublié, au passage, de compenser l’apport en carbone de ces déjections, conduisant à un appauvrissement des sols européens, tellement dégradés qu’ils provoquent déjà des pertes de rendement. Et nous avons surtout fait l’erreur de réduire la part d’herbe dans l’alimentation, notamment des bovins, pour satisfaire à la course au rendement, poussant les agriculteurs à importer du soja en masse.

Le modèle néo-zélandais serait-il meilleur ? Oui et non, car si le système de production, par exemple pour les vaches à lait, est basé sur la croissance de l’herbe (pâturage 12 mois sur 12), la hausse de la production pousse les éleveurs à utiliser une part plus importante de maïs ou de tourteaux de palme, dont l’impact environnemental est désastreux

Néanmoins, en Nouvelle-Zélande, la protection de l’environnement est une exigence sociétale forte et il semble que le pays cherche à atteindre un certain équilibre entre productivité et environnement. Le gouvernement actuel a même été le premier à proposer une « taxe carbone » sur les pets et rots des vaches, suscitant une levée de boucliers de la part du monde agricole.

 

Participez à la troisième édition du World Artificial Intelligence Cannes Festival (WAICF)

Pendant trois jours, le Palais des Festivals de Cannes se transformera en « hub » de l’IA, où se rencontreront décideurs, acteurs et novateurs. 

Expert, entreprise ou grand public, le festival s’adresse à tous grâce à une programmation sur-mesure. Les jeudis 8 et vendredi 9 février seront réservés aux professionnels qui pourront s’informer des dernières nouvelles du marché, bénéficier des précieux conseils des experts les plus renommés et de rencontrer les décideurs et les chefs d’entreprise les plus influents. De ce fait, seront organisés, des conférences stratégiques, des ateliers de réflexion, des stands d’exposition et des sessions de networking. La journée du samedi 10 février offrira une nouvelle occasion passionnante au grand public de découvrir l’intelligence artificielle à travers une multitude d’animations et d’expériences divertissantes.

Le WAICF 2024 se démarquera par la présence de multiples zones thématiques, offrant une opportunité unique de plonger dans le monde de l’intelligence artificielle. Chaque zone sera spécialement conçue pour accueillir des entreprises et acteurs de renom dans le domaine de l’IA, qui se feront un plaisir de présenter leurs solutions innovantes à travers des démonstrations et des expériences immersives.

Venez à la rencontre de plus de 230 exposants, conférenciers internationaux et de nombreuses entreprises innovantes qui présenteront leurs nouveautés et apporteront des éclairages sur l’impact et l’intérêt de l’IA tant au niveau professionnel que sociétal. Ce lieu d’exposition accueillera plus de 16 000 professionnels et personnalités du domaine. 

Au programme :

Par ailleurs, ce salon proposera des conférences autour de six volets avec plus de 300 intervenants, pour livrer un tour d’horizon de l’IA. Les six thèmes suivants seront abordés : 

  • Le théâtre des ambassadeurs
  • Applications de l’IA
  • Technologie et stratégie de l’IA
  • Session démo
  • Pitchs de startups

Et la nouveauté de l’édition 2024 : le VC summit vise à répondre aux problématiques d’investissements dans l’IA ainsi qu’à découvrir les startups les plus innovantes du secteur.

Si vous souhaitez en savoir plus sur cet événement et connaître le programme complet, rendez-vous directement sur le site : https://worldaicannes.com/

Prenez votre badge gratuitement ici !

La Norvège mise sur son électricité propre pour décarboner son économie

La Norvège occupe une place unique dans le monde en matière de mix énergétique, puisque l’électricité représente près de la moitié de la consommation finale du pays, soit la part la plus élevée parmi les pays membres de l’AIE (Agence internationale de l’énergie), selon un rapport publié en 2022 par cette organisation. Cette électricité présente en plus l’avantage d’être presque entièrement basée sur les énergies renouvelables, puisque le pays dispose de vastes ressources hydroélectriques qui couvrent 92 % de la production.

L’autre point marquant de ce pays scandinave est qu’il exporte 87 % de sa production énergétique grâce à ses vastes réserves de pétrole et de gaz naturel. Il est classé au septième rang des producteurs au monde de gaz naturel, fournissant 3 % de la consommation de la planète, tandis que son pétrole représente 2,3 % de la production mondiale. En tant que producteur réputé et fiable, la Norvège joue un rôle de stabilisateur dans l’approvisionnement mondial en pétrole et en gaz, en particulier en répondant à la demande européenne. Depuis la guerre en Ukraine, le pays est devenu le premier fournisseur de gaz de l’Europe, engrangeant des profits records.

La Norvège a pour ambition d’être une société à faibles émissions de gaz à effet de serre d’ici à 2050 et peut compter sur son système électrique propre afin de décarboner son économie. « Néanmoins, le pays a déjà électrifié de manière substantielle le secteur du bâtiment et près de la moitié de l’industrie. En conséquence, bon nombre des victoires faciles en matière de réduction des émissions ont déjà été obtenues et les réductions d’émissions restantes seront plus complexes, plus difficiles et plus coûteuses, notamment dans les transports et l’industrie », notent les auteurs du rapport de l’AIE.

Un axe majeur de la décarbonation du pays repose sur une meilleure efficacité énergétique. Le gouvernement souhaite découpler la croissance économique de la consommation d’énergie. Il s’est fixé l’objectif de réduire l’efficacité énergétique globale de 30 % en 2030 par rapport à 2015, mais celle-ci n’a diminué que de 4 % sur la période 2015-2019. Dans le secteur industriel, qui représente la part la plus élevée de la consommation d’énergie (44 %), des projets d’efficacité énergétique et de remplacement des combustibles fossiles par des énergies renouvelables font l’objet d’un soutien important de l’État. Dans le bâtiment (34 % de la consommation), la Norvège a pour objectif de réduire sa consommation d’énergie existante de 10 térawattheures (TWh) d’ici à 2030 par rapport au niveau de 2015, en sachant que la plupart des bâtiments disposent aujourd’hui de systèmes de chauffage électrique.

Le plus grand nombre de voitures électriques par habitant au monde

Dans le secteur des transports, qui représente 21 % de la demande totale, le pays scandinave mène une politique ambitieuse en matière de véhicules électriques. Les voitures à énergie fossile sont soumises à une taxe d’immatriculation élevée à l’achat ainsi qu’à d’autres taxes à l’usage. En parallèle, les véhicules à zéro émission sont fortement subventionnés. Résultat : « la Norvège compte plus de voitures électriques par habitant que n’importe quel autre pays au monde, indique l’AIE. Environ 86 % de toutes les nouvelles voitures particulières vendues en 2021 étaient des véhicules électriques (dont 64,5 % étaient entièrement de l’électrique à batterie) »

Avec environ un quart des émissions totales du pays, l’industrie pétro-gazière est l’une des principales sources d’émissions de gaz à effet de serre. La Norvège a pour ambition de réduire les émissions du secteur pétrolier de 40 % d’ici à 2030 par rapport à 2005, et d’atteindre le niveau de zéro émission nette d’ici à 2050. Une partie de cette réduction sera réalisée grâce au Système d’échange de quotas d’émission de l’Union européenne (SEQE-UE).

Étant donné que l’électrification constitue un élément central de la transition énergétique, la Norvège va devoir augmenter sa capacité de production d’énergie renouvelable. Cela nécessitera une expansion de la capacité hydroélectrique, ainsi que la modernisation des centrales existantes. La part de l’éolien devra aussi être augmentée. Elle représente 6,5 % de la production totale d’électricité en 2020 et a décuplé au cours de la dernière décennie. « Cependant, la Norvège a été confrontée à une opposition locale aux projets d’énergie éolienne terrestre, liée à leur impact perçu sur les paysages et l’écologie », note l’AIE. Le gouvernement norvégien mise sur l’éolien offshore pour poursuivre le développement de cette énergie renouvelable et a inauguré, l’été dernier en mer du Nord, le plus grand parc éolien offshore flottant au monde, baptisé Hywind Tampen. Avec une capacité installée totale de 88 mégawatts (MW), l’électricité sera intégralement destinée à alimenter des plateformes pétrolières et gazières voisines, afin d’en limiter l’impact carbone.

Sylvie Riou : l’énergie est le moteur de toute activité

Techniques de l’Ingénieur : Pouvez-vous revenir sur votre parcours professionnel ?

Sylvie Riou : J’ai démarré mon parcours en tant qu’assistante d’ingénieur, puis en promotion interne avec une formation au CNAM en thermique, j’ai accédé au poste d’ingénieur. Avec les années d’expérience, je suis devenue expert public français puis à l’international (en normalisation notamment) dans les domaines de la protection de l’environnement et de la performance énergétique.

Qu’est-ce qui vous a amenée à vous intéresser à l’énergie ?

Ma première recherche d’emploi me donnait le choix entre le privé (en téléphonie) et le public (la toute jeune Agence pour les Économies d’Énergie). L’engagement dans le secteur public dans un domaine totalement nouveau m’a séduite. L’intérêt pour les problématiques énergétiques et d’économies d’énergie est venu après, en prenant conscience des enjeux vitaux.

Comment les entreprises industrielles peuvent-elles connaître leur situation énergétique ?

Une entreprise qui souhaite connaître sa situation énergétique doit commencer par la réalisation d’un diagnostic énergétique sérieux et complet, qui lui donnera toutes les données utiles dont son niveau de performance énergétique pour se comparer à des références connues et se donner des objectifs d’amélioration. Mais les enseignements d’un diagnostic énergétique sont également indispensables avant tout projet d’investissement, d’autant plus dans le cas d’un projet portant sur la production d’énergie à partir d’énergies renouvelables afin d’optimiser sa situation énergétique au préalable et définir au plus juste le besoin en puissance utile.

Quelles sont les différences entre un diagnostic et un audit énergétique et comment déterminer lequel de ces dispositifs est le plus adapté ?

Ce sont le contexte et les textes de référence qu’il convient de prendre en compte pour définir la différence entre ces deux approches. Le diagnostic énergétique dans l’industrie a pour référence le document normatif AFNOR BP X 30120, qui est la conclusion d’un consensus entre professionnels sur la démarche la plus complète à entreprendre par un intervenant compétent. L’entreprise sera donc dans une démarche volontaire pour réaliser ce diagnostic. Le document de référence pour l’audit énergétique est la norme européenne NF EN 16247 dont l’application est en lien avec l’obligation réglementaire pour les entreprises d’une certaine taille, de réaliser un audit énergétique. Ces deux documents comprennent des objectifs, des principes et un déroulement qui sont approchants, étant donné que le deuxième a été inspiré par le premier. Toutefois il est reconnu que pour le domaine industriel, le document français est le plus complet dans la démarche et les informations qu’il contient, en particulier dans ses annexes.

Quelles sont les principales étapes d’un diagnostic énergétique ?

Le diagnostiqueur énergétique doit, en préalable à tout engagement à la démarche, réaliser une visite du site à diagnostiquer, afin de définir le niveau d’intervention nécessaire. Suite à cette visite, il établira un contrat d’intervention en se mettant d’accord avec l’entreprise sur le périmètre (géographique et/ou thématique) et l’objectif du diagnostic énergétique. Le plus tôt possible, il communiquera la liste des informations dont il a besoin afin de faciliter l’étape de collecte de données. Celle-ci est primordiale d’autant plus qu’il faudra vérifier et contrôler la fiabilité de ces données. Une campagne de mesures sera peut-être nécessaire pour compléter les données et devra être prévue dès le début de l’intervention. Ensuite vient l’étape d’analyse de ces données afin d’établir le bilan énergétique de l’entreprise, qui doit englober au minimum toutes les consommations annuelles d’énergies et d’eau sur 3 ans pour déterminer une situation de référence (la moyenne sur 3 ans ou la plus représentative par exemple), le profil énergétique, la répartition des consommations d’énergie par usage énergétique (chauffage, éclairage, procédé…), le calcul de l’indicateur de performance énergétique et son comparatif avec une référence connue. Le diagnostic énergétique pourra comprendre également une estimation des besoins énergétiques de l’entreprise basée sur des calculs théoriques allant jusqu’à une modélisation, pour le comparer au bilan réel.

À partir du bilan, des observations, enquêtes, interviews entrepris par le diagnostiqueur, des améliorations seront proposées sous forme d’actions à entreprendre, complétées par des solutions quantifiées en économies d’énergie et en montants d’investissement. Par exemple, il sera proposé d’améliorer l’isolation des ouvrants et différentes solutions seront calculées en fonction du niveau d’isolation, de la qualité des matériaux, de la quantité d’ouvrants, etc. afin que l’entreprise soit en mesure de choisir la solution adaptée à ses critères de choix (financement, objectifs…). Le diagnostic énergétique requiert la coopération de l’entreprise et le diagnostiqueur doit communiquer tout le long de son intervention, en particulier en rendant compte de ses résultats dans un rapport final et oralement. La bonne communication ne pourra que bénéficier à des résultats de qualité. La démarche est itérative, c’est-à-dire que l’on peut revenir à l’étape de collecte de données, tout comme on peut donner dès le début quelques axes d’amélioration voire une action à entreprendre immédiatement (suppression de fuites par exemple).

Quelle est la proportion d’entreprises industrielles françaises à avoir procédé à un diagnostic énergétique ?

Dans le cadre de l’aide à la décision de l’ADEME, un bilan réalisé sur la période de 2000 à 2010 montrait qu’environ 1 000 entreprises industrielles par an faisaient réaliser un diagnostic énergétique (démarche volontaire aidée par l’ADEME), soit 10 000 entreprises en 10 ans. Pour ce qui est de l’obligation réglementaire apparue en 2013 en France de réaliser un audit énergétique, 3 600 entreprises ont réalisé cet audit, mais avec un niveau de qualité bien moindre.

Celles qui y ont procédé reçoivent-elles une certification ?

Il n’y a pas de certification, étant donné que c’est une obligation réglementaire. Une certification peut intervenir si l’entreprise s’engage dans une démarche de système de management de l’énergie (ISO 50001).

Quelles compétences/qualités sont, selon vous, indispensables en général et plus particulièrement sur vos domaines d’expertise ?

Elles sont nombreuses, d’autant plus comme expert public, en touchant aussi bien la technique, la communication et le relationnel, la capacité de synthèse, de curiosité, le rédactionnel, la projection vers le futur avec l’intérêt pour la R&D et l’innovation, le montage et la gestion de projet…

Quels conseils adressez-vous à un ingénieur, un technicien ou un scientifique qui arrive sur le marché du travail ?

Les connaissances sur la gestion de l’énergie et la capacité à réaliser un minimum d’analyse énergétique (diagnostic énergétique) constituent un atout dans la recherche d’un poste technique. Encore récemment, un étudiant ayant suivi mon cours sur ces sujets a obtenu le poste convoité en gestion des déchets, car ses connaissances faisaient la différence avec les autres candidats.

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant qu’auteur et conseiller scientifique ?

Techniques de l’ingénieur est une revue scientifique de référence reconnue par les ingénieurs et scientifiques. Ma collaboration correspond à mon souhait de faire connaître une part de l’expérience française, et à diffuser la connaissance sur les moyens et le processus à enclencher pour des acteurs économiques (en l’occurrence des entreprises industrielles) dans l’amélioration de la gestion de l’énergie. Une façon de poursuivre mon action par-delà mon parcours à l’ADEME. L’enseignement en Master en fait partie également.

Quels sont vos projets, actuels et futurs ?

J’aimerais poursuivre cette collaboration et j’en profite pour lancer un appel à ceux qui sont en mesure de proposer un sujet et de rédiger un article dans une nouvelle collection sur les économies d’énergie et la performance énergétique qui sera lancée en 2024. Continuer également dans le domaine de l’enseignement. Je n’ai pas souvenir d’avoir bénéficié d’un cours sur l’énergie lors de ma scolarité ni lors de ma formation, alors qu’elle est le moteur de toute activité.

Les contributions de Sylvie Riou aux Techniques de l’Ingénieur

Spécialiste de la gestion de l’énergie, Sylvie Riou contribue avec les Techniques de l’Ingénieur en tant que conseillère scientifique et auteur.

Offre

Ressources énergétiques et stockage

Articles

Diagnostic énergétique dans l’industrie – Aide au choix de la prestation : critères et textes de référence
– Économies d’énergie et performance énergétique. Notions de base, enjeux et méthodes
Cet article en préparation, paraîtra fin février :
– Actions d’économies d’énergie dans l’industrie.

La France se dote d’un laboratoire privé dédié à l’IA

Lors de la conférence européenne AI-PULSE, le président Emmanuel Macron avait rappelé la stratégie de la France en matière d’intelligence artificielle : souveraineté technologique, diffusion et régulation.

Cette souveraineté s’est matérialisée avec la création en France d’un laboratoire privé. Résolument engagé dans la démocratisation de l’IA, Kyutai se positionne comme un acteur majeur de la recherche ouverte, ou open science, dans le domaine.

Fuite de cerveaux

Financé notamment par Xavier Niel, PDG d’Iliad (Free), Rodolphe Saadé, PDG du géant de la logistique CMA-CGM et Éric Schmidt, ancien PDG de Google, Kyutai a pour ambition de créer « un écosystème de recherche destiné à attirer ou conserver les spécialistes français dans ce domaine, qui ont tendance à s’expatrier pour trouver des conditions financières plus avantageuses notamment ».

Kyutai annonce vouloir s’attaquer aux principaux défis de l’IA moderne en développant notamment de grands modèles multimodaux (utilisant le texte, mais aussi le son, les images, etc.) et en inventant de nouveaux algorithmes pour améliorer leurs capacités, leur fiabilité et leur efficacité.

Pour ce faire, le laboratoire s’appuiera sur la puissance de calcul mise à sa disposition par Scaleway, la filiale du Groupe iliad. Il s’agit à date de la plus grande de puissance de calcul déployée en Europe pour les applications IA.

Côté matière grise, Kyutai affiche un organigramme à faire pâlir plus d’une start-up spécialisée dans l’IA ! Dirigée par Patrick Perez, ancien de l’équipementier automobile Valeo, l’équipe scientifique comprend d’anciens chercheurs de Meta’s FAIR et de Google’s DeepMind.

Kyutai a ainsi réuni une équipe de chercheurs renommés en IA, en tant que conseillers scientifiques, dont Yann LeCun, responsable de l’IA chez Meta, et Bernhard Schölkopf, lauréat allemand du prix Leibniz et chercheur en IA.

Mais, cette entreprise privée ne risque-t-elle pas de freiner la recherche publique, incapable de rivaliser avec des salaires élevés ? Les débauchages sont déjà en cours, puisque Hervé Jégou, qui devait rejoindre l’Institut national de recherche en sciences et technologies du numérique (INRIA), est devenu le « Chief Scientific Officer » de Kyutai.

Patrick Perez, qui est également un ancien chercheur de l’INRIA, souhaiterait recruter une équipe de 40 à 50 chercheurs. Kyutai vise aussi à former de futurs experts de la discipline, via l’accueil d’étudiants en master pour des stages au sein du laboratoire et la supervision de doctorants et de post-doctorants.

Depuis l’annonce, un autre centre de recherche sur l’IA a été lancé : l’Artefact research center

Avec l’appui notamment de la Société Générale, d’Orange et de Décathlon, cette société de services spécialisée dans le déploiement de ces technologies a déjà constitué une équipe de chercheurs. Ils devraient être une trentaine d’ici 2025. Ce centre collabore avec des professeurs d’une dizaine d’institutions comme l’École polytechnique, CentraleSupélec, Sorbonne Université, le CNRS, l’université Paris-Saclay ou encore l’ESCP Business School.

« Notre objectif est de faire des ponts entre le monde académique et les entreprises, sur des projets de long terme, avec des chercheurs à la pointe, dans des domaines qu’Artefact maîtrise » a déclaré sur Linkedin Vincent Luciani, Co-founder & CEO d’Artefact


Crédit image de une : benzoix – freepik

Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?

L’algorithme de recrutement d’Amazon qui privilégie les CV d’hommes ; l’assistant virtuel Siri qui indique où trouver du Viagra mais pas les centres d’avortement ; des hommes noirs accusés à tort par les algorithmes de reconnaissance faciale de la police américaine… Tous ces exemples sont les conséquences de biais algorithmiques. Un algorithme est biaisé lorsque ses résultats ne sont pas neutres, équitables, voire sont discriminants.

Dans son livre Technoféminisme : Comment le numérique aggrave les inégalités, publié en février 2023 aux éditions Grasset, la journaliste Mathilde Saliou démontre -entre autres- que les algorithmes ne sont pas neutres, et dépendent de qui les crée, comment, dans quel but et via quels financements. Spécialisée dans les questions numériques et d’égalité depuis 10 ans, elle a réalisé cette enquête auprès de multiples intervenants du secteur afin de soulever de nouveaux questionnements sur l’IA et potentiellement trouver de nouvelles pistes de solutions. Pour Techniques de l’Ingénieur, elle revient sur les résultats de son enquête.

Techniques de l’Ingénieur : Comment apparaissent les biais algorithmiques ?

Mathilde Saliou, journaliste spécialisée dans les questions numériques
Mathilde Saliou, journaliste spécialisée dans les questions numériques / Crédit : JF PAGA

Mathilde Saliou : Lorsque nous entraînons un algorithme, nous lui donnons un jeu de données. Or ces données peuvent être biaisées d’un point de vue statistique si un type de données est surreprésenté par rapport à un autre. Par exemple, si nous demandons à un algorithme de reconnaître des chiens et des chats, et qu’il y avait davantage de photos de chiens dans le jeu d’entrainement, l’algorithme reconnaîtra bien plus facilement les chiens que les chats. Ce qui pourrait être anodin ne l’est plus quand les algorithmes sont utilisés dans la société, avec des données sociales.

Le problème est que notre société est encore inégalitaire aujourd’hui, et ces inégalités se reproduisent dans nos algorithmes. Si la machine fonctionne mal, et reconnaît par exemple mieux les hommes blancs que les femmes noires, ces dernières subiront des inégalités liées à ces erreurs. Or quand il s’agit d’IA, nous avons tendance à penser que les résultats sont neutres et forcément corrects, donc nous questionnons peu les résultats.

Dans votre livre, vous citez de nombreux exemples d’inégalités causées par les algorithmes. Pouvez-vous nous donner quelques exemples concrets ?

Dans son étude Gender Shades publiée en 2018, Joy Buolamwini, chercheuse au MIT, a analysé l’efficacité des algorithmes de reconnaissance faciale des trois modèles les plus utilisés sur le marché à l’époque : IBM, Microsoft et Face++. Elle a constaté que les algorithmes reconnaissaient mieux les hommes que les femmes, et mieux les personnes blanches que noires. Ainsi, face à une femme noire, l’algorithme avait de grandes chances de se tromper. Le problème est que ces technologies dysfonctionnelles étaient déjà utilisées dans certains pays et servaient à traiter le flux vidéo des caméras de surveillance utilisées par les postes de polices. Aux Etats-Unis, j’ai connaissance d’au moins 6 cas de personnes noires qui ont été arrêtées à cause d’un résultat algorithmique erroné.

Autre exemple, en 2021, le gouvernement néerlandais a démissionné après un gros scandale administratif dans lequel des milliers de familles ont été accusées à tort de fraude aux allocations familiales. Le gouvernement avait déployé un algorithme de catégorisation du risque de fraude qui utilisait des données sensibles en termes de RGPD comme l’âge, le genre, les capacités linguistiques donc, par extension, les origines sociales et ethniques. Ainsi les femmes, les jeunes ou les personnes qui parlaient mal néerlandais se retrouvaient davantage suspectés de fraude et subissaient de nombreux contrôles, parfois plusieurs fois de suite dans l’année. Les aides pouvaient être suspendues durant ces contrôles, ce qui mettait les gens dans des situations très complexes. Ce type d’affaires a aussi eu lieu en Australie et dans différents Etats des Etats-Unis. 

Enfin, un exemple plus récent et en France, La Fondation des Femmes, l’association Femmes Ingénieures et l’ONG Global Witness ont attaqué META en justice en juin 2023 pour discrimination sexiste de ses algorithmes. Elles ont constaté que les annonces d’emploi diffusées sur le réseau ciblaient les populations de manière stéréotypée. Ainsi, les offres pour des postes de pilotes n’étaient montrées quasiment qu’à des hommes, et celles d’auxiliaires de puériculture, quasiment qu’à des femmes. Ce mécanisme met les femmes face à des postes moins bien rémunérés, et participe à perpétuer les inégalités de salaire dans la société.

Quelles sont les causes de ces biais ?

Une des premières causes vient des données. Parfois, les jeux de données pour entraîner les algorithmes ont été mal construits, et utilisent par exemple des données d’il y a 40 ans alors que notre société a beaucoup évolué depuis. Parfois, ces jeux de données ont été bien construits mais reproduisent les inégalités présentes dans la société.

Une autre cause vient des personnes qui créent les algorithmes. Dans l’industrie numérique, 3 personnes sur 4 sont des hommes, et les femmes travaillent souvent à des postes de support type RH, juridique ou communication. Ainsi, en Europe, seulement 16% de femmes participent à la construction des outils numériques. Or ces hommes, souvent blancs et aisés, vont construire des outils selon leur point de vue et cette vision sera très homogène dans l’équipe, ce qui induit des oublis, des angles morts, des biais.

Enfin, cela dépend de quelle entité construit l’outil et pourquoi. S’il s’agit d’une entreprise privée, son but sera majoritairement de gagner de l’argent. Ainsi, l’algorithme de hiérarchisation de l’information chez Facebook, dont le modèle économique repose sur la publicité, ne sera pas construit de la même manière que le serait une entité comme Wikipédia qui promeut un modèle basé sur le libre accès à la connaissance. Nous savons notamment que les algorithmes des réseaux sociaux ont tendance à pousser les contenus violents plutôt que les contenus pertinents car ce type de contenus crée plus d’engagement. Et c’est ce dont ils ont besoin pour montrer plus de publicités, et ainsi gagner plus d’argent. 

Est-ce que davantage de diversité dans le monde du numérique permettrait d’avoir des algorithmes plus justes ?

Le manque de diversité, volontaire ou non, empêche une conscience de la diversité des expériences de vie. C’est un problème que je pointe dans le numérique mais qui est récurrent partout dans la société. Cependant, la tech se présente souvent comme neutre, impartiale, et dit qu’elle produit des outils universels, pensés pour tout le monde. Mais ces hommes blancs qui la créent ne connaissent pas la vie des femmes, des personnes d’autres milieux sociaux etc. En pensant créer des outils universels, ils reproduisent en fait leur point de vue et peuvent créer des outils dysfonctionnels voire carrément discriminants. Ainsi, favoriser la diversité dans le milieu de la tech permettrait de multiplier les points de vue, dès la conception des outils. 

En quoi les pratiques d’utilisation de données pour entraîner les algorithmes peuvent être problématiques ?

Toutes les pratiques ne sont pas problématiques mais je peux citer deux exemples qui interrogent. Depuis le lancement de ChatGPT et Midjourney, de nombreux artistes ont porté plainte pour violation du droit d’auteur. En effet, les algorithmes utilisés captent toutes les données qu’ils trouvent en ligne, sans aucun cadre, et ont pu s’entraîner sur des milliers d’œuvres d’art, sans le consentement de leurs auteurs. Autre affaire aux Etats-Unis, plusieurs universités américaines qui travaillaient sur la reconnaissance faciale ont utilisé le flux vidéo des caméras de surveillance du campus, sans le consentement de qui que ce soit. 

Ces exemples posent de nombreuses questions éthiques, par exemple : les entreprises ont-elles le droit de se servir de toutes les données que les internautes mettent en ligne ? Elles sont tentées de le faire, car en l’état, les meilleures modèles algorithmiques ont besoin d’un nombre très élevé de données pour fonctionner correctement. En parallèle, beaucoup de personnes travaillent sur des alternatives plus éthiques, avec la création de jeux de données open source ou la mise en place de modèles qui requièrent moins de données pour des résultats équivalents.

Comment faire pour créer des algorithmes moins, voire pas, biaisés ?

Outre la nécessité d’une plus grande diversité dans le milieu du numérique, il faudrait aussi que les professionnels du secteur soient formés en sciences sociales, afin de mieux connaître les mécanismes de reproduction des inégalités. Du côté des utilisateurs, il est nécessaire de diffuser plus largement la culture numérique, pour permettre à tous de mieux manipuler les outils et de développer un esprit critique, sans penser que le résultat d’une machine est forcément meilleur que le jugement humain l’aurait été. 

Enfin, nous pourrions agir d’un point de vue politique et mettre plus de cadres aux constructeurs d’algorithmes. A l’échelle européenne, le Digital Services Act passé récemment est un début de réflexion sur le sujet. 

L’IA n’est pas encore assez encadrée selon vous ?

Certaines problématiques comme la protection de la vie privée existent depuis longtemps, ce qui a donné lieu en Europe au RGPD et qui met déjà quelques limites. Mais maintenant, il faut s’assurer que les lois soient appliquées, ce qui demande une véritable volonté politique et donc de l’argent injecté dans la vérification de conformité. 

Plein de lois et de directives existent et composent déjà un premier socle, mais elles n’ont pas vraiment été pensées pour l’IA car son utilisation est trop récente. Il existe aussi beaucoup de chartes, de directives, mais elles sont non contraignantes donc pas nécessairement efficaces. J’attends aussi de voir ce que donnera le règlement sur l’intelligence artificielle (AI Act), sur lequel travaillent les législateurs européens.

Vous parlez dans votre livre de toute une réflexion et une concertation qui n’a pas eu lieu dans la société. Devrions-nous avoir davantage notre mot à dire sur l’utilisation de l’IA ?

La technologie est un enjeu de pouvoir. Ceux qui la construisent et la financent font ce qu’ils veulent et peuvent modeler à leur guise la manière dont les utilisateurs évoluent dans leur création numérique. Il s’agit aujourd’hui de se demander si ce pouvoir sert l’intérêt commun, ou si les technologies ne font qu’accaparer le pouvoir, les fonds et les opportunités aux mains de quelques-uns. 

En parallèle, de nombreuses questions se posent. Souhaitons-nous réellement que les algorithmes régissent tous les pans de nos vies ? Devons-nous créer des outils universels ou ne vaudrait-il pas mieux chercher une meilleure efficacité en fabriquant des outils spécialisés ? Toutes ces questions sont très politiques et nous concernent tous à l’échelle de la société.

Propos recueillis par Alexandra Vépierre

Séverine Hanauer : « Le refroidissement par immersion est une technologie prometteuse pour les datacenters »

Récemment, plus d’une centaine d’opérateurs européens de datacenters et d’associations du secteur ont ainsi signé le Pacte de neutralité climatique des datacenters, à travers lequel ils se sont engagés à atteindre la neutralité climatique d’ici 2030. Pour réduire leur consommation électrique, de nombreux datacenters misent sur le refroidissement à eau glacée.

Explications avec Séverine Hanauer, Directrice Segments Stratégiques Telco & Déploiement Edge, Europe du Sud chez l’Américain Vertiv, l’un des principaux fournisseurs mondiaux d’infrastructures numériques critiques.

Techniques de l’Ingénieur : D’un côté, nous constatons une demande soutenue des capacités d’intelligence artificielle (IA) et de l’autre côté, la nécessité de réduire la consommation d’énergie, les coûts et les émissions de gaz à effet de serre. C’est un casse-tête pour l’industrie des datacenters ?

Severine-Hanauer
Diplômée en Techniques de Commerce international, Séverine Hanauer a occupé diverses fonctions spécialisées autour de la vente d’onduleurs de forte puissance, puis différents postes de direction. Elle est aujourd’hui Directrice Segments stratégiques Telco & Déploiement Edge chez Vertiv, spécialiste de la protection et de l’optimisation des infrastructures sensibles pour datacenters. Copyright : Vertiv

Séverine Hanauer : les acteurs des datacenters font de gros progrès et de manière continue, sur tous les pans de leurs activités et au niveau de la construction de leurs bâtiments. Mais l’intelligence artificielle (IA), l’automatisation, le calcul haute performance (HPC) et le Machine Learning augmentent la demande en traitement, ce qui entraîne des densités thermiques plus élevées par puce. Malgré les différents accords au niveau mondial et les bonnes volontés annoncées, nous constatons toujours une augmentation mondiale de l’empreinte carbone. Si l’on souhaite vraiment être plus vertueux vis-à-vis de notre environnement, nous devons modifier nos comportements et optimiser nos usages des outils numériques, que ce soit à titre professionnel ou personnel.

C’est la raison pour laquelle le procédé de refroidissement liquide est devenu une option incontournable dans les centres de données à haute densité ?

La puissance des processeurs devient de plus en plus importante. Elle s’accélère même avec l’intégration de l’intelligence artificielle. En effectuant de plus en plus de traitements de données sur une même période, la densité calorifique à l’intérieur d’une baie informatique ne cesse d’augmenter. C’est la raison pour laquelle, de nombreux efforts sont faits au niveau de l’urbanisation des salles. Ainsi, les baies de serveurs sont positionnées de façon à optimiser la gestion des flux d’air chaud/froid. Tout est cloisonné en allées froides ou chaudes. Les opérateurs de datacenters, mais aussi les entreprises qui possèdent leurs propres installations, intègrent également des systèmes de refroidissement pour gérer de manière optimale la dissipation de chaleur des équipements informatiques.

Mais le plus important est d’intégrer la technologie de refroidissement la mieux adaptée à l’application et à la configuration physique du site. Parmi les dernières tendances, on trouve différentes solutions et notamment des systèmes à base d’eau glacée qui se présentent sous forme de murs de refroidissement pour mieux canaliser les flux d’air et refroidir au plus près des équipements informatiques. L’objectif est également de limiter la démultiplication d’équipements de refroidissement traditionnels dans une salle informatique.

Les opérateurs de datacenters doivent tenir compte de la densité qui est plus ou moins importante en fonction du type d’applications, comme par exemple le calcul haute performance ou HPC (High-performance computing) et l’IA qui s’appuient sur les dernières générations de processeurs les plus puissants. Dans les cas de densité calorifique extrême, le refroidissement liquide est la seule option pour évacuer efficacement la chaleur, grâce aux propriétés de transfert thermique des liquides.

Le système de refroidissement liquide direct-to-chip est le plus proche de ce que nous connaissons avec une baie informatique standard. La différence réside dans une conception de la baie qui doit intégrer un collecteur de liquide pour le distribuer à l’équipement informatique, lui-même nécessairement compatible direct-to-chip. Pour cette solution, Vertiv a développé le Liebert® XDU, un système installé entre la production de liquide et les équipements informatiques pour assurer une parfaite distribution. Dans ce cas, il est essentiel de modifier l’espace technique du site, ce qui nécessite une planification spécifique.

Un autre système de refroidissement liquide, par immersion (Immersion Cooling), nécessite quant à lui un réagencement du datacenter. En effet, l’organisation standard en baies verticales est remplacée par des réservoirs horizontaux dans lesquels les équipements IT sont intégralement immergés dans un fluide diélectrique thermo-conducteur. Le refroidissement par immersion est une technologie prometteuse, mais pas encore complètement mature, car elle nécessite aussi le développement des compétences des exploitants de datacenters pour être tout à fait opérationnelle sur ces nouvelles solutions, leurs enjeux et leurs contraintes.

Le edge computing se développe. C’est la raison pour laquelle vous avez conçu Liebert APM2 ?

Beaucoup d’entreprises, petites ou grandes, qui possèdent des petites salles informatiques, sont en effet intéressées par le edge computing, car le traitement informatique s’effectue au plus près des utilisateurs finaux et réduit ainsi le temps de transmission des données traitées.

Les acteurs du edge computing peuvent également être intéressés par la technologie de refroidissement liquide. Ils y voient par exemple la possibilité d’avoir une architecture technique hybride avec une partie de leur site équipée de baies classiques alimentées par un système de refroidissement à eau et, dans une autre partie, des équipements refroidis par immersion. Ils peuvent ainsi répondre à une demande interne ou externe pour des clients qui souhaitent utiliser les processeurs les plus puissants.

Côté alimentation électrique secourue, un des derniers modèles d’onduleur de Vertiv est le Liebert® APM2, une solution d’alimentation efficace et évolutive adaptée aux sites edge. Il est compatible avec les batteries Li-Ion et VRLA et offre un rendement très élevé, jusqu’à 97,5 % en mode double conversion. Il permet ainsi une réduction des coûts de fonctionnement et de dissipation d’énergie grâce à ses performances et à sa modularité.

 


 

Crédit image de une : vecstock – freepik

Vers une plus large utilisation de l’effet ouzo pour fabriquer des nano-objets ?

Tous les amateurs d’alcools anisés ont déjà pu observer l’effet ouzo. Il s’agit d’un phénomène d’émulsification qui se produit par l’ajout d’une certaine quantité d’eau à de l’alcool contenant de l’huile essentielle d’anis (Pastis, Ouzo, Raki…). L’alcool et l’eau se mélangent tandis que l’huile précipite spontanément. Une nanoémulsion se produit avec la formation de gouttelettes qui vont diffuser la lumière et conférer un aspect trouble et laiteux à la boisson. L’effet ouzo est également un exemple singulier de nanotechnologie spontanée. Sur le plan industriel, il est utilisé pour la fabrication de nano-vecteurs d’ARN messager contenus dans certains vaccins contre la Covid-19. Ce procédé est malgré tout très peu utilisé, car il n’est efficace qu’avec des niveaux de concentration très faibles en soluté (l’huile essentielle d’anis dans l’exemple). Dans une étude publiée dans Journal of colloid and interface science, des scientifiques du LGC (Laboratoire de génie chimique) de Toulouse révèlent qu’il est possible d’augmenter cette concentration d’un facteur 100.

« L’ajout d’un liquide non-solvant (de l’eau) dans un mélange contenant un soluté (une huile, un polymère) et un solvant (éthanol, acétone…) entraîne la précipitation du soluté et permet d’obtenir spontanément des nano-objets, explique Kevin Roger, chargé de recherche au LGC. Avec la précipitation, les molécules ou macromolécules initialement présentes dans le mélange de manière dispersée à l’échelle moléculaire vont s’agréger pour former des objets plus gros. Par contre, si la concentration du soluté est trop élevée, on observe l’apparition de macro-objets, pouvant par exemple ressembler à des flaques d’huile qui vont flotter à la surface. Ce phénomène s’appelle la limite ouzo et elle s’établit à des niveaux de concentration très faibles en solutés de 0,1 %. »

Les scientifiques ont mené un travail de recherche pour étudier cette limite et comprendre les conditions nécessaires au processus de formation de nano-objets. Pour cela, ils ont utilisé une solution à base d’hexadécane (le soluté) et d’acétone (le solvant) et ont ajouté de l’eau à ce mélange pour obtenir une précipitation de l’hexadécane. Leur travail leur a permis de mettre en évidence que cette limite en concentration du soluté est liée à la qualité du mélange. Certes, l’effet ouzo est un phénomène spontané, ne demandant aucune énergie externe pour se déclencher, mais sa qualité repose sur la vitesse du mélange du solvant avec le non-solvant. Ainsi, lorsque la vitesse du mélange est trop lente par rapport à la vitesse de la précipitation, celle-ci se déroule dans des conditions hétérogènes qui ne permettent pas la formation de nano-objets. A l’inverse, lorsque la vitesse du mélange est beaucoup plus rapide que la précipitation, celle-ci devient homogène et permet la dispersion des particules avec la formation de nano-objets.

Parvenir à une bonne diffusion des molécules des deux fluides

« Au-delà de l’aspect physico-chimique de la précipitation, c’est-à-dire de savoir quelle huile utiliser, avec quels solvants et non solvants, toute la clé est de parvenir à contrôler le mélange et donc à maîtriser l’hydrodynamique de l’effet ouzo, confie le chercheur. Nous avons réalisé des essais à l’échelle millifluidique, qui est celle employée par les industriels, en mélangeant les fluides jusqu’à des nombres de Reynolds élevés, ce qui correspond à un stade où ils tendent vers la turbulence. Pour bien mélanger, il faut parvenir à faire des tranches entre les deux fluides, c’est-à-dire le solvant (acétone) et le non-solvant (eau), afin qu’ils se laminent les uns dans les autres. L’objectif est que l’échelle de contact entre eux soit la plus petite possible pour permettre la diffusion des molécules les unes dans les autres. »

Grâce à cette vitesse et qualité du mélange, les scientifiques ont démontré qu’il est possible de dépasser une des limites de la frontière ouzo en fabriquant des nano-objets avec des niveaux de concentration en solutés supérieurs à 10 %. Cette forte augmentation pourrait ouvrir la voie à une plus large utilisation de ce procédé. Pour l’heure, il est quasi-uniquement employé sur le plan industriel par certains laboratoires pharmaceutiques pour fabriquer des vaccins à ARN messager. Ces derniers peuvent se le permettre, car les produits qu’ils fabriquent sont ensuite vendus à un tarif élevé. « Jusqu’ici, la limite de concentration en soluté était beaucoup trop faible, ce qui rendait cette technique beaucoup trop chère, ajoute Kevin Roger. En parvenant à l’augmenter d’un facteur 100, je pense que l’effet ouzo pourrait intéresser d’autres applications. En plus du secteur de la santé, le domaine des matériaux pourrait aussi être concerné pour par exemple fabriquer des petites billes composites structurées. »

Le stockage d’électricité : une nécessité pour répondre aux enjeux de la transition énergétique

Jean-Marc Guillou, directeur technique du groupe Socomec pour les systèmes de stockage d’énergie
Jean-Marc Guillou est directeur technique du groupe Socomec pour les systèmes de stockage d’énergie (Crédit : Socomec)

Socomec est un groupe industriel créé en 1922, qui rassemble plus de 3 600 experts à travers le monde.

La spécialité de Socomec tient en trois mots : disponibilité, contrôle et sécurité des réseaux électriques basse tension.

Depuis plusieurs années, le groupe propose des systèmes de stockage d’énergie reposant entièrement sur les technologies électrochimiques.

Jean-Marc Guillou est en charge des activités techniques depuis le développement du produit et des projets jusqu’aux phases de suivi d’opération et de maintenance.

L’objectif de l’Union européenne vise à réduire les émissions nettes de gaz à effet de serre d’au moins 55 % (FIT for 55) d’ici à 2030, notamment en réduisant les émissions d’échappement des voitures, camionnettes et camions neufs. Pour atteindre cet objectif, la Commission européenne a renforcé sa directive sur les énergies renouvelables et a fixé comme objectif pour le mix énergétique européen d’atteindre 42,5 % de production renouvelable d’ici 2030, soit plus du double de la production de 2021. La contrainte majeure de cette approche est que cette production d’électricité dite renouvelable est intermittente.

Techniques de l’ingénieur : À quels besoins le stockage d’énergie répond-il ?

Jean-Marc Guillou : Les besoins sont nombreux mais, quelle que soit l’application visée, le maître mot du stockage d’énergie est « flexibilité ». Les applications notables sont l’intégration d’énergie renouvelable, avec l’adaptation entre production et consommation d’énergie verte, la réduction des coûts de consommation énergétique, le lissage des pics de consommation, la réduction des coûts des installations (en optimisant le dimensionnement) ainsi que le renforcement du réseau électrique actuel qui est contraint par les nouveaux usages autour de la mobilité électrique. Le stockage peut aussi jouer un rôle pour aider les distributeurs d’énergie à répondre à leurs engagements en termes de disponibilité.

Pourriez-vous préciser les usages concernant l’intégration des énergies renouvelables ?

Les énergies principalement concernées, ici, sont l’éolien et le photovoltaïque. D’autres énergies, notamment l’hydrolien, sont également discutées, mais présentent pour l’instant une contrainte moindre sur le réseau électrique. Ces énergies renouvelables sont, certes, vertueuses, mais elles n’en sont pas moins problématiques pour les réseaux électriques. Il y a deux raisons à cela.

Comme je l’ai dit précédemment, le premier point concerne leur caractère intermittent : la période de production d’électricité ne correspond pas parfaitement au besoin de consommation sur le réseau électrique. Dans ce cas de figure, l’intégration d’éléments de stockage par batteries permet de déplacer l’énergie produite par ces installations afin de la consommer sur une période plus adéquate, par exemple le soir.

Le second point concerne la capacité insuffisante du réseau électrique à transporter l’électricité produite par les grandes installations solaires et/ou éoliennes. En effet, ces nouveaux sites de production sont en général relativement éloignés des points de consommation, ce qui implique de transporter cette énergie via le réseau électrique historique, vers les points de consommation/distribution.

Le réseau n’étant pas assez robuste ni structuré pour cela, des investissements lourds en termes d’infrastructures électriques sont, de fait, nécessaires afin de limiter les phénomènes de congestion. L’ajout de moyens de stockage d’énergie permet alors de décongestionner les contraintes sur certains points de connexion du réseau, ce qui évite d’investir dans de nouvelles lignes électriques coûteuses et ayant un impact non négligeable sur l’environnement.

Cela a fait l’objet de plusieurs démonstrateurs, notamment le projet RINGO piloté par RTE, le responsable du transport et de l’équilibre du réseau électrique en France.

Quels sont les usages en mobilité électrique ?

Le stockage d’électricité va également permettre de développer de nouveaux usages tels que la mobilité électrique, car il faut rappeler que le réseau de transport électrique français n’est actuellement pas structuré pour accueillir les transformations attendues. On sait que l’Europe compte installer 5,2 millions de bornes de recharge non résidentielles d’ici 2030 et aujourd’hui, elle n’en compte que 500 000. Pour permettre d’atteindre ces objectifs, plusieurs programmes européens existent, comme le projet « Infrastructure pour carburants alternatifs » (AFIR) qui permet aux acteurs de ces infrastructures d’investir avec le soutien des gouvernements.

Néanmoins, les modèles de prévision utilisés pour construire les infrastructures actuelles avaient bel et bien anticipé la hausse du volume d’électricité consommée, mais pas son accélération.

En effet, les chargeurs de faible puissance, entre 3 et 22 kW, installés chez les particuliers sont adaptés à une recharge lente des batteries de véhicules électriques, le plus souvent la nuit. Avec l’aide de logiciels de gestion de charge intelligents, il est donc aisé de contrôler ces installations et de limiter l’impact sur le réseau électrique.

Dans le cas des bornes de recharge situées dans les lieux publics (autoroutes, supermarchés, etc.), c’est la charge rapide qui est nécessaire, ce qui implique l’utilisation de chargeurs à courant continu de haute puissance, jusqu’à 350 kW par chargeur (une station peut être équipée de plusieurs chargeurs). Ces nouveaux points de consommation entraînent de fortes contraintes sur le réseau électrique français et européen, une problématique qui sera encore amplifiée dans le cas de la recharge de bus et de camions, car les niveaux de puissance pourront monter jusqu’à 3 MW par point.

Le stockage par batteries est une réponse à ce problème, car il agit comme un ballon d’énergie capable de limiter les appels de puissance induits par la charge des véhicules électriques.

Le stockage d’énergie peut-il aussi intéresser les industriels ?

Bien entendu, les règles ici sont différentes dans l’ensemble des pays européens, mais les contrats d’approvisionnement en énergie des industriels sont basés, en général, sur des pics de puissance atteints. Si ce pic se produit peu souvent, la conséquence financière pour l’industriel peut alors être importante. Le stockage d’énergie présente ici l’opportunité de limiter ces appels de puissance et de lisser la courbe d’injection ou de soutirage du réseau électrique, permettant ainsi de réduire la puissance de raccordement et d’optimiser le dimensionnement des installations. Et lorsqu’elle est couplée à des solutions de production d’EnR, ce système permet également aux industriels de réduire leur impact environnemental.

Par ailleurs, pour des industriels ayant de fortes contraintes de continuité de process, l’ajout d’un stockage par batteries limite aussi la dépendance au réseau électrique, notamment lors des phases de coupure ou de panne du réseau électrique.

Pour finir, la hausse des coûts d’électricité qui a été observée ces dernières années a aussi mis en lumière l’intérêt pour les agrégateurs de piloter des installations de stockage chez les industriels.

Le stockage d’énergie réduit-il les émissions de CO2 ?

Comme évoqué tout à l’heure, le photovoltaïque (PV) ne produit pas l’électricité au bon moment. La solution actuelle consiste à faire de l’écrêtage, c’est-à-dire à limiter la production sur le réseau électrique. Or, s’il n’est pas possible d’utiliser cette électricité à son plein potentiel, cela signifie que les chiffres annoncés en termes de réduction des émissions de CO2 ne sont pas exacts !

Pour les industriels souhaitant s’orienter vers une réduction de leur empreinte carbone, l’installation d’un système de stockage est donc particulièrement utile.

D’un point de vue technologique, quel est le fonctionnement d’un système de stockage ?

Un système de stockage d’énergie comprend deux éléments majeurs : une partie conversion et une partie stockage d’énergie, c’est-à-dire des batteries.

Socomec propose différentes solutions de stockage d’énergie. Prenons l’exemple de la gamme de convertisseurs SUNSYS HES L (Hybrid Energy Storage). Ces solutions sont un assemblage de convertisseurs modulaires de 50 kVA qui peuvent être mis en parallèle pour répondre à des besoins jusqu’à 600 kW et d’armoires de stockage d’énergie de 186 kWh pouvant atteindre plusieurs mégawatts en parallèle.

Comme son nom l’indique, le rôle du convertisseur est de convertir le courant continu provenant des batteries, en courant alternatif synchrone avec le réseau électrique. Ces systèmes intelligents gèrent le support sur le réseau et la communication avec les différents opérateurs réseau, ce qui permet une intégration « optimale ».

Concernant le design de ces convertisseurs, nous utilisons des technologies SiC qui permettent d’atteindre les meilleurs résultats en termes de rendement et d’efficacité.

Les batteries (ou accumulateurs) sont des systèmes électrochimiques, dont l’objectif est de stocker l’énergie sous forme chimique et de la restituer sous forme électrique. Nous utilisons la technologie lithium-fer-phosphate (LFP), pour plusieurs raisons.

La principale concerne l’aspect sécurité, car le risque d’emballement thermique est moindre avec cette technologie, le point de déclenchement Thermal Runaway étant supérieur, en comparaison avec la technologie Nickel Manganèse Cobalt (NMC).

De plus, les batteries sont placées dans une armoire spéciale, équipée d’un refroidissement par eau glycolée, pour maintenir une température d’opération optimale dans les batteries. En cas de défaillance, l’armoire dispose aussi d’un système d’extinction incendie par gaz inerte, ce qui évite tout risque de propagation.

Cette technologie propose aussi des durées de vie supérieures à moindre coût, en comparaison avec la technologie NMC. En contrepartie, la densité d’énergie et les capacités en puissance (c-rate) sont cependant réduites, mais pour nos applications dites « stationnaires », les avantages sont nettement supérieurs aux contraintes.

Enfin, nous étudions également l’intégration de nouvelles solutions de stockage d’énergie à la fois plus sécuritaires et plus propres.

Réparation : une offre QualiRépar à plusieurs vitesses

Le bonus réparation lancé fin 2022 vise à inciter les Français à réparer leurs appareils électriques et électroniques, plutôt que de les jeter. Pour réduire le coût de la réparation, il consiste en une réduction immédiate de la facture de réparation, comprise entre 10 et 60 € (hors garantie), auprès de réparateurs labellisés QualiRépar (cf. toutes les nouveautés 2024). L’association nationale de consommateurs et usagers (CLCV) dévoile son deuxième observatoire du fonds réparation des équipements électriques et électroniques (EEE) sur la période du 15 décembre 2022 au 4 décembre 2023. Il soulève plusieurs avancées, mais aussi points de dysfonctionnements. Sur la période, le bonus réparation a permis de couvrir, en moyenne, 17 % du coût total de la réparation soit un bonus moyen de 23 € sur une facture moyenne de 136 €.

Un potentiel de labellisation sous-exploité

L’Agence de la transition écologique (Ademe) estime qu’il existe environ 30 000 sites de réparation répartis sur l’ensemble du territoire français. Au 4 décembre 2023, 806 entreprises étaient labellisées QualiRépar. Le réseau des réparateurs labellisés atteint désormais plus de 2 050 sites physiques où les consommateurs peuvent amener leurs appareils pour des réparations. « Ce chiffre met en lumière un maillage encore insuffisant et inégal des magasins labellisés, soulignant la nécessité d’élargir la présence de ces établissements sur l’ensemble du territoire », estime l’observatoire. En plus, le réseau labellisé comprend près de 2 600 techniciens itinérants.

En moyenne, un département comprend 46 points de réparation, sur site ou à domicile. Mais l’Observatoire souligne un déséquilibre dans ce maillage territorial. « Le Nord, Paris et les Bouches-du-Rhône présentent le nombre le plus bas de points de réparation par habitant : 0,39 point de réparation par 10 000 habitants dans le Nord, 0,38 à Paris et 0,44 dans les Bouches-du-Rhône », partage le rapport. Les départements de Lozère et de la Creuse présentent le plus de points de réparation par habitant : respectivement 2,06 et 2,46 pour 10 000 habitants.

Des acteurs de toutes tailles

Leclerc-Est, Boulanger et Wefix sont les trois plus importants acteurs du fonds réparation. « Parmi les 2 052 sites labellisés, SAV Leclerc-Est émerge comme l’acteur majeur avec 389 sites répartis sur l’ensemble du territoire français. Il est suivi de près par Boulanger, qui compte 210 sites, et Wefix, avec 138 sites », cartographie l’observatoire. Ces trois entreprises à elles seules totalisent 36 % de l’ensemble des sites labellisés.

Aux côtés de ces grands acteurs, les travailleurs indépendants et les petites et moyennes entreprises rejoignent le mouvement. Les petites structures, dotées d’un seul site composé d’une à deux personnes, représentent 56 % des entreprises labellisées.

Après un pic d’activité entre novembre 2022 et janvier 2023, autour de 600 sites labellisés par mois, le nombre de labellisations stagne autour de 100 par mois entre août et novembre 2023. Cette inertie proviendrait des coûts administratifs et du temps nécessaire pour obtenir la labellisation, présume l’Observatoire. Pour contrer cet effet, le processus pour les entreprises artisanales de moins de 10 salariés sera prochainement simplifié et le coût de labellisation passera de 447 € à 200 € HT pour un cycle de trois années.

Quels sont les appareils les plus réparés ?

Du 15 décembre 2022 au 4 décembre 2023, le fonds réparation a enregistré 158 132 réparations bénéficiant du bonus réparation. Cela reste bien en dessous des objectifs : les éco-organismes visaient plus de 500 000 réparations prises en charge d’ici fin 2023. Une stagnation des réparations mensuelles, autour de 20 000, est même observée à partir du mois de juillet.

CLCV relève que les appareils les plus réparés sont ceux pour laquelle la réparation reste plus avantageuse et ceux pour lesquels la couverture en réparateurs est la plus développée. « En ce qui concerne les équipements qui ont fait l’objet d’une demande de remboursement validée par QualiRépar, [on constate] une nette prépondérance des réparations de téléphones portables, de lave-vaisselle et de lave-linge. Ces trois catégories de produits représentent à elles seules près de 66 % des réparations effectuées avec le fonds. »

Depuis le 1er janvier 2024, 75 types de produits sont désormais éligibles au bonus réparation. Cela nécessite d’avoir des réparateurs labellisés ayant les compétences requises pour chaque catégorie. Toutefois, la réparation de plusieurs produits du quotidien reste quasi inexistante. C’est le cas des machines à café avec filtre, grille-pain, enceintes, fer à passer, bouilloire, presse-agrumes ou encore perceuses. Dans ces cas, CLCV souligne que « les contraintes telles que le coût (réparation plus chère que l’achat d’un appareil neuf) et le temps requis pour se rendre chez un réparateur peuvent être des facteurs influant sur les décisions de réparation ».

Le problème majeur est que la majorité du réseau de points de réparation français cantonne son activité à la réparation des équipements informatiques et de télécommunications, au gros et petit électroménager, aux TV et électronique grand public. Très peu de réparateurs demandent leur labellisation pour dépanner les outils électriques, comme les perceuses, les appareils photo, les jouets et autres équipements de loisir et de sport. Pour tenter d’inverser la tendance, depuis le 1er janvier 2024, les éco-organismes ont augmenté de 5 € le bonus de ces appareils.

La chasse de tête : un outil efficace pour aider les PME à recruter sur les postes techniques en tension

Éva Blosse-Éva Blosse-HeadHunting Factory
Éva Blosse est responsable recrutement chez HeadHunting Factory (crédit : HeadHunting Factory)

 Headhunting Factory est le leader européen de la chasse de têtes en continu.

 Cette société est spécialisée dans l’identification et le placement des meilleurs talents cachés, en France et à l’international.

Éva Blosse est directrice d’une Business Unit de HeadHunting Factory. Chaque Business Unit est composée de managers de recherche chargés de gérer les équipes de chasseurs de têtes.

Techniques de l’ingénieur : Pouvez-vous présenter l’entreprise HeadHunting Factory ?

Éva Blosse : HeadHunting Factory est une société du groupe APSIM, qui s’est développée depuis 2018 autour d’une activité de chasse de têtes sur des postes de cadres dirigeants, sous la marque OP SEARCH. OP SEARCH est un spécialiste de la « vraie » chasse de tête, une pratique qui consiste à recréer les organigrammes des sociétés concurrentes dans le but de trouver le profil correspondant au cahier des charges de notre client.

Comme un nombre croissant de nos clients désiraient nous confier le recrutement de profils très « pénuriques », à des niveaux de salaire bien en-dessous de 80 k€, nous avons décidé en 2016 de créer une nouvelle filiale, sous la marque HeadHunting Factory, qui est généraliste et couvre tous les postes, sans minimum de salaire.

Avec HeadHunting Factory nous vendons une méthode et non une expertise métier avec un message d’ouverture : la chasse de tête n’est pas réservée aux postes de cadres et aux grands groupes, mais concerne tous les postes !

Qu’est-ce que le marché « caché » ?

Le marché caché, c’est l’ensemble des profils invisibles, que ce soit dans les CVthèques ou sur les réseaux sociaux. On sait par exemple que les ouvriers polyvalents n’ont quasiment jamais de profil LinkedIn, même si c’est moins le cas pour les nouvelles générations. Accéder au marché caché consiste donc à solliciter des personnes qui n’auraient jamais postulé et qui ne sont visibles nulle part.

Sans dévoiler vos secrets, pouvez-vous parler un peu des méthodes de « chasse » utilisées ?

Nous définissons avec nos clients des entreprises cibles, le plus souvent des concurrents. Nous cherchons ensuite à recréer l’organigramme de ces entreprises, et une fois que nous avons identifié l’identité des personnes en poste et leur numéro de téléphone mobile, nous les contactons pour leur parler de l’opportunité du poste pour lequel nous chassons.

Quels sont les postes les plus demandés actuellement ?

Nous travaillons beaucoup pour l’industrie. Dans ce secteur, le poste le plus en tension actuellement est celui de technicien de maintenance, mais les conducteurs de ligne et les chefs d’équipe de production sont également très recherchés. De manière générale, l’industrie fait face à d’importantes problématiques de recrutement dans le contexte de réindustrialisation et de robotisation des sites industriels.

Quels sont les critères pour attirer des profils ?

Le salaire reste un critère, mais l’importance que donne un candidat à son niveau de rémunération dépend de chaque profil. On sait qu’un technicien de maintenance ne va pas quitter une entreprise pour un salaire moins élevé, il est donc bien évidemment conseillé de proposer un salaire supérieur, mais le salaire n’est pas le seul levier de motivation. Depuis le COVID, la qualité de vie et notamment le télétravail, l’accessibilité ou le transport sont devenus des sujets récurrents, peu importe le poste.

Constatez-vous une hausse des demandes de la part des PME ?

On constate une montée en flèche des demandes depuis le COVID, mais on observait déjà une augmentation avant la pandémie. Depuis 2020, les moyennes entreprises représentent désormais presque la moitié de nos clients, le reste étant des groupes et des entreprises du CAC 40.

Quels conseils donneriez-vous aux PME industrielles pour devenir plus attractives, dans un marché de l’emploi en tension ?

Le rapport de force entre recruteur et recruté a complètement changé et aujourd’hui, une entreprise ne peut plus attendre qu’un candidat vienne à lui. Cela l’oblige à aller chercher les candidats, mais aussi à être inventive et à faire la différence.

Je donnerais, comme conseil aux entreprises, de soigner en priorité leur marque employeur. Elles doivent également fournir de la transparence, notamment dans les annonces. Quand une annonce ne donne aucun résultat, il y a souvent des raisons : les avantages ne sont pas mis en avant, ni les moyens matériels, ni la composition de l’équipe, etc. Dans les annonces, il faut également détailler le processus de recrutement : quelles étapes ? Quand ? Avec qui ?

Les valeurs, notamment humaines, ont de plus en plus d’importance, en particulier auprès des jeunes. On constate d’ailleurs que les salariés de grands groupes qui désirent partir pour retrouver des sociétés à taille humaine sont également de plus en plus nombreux.

Enfin, un autre point qui est primordial est la rapidité du processus de recrutement. Il faut soigner l’expérience du candidat comme on soigne l’expérience client. Une PME ne peut pas se permettre d’attendre plusieurs semaines pour donner une réponse à un candidat. Il faut également créer du lien avec le candidat, le tenir informé de chaque étape et privilégier les retours téléphoniques à la place des mails.

Aujourd’hui, une entreprise qui recrute doit s’inscrire dans une démarche de séduction. C’est plus vrai que jamais dans l’industrie et ça l’est d’autant plus pour les PME.

De nouvelles initiatives pour améliorer et décarboner le dessalement de l’eau de mer

Dans un contexte de changement climatique où la ressource en eau douce se raréfie, le dessalement de l’eau de mer apparaît de plus en plus comme une solution de premier plan. La majorité des pays du Golfe dépend aujourd’hui en grande partie de l’eau dessalée pour la consommation de leurs habitants et la construction de nouvelles usines de dessalement se multiplie aux quatre coins de la planète. La ressource en eau de mer paraît inépuisable puisqu’elle recouvre les trois-quarts de la surface de notre planète. Malgré tout, le dessalement fait l’objet de critiques en raison de sa forte consommation d’énergie. Plusieurs technologies sont en cours de développement afin d’améliorer et/ou décarboner les deux principaux procédés utilisés dans le monde.

Celui le plus employé s’appelle l’osmose inverse. Il consiste à appliquer à l’eau salée une pression suffisante pour la faire passer à travers une membrane semi-perméable pour que seules les molécules d’eau la traversent et ainsi produire une eau douce. Des travaux de recherche tentent d’améliorer ce dispositif en ajoutant par exemple des réactifs à ces membranes, composées de matrices en polymères, dans le but d’améliorer leur perméabilité. Sauf que cela conduit généralement à une dégradation de leur sélectivité. En clair, elles laissent s’échapper une partie du chlorure de sodium.

À Montpellier, l’Institut Européen des Membranes (IEM) a peut-être trouvé une solution en développant une membrane biomimétique. Elle s’inspire directement d’une protéine présente dans le règne du vivant, appelée aquaporine, et qui possède un pore perméable uniquement aux molécules d’eau. « En imitant cette protéine, nous avons créé des canaux artificiels d’eau que nous greffons aux membranes en polymères utilisées par les industriels, explique Mihail Barboiu, directeur de recherche au CNRS. Nous créons ainsi une membrane hybride qui permet d’augmenter la perméabilité de l’osmose inverse d’un facteur 3 à 6, tout en conservant sa sélectivité. Notre procédé peut être utilisé pour réduire la pression nécessaire et donc l’énergie nécessaire pour faire passer l’eau à travers la membrane. Il est aussi possible d’utiliser la même pression pour produire plus d’eau douce et ainsi répondre à une plus forte demande. »

Ce procédé a été validé en laboratoire sur des pilotes industriels. En parallèle, une machine pilote a été développée pour fabriquer de grandes surfaces de membranes hybrides, jusqu’à une cinquantaine de m² par jour. Les scientifiques sont actuellement à la recherche de groupes industriels pour tester leur innovation à grande échelle.

Dessaler l’eau de mer en exploitant des énergies renouvelables

En matière d’osmose inverse, l’entreprise canadienne Oneka a mis au point une technologie pour exploiter ce procédé en utilisant uniquement l’énergie des vagues. Le dispositif repose sur des bouées attachées à des ancres posées sur le fond de l’océan. Le mouvement oscillant des vagues est exploité pour actionner le système. Lorsque la bouée descend dans le creux d’une vague, l’eau de mer est aspirée par une crépine puis filtrée. Et lorsqu’elle remonte, l’eau de mer est mise sous pression dans une pompe, puis passe par un système d’optimisation de la pression et du débit avant d’être pompée vers des membranes d’osmose inverse.

Plusieurs types de bouées sont commercialisés par cette société et ceux ayant la plus grande capacité peuvent produire 50 m3 par jour. Même s’il est possible d’installer plusieurs bouées pour alimenter un même site, cette technologie est principalement destinée à répondre à des besoins locaux. À titre de comparaison, les capacités de dessalement de l’Arabie Saoudite sont estimées à plus de 5 millions de m3 par jour. Toujours en matière d’osmose inverse, et cette fois-ci en France, l’entreprise Osmosun a développé une solution pour mettre en œuvre cette technologie en exploitant l’énergie solaire. Le projet Kori Odyssey a pour ambition de rendre accessible ce procédé afin d’améliorer les conditions d’accès à l’eau potable des populations isolées dans les îles du Pacifique.

La distillation, également appelée traitement thermique, est le second procédé le plus utilisé dans le monde. Il consiste à évaporer l’eau de mer pour que seules les molécules d’eau s’échappent, tandis que les sels dissous et toutes les autres substances contenues dans l’eau de mer restent en dépôt. Pour obtenir une eau douce consommable, il suffit ensuite de condenser la vapeur d’eau. Selon une étude de l’Ifri (Institut français des relations internationales), ce procédé est plus gourmand en énergie, car il faut compter plus de 7 kWh (kilowatt-heure) pour dessaler un m3 d’eau, contre en moyenne entre 2,5 et 3 kWh pour l’osmose inverse.

Basée aux Émirats arabes unis, la société Manhat a développé une technologie pour entièrement décarboner ce procédé. Pour cela, elle a fabriqué un distillateur alimenté par l’énergie solaire et qui fonctionne grâce à une serre qui flotte à la surface de l’océan. Le principe est simple : le soleil a pour effet de chauffer et évaporer l’eau sous la serre, ce qui permet de séparer les cristaux de sel, qui sont ensuite rejetés dans la mer. Quand les températures se refroidissent, l’eau se condense en eau douce puis est recueillie. L’entreprise annonce être parvenue à une maturité technologique de 6 sur l’échelle TRL (Technology readiness level) qui en compte 9. Cette technologie est destinée à alimenter en eau des fermes végétales flottantes installées sur les zones côtières des Émirats arabes unis.

Le carbone stocké par les forêts a augmenté sur la dernière décennie

La biomasse végétale joue un rôle essentiel sur le climat en captant le CO2 atmosphérique. Le bilan carbone de cette biomasse est le résultat des gains obtenus par la croissance des plantes et l’augmentation de la couverture forestière, et des pertes liées à la récolte, la déforestation, la dégradation et la mortalité des arbres. La surveillance de l’évolution de ces stocks de carbone est capitale pour mieux comprendre et prédire les effets du changement climatique en cours et futur ainsi que mesurer les impacts directs de la gestion humaine sur l’environnement. Jusqu’ici, peu d’approches ont permis d’estimer ces stocks au niveau mondial et celles utilisées ont conduit à des disparités dans les prédictions. Une équipe internationale de recherche, coordonnée par le CEA et INRAE, a publié une étude dans la revue Nature Geoscience dans laquelle les scientifiques décrivent la manière dont ils sont parvenus à cartographier les évolutions annuelles de la biomasse forestière mondiale grâce à une nouvelle méthode d’analyse d’images satellitaires.

Ce travail de recherche a été réalisé à partir des données du satellite SMOS de l’ASE (Agence spatiale européenne) qui enregistre l’émission des micro-ondes basse fréquence à la surface des sols et permet de sonder l’ensemble de la strate végétale, et non pas uniquement le sommet de la canopée. Un indice de végétation appelé L-VOD (L-band vegetation optical depth) a ainsi pu être calculé et a permis d’estimer de façon globale les stocks de carbone aériens des forêts. Les chercheurs se sont heurtés à des difficultés pour généraliser cette méthode sur l’ensemble du globe à cause des perturbations du signal liées aux interférences de radiofréquences (RFI) et dues aux activités humaines, en particulier dans les zones peuplées du nord, mais aussi en raison de la sensibilité du signal à la teneur en eau des végétaux. Face à cela, ils ont conçu une méthode de double filtrage, s’appuyant notamment sur une méthode de décomposition temporelle du signal (variations saisonnières, tendances,…), pour éliminer ces deux effets. Enfin, ils ont calculé la biomasse des racines des arbres à l’aide d’une carte mondiale établissant le rapport entre la biomasse aérienne et la biomasse souterraine.

Les forêts boréales et tempérées contribuent le plus au stockage de carbone

Grâce à cette méthode, des cartes mondiales de l’évolution annuelle de la biomasse végétale ont pu être générées entre 2010 à 2019. À partir de celles-ci, des bilans régionaux du stock de carbone ont été calculés sur des zones couvrant 25 km2, en attribuant à chacune d’entre elles, des gains ou des pertes de carbone. Il apparaît que les stocks nets de carbone de la biomasse végétale mondiale ont augmenté à un rythme d’environ 500 millions de tonnes de carbone par an. Les deux plus grands contributeurs à ce puits de carbone sur la dernière décennie sont, d’une part, les forêts boréales avec un gain d’environ 370 millions de tonnes de carbone, et d’autre part, les forêts tempérées, avec un gain d’environ 130 millions de tonnes de carbone. En revanche, les forêts tropicales humides ont connu une légère perte nette de carbone de 70 millions de tonnes, qui serait liée à la déforestation et à leur dégradation liée au stress hydrique, en particulier dans le sud-est de l’Amazonie. Quant à la biomasse des régions arides et celle des forêts tropicales sèches, leur bilan carbone a été qualifié de neutre.

La particularité de cette étude est également d’avoir pris en compte l’âge des forêts. Pour cela, elles ont été classifiées en huit classes d’âge différentes à l’aide d’une carte mondiale de l’âge des forêts. Les scientifiques ont découvert que les forêts tempérées et boréales jeunes, c’est-à-dire de moins de 50 ans et celles d’âge moyen, c’est-à-dire entre 50-140 ans, sont les plus grands contributeurs au puits de carbone. À l’inverse, les forêts anciennes, dont l’âge est supérieur à 140 ans, et qui représentent environ 10 % de la superficie forestière mondiale, ont montré une perte nette de leur biomasse au cours de la dernière décennie. Ces forêts se trouvent principalement sous les tropiques.

« Ces nouveaux résultats diffèrent de ceux issus de modèles actuels de prédiction de la biomasse végétale qui indiquent que toutes les forêts anciennes sont des puits de carbone, prenant mal en compte la démographie des peuplements forestiers et les impacts de la déforestation ainsi que la dégradation des forêts tropicales qui perdent de la biomasse, déclarent les auteurs de cette étude. Ces résultats soulignent l’importance de mieux tenir compte des dégradations subies par les forêts ainsi que leur âge pour mieux prédire l’évolution de ces puits de carbone au niveau mondial, et ainsi mieux orienter les politiques d’atténuation du changement climatique. »

Eaux souterraines : comment suit-on leur état chimique ?

La sécheresse a placé les niveaux des nappes phréatiques sous le coup des projecteurs pendant plusieurs mois. Depuis mars 2023, la pollution de l’eau potable aux PFAS dans l’agglomération d’Annecy a pour sa part mis en lumière la question de la qualité des eaux souterraines. L’état qualitatif et quantitatif des nappes phréatiques inquiète les autorités dans un contexte de réchauffement climatique et de tensions sur la ressource.

La France compte 6 500 aquifères, dont 200 d’importance régionale. De nos jours, environ les deux tiers de l’eau potable consommée en France métropolitaine proviennent des eaux souterraines et plus du tiers des eaux d’irrigation agricole en sont issues. Alors que l’Europe vise le bon état écologique de ses cours d’eau et le bon état chimique des eaux souterraines pour 2027, arrive-t-on à améliorer cette qualité ? Deux expertes du BRGM nous aident à y voir plus clair. Entretien avec Anne Winckel, hydrogéochimiste, responsable du Portail national d’accès aux données sur les eaux souterraines (Ades) et Hélène Bessière, hydrogéologue en appui aux politiques publiques.

Techniques de l’ingénieur : Quelle est l’ampleur de la pollution dans les nappes phréatiques en France ? Voit-on une accélération ou une amélioration ?

Hélène Bessière : Nous n’avons pas atteint l’objectif du bon état chimique sur l’ensemble des aquifères [en 2015, en France, parmi les 645 masses d’eau souterraine 69,1 % étaient en bon état chimique, ndlr]. Le prochain cycle d’évaluation aura lieu en 2027.

Anne Winckel : La problématique des eaux souterraines est très différente des eaux de surface. Lorsque l’on identifie un polluant proche d’une rivière et qu’on le supprime, le résultat va la plupart du temps être immédiat. Mais même s’il y a de gros efforts pour limiter les intrants à proximité des zones d’alimentation des captages qui conduisent à des problématiques de qualité, le résultat est long à voir, car il n’est pas rare d’avoir des eaux qui ont des temps de circulation de quelques dizaines d’années.

En parallèle de la surveillance, plusieurs études cherchent à limiter les intrants afin d’éviter les problèmes de pollution. Beaucoup de choses sont faites en termes de politique agricole pour favoriser les agricultures plus respectueuses de l’environnement dans les secteurs en lien avec les eaux souterraines.

Le portail ADES fournit plusieurs informations sur la qualité des eaux souterraines. Quelles sont les molécules suivies ?

Anne Winckel : Différents types de suivis existent. Le plus important est celui lié à la Directive-cadre sur l’eau. Il impose aux différents États membres de suivre plus de 110 molécules au moins deux fois par an : en période de hautes et basses eaux. Ils suivent notamment les polluants liés aux rejets des eaux domestiques – polluants émergents, résidus médicamenteux –, à l’industrie et au lessivage des sols urbains – métaux, hydrocarbures, PCB –, et aux polluants d’origine agricole – nitrates, pesticides.

La réglementation européenne impose aussi tous les six ans de mesurer un nombre de molécules plus important. C’est ce que l’on appelle l’analyse photographique. Elle comprend 110 molécules en plus pour la métropole et l’outre-mer. Et il y a encore 50 molécules pour la surveillance spécifique de la métropole et des départements d’outre-mer. Au total, on tourne autour de 320 molécules intégrées au programme de surveillance et suivies au moins une fois tous les six ans.

En plus de ces analyses régulières, il y a des mesures spécifiques locales et d’autres liées à des programmes de recherche. Ainsi, sur la base de données ADES, on recense plusieurs milliers de molécules mesurées au moins une fois.

Comment arrive-t-on à cette liste de substances prioritaires à suivre ?

Hélène Bessière : En 2017, une étude de l’European Chemical Agency recensait 106 211 substances chimiques fabriquées ou importées sur le marché français depuis 1971. Face à ce nombre gigantesque, il y a un besoin de priorisation.

Au BRGM, nous participons aux groupes de travail pilotés par la Direction de l’eau et de la biodiversité (DEB) pour faire évoluer la réglementation, et réalisons un certain nombre d’études prospectives. Des groupes européens travaillent également dans l’objectif de définir les substances à surveiller dans les eaux souterraines et de surface.

Les listes évoluent régulièrement pour prendre en compte notamment les nouvelles molécules mises sur le marché, ainsi que leurs produits de dégradation au fur et à mesure de l’avancée des connaissances.

La surveillance de la qualité des eaux pour le rapportage à l’Europe dans le cadre de la Directive-cadre sur l’eau est assurée par les agences de l’eau. En quoi consiste-t-elle ?

Anne Winckel : Le rapportage à l’Europe se fait au niveau des masses d’eau. Pour chaque molécule, la concentration de ces substances est comparée à des valeurs seuils (VS) pour les eaux souterraines et des normes de qualité environnementale (NQE) pour les eaux de surface. Si la concentration de toutes les substances suivies est inférieure aux VS, alors l’eau souterraine est estimée en bon état chimique. Si une seule molécule dépasse sa VS, l’eau souterraine est déclarée en état « médiocre ». Les agences de l’eau fournissent des cartes sur l’état chimique des eaux souterraines au niveau local.

EtatChim_EauxSout
État chimique des eaux souterraines en 2019. Copyright OFB 

En quoi le non-respect de l’équilibre entre les prélèvements et la recharge des nappes peut-il entraîner une pollution ?

Hélène Bessière : Le fait de surexploiter une nappe peut entraîner une intrusion saline ou une remontée d’eau profonde qui peut être chargée en minéraux. Il y a aussi des effets induits dus à l’interconnexion du système hydrogéologique global.

Il y a beaucoup d’endroits où les eaux de surface sont alimentées par les eaux souterraines. Si l’on pompe trop d’eau, il n’y aura plus assez d’eau pour alimenter les rivières et autres eaux de surface, ce qui entraînera une baisse du débit et potentiellement un impact sur son bon état écologique et chimique.

Le nucléaire reconnu comme solution de décarbonation lors de la COP28

« Nous savons par la science, la réalité des faits et des preuves qu’on ne peut pas atteindre la neutralité carbone d’ici 2050 sans nucléaire ». Tels sont les mots de John Kerry, envoyé spécial de Joe Biden lors de la COP28. Si plusieurs pays d’Europe, comme la Suède ou la France, comptent également sur le nucléaire pour décarboner, des signaux forts de relance du nucléaire sont aussi envoyés depuis la Chine, l’Inde, le Japon, la Corée du Sud ou encore le Canada.

Un contexte international favorable au développement de la filière nucléaire

Cet appel au développement du nucléaire n’a pas été lancé par hasard lors de la COP28. D’une part, on ne peut nier la portée symbolique de faire une telle annonce dans un pays qui demeure le 7e plus grand producteur de pétrole, mais qui mise de plus en plus sur le nucléaire pour soutenir sa croissance.

En effet, l’histoire du pays avec l’atome est récente, puisqu’elle a démarré en 2009, avec la signature d’un contrat de quatre réacteurs avec le consortium sud-coréen Korea Electric Power Company, qui a abouti à la mise en service du premier réacteur du monde arabe en 2021.

D’autre part, le fait de mentionner pour la première fois la contribution du nucléaire à la lutte contre le réchauffement climatique dans le texte d’une COP a un caractère historique indéniable, qui représente pour la France et les États-Unis une victoire diplomatique dont ils se félicitent.

Mais au-delà de la reconnaissance du nucléaire, qui n’est désormais plus un sujet tabou, cet accord intervient dans un contexte plus global de développement de la filière nucléaire au niveau mondial.

Bientôt un premier sommet mondial sur l’énergie nucléaire

En mars 2024, le tout premier sommet international sur l’énergie nucléaire aura lieu à Bruxelles. Cet événement organisé par l’AIEA et la Belgique réunira une trentaine de pays, des leaders industriels du secteur ainsi que des experts, des représentants de think tanks et des membres de la société civile.

Ce sommet sur l’énergie nucléaire abordera de nombreuses thématiques de haut niveau :

  • des débats scientifiques au sujet des technologies de réacteurs, des systèmes hybrides nucleaire+ENR, du cycle de vie des installations, etc. ;
  • un débat politique sur les obstacles au déploiement rapide des technologies nucléaires et les solutions identifiées pour les surmonter ;
  • un débat autour des défis : approvisionnement en combustible, démantèlement des centrales, sécurité, etc.

L’initiative Atom4NetZero de l’AIEA

Pour l’AIEA, le sommet sera aussi l’occasion de présenter l’initiative Atom4NetZero, dont le but est « d’exploiter le potentiel de l’électronucléaire pour un futur énergétique propre ». Cette initiative fournira notamment « une expertise technique et des données scientifiques sur le potentiel de l’électronucléaire afin de décarboner la production d’électricité ainsi que les secteurs difficiles tels que l’industrie et les transports. »

Tous ces signaux indiquent la fin de la traditionnelle opposition entre énergie nucléaire et énergies renouvelables, une nécessité pour relever les défis énergétiques à venir.

Matthieu Deboeuf-Rouchon : « Au CES, on se concentre sur l’accessibilité à l’IA, son usage et les bénéfices que l’on peut en tirer »

Matthieu Deboeuf-Rouchon - Capgemini Engineering
Copyright : © Capgemini

 Matthieu Deboeuf-Rouchon est un expert reconnu des sujets autour de l’innovation et de la transformation digitale. En 2008 il fonde son cabinet de conseil en Transformation Digitale et Innovation. En 2017 il rejoint les équipes de Capgemini Engineering. Il est co-auteur du « Guide de Survie du Consumer Electronics Show : comment organiser, vivre & optimiser sa visite du plus grand salon mondial de la Tech ! ». Il est aussi membre du jury du CES Innovation Awards 2024. Passionné par l’impact des technologies sur la société, les entreprises et les êtres humains, il co-anime le podcast Innovation & Prospective Talk.

Techniques de l’Ingénieur : Le CES a abandonné son image de vitrine bling-bling de la high-tech. Le salon se concentre beaucoup plus sur les innovations pouvant être intégrées par les industriels. Cette mutation est-elle renforcée cette année ?

Matthieu Deboeuf-Rouchon : Oui. Le CES a su évoluer pour devenir un salon plus B2B, institutionnalisé, et tracté par des acteurs industriels majeurs et très présents. C’est une caisse de résonance du dernier trimestre de l’année passée avec la volonté affichée de proposer une réelle valeur pour l’efficience des entreprises et de façon plus large, pour le bien de l’humanité. Pour tous les chercheurs et les ingénieurs qui se rendent à ce salon, il s’agit de découvrir des technologies profondes et plus uniquement de l’enceinte connectée qui fait « pouet pouet » ! Il y a une rationalisation des mètres carrés. La course à celui qui aura le plus gros stand est révolue. On se montre toujours, mais de façon plus rationnelle.

Bien que ce salon traite de technologies, c’est avant tout un carrefour favorisant les échanges et la mise en réseau.

Le CES est donc devenu le salon incontournable ?

Le CES reste en effet la référence mondiale en termes de maturité et d’intégration des technologies. En Europe, nous avons Vivatech (que l’on peut présenter comme le « CES européen ») et le Slush de Helsinki orienté sur la relation start-up / investisseurs. Dans une moindre mesure, il y a aussi l’IFA de Berlin. Mais ce salon reste encore focalisé sur l’Allemagne et il est considéré comme un rendez-vous à la fois professionnel, scolaire et familial comme la Foire de Paris. Il est important de souligner la volonté d’acteurs africains de développer un « CES local » sur ce continent, tout du moins un évènement qui aurait une résonance similaire.

Quelles sont les thématiques majeures de l’édition 2024 ?

Les thématiques centrales reposent principalement sur l’IA, la santé connectée et les modes de transport personnels ou communs. En préparant ma venue à Las Vegas, je me suis aperçu que la maison et l’individu connectés dominent cette édition avec 798 exposants référencés dans le domaine avec de l’intelligence artificielle, de la mobilité et de la santé. La première apparition de l’IA au CES remonte à 2016. Et depuis, ça n’a été qu’une course effrénée à l’excitation autour de cette technologie avec de nombreuses start-up. Aujourd’hui, on a remis l’IA à sa place : un algorithme capable de générer du contenu, mais qui doit être en lien avec la valeur attendue. On se concentre sur l’accessibilité à l’IA, l’usage et les bénéfices que l’on peut en tirer. Beaucoup de start-up présentes sont à des niveaux de maturité plus élevés de l’IA générative sans avoir fait elles-mêmes de la recherche. Elles bénéficient de tout le travail de science et d’engineering qui a été réalisé pour se focaliser sur des processus d’intégration de services déjà existants.

Les univers immersifs sont assez présents sur ce salon. C’est le cas de Phamton, avec son gant intégrant un retour de force et une analyse des muscles de l’avant-bras qui permettrait de prédire le mouvement, de les anticiper en quelque sorte. Ce projet est intéressant, car les matériaux utilisés sont très légers. Le gant pourrait, par exemple, être intégré par des industriels pour aider à distance un technicien intervenant sur une machine qu’il ne maîtrise pas encore assez bien.

Certaines thématiques vous laissent-elles dubitatif ?

J’ai quelques sujets d’interrogations, notamment à propos d’AWS for Automotive. Le géant Amazon ambitionne de vendre des véhicules comme il vend des livres ! J’attends de voir s’il présente des méthodes disruptives pour gérer le stock des constructeurs et comment il intègre l’IA. Mêmes interrogations concernant le Metavers qui est apparu au CES il y a 3 ou 4 ans. Tous les médias en parlaient. Et ceux qui étaient absents en parlaient pour évoquer des cas d’usage. Mais au CES, personne n’évoquait ce mot-valise ! On parlait de technologies immersives, mais pas de l’utilisation du métavers. Même constat avec la 5G qui est aujourd’hui considérée comme un prérequis et pas comme une technologie à part.

L’Europe est-elle très présente ?

Il y a une prédominance de l’Asie et en particulier de la Corée du Sud avec un focus sur la technologie au service de l’humanité.

Concernant l’Europe il y a une forte présence de pavillons régionaux qui intègrent des start-up vraiment très intéressantes. Il ne faut pas manquer le stand du CEA qui présente des projets de travaux pertinents, des intégrations poussées et des deeptech très intéressantes comme VXP pour des calculs ultra-rapides pour le cerveau et NEUROCORGI avec sa puce IA basse consommation inspirée du cerveau. Citons aussi la présence de Dassault qui parle du digital twin depuis quelques années avec une vraie vision sur la façon dont on peut modéliser le corps. Le groupe a un très beau stand, mais il a surtout des « corners » très précis qui abordent des cas d’usage très clairs. Le bling-bling appartient à une autre époque !

 


Crédit image de une : freepik – starline

Le changement climatique pourrait pousser un tiers de l’humanité à migrer d’ici 2100

Si les chiffres varient d’une étude à l’autre, le constat reste le même : les flux migratoires liés au changement climatique vont considérablement s’accentuer. Les scénarios les plus pessimistes (3,6°C et 4,4°C de réchauffement) prédisent même que la moitié de la population mondiale sera poussée à migrer avant la fin du siècle ! L’humanité devrait alors faire face à un risque existentiel.

Il est donc capital de tout faire pour maintenir les températures mondiales en dessous du seuil de 1,5°C fixé par l’Accord de Paris !

La niche climatique humaine, une zone de confort en voie de disparition

D’où proviennent ces estimations ? De travaux publiés en mai 2023 dans la revue Nature Sustainability, sur le thème de « La quantification du coût humain du réchauffement climatique ».

Cette étude inédite, au nom évocateur, propose une méthode de quantification des humains susceptibles d’être exclus de la « niche climatique humaine ». En termes simples, la niche climatique humaine est notre zone de confort, c’est-à-dire celle qui a favorisé de développement de l’humanité dans des conditions acceptables du point de vue climatique, mais aussi écologique et physiologique.

Si au cours de son histoire, l’homme s’est adapté à de nombreux climats, l’étude révèle que cette zone de confort se situe entre 13°C et 27°C de température moyenne annuelle. Preuves à l’appui, les chercheurs constatent ainsi que vivre en dehors de cette fourchette « peut entraîner une augmentation de la morbidité, de la mortalité, de l’adaptation sur place ou des flux migratoires », pour des raisons multiples.

La migration climatique est déjà une réalité !

L’étude donne également un chiffre qui résume très bien la situation dans laquelle se trouve actuellement l’humanité : le changement climatique aurait déjà poussé 9 % de la population mondiale en dehors de cette zone !

De son côté, l’ONU évoque sur son site le chiffre de 21,5 millions de déplacements annuels liés à des événements climatiques, soit 2 à 3 fois plus que les migrations causées par les conflits et la violence.

Bien que cette réalité soit difficile à estimer, certains faits doivent nous alarmer. Par exemple, en Irak, l’un des cinq pays les plus touchés au monde par le changement climatique, des villages entiers se vident de leurs habitants à cause de la sécheresse et des températures extrêmes[1]. Le phénomène est tel que l’ONU considère l’Irak comme un signal d’alarme pour la planète. Il faut dire que l’importance symbolique est particulièrement forte, puisque l’Irak moderne correspond au Croissant fertile, berceau de la civilisation et de l’agriculture !

D’autres pays très peuplés et au climat chaud comme l’Inde, le Nigéria, le Pakistan, l’Indonésie et les Philippines sont aussi particulièrement touchés par la chaleur et les inondations meurtrières, et le seront de plus en plus.

Quels scénarios pour l’avenir ?

Si le constat actuel est déjà alarmant, l’étude propose différents scénarios pour l’avenir. Soyons clairs, avec les politiques actuelles, le seuil de 1,5°C de l’Accord de Paris devrait être dépassé d’ici 2040 et nous atteindrons 2,7°C de réchauffement avant la fin du siècle, ce qui poussera un tiers de la planète en dehors de la zone « d’habitabilité humaine ». Dans les pires scénarios (entre 3,6°C et 4,4°C), c’est même la moitié de la population mondiale qui en serait exclue et donc poussée à se déplacer vers des zones plus fraîches.

Nous avons donc intérêt à agir sans plus attendre, en réduisant massivement notre consommation d’énergies fossiles, dont la responsabilité a enfin été reconnue officiellement à la COP28, malgré le caractère peu contraignant de l’accord final.

Cette étude a aussi le mérite d’apporter une dimension humaine très claire, pour motiver cette transition : chaque augmentation de 0,1°C poussera 140 millions de personnes hors de la niche climatique humaine. Des chiffres qui donnent une valeur concrète aux actions qui devront être entreprises.


[1] En août 2023, les températures ont frôlé les 50°C !

Crédit image de une : jcomp – freepik

Kinéis : « Le spatial est là avant tout pour comprendre et protéger notre planète »

Le 18 décembre 2019 était lancé Angels, prototype qui préfigurait alors les nanosatellites que Kinéis s’apprête aujourd’hui à produire à l’échelle industrielle et à mettre en orbite. Capable de faire transiter de l’information toutes les dix à quinze minutes depuis n’importe quel point du globe, voire en quasi-temps réel à certains endroits, le système qui devrait être pleinement opérationnel en fin d’année prochaine permettra alors de répondre à de nombreux besoins, qu’entrevoyait déjà, début 2022, le PDG de Kinéis Alexandre Tisserant : surveillance environnementale, avec le suivi d’animaux sauvages, de bateaux de pêche, ou encore la détection de feux de forêt, mais aussi monitoring d’installations telles que des barrages, pylônes haute-tension et autres infrastructures de transport. Kinéis a aussi identifié un autre domaine d’application qui concentre aujourd’hui un grand nombre d’enjeux : celui de l’eau. Guillaume Triquet, responsable de l’activité risques naturels chez Kinéis, est l’auteur d’un livre blanc à ce sujet. Il revient pour nous en détail sur les origines de cet intérêt et les projets menés dans ce domaine par Kinéis, après une présentation et un point d’étape sur les activités de l’entreprise membre de la French Tech et actrice de l’écosystème Greentech, que nous offre tout d’abord son P-DG Alexandre Tisserant.

Techniques de l’Ingénieur : Quand et comment Kinéis a-t-elle vu le jour ? Quel chemin avez-vous parcouru depuis sa création ?

Alexandre Tisserant, PDG de Kinéis
Titulaire d’un diplôme d’ingénieur spécialisé en computer science de l’École polytechnique et d’un master de Telecom ParisTech tourné vers le management, la stratégie commerciale et le développement de logiciel, Alexandre Tisserant a rejoint CLS Group en 2017. Il est aujourd’hui PDG de Kinéis. © Nuuk photographies-Kinéis

Alexandre Tisserant : Kinéis a été créée en 2018. L’entreprise est née d’un constat : le système ARGOS, opéré par CLS et le CNES depuis les années 1980, arrivait en bout de course en termes de performance. Composé de neuf satellites, ce système couvre certes toute la surface du globe, mais ne permet en effet un renouvellement des données que toutes les deux ou trois heures, au mieux. Ce n’est pas gênant pour des usages tels que le suivi d’animaux au long cours dans le cadre d’études scientifiques, mais cela peut se révéler problématique pour d’autres applications, le suivi d’un conteneur réfrigéré et la réception d’alertes de température, par exemple. De par sa configuration, le système ne permet pas non plus une extension à l’infini de ses capacités… Il affiche, en plus, des niveaux de prix relativement élevés, qui limitent donc son usage à certains marchés de niche.

À l’aube des années 2020, nous avons ainsi donné vie à Kinéis dans l’objectif de révolutionner ce système et d’en faire un outil accessible au plus grand nombre, à des prix bien plus bas, pour des performances et des volumes décuplés. Cela nous a amenés à créer cette structure pour pouvoir développer une constellation de 25 nanosatellites supplémentaires par rapport aux neuf satellites actuels. Ces 25 nouveaux satellites d’un peu moins de 30 kg pour une taille de 20x20x50 cm environ (panneaux et antennes repliés) vont nous permettre d’atteindre des temps de revisite de l’ordre de dix à quinze minutes sur n’importe quel point du globe, et même du quasi-temps réel la moitié du temps à partir de nos latitudes. Ceci, avec des prix quasiment divisés par dix environ, tant sur les objets connectés que sur les services de connectivité. Nous voulons changer d’échelle et visons ainsi un nombre d’objets connectés au système de l’ordre de plusieurs millions. Cette diminution des coûts découle notamment des avancées réalisées dans le secteur spatial et de la miniaturisation des satellites : plus économiques à produire, ils sont aussi moins chers à lancer, toutes choses égales par ailleurs. Nous avons bien entendu été amenés à lever des fonds afin de mener à bien notre projet. Nous avons levé 100 millions d’euros en 2020, ce qui est considérable. D’autant que c’était, à l’époque, la première levée de fonds de cette importance dans l’histoire du spatial français. Nous étions alors une petite dizaine. Nous sommes aujourd’hui 62 personnes et avons ouvert trois filiales : une aux USA, une au Brésil et une à Singapour. Au total, ce sont près de 200 personnes qui travaillent directement sur ce projet avec nos partenaires industriels.

Quand les premiers lancements de vos 25 nouveaux nanosatellites auront-ils lieu ?

Constellation de 25 nouveaux nanosatellites Kinéis
Kinéis compte démarrer le déploiement de sa constellation de 25 nouveaux nanosatellites d’ici au printemps prochain. © Kinéis

Nous avons terminé la production de notre premier satellite et la fabrication en série va démarrer incessamment. Les lancements débuteront à la fin du printemps 2024 et s’étaleront jusqu’à la fin de l’année. Nous prévoyons en effet cinq tirs de cinq satellites. Ces tirs seront réalisés depuis la Nouvelle-Zélande, grâce au micro-lanceur de Rocket Lab. La constellation sera placée à 650 km d’altitude, répartie par groupe de cinq satellites sur cinq orbites polaires équidistantes, semblables à des quartiers d’orange. Leur durée de vie sera de huit ans. Nous réfléchissons d’ailleurs déjà, à cet horizon, à leur évolution sur le plan technologique : les choses bougent très vite tant dans le domaine spatial que télécom.

En parallèle, nous déployons un réseau mondial de stations au sol. Ces paraboles transmettront à nos clients le signal de leurs objets connectés transitant par nos nanosatellites, sans attendre qu’ils repassent au-dessus de chacun d’eux. Cela annihilerait en effet l’avantage du temps de revisite très court permis par notre future constellation. Nous visons le déploiement d’une vingtaine de ces installations. Les deux tiers d’entre elles sont déjà opérationnels aujourd’hui, et nous poursuivons ces opérations à un rythme soutenu.

Quelles seront les principales fonctionnalités du système dans son ensemble ?

Il s’agit en premier lieu d’un système télécom transportant de l’information dans les deux sens, depuis ou vers un objet. Cette information peut être une mesure d’humidité, de pression, de mouvement… acquise par un capteur. Le système permettra en outre de fournir une localisation autonome de l’objet connecté, c’est-à-dire sans recourir au GPS. Cela sera un peu moins précis, mais présentera un double avantage : le premier est celui d’une moindre consommation d’énergie de l’objet connecté, le second est celui de l’impossibilité de falsifier cette position.

À quels clients votre solution se destine-t-elle ?

L’ADN historique des usages de notre technologie est celui de la surveillance environnementale : suivi d’animaux sauvages, de bateaux de pêche, détection de feux de forêt… Elle va aussi permettre de monitorer des installations telles que des barrages ou des pylônes haute-tension ou encore des infrastructures de transport.

Nous avons aussi identifié un autre domaine d’application qui concentre aujourd’hui un grand nombre d’enjeux : celui de l’eau. La demande en matière de surveillance de la ressource s’accroît et notre solution va permettre d’y répondre à un coût beaucoup plus intéressant que ce qui pouvait se faire jusqu’à présent, et avec une simplicité accrue de déploiement et d’utilisation.

Guillaume Triquet, qu’est-ce qui, selon vous, a amené Kinéis à identifier ce domaine de l’eau en tant que marché potentiel ?

Guillaume Triquet, responsable de l’activité risques naturels Kinéis
Responsable de l’activité risques naturels chez Kinéis, Guillaume Triquet est l’auteur d’un livre blanc consacré aux intérêts de la connectivité Kinéis dans le domaine de l’hydrologie et de la gestion de l’eau. © Kinéis

Guillaume Triquet : Notre intérêt pour ce domaine remonte en fait aux origines mêmes du système : ARGOS était déjà utilisé pour des applications en océanographie par exemple, ou pour les besoins de l’hydrologie continentale. Notre système a d’autant plus d’intérêt dans ces domaines qu’ils impliquent bien souvent l’utilisation de capteurs dans des zones très isolées. Notre technologie va permettre la remontée de données à partir d’endroits où cela n’était jusqu’alors pas possible. Elle va permettre de multiplier les points de mesure, et de transmettre les données plus fréquemment.

L’eau représente en effet aujourd’hui une problématique majeure, y compris dans des pays comme la France où l’on s’aperçoit que la ressource peut venir à manquer. Il faut donc pouvoir la suivre, la surveiller, l’analyser de plus en plus tôt afin de prévenir les risques de pénurie, ou à l’inverse d’excès d’eau, en période de crues. Notre technologie va rendre cela possible, qui plus est à des coûts plus faibles et avec une consommation énergétique bien moindre. Elle va par exemple permettre d’instrumenter les cours d’eau très en amont, ce qui n’était pas possible avant.

Vous êtes l’auteur d’un livre blanc[1] sur le sujet, dans lequel vous listez un certain nombre d’exemples d’applications de votre technologie dans le domaine de l’hydrologie et de la gestion de l’eau. Parmi eux, quels sont ceux sur lesquels vous travaillez déjà concrètement ?

Nous menons plusieurs projets concrets dans ce domaine, à commencer par l’un des plus matures, réalisé avec une société toulousaine : vorteX-io. Cette entreprise travaille notamment sur la détection de crues, à l’aide de petites stations de mesure, qui permettent de détecter des changements de niveaux en quelques minutes, et donc d’avertir précocement les populations d’un risque d’inondation, ou encore de mettre en place des mesures de protection de sites industriels. Ces stations peuvent se connecter au réseau cellulaire quand il est disponible, mais utiliseront aussi le réseau satellitaire Kinéis lorsque ça n’est pas le cas.

Kinéis va déployer plusieurs milliers de ses stations dans le cadre d’un grand projet visant à créer la première base de données hydrologiques au niveau européen. Notre solution de connectivité satellitaire permet de la libérer des contraintes de l’accès au réseau cellulaire. L’entreprise va pouvoir installer ses stations partout, jusqu’aux territoires les plus isolés. Notre solution peut aussi assurer une fonction de redondance en cas de défaillance du réseau terrestre, ce qui arrive fréquemment en cas de catastrophe naturelle. Deux autres grandes entreprises – Suez et Atmos – travaillent aussi à des solutions connectées qui tireront parti de notre technologie satellitaire.

Explorez-vous aussi, éventuellement, d’autres pistes plus prospectives ?

La constellation de Kinéis
La constellation de Kinéis sera placée à 650 km d’altitude, répartie par groupe de cinq satellites sur cinq orbites polaires équidistantes. © HEMERIA

Nous menons aussi d’autres projets, moins matures pour l’heure, qui concernent par exemple le sujet de l’agriculture connectée et de l’irrigation, ou encore le monitoring de zones d’écopage pour les canadairs. La surveillance des niveaux des lacs et réservoirs reste aujourd’hui réalisée par les pompiers eux-mêmes. Mettre à leur disposition de petits capteurs autonomes et bon marché capables de leur transmettre automatiquement les niveaux de remplissage de ces bassins d’approvisionnement, leur faciliterait grandement la tâche. La détection des feux de forêt fait d’ailleurs partie des autres sujets que nous avons identifiés dans le domaine de la gestion des risques naturels. Il s’agit d’un autre grand axe de développement de notre technologie…

Plus largement, de nombreux domaines économiques dépendent aujourd’hui de la disponibilité de l’eau : refroidissement de centrales nucléaires, production textile, tourisme… Tous ces secteurs ont donc besoin de pouvoir anticiper les manques d’eau et les risques qui en découlent. Un besoin qui ne pourra être comblé qu’en instrumentant de manière étendue cours d’eau et réservoirs.

Notre constellation a une vocation très forte à protéger l’environnement et les populations. Ce sont des domaines qui font historiquement partie de l’ADN de notre technologie, et dans lesquels nous comptons donc la déployer le plus largement possible. Il nous semble aussi important de lutter contre la vision négative du spatial qu’a pu, par exemple, induire le déploiement de la méga-constellation Starlink de SpaceX, avec les problématiques de débris spatiaux ou encore de pollution visuelle qui en découlent. Le spatial est là avant tout pour comprendre et protéger notre planète et les populations qui y vivent.


[1] Livre blanc « Hydrologie & gestion de l’eau »

Pologne : un mix énergétique toujours fortement dépendant du charbon

La Pologne occupe l’avant-dernière place (derrière l’Estonie) en Europe des pays émetteurs de CO2 en lien avec la production d’électricité en 2022, selon un rapport du think tank énergétique polonais Forum Energii. À l’échelle mondiale, il se situe à la septième place, en partant de la fin, des pays émetteurs de gaz à effet de serre provenant de la consommation primaire d’énergie. Ces mauvais chiffres s’expliquent par la prépondérance du charbon dans le mix énergétique, puisqu’il représente près des trois-quarts (70,7 %) de la production d’électricité en 2022. Et 85 % de la consommation intérieure du pays a une origine fossile, dont près de la moitié (45 %) vient du charbon, 23 % du pétrole et 17 % du gaz fossile.

De 2005 à 2021, la trajectoire de réduction des gaz à effet de serre de la Pologne est nettement moins bonne que celle de ses voisins européens. Elle est en effet inférieure à 1 %, alors que la moyenne européenne atteint presque 24 % sur la même période. Malgré tout, dans un rapport publié en 2022, l’Agence Internationale de l’Énergie (AIE) indique que l’un des aspects centraux de la politique énergétique de la Pologne consiste à réduire sa dépendance au charbon, en particulier pour la production d’électricité et le chauffage des bâtiments. Pour cela, trois voies sont principalement explorées.

Tout d’abord, l’accent est mis sur les énergies renouvelables, qui sont encouragées à travers de nombreux programmes. Le soutien du gouvernement a d’ailleurs fait de la Pologne l’un des marchés photovoltaïques à la croissance la plus rapide de l’Union européenne. « De 2016 à 2021, la capacité photovoltaïque de la Pologne est passée de seulement 0,2 GW (gigawatt) à 7,7 GW, principalement grâce au déploiement résidentiel de systèmes photovoltaïques distribués à petite échelle (5,9 GW), notent les auteurs du rapport de l’AIE. La Pologne dispose également d’une stratégie éolienne offshore complète et bien conçue qui a abouti à des accords pour une capacité de 5,9 GW à mettre en service d’ici à 2027 et à des plans pour au moins 11 GW d’ici à 2040. »

Du gaz fossile pour assurer en partie la transition vers le nucléaire

Le gaz joue également un rôle majeur dans le soutien vers une transition permettant l’abandon du charbon, même si son rôle dans la réduction des émissions de CO2 à long terme n’est pas clair. Certes, il existe certains objectifs pour décarboner l’approvisionnement en gaz grâce au biométhane et à l’hydrogène, mais ces projets sont trop modestes pour compenser une forte croissance de la demande en gaz. Pour ne plus dépendre des livraisons de la Russie, la Pologne a récemment investi dans le pipe-line « Baltic Pipe » de gaz provenant de la Norvège ainsi que dans des terminaux méthaniers pour en importer des États-Unis.

Ce gaz se révèle être l’un des moyens utilisés pour en partie assurer la transition avec le nucléaire, qui représente la troisième voie de la Pologne pour décarboner sa consommation d’énergie. Après l’accident de Tchernobyl, le pays avait renoncé à terminer la construction d’une première centrale nucléaire en 1990 sur les rives de la mer baltique. Mais depuis la guerre en Ukraine et les bouleversements du marché de l’énergie, il est déterminé à prendre la voie de l’énergie nucléaire. Selon le rapport de l’AEI : « la Pologne vise à ce que le premier réacteur d’une capacité de 1 à 1,6 GW soit opérationnel d’ici à 2033 et que six réacteurs d’une capacité totale de 6 à 9 GW soient opérationnels d’ici à 2043. Le gouvernement estime que d’ici à 2040, l’énergie nucléaire pourrait représenter jusqu’à 16 % de la production. »

Le gouvernement polonais estime que la modernisation du secteur énergétique et la réalisation des objectifs du PNEC (Plan national énergie – climat) à l’horizon 2030 coûteront 195 milliards d’euros de 2021 à 2030, soit environ 3,5 % du PIB annuel. Le coût de la transition énergétique de 2021 à 2040 pourrait atteindre 350 milliards d’euros.

Optimiser la valorisation du CO2 issu du biogaz pour fabriquer du méthane

Le biogaz produit par méthanisation à partir de déchets agricoles contient principalement du méthane. Un autre gaz est également présent à l’intérieur : du CO2, dont la proportion varie entre 30 et 50 % en fonction de la nature de la biomasse. Actuellement, la plupart des unités en fonctionnement rejettent ce CO2 dans l’atmosphère. Dans le cadre d’un projet appelé Optimeth, le Laboratoire de Thermique Énergétique et Procédés (LaTEP) de l’Université de Pau et des Pays de l’Adour développe un modèle dynamique dont le but est d’optimiser la valorisation de ce CO2 en méthane.

« Nous développons un modèle numérique pour piloter l’ensemble des paramètres qui permettent de produire du méthane à partir du CO2 issu de biogaz, explique Sabine Sochard, maître de conférences à l’ENSGTI (École nationale supérieure en génie des technologies industrielles). Il sera capable de prédire, sur une durée déterminée, toutes les variables de fonctionnement du système de manière à optimiser un critère, qui peut être par exemple être le coût de production de ce méthane, tout en imposant des contraintes, comme celle consistant à répondre à une demande en méthane pour un consommateur final. Cet outil nous permettra de procéder à du contrôle commande et à de la planification. »

Pour produire du méthane à partir du CO2, il est nécessaire de mettre en œuvre la réaction de Sabatier, qui consiste à lui ajouter de l’hydrogène. Et pour que cette opération soit totalement « verte », cet hydrogène doit être produit à partir d’une source renouvelable, en l’occurrence des panneaux solaires ou des éoliennes, qui alimentent en électricité un électrolyseur d’eau.

Les conditions météorologiques sont l’un des principaux paramètres à prendre en compte, car elles agissent à plusieurs niveaux. Tout d’abord, sur la production d’énergies renouvelables, qui est par nature intermittente. Par exemple, face à un manque d’ensoleillement et le risque de ne plus avoir suffisamment d’hydrogène, le modèle sera capable de calculer le volume optimal de stockage d’hydrogène pour que ce gaz ne vienne jamais à manquer afin de mettre en œuvre la réaction de Sabatier », ajoute Sabine Sochard.

Éviter un emballement du réacteur catalytique dans le méthaneur

Les variations météorologiques, et en particulier la température extérieure, interviennent aussi sur le méthaniseur, à l’intérieur duquel sont présentes des bactéries anaérobies chargées de produire le biogaz. Pour qu’elles se développent de manière optimale, la température de l’unité doit rester constante, souvent à des valeurs comprises entre 35 et 40 degrés. Pour la maintenir à ce niveau, le modèle numérique doit alors actionner ou non un système de chauffage de l’unité de méthanisation.

La gestion de la température est aussi une variable à prendre en considération, mais cette fois-ci à l’intérieur du méthaneur, c’est-à-dire l’enceinte où a lieu la réaction de Sabatier et qui a la particularité d’être exothermique. Pour éviter un emballement du réacteur catalytique, il est important d’ajuster le débit du fluide caloporteur qui permet de refroidir le réacteur. Cette opération sera réalisée de manière automatique par le modèle numérique. Ce dernier prendra également en compte la nature des déchets agricoles introduits dans le méthaniseur, qui conditionne la part de CO2 présente dans le biogaz.

Pour faire fonctionner ce nouvel outil, les chercheurs tentent de représenter tous les phénomènes physiques et chimiques qui interviennent au niveau de l’unité de méthanisation et celle de méthanation. Il se différencie des modèles utilisant des algorithmes d’intelligence artificielle et qui tentent de réaliser des prédictions à partir des données d’entrée. « Notre outil est ce qu’on appelle un modèle de connaissance, précise Sabine Sochard. Par exemple, pour la méthanisation, on s’appuie sur un modèle déjà existant appelé ADM1 (Anaerobic Digestion Model No. 1) et qui retrace tous les schémas réactionnels de méthanisation et leurs cinétiques. On modélise également tous les flux de chaleur échangés avec l’extérieur, ainsi que la nature des déchets agricoles qui conditionne le type de macromolécules que l’on retrouve dans le digesteur. »

Les scientifiques se sont associés avec l’Université de Turin, spécialisée dans la méthanisation, et ont testé ce modèle sur différents types de biomasse, notamment de l’ensilage de maïs. Et ils ont déjà validé le modèle dynamique du méthaneur, qui met en œuvre la réaction de Sabatier. L’enjeu principal à présent, est de coupler ces deux modèles pour parvenir à optimiser l’ensemble du processus permettant de produire du méthane à partir du CO2 issu du biogaz.

Islande : un mix électrique 100 % renouvelable moins vert qu’il n’y paraît

En matière de mix électrique, l’Islande représente un cas à part en Europe puisque près de 100 % de son électricité consommée est issue d’énergies renouvelables. Ce petit pays insulaire, d’une superficie de 103 000 km² et qui se qualifie lui-même de « terre de feu et de glace », a su tirer profit de ses ressources naturelles. Situé à la jonction de deux plaques tectoniques à forte activité volcanique, il en exploite le potentiel en produisant de l’énergie géothermique. Et grâce aux glaciers qui recouvrent plus de 10 % du territoire, leurs fontes alimentent des fleuves glaciaires qui contribuent à la production d’énergie hydroélectrique.

Résultat : environ 73 % de l’électricité est issue de l’hydroélectricité, à partir de centrales qui appartiennent en majorité à Landsvirkjun, la compagnie nationale d’électricité. Les 27 % restants proviennent de la géothermie, qui permet également de chauffer plus 9 habitations sur 10, grâce à l’énergie thermique produite.

Ce virage vers une production d’électricité verte date des années 1970. Auparavant, le pays devait recourir à des combustibles fossiles importés pour assurer la plus grande partie de sa consommation énergétique. Mais cette transition n’a pas été réalisée pour des raisons environnementales. À l’époque, le pays ne voulait plus dépendre des variations du prix du pétrole engendrées par les crises à répétition ayant frappé le marché mondial de l’énergie. Isolé aux portes du cercle polaire, il avait besoin de retrouver une certaine autonomie énergétique, avec des ressources qui soient stables et bon marché.

Si aujourd’hui l’Islande fait figure d’exemple en matière d’énergie propre, son bilan CO2 est en revanche moins idyllique. L’île pourrait avoir des difficultés à respecter certains objectifs internationaux en matière de changements climatiques. Le mode de production électrique n’est pas en cause. Certes, les forages nécessaires à la production d’énergie géothermique entraînent des rejets de CO2, mais en quantités moins importantes que l’électricité d’origine fossile. Le principal problème se situe au niveau de la quantité d’électricité produite au regard de la population de cette île qui ne compte que 370 000 habitants.

Le plus grand producteur d’électricité au monde par habitant

Selon le gouvernement islandais, le pays est le plus grand producteur mondial d’énergie verte par habitant et le plus grand producteur d’électricité par habitant, avec environ 55 000 kWh produits par personne et par an. À titre de comparaison, la moyenne de l’Union européenne est inférieure à 6 000 kWh. Étant donné que cette île est située à plusieurs centaines de kilomètres des terres les plus proches, cette électricité ne peut être exportée. L’Islande a donc cherché à attirer des industries à forte consommation énergétique sur son territoire, qui représentent aujourd’hui la majorité de la consommation électrique.

Cette industrialisation s’est poursuivie après la crise financière mondiale de 2008, car le pays avait besoin de relancer son économie. De nouvelles usines électro-intensives, notamment de production d’aluminium, ont été implantées, ainsi que plus récemment des datacenters. Parallèlement, l’Islande a aussi cherché à développer le potentiel touristique de l’île, jusque-là peu exploité. Sauf que ce boum du tourisme n’a fait qu’accroître les rejets de CO2 du secteur des transports notamment, qui lui est toujours dépendant des combustibles fossiles.

Aujourd’hui, le pays compte en partie sur l’innovation pour réduire ses gaz à effet de serre. En 2021, la plus grande usine de captage de CO2 atmosphérique a été inaugurée à une trentaine de kilomètres de la capitale, Reykjavik. D’une capacité initiale de 4 000 tonnes de CO2, une autre a été installée à proximité l’année suivante et capable de capter 36 000 tonnes supplémentaires par an. Ces installations sont alimentées en énergies renouvelables grâce à une centrale géothermique et le CO2 est injecté sous terre puis mélangé à de l’eau afin d’être solidifié dans la roche à plus de 1 000 mètres de profondeur. D’autres projets de ce type sont en cours dans le pays.

Pour financer ces investissements, l’Islande vient notamment de décider d’augmenter ses taxes à l’égard du secteur touristique, qui représente environ 6 % du PIB. À partir de janvier 2024, les billets d’avion, les nuits d’hôtel et les attractions touristiques coûteront quelques euros de plus aux voyageurs. Le pays vise la neutralité carbone d’ici à 2040, soit dix ans avant l’Union européenne.

Comment une référence pour les gamers est devenue un acteur majeur de l’informatique quantique

L’informatique quantique peut apporter des améliorations significatives dans de nombreux domaines et notamment celui de la santé. Elle pourrait faciliter la découverte de médicaments et l’analyse moléculaire. Elle pourrait aussi favoriser les stratégies de traitement médical sur mesure, ainsi que l’optimisation des chaînes d’approvisionnement pharmaceutique et la coordination des traitements.

Autant de défis à relever alors que les processeurs quantiques sont encore au stade exploratoire et prennent beaucoup de place. Un seul processeur peut occuper une grosse boîte de 3 mètres sur 2 mètres sur 2 mètres ! Autre bémol, la création d’ordinateurs quantiques à grande échelle ne sera possible que lorsque certains problèmes d’ingénierie d’envergure seront résolus.

D’où l’intérêt de s’appuyer sur des plates-formes de simulation quantique. Connue comme étant la référence en matière de cartes graphiques et appréciée des gamers, la marque californienne Nvidia s’implique de plus en plus dans le secteur de l’informatique quantique grâce à CUDA Quantum qui simule les capacités de traitement d’un ordinateur quantique composé de dizaines de qubits.

Sa plate-forme open source est capable d’intégrer et de programmer des unités de traitement quantique (QPU), des GPU et des CPU dans un seul système. Basée sur un supercalculateur composé de centaines de processeurs GTX A100, elle permet d’effectuer sur un ordinateur classique des milliards de calculs parallèles.

 Éliminer les métaux toxiques

C’est ce qui a motivé Classiq. Utilisée par plus de 400 universités, cette plate-forme de création de logiciels quantiques a annoncé le lancement du Centre de Calcul Quantique pour les sciences de la vie et la santé, en collaboration avec NVIDIA et le Centre Médical Sourasky de Tel Aviv.

« Le nouveau Centre de Calcul Quantique pour les Life Sciences et le Healthcare ambitionne de combler le fossé entre la théorie quantique et l’application pratique, avec des bénéfices concrets pour les sciences de la vie, la santé et d’autres secteurs », explique Nir Minerbi, PDG de Classiq, dans un communiqué de presse.

Classiq n’est pas le seul sur ce créneau. En 2022, la start-up suisse Terra Quantum a levé 60 millions de dollars pour mettre au point une plate-forme « quantum-as-a-service ». Elle développe des applications quantiques hybrides pour les sciences de la vie, l’énergie, la chimie et la finance qui fonctionneront avec CUDA Quantum.

Dans un autre domaine, Classiq s’est associé à NVIDIA et Rolls-Royce pour améliorer l’efficacité des moteurs à réaction grâce à l’informatique quantique. La conception de ces moteurs figure parmi les plus complexes, est coûteuse et exigeante en termes de calcul. Avec la plate-forme de Nvidia, Rolls-Royce devrait pouvoir accélérer les recherches et le développement futur de moteurs à réaction plus efficaces.

Ce n’est pas le seul accord important de Nvidia dans le domaine du quantique. Le Californien a signé un accord avec BASF. Le géant de l’industrie chimique utilise les GPU Nvidia H100 Tensor Core et la plate-forme de programmation CUDA Quantum pour simuler l’acide nitrilotriacétique (NTA), un composé capable d’éliminer les métaux toxiques des eaux usées d’une ville.

Le potentiel de l’agroforesterie pour réduire le changement climatique

L’agroforesterie consiste à incorporer ou à maintenir des arbres dans les paysages agricoles. Ce terme englobe une large diversité de configurations, pouvant aller d’arbres dispersés dans les pâturages ou dans les paysages agricoles, à des arbres linéaires dans ou autour des champs, en passant par des couverts forestiers poussant au-dessus des cultures. Alors que les pays du monde entier s’efforcent de réduire leurs émissions de carbone, une nouvelle étude scientifique publiée dans Nature Climate Change souligne le potentiel inexploité de l’agroforesterie dans la lutte contre le changement climatique et propose des pistes pour y remédier.

Les estimations des quantités de carbone stockées par l’agroforesterie actuellement en place donnent des résultats très disparates puisque les chiffrages varient d’un peu moins de 7 milliards de tonnes de carbone (pour la partie aérienne) à plus de 35 milliards de tonnes de carbone (en considérant également le stockage sous terre). Mais ce carbone serait concentré sur une petite fraction des terres agricoles mondiales, estimée à moins de 10 %, ce qui offre une marge très importante d’implantation de nouveaux arbres.

Quant au potentiel de séquestration future lié au développement l’agroforesterie, il est estimé entre 120 et 310 millions de tonnes de carbone par an, ce qui en fait l’une des stratégies les plus intéressantes parmi celles classées dans la catégorie des solutions naturelles pour le climat, encore appelée NCS pour Natural Climate Solutions. L’agroforesterie peut donc être comparée à d’autres NCS, telles que le reboisement, dont le potentiel de stockage de carbone est estimé 270 millions de tonnes par an ou à la réduction de la déforestation, dont le potentiel est chiffré à 490 millions de tonnes par an.

De fortes disparités dans le déploiement de l’agroforesterie à travers la planète

Mais les auteurs de cette publication pointent du doigt le manque de connaissances sur la quantité de carbone qu’un système agroforestier individuel peut stocker et sur la manière dont cette quantité varie d’une ferme à l’autre. Ils expliquent que « de nombreuses études ont synthétisé des estimations à l’échelle de l’exploitation agricole, parvenant à un large consensus sur le fait que l’adoption de l’agroforesterie peut augmenter le stockage de carbone, sans pour autant fournir de précisions sur l’ampleur de cette augmentation. Ces estimations incertaines du potentiel d’atténuation, associées à la faible capacité à prédire les changements dans le rendement des cultures, les revenus, les services écosystémiques rendus ainsi que les autres avantages associés à l’agroforesterie, limitent la capacité des agriculteurs et des éleveurs à prendre des décisions de gestion éclairées. »

L’étude révèle que l’adoption de l’agroforesterie et les ambitions pour la déployer ne sont pas réparties de manière égale dans le monde. Certains pays, en particulier en Afrique, sont à la pointe des efforts mondiaux, alors que d’autres sont en retard. C’est le cas notamment des pays du Nord, où les arbres ont été massivement éliminés des exploitations agricoles. Les chercheurs recommandent de « continuer à développer et à étendre des systèmes agroforestiers mécanisés viables dans les régions où la monoculture est répandue, afin d’augmenter le stockage du carbone et de soutenir la biodiversité et les services écosystémiques. »

Des mesures incitatives fléchées vers les agriculteurs devraient être mises en place pour accélérer les investissements dans l’agroforesterie, via des programmes gouvernementaux nationaux et régionaux. Les scientifiques préconisent de s’appuyer davantage sur le programme international REDD+, un dispositif qui vise à réduire les émissions de gaz à effet de serre liées à la déforestation et à la dégradation des forêts et qui inclut également un rôle de gestion durable des forêts. Ils constatent que seulement 17,5 % des projets répertoriés dans ce programme concernent l’agroforesterie. Les chercheurs mettent aussi en avant la nécessité de développer de nouvelles méthodes de télédétection des arbres qui soient harmonisées à l’échelle mondiale ainsi que le développement d’un algorithme capable de détecter toute la diversité des systèmes agroforestiers.