Sponsoring sportif : les énergies fossiles dans le viseur

Ce dimanche 22 septembre, les Nations Unies ont adopté le Pacte pour l’avenir. Parmi les 56 mesures en faveur de l’atteinte des objectifs de développement durable de l’ONU, une mesure invite à « protéger et promouvoir la culture et le sport en tant que composantes à part entière du développement durable ». Cette promesse se heurte pourtant à un défi de taille : le sport permet de normaliser l’activité des grandes entreprises d’énergies fossiles.

Le sponsoring des événements sportifs par les grandes entreprises d’énergies fossiles est l’objet du nouveau rapport du cercle de réflexion New Weather Institute : « Argent sale : Comment les sponsors des énergies fossiles polluent le sport ». L’étude évalue ce sponsoring à 5,6 milliards de dollars (5 milliards d’euros) au travers de 205 accords de partenariats. « La plupart des accords manquent de transparence quant aux montants exacts en jeu, à la durée et aux conditions qui y sont rattachées », souligne le rapport. Sans grande surprise, les sports les plus sponsorisés sont le football, les sports mécaniques, le rugby à XV et le golf.

Des sponsors qui menacent l’avenir du sport

Grâce au sponsoring, les entreprises pétrolières et gazières cherchent à « se présenter sous un jour positif et normaliser leurs activités aux yeux de milliards de fans de sport », partage le rapport. Ces entreprises ont pourtant une énorme responsabilité dans le changement climatique. Alors que l’été 2024 a été le plus chaud jamais enregistré, des conditions météorologiques imprévisibles et extrêmes menacent l’avenir du sport amateur et professionnel. « La pollution de l’air due aux combustibles fossiles et les conditions climatiques extrêmes d’un monde qui se réchauffe menacent l’avenir même des athlètes, des fans et des événements allant des Jeux olympiques d’hiver aux Coupes du monde, dénonce Andrew Simms, co-directeur du New Weather Institute. Si le sport veut avoir un avenir, il doit se débarrasser de l’argent sale des grands pollueurs et cesser de promouvoir sa propre destruction ».

À la première place, Aramco sponsorise les événements sportifs à hauteur de 1,3 milliard de dollars (1,17 milliard d’euros), devant Ineos et Shell. Avec 340 millions de dollars (306 millions d’euros), TotalEnergies se hisse à la quatrième place. Le rapport souligne que les investissements en provenance des États pétroliers du Moyen-Orient connaissent la croissance la plus rapide.

Si les partenariats de sponsoring sont essentiels à la survie de nombreux clubs, ils doivent être en phase avec les valeurs du sport et servir l’intérêt collectif, estime l’étude. Le rapport exhorte donc les autorités sportives à mettre fin au parrainage par les entreprises œuvrant dans les combustibles fossiles et à exiger la transparence sur les données d’émissions et les mesures d’atténuation des sponsors.

Qu’est-ce que les ingénieurs peuvent apporter dans l’écosystème des start-up ?

La multiplication, en France comme à l’international, des start-up orientées “tech” n’est pas un hasard. Restons sur le cas tricolore. Le plan d’investissement France 2030 a boosté un phénomène déjà à l’œuvre, à savoir la multiplication de jeunes pousses sur des secteurs technologiques innovants : le quantique, l’intelligence artificielle, le micro nucléaire… Avec ces financements supplémentaires, la volonté de réindustrialiser le territoire s’est matérialisée, et de nombreuses start-up ont pu franchir des étapes importantes dans leur développement, et changer d’échelle.

Dans la même veine, le financement de la transition énergétique a permis de booster des pépites sur les technologies hydrogène, l’optimisation des réseaux énergétiques, le stockage de l’électricité, entre autres. 

Tous ces projets technologiques portés par des start-up ont un point commun : ils nécessitent l’investissement de collaborateurs ayant des compétences technologiques fortes mais également la capacité d’assumer un rôle multidimensionnel au sein de ces structures réduites, en tout cas au début de leur aventure. Cela explique pourquoi les ingénieurs ont un rôle aussi important aujourd’hui dans le développement des jeunes pousses. De par leur formation, ces derniers ont des prédispositions pour appréhender l’aspect multifactoriel des problématiques technologiques qui s’adressent à lui, au-delà de la réalisation technique. Que ce soit sur la conception – on parlera plutôt d’écoconception aujourd’hui -, la conceptualisation et l’expérimentation, l’implication des ingénieurs est aujourd’hui totale.

Ensuite, et c’est ce qui porte la réussite des start-up, les ingénieurs sont étroitement impliqués autour de tout ce qui touche à l’innovation technologique, de par leur appétence naturelle pour ce qui est nouveau, leur curiosité et leur volonté de développer des technologies novatrices.

Une volonté d’entreprendre intégrée dès les cursus de formation

Si les atouts développées par les ingénieurs correspondent à ce dont une start-up a besoin, en termes d’agilité, de capacité à s’adapter rapidement, de compétences technologiques, il faut bien avoir à l’esprit que la notion d’entreprise s’est beaucoup démocratisée. Jadis, les écoles d’ingénieurs formaient des futurs diplômés avec deux exigences principales : les compétences techniques spécifiques au domaine de formation, et une certaine capacité à s’adapter à un contexte professionnel donné.

Aujourd’hui, les écoles forment des ingénieurs qui peuvent être de futurs entrepreneurs. Cette capacité d’entreprise s’illustre aussi bien dans la propension d’un ingénieur à s’emparer de sa fonction au sein de l’entreprise pour la magnifier, qu’à développer à partir d’une idée une structure pour tester son potentiel technologique et industriel.

D’ailleurs, aujourd’hui, de nombreuses écoles d’ingénieurs organisent des concours pour soutenir financièrement les ingénieurs ayant la volonté d’entreprendre et les idées innovantes qui le permettent. Ces concours poussent les ingénieurs à aller au bout de leurs projets et les forcent à imaginer l’ensemble de l’écosystème à mettre en place pour parvenir à leurs fins, d’où une capacité plus grande, par la suite, à considérer l’aspect multidimensionnel des problématiques qui se posent à une start-up.

Dernier point, qui s’observe également dans les entreprises ces dernières années : la tendance des recruteurs à solliciter des ingénieurs pour des tâches à priori éloignées de leur formation initiale, par exemple dans le marketing, la stratégie ou la finance. Car au-delà des connaissances techniques, c’est la capacité à analyser et à traiter des problématiques complexes qui est recherchée chez les ingénieurs. C’est là une spécificité française : de nombreuses écoles forment des ingénieurs généralistes, ce qui apparaît parfois comme une faiblesse, mais qui constitue pour les start-up un atout considérable, lié à leur fonctionnement inhérent.

Hydroélectricité : lente progression des puissances

Le devenir du parc hydroélectrique français a été mis sur le devant de la scène fin août avec l’abandon du projet Rhônergia par la Compagnie nationale du Rhône (CNR) suite à un avis négatif de l’État. Ce projet prévoyait un nouveau barrage-usine à une quarantaine de kilomètres en amont de Lyon, pour une puissance de 37 MW et une production au fil de l’eau (sans lac de retenue) estimée à 140 GWh/an. Construire un ouvrage de cette taille est devenu très rare, au regard des impacts environnementaux qui toucheraient 26 km du fleuve : destruction des berges, perturbation de la faune et de la flore terrestre et aquacole, variations des niveaux des nappes phréatiques, risque pour les zones de captage d’eau et l’irrigation des terres agricoles, blocage du transit sédimentaire.

La CNR a porté son projet en prévoyant un non-empiétement sur la zone classée de la confluence de l’Ain, une moindre emprise sur les terres agricoles et des mesures de compensation (création de nouvelles zones humides et d’une passe à poissons). L’opposition a tout de même été vive lors du débat public, et un dernier argument a été avancé par l’État pour renoncer : le projet hydroélectrique risquait de perturber l’exploitation de la centrale nucléaire du Bugey et la construction, au Bugey également, d’une paire d’EPR2 prévue par EDF.

Objectifs en hausse et potentiel en baisse

À l’inverse de cet abandon, d’autres projets voient le jour comme celui de CNR (la Sarenne, 11 MW) ou d’Hydrocop (Eaux du Merlet, 3,3 MW). Mais Rhônergia interroge sur le fait que la filière hydroélectrique risque de gérer plutôt le parc existant que de nouveaux ouvrages. Il est vrai que la France dispose d’un parc conséquent, composé de 10,3 GW de centrales de lac, de 6,7 GW de centrales au fil de l’eau, de 4,1 GW d’éclusées, et de 4,6 GW de stations de transfert d’énergie par pompage (Step). Selon les années et la pluviométrie, l’ensemble de ces moyens hydroélectriques produit entre 50 TWh (2022) et presque 68 TWh (2018). Même si l’éolien va bientôt la dépasser, l’hydroélectricité est encore la première des énergies renouvelables électriques, capitalisant sur l’utilisation, au XXe siècle, de la majorité des sites exploitables. La zone prévue pour Rhônergia était d’ailleurs sur un des seuls secteurs du Rhône présentant encore un gisement non exploité pour l’hydroélectricité.

Pour autant, la programmation pluriannuelle de l’énergie (PPE) publiée en 2020 prévoyait d’augmenter ce parc à environ 26,6 GW en 2028. En cours de révision, elle va pousser le curseur un peu plus loin, à 28,7 GW en 2030. A-t-on réellement la possibilité d’ajouter 3 GW au parc d’ici 2030 ? L’actualisation de la PPE a été l’occasion l’an dernier de mettre à jour une étude de potentiel. Celle-ci a révélé la possibilité d’installer 653 MW sur des sites vierges, hors sites classés comme non exploitables par le Code de l’environnement (article L.214-17). En évitant également les réservoirs biologiques, les cours d’eau en très bon état et les axes grands migrateurs, ce potentiel se réduit à 384 MW. S’y ajoute l’équipement de seuils existants sur des rivières, permettant l’ajout de 368 MW. Ces niveaux, en baisse de plus de 20 % par rapport à une estimation de 2013, prennent néanmoins en compte que des appels d’offres lancés entre 2016 et 2024 ont désigné une soixantaine de lauréats, pour 146 MW de projets de petite hydroélectricité, dont plus de 94 MW de nouveaux projets.

Investissements bloqués sur les concessions

Néanmoins, ces derniers projets font l’objet d’oppositions, tout comme Rhônergia, et seulement un quart d’entre eux a été construit. Face à cette difficulté de mettre en œuvre de nouveaux sites, il faut donc considérer d’autres potentiels qui sont l’optimisation ou l’augmentation de puissance des centrales existantes, et le turbinage du débit réservé (débit minimum pour les autres usages de l’eau) de ces mêmes centrales. Leurs estimations sont moins précises, mais sont de l’ordre de 510 MW pour le premier et de 3 MW pour le second. Il existe par ailleurs un potentiel d’équipement des moulins à eau que l’Association de sauvegarde des Moulins estime entre 300 et 800 MW, mais qui peut se recouper en partie avec le potentiel des seuils existants.

C’est donc avec l’amélioration des sites existants que la filière peut trouver une issue, en vue de moderniser les ouvrages et augmenter la puissance disponible. Avec les chiffres précédents, il faudrait cumuler rapidement toutes les solutions sur le neuf comme sur l’existant pour arriver au moins à 1,5 GW de puissance supplémentaire, et ceci dans un délai très court d’ici 2030. Le complément apporté par des projets de Step – 1,5 GW prévu d’ici 2030-2035 par la PPE alors qu’EDF envisage 2 GW – pourrait conduire à atteindre les 3 GW.

Mais pour faire avancer réellement le gisement sur les sites existants sous le régime des concessions, l’État français doit encore régler le contentieux qui l’oppose à la Commission européenne depuis plus de 10 ans. Le renouvellement de ces concessions est censé être ouvert à la concurrence selon Bruxelles, tandis que la France milite pour maintenir les exploitants actuels, principalement EDF, la Shem et la CNR. Tant qu’aucun accord n’est trouvé, les investissements sont bloqués dans les sites existants… ce qui ralentit d’autant l’augmentation du parc hydroélectrique.

Les ambitions d’EDF face au flou politique

Début juillet, EDF annonçait revoir complètement le design de NUWARD, son modèle de réacteur SMR. Si ce changement de stratégie avait alors créé la surprise, il serait en partie lié à une volonté de dérisquer le projet en misant sur des technologies éprouvées. L’objectif serait simple : maximiser les chances de succès et arriver rapidement sur le marché des petits réacteurs nucléaires sans se laisser distancer par la concurrence.

Mais ce revirement montre aussi que la priorité de l’énergéticien est ailleurs, puisqu’EDF a prévu de construire entre 6 et 14 réacteurs nucléaires EPR 2 d’ici 2035-2040. Et pour y arriver, il va falloir construire les réacteurs deux à trois fois plus vite ! Lors de la présentation des résultats semestriels de l’entreprise, son nouveau PDG, Luc Rémont, a ainsi annoncé un objectif ambitieux : que les futurs réacteurs soient construits en 70 mois de moyenne, soit un peu moins de 6 ans.

Les ambitions d’EDF sont-elles réalistes ?

6 ans c’est très court, car rappelons qu’il a fallu 17 ans à l’EPR de Flamanville pour sortir de terre, après un cumul de 12 ans de retard ! Et qu’en est-il des deux réacteurs qu’EDF a commencé à construire en 2017 à Hinkley Point, en Angleterre ? Il semblerait que le scénario de démarrage le plus probable soit autour de 2030, ce qui nous fait 13 ans entre le début des travaux et la mise en service.

Mais selon Luc Rémont, réduire à 6 ans le délai de construction des centrales est vital, afin de « ramener à l’échelle industrielle » la construction de réacteurs et rester compétitif. Or, pour atteindre cette échelle industrielle, il faut un nombre suffisant de projets nucléaires, ce qui n’a pas été le cas pendant 20 ans.

Néanmoins, la situation est en train de changer et les projets de centrales se multiplient dans le monde. Une douzaine de nouveaux pays devraient ainsi intégrer le nucléaire d’ici à 2030, selon Rafael Grossi, le patron de l’Agence internationale de l’énergie atomique (AIEA).

Cette relance de la filière nucléaire pourrait donc permettre d’atteindre la productivité désirée grâce à la répétabilité et à la baisse des coûts. Car il faut rappeler aussi qu’il y a 50 ans, la capacité de production d’EDF était montée jusqu’à 4 réacteurs par an ! Vu sous cet angle, passer de 1 ou 2 réacteurs par décennie à 1,5 par an paraît tout à fait réaliste.

La crise politique, cause d’incertitude pour EDF

Au-delà des questions de productivité, EDF subit cependant le revers de la situation politique en France. La crainte n’est pas tant dans une éventuelle remise en cause des EPR 2 par un futur gouvernement[1], que dans un climat d’indécision qui perdurerait trop longtemps.

Car la situation actuelle retarde plusieurs décisions clés en matière de politique énergétique et pas seulement sur le nucléaire, puisqu’il est aussi question de l’entretien et du développement des barrages hydroélectriques.

Dans un article du Monde, Alexandre Grillat, secrétaire général de la Fédération CFE-CGC Énergies résume la situation ainsi : « Mis bout à bout, des sujets majeurs pour l’avenir d’EDF et, plus largement pour l’ensemble du secteur énergétique français, sont soumis à des incertitudes qui ne seront levées qu’une fois que nous connaîtrons le futur gouvernement, ses orientations et la réalité de son poids politique. »

Quel avenir pour le nucléaire en Europe ?

Pour ajouter encore un peu de flou, rappelons que la position de l’Europe concernant la politique énergétique à conduire n’est pas non plus très claire.

Après des décennies de tabou nucléaire, en mars 2024, Bruxelles opérait un apparent virage et même la présidente de la Commission européenne Ursula von der Leyen semblait alors défendre les technologies nucléaires et leur « rôle important vers une énergie propre ». Mais de récents signaux indiquent qu’il faut peut-être s’attendre à un nouveau revirement.

Les élections européennes, auraient-elles changé la donne ? C’est bien possible, car le 17 septembre, la présidente de la Commission européenne a dévoilé la composition de sa nouvelle équipe. Or, les portefeuilles concernant la transition écologique et l’énergie ont été confiés à deux anti-nucléaires, ce qui n’a pas manqué de faire réagir.

Il serait pourtant étonnant que l’UE abandonne son soutien nouveau au nucléaire, Ursula von der Leyen ayant elle-même déclaré qu’il fallait produire « plus de nucléaire » en Europe, à l’occasion de son discours de fin août au forum sur la sécurité de Prague.

Pour le moment, le futur énergétique de l’Europe est donc incertain. L’UE va-t-elle adopter une approche neutre sur le plan technologique, comme l’encourage le rapport Draghi sur « l’avenir de la compétitivité européenne » ? Ou va-t-elle faire machine arrière sur le nucléaire ?


[1] Dévoilé entre temps, vendredi 20 septembre 2024

Les ingénieurs face à la vague de l’IA

Le marché de l’emploi dans le monde de l’IA propose aujourd’hui aux ingénieurs de nombreuses opportunités. Et notamment en ce qui concerne l’IA générative, qui devrait se répandre dans des domaines d’activités tels que le marketing digital, le service client, l’ingénierie logicielle, ou encore la gestion des connaissances. Une grande partie des besoins professionnels pour mener à bien l’innovation industrielle autour de l’IA se borne à deux profils : les ingénieurs, et les experts en informatique. 

En ce qui concerne les ingénieurs, les spécialistes de l’IA, les ingénieurs de prompt ou de machine learning sont des profils très recherchés. Il faut dire que même si l’intelligence artificielle s’implémente de manière relativement lente dans le tissu industriel tricolore, il ne fait plus aujourd’hui guère de doutes que son adoption va aller en s’accélérant, pour tenter de combler le retard accumulé, et gagner en compétitivité. Avec à la clé des bouleversements dans la conduite des outils et des projets industriels. Et tout d’abord une plus grande dépendance vis-à-vis des fournisseurs de solutions d’IA, ce qui ne va pas sans poser des problématiques nouvelles au sein des entreprises clientes de ces solutions. D’où la nécessité, sur le long terme, pour les entreprises, de recruter des ingénieurs capables d’accompagner les changements liés à l’implémentation de l’IA. Aussi bien sur le plan de la technique que de la formation des collaborateurs aux impacts de l’IA sur leur domaine de compétence.

Si la gestion des données et le cadre réglementaire très strict en France constituent forcément des freins à une implémentation plus rapide de l’IA, les bénéfices potentiels en termes de compétitivité, spécifiquement pour l’industrie, sont faramineux, et touchent la production industrielle de manière très transversale. Amélioration de la productivité, maintenance prédictive, automatisation des tâches répétitives, contrôle qualité, design… C’est donc une stratégie globale qu’il faut développer au sein des entreprises industrielles pour implémenter l’IA de manière coordonnée, efficace et transversale. Cette transformation va nécessiter le concours de nombreux ingénieurs.

Pour ces derniers, l’acquisition des compétences nécessaires relatives à l’intelligence artificielle se fait encore aujourd’hui majoritairement via les formations initiales, qui se multiplient ces dernières années. Il apparaît plus compliqué de développer des hard skills via de la formation continue, bien que ce type de cursus soit amené à se développer de plus en plus, en fonction des besoins spécifiques à chaque secteur d’activité. 

Cela étant dit, se pose bien sûr la problématique de la formation professionnelle des salariés dont les activités vont évoluer au prisme de l’IA. Avec toute la difficulté pour ces derniers qui voient leurs métiers évoluer, à se former sur un domaine d’expertise, l’IA, qui peut rapidement se révéler d’une grande complexité. 

A l’orée des transitions actuelles pour l’industrie, ce besoin en formations, initiale et continue, est plus que jamais un sujet brûlant, pour les écoles d’ingénieurs et pour les entreprises.

Ainsi, la transformation des entreprises qui intègrent l’IA est une des clés technologiques pour non seulement faire de la réindustrialisation de la France une réalité, mais également pour atteindre les objectifs nationaux et continentaux en termes de réduction des gaz à effet de serre.

La revue du Magazine d’Actualité #3 : du 16 au 20 septembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

La norme la plus DISCUTÉE

Normes européennes sur les émissions de CO2 des véhicules produits dans la CEE : pourquoi le durcissement est-il reporté ?
Les constructeurs devront vendre en moyenne un véhicule électrique pour quatre véhicules thermiques afin d’atteindre l’objectif de réduction moyenne annuelle d’émissions de GES par voiture vendue en 2025.
> Lire l’article dans son intégralité

L’info la plus FLIPPANTE

La pollution importée : cause de mortalité prématurée en Europe.
Des niveaux élevés d’ozone troposphérique dans l’air ambiant sont néfastes sur la santé. Cet ozone nocif est formé dans la couche basse de l’atmosphère par l’interaction entre la lumière du soleil et principalement des oxydes d’azote et des COV.
> Lire l’article dans son intégralité

Le rapport le plus RÉALISTE

Les objectifs de production d’hydrogène renouvelable en Europe sont-ils tenables ?
Un rapport de la Cour des comptes européenne sur la production d’hydrogène décarboné souligne que tous les Etats membres n’ont pas fixé leurs objectifs et ceux qui l’ont fait n’étaient pas toujours alignés sur ceux de la Commission.
> Lire l’article dans son intégralité

L’innovation la plus ALLÉGEANTE

Comment débarrasser l’eau de certains métaux lourds, parmi les plus persistants ?
Le plomb, le cadmium, le nickel et le mercure sont reconnus pour leur toxicité et leur persistance. L’eau douce, en voie de raréfaction et sa pollution par ces métaux lourds, préoccupent et suscitent l’initiatives de chercheurs.
> Lire l’article dans son intégralité

Les matériaux les plus APPROPRIÉS

Un dossier pour explorer les innovations tous azimuts en matière de matériaux
Les véhicules électriques et les appareils numériques amènent à s’interroger sur les matières premières et leur provenance. Se pose alors la question du choix des matériaux. Une interrogation qui se pose quant aux sources d’approvisionnement donc, mais aussi quant au respect de l’environnement. Ce dossier se penche aussi sur la filière hydrogène et la fabadd.
> Lire l’article dans son intégralité

Vers un report des nouvelles normes CO2 pour les véhicules neufs ?

En 2025, la moyenne annuelle d’émissions par voiture vendue devra passer sous la barre des 93,6 grammes de CO2 par kilomètre. Pour atteindre cet objectif, cela signifie que les constructeurs devront vendre en moyenne un véhicule électrique pour quatre véhicules thermiques. Mais il y a un hic : les ventes de véhicules électriques stagnent à moins de 15 % pour les voitures particulières et 7 % pour les utilitaires.

Si une étude publiée par le groupe de réflexion Transport & Environment (T&E) estime que la part de marché de ces véhicules devrait fortement augmenter l’année prochaine et atteindre entre 20 % et 24 % des voitures neuves vendues en Europe, les constructeurs automobiles européens le voient d’un autre œil. Ils feraient pression sur la Commission européenne pour décaler de deux ans le durcissement des règles.

Renault et l’Acea à la manœuvre

Le journal Le Monde a eu accès à une note de Luca de Meo, patron de Renault et président de l’Association des constructeurs européens d’automobiles (Acea). Ce document demande à la Commission européenne l’utilisation de l’article 122.1 du traité sur le fonctionnement de l’Union européenne (TFUE). Il s’agit d’une sorte de «49.3 européen », souligne Le Monde, qui permettrait de court-circuiter le Parlement européen, afin de retarder de deux ans les nouveaux objectifs en matière de CO2. Le constructeur français n’a pas voulu commenter l’information au journal.

Sur son site Internet, l’Acea justifie ses craintes quant à l’atteinte de ces objectifs. Pour l’association, ce ne serait pas de la faute des constructeurs, mais bien du manque de planification de l’UE en la matière. Elle explique : « L’UE manque toujours des conditions cruciales pour l’adoption massive de voitures et de camionnettes à zéro émission : une infrastructure de recharge et de remplissage d’hydrogène, ainsi qu’un environnement de fabrication compétitif, une énergie verte abordable, des incitations à l’achat et des incitations fiscales, et un approvisionnement sûr en matières premières, en hydrogène et en batteries. »

Une opposition ferme de T&E

T&E dénonce fermement cette manœuvre des constructeurs et appelle les législateurs européens à appliquer la loi telle qu’elle est prévue. « La démarche du lobby de l’industrie automobile est absurde, explique Marie Chéron, responsable des politiques véhicules à T&E France. Les constructeurs ont réalisé plus de 130 milliards d’euros de bénéfices depuis 2022 et ont eu des années pour se préparer à l’objectif. Maintenant, ils tentent de déclencher l’état d’urgence pour pouvoir continuer à vendre des voitures polluantes. »

Une analyse de T&E publiée en avril dernier montre que certains constructeurs ont déjà atteint l’objectif 2025. C’est notamment le cas de Volvo Cars. Des constructeurs comme Kia ou Stellantis ont un écart de moins de 5 gCO2/km et semblent sur la bonne voie pour atteindre leurs objectifs 2025. Volkswagen et Ford sont en queue de peloton avec le plus grand écart à respectivement 22 et 24 g/km.

Novecal développe des synthèses à façon

En 2018, Cyril Martini fonde la start-up Novecal avec la docteure Emmanuelle Schulz et le docteur Vincent Huc qui en assume la présidence. Issue de l’Institut de Chimie moléculaire et des Matériaux d’Orsay (ICMMO), elle conçoit des catalyseurs en employant des calixarènes géants, des oligomères cycliques pouvant aller jusqu’à plusieurs nanomètres, comme support. Deux ans plus tard, Novecal est lauréate du concours « Entreprises engagées pour la transition écologique » de l’Ademe. Aujourd’hui, trois chercheurs et une stagiaire travaillent au laboratoire de la start-up.

La majeure partie de l’activité de la jeune pousse consiste en la conception, la recherche, le développement et la production de catalyseurs. L’utilisation de calixarènes géants permet de limiter la contamination des intermédiaires et des principes actifs pharmaceutiques par les métaux, comme le palladium, contenus dans les catalyseurs.

Ce type de catalyseur présente plusieurs avantages : il peut être conçu en phase homogène et servir en catalyse hétérogène, grâce au choix du solvant. Il est ainsi possible de récupérer le métal par simple filtration et ensuite de le recycler. Les performances sont ainsi reproductibles et la contamination est réduite.

Novecal a déjà créé plusieurs générations de ces catalyseurs innovants. Elle les propose sur catalogue ou à travers des distributeurs au sein de l’Union européenne. La majorité de ses clients viennent de l’industrie pharmaceutique. Actuellement, la start-up travaille en collaboration avec un géant de la chimie. L’objectif est de développer un catalyseur destiné aux produits de commodité. Contrairement au domaine de la pharmacie, la valeur ajoutée de ce genre de produit est faible, mais les volumes importants. Le catalyseur qu’a fabriqué Novecal a déjà été testé et approuvé. Il se recycle en boucle et n’encrasse pas le réacteur. Un avantage qui permet de limiter l’empreinte environnementale et de réaliser des économies. Novecal déposera un brevet dans les prochains mois.

Un service de synthèse sur mesure

Mais la création et la production de catalyseurs ne sont pas le seul cheval de bataille de Novecal. La jeune entreprise propose aussi une offre de service de recherche et développement afin de résoudre des problématiques industrielles, de montée en échelle, des synthèses à façon et de mettre au point des synthèses totales de principes actifs.

Ainsi, lors d’un précédent contrat, elle avait conçu une technologie à partir d’une huile capable de modifier la viscosité de formulations par simple traitement thermique. Elle est aujourd’hui commercialisée à grande échelle par l’industrie des matériaux. Très récemment, la start-up a également terminé un projet pour une compagnie indienne. L’objectif ? Réaliser la synthèse totale d’un composé naturel. Parti de zéro, les chercheurs ont réussi à tracer la voie de synthèse en l’espace de quatre mois, un exploit.

En ce moment, Novecal travaille avec une importante compagnie française qui souhaite améliorer une étape de catalyse. La catalyse actuelle est enzymatique ; elle requiert une grande quantité d’eau et près de quatre semaines. Novecal espère réduire cette étape à quelques heures à l’aide de catalyseurs plus classiques.

L’ingénieur au centre des transitions industrielle et énergétique

C’est une problématique récurrente depuis un bon moment dans le paysage industriel tricolore. En effet, si on considère les postes d’ingénieurs sur le territoire, pourvus ou non, on constate au final un sous-effectif : il n’y a pas assez d’ingénieurs ! Ou plutôt, il y en a trop dans certains secteurs, et pas suffisamment dans d’autres. Plus largement, les recrutements d’ingénieurs aujourd’hui sont très spécifiques. Les recruteurs cherchent des compétences très précises, sur le secteur du numérique par exemple, mais exigent aussi de la part des candidats des sensibilités en termes de RSE par exemple, ce qui est relativement récent, et enfin une certaine forme de performance dans la polyvalence. 

Pour être à l’équilibre, la France a besoin de 65 000 nouveaux ingénieurs chaque année. Il en manque aujourd’hui 18 000 pour être sur cette dynamique. En cause, les besoins de recrutement toujours plus importants, qui sont liés à deux phénomènes bien identifiés et marqueurs pour l’industrie. D’abord, la transition énergétique, qui impacte tous les secteurs industriels mais aussi France 2030 et le grand plan tricolore pour réindustrialiser le pays dans certains secteurs cibles. 

Ces deux ambitions, parfois contradictoires, parfois complémentaires dans leur mise en œuvre effective, nécessitent l’investissement de plus en plus d’ingénieurs. Ces derniers, devant la quantité d’offres, ont tendance à suivre des carrières en changeant régulièrement d’entreprise, profitant de la quasi absence de chômage pour les diplômés. 

Sans s’appesantir sur la nécessité de former de plus nombreux ingénieurs, et de les former sur des compétences précises liées aux besoins actuels, voyons dans les grandes lignes quel est le portrait robot de l’ingénieur de demain qui va pouvoir apporter sa pierre à l’ambition de réindustrialisation à la française, dans un contexte de transition énergétique et de sobriété. 

Alors quels sont les “nouveaux” besoins en compétences d’ingénieries aujourd’hui ? Le besoin de réindustrialisation induit la nécessité de recruter dans tous les secteurs, et c’est cette réalité qui aboutit aujourd’hui à une pénurie d’ingénieurs, chose à laquelle les écoles d’ingénieurs essaient de s’adapter, quasiment en temps réel. Avec la nécessité de former aussi les professeurs sur ces sujets qui émergent, ce qui prend du temps. Les enjeux environnementaux occupent aujourd’hui une place qu’il convient de ne pas négliger. C’est vrai au niveau des recrutements dans les entreprises industrielles, mais c’est également une réalité au niveau des attentes des ingénieurs. Illustration, ces derniers sont, pour plus de deux tiers d’entre eux, prêts à dénoncer des agissements de leurs entreprises qui ne seraient pas vertueux en termes d’impact environnemental

Dernier point, la nécessaire polyvalence des ingénieurs actuels, liée notamment aux impacts plus transversaux des activités industrielles aujourd’hui. Des impacts qui peuvent être soit d’ordre sociétaux, environnementaux, et qui nécessitent de la part des ingénieurs une capacité à intégrer dans leur travail des problématiques extérieures.

La féminisation du métier, elle, stagne depuis quelques années, et la récente réforme du bac laisse craindre un retour en arrière, alors que seulement 24 % des ingénieurs en poste sont aujourd’hui des femmes

Purifier l’eau des métaux lourds en s’inspirant des plantes

Dans notre société industrielle, la raréfaction de l’eau et sa pollution par les métaux lourds comptent parmi les principaux défis à relever. En effet, les métaux comme le plomb (Pb), le cadmium (Cd), le nickel (Ni) et le mercure (Hg) sont connus pour leur persistance dans l’environnement et leur toxicité envers les humains et la vie aquatique. Malheureusement, les méthodes de remédiation conventionnelles (précipitation chimique, filtration par membrane, fixation…) restent peu efficaces, coûteuses en énergie et productrices de déchets chimiques. Pour améliorer la purification de l’eau, Cassandra Callmann et son équipe de recherche de l’université du Texas à Austin (États-Unis) se sont tournées vers les plantes, dont les parois cellulaires captent les métaux lourds délétères. Côté mise en pratique, la solution pourrait venir, pour les scientifiques, des carbohydrates biocompatibles, et de leurs bonnes propriétés d’adsorption…

Des métaux lourds capturés à un endroit et relargués à un autre

Cassandra Callmann et ses collègues ont synthétisé leurs polymères en usant de la polymérisation par ouverture de cycle par métathèse, présentée le 11 septembre 2024 dans le journal ACS Central Science. Cette réaction chimique voit la polymérisation de monomères cycliques en monomères acycliques résulter d’une métathèse des alcènes. Cette dernière réaction organique implique la scission de la liaison double carbone-carbone dans les alcènes (des hydrocarbures insaturés). L’avantage de ce procédé tient à sa très faible production de déchets dangereux. La mise en place de la métathèse a d’ailleurs valu aux chimistes Yves Chauvin (1930-2015), Robert Grubbs (1942-2021) et Richard Schrock l’obtention du Prix Nobel de chimie en 2005. Dans l’étude américaine, l’utilisation de la métathèse a permis la création de polymères portant des chaînes d’acide glucuronique amphiphile (avec une partie soluble dans l’eau, et une autre dans les graisses) capables de sélectionner et de capter les cations des métaux lourds dans un milieu mélangé.

Les tests de l’équipe de recherche ont d’abord porté sur des échantillons contenant de fortes concentrations de métaux lourds (> 550 ppb). Les polymères bio-inspirés ont rapidement formé un précipité filtrable lors de la capture des métaux. Une mesure par spectrométrie de masse à plasma à couplage inductif a montré la réduction de la concentration en cations à moins de 1,5 ppb en à peine trois minutes. Ensuite, les scientifiques ont testé leurs polymères sur de l’eau de la rivière Colorado prélevée à Austin, au Texas, et riche en Cd2+ et Pb2+. En seulement 24 heures, 20 % du Cd2+ et 45 % du Pb2+ avaient été piégés par l’invention américaine !

Enfin, l’atout supplémentaire de ces polymères réside dans leur processus de capture-et-relargage. L’acidification du milieu déclenche ainsi la proto-nation (l’ajout d’un proton à une molécule) des groupes glucuronates, ce qui a pour effet de relarguer les métaux lourds préalablement capturés et de resolubiliser les polymères.

BIG DATA & AI PARIS 2024 : L’événement de référence de l’innovation data & IA

La 13ème édition de Big Data & AI Paris ouvre ses portes dans un mois. Durant 2 jours immersifs, les acteurs clés de la filière data & IA s’y retrouvent avec l’opportunité de bénéficier d’une vision complète du sujet grâce à trois parcours de conférences complémentaires (stratégie, expertise et retours d’expériences), 7 salles d’ateliers et des sessions techs d’exception pour trouver la réponse aux problématiques métiers.

L’Intelligence Artificielle : 2024, l’année de l’accélération

En 2024, l’IA a su redéfinir de manière significative l’évolution de l’économie mondiale. Grâce à son accessibilité et à son innovation constante, l’IA est devenue un outil incontournable pour les entreprises de toutes tailles, leur permettant d’accélérer leur développement, de renforcer leur positionnement sur le marché et d’améliorer la productivité et la performance de leurs salariés.

Parallèlement, l’adoption massive des technologies digitales, et notamment de l’IA, a entraîné une transformation profonde et durable des habitudes des individus. Les technologies de la data ont pris un nouvel élan et se sont déployées dans tous les secteurs d’activité.

Néanmoins, la transformation digitale, ainsi que la gouvernance, la protection et la confidentialité des données demeurent des préoccupations essentielles pour les entreprises. Dans un contexte à la fois complexe, imprévisible et riche en opportunités, les décideurs constatent que ces progrès s’accompagnent de risques et doivent faire face aux inquiétudes concernant l’avenir de nombreux métiers.

Big Data & AI Paris, un véritable levier d’accélération et d’accompagnement pour les entreprises

Le passage à l’échelle s’accompagne de nombreuses étapes : la compréhension, la qualification des cas d’usage industrialisables, anticipation des risques de dérives des modèles, recrutement de profils tech spécifiques, conduite du changement… Pour accompagner au mieux les entreprises, l’édition 2024 de Big Data & AI Paris livrera un programme riche et enthousiasmant.

Cette année, l’événement met en lumière 4 grandes tendances qui vont façonner l’avenir de l’IA au travers d’interventions dédiées :

  • L’IA générative et ses applications personnalisées

L’essor de l’IA générative continuera à transformer les industries, en permettant des applications plus personnalisées et adaptatives dans des domaines variés. L’IA générative rendra possible la création d’expériences client personnalisées, de produits sur-mesure et de contenus adaptés aux besoins individuels en temps réel.

Keynote : Comment préparer ses données aux IA génératives par Emma McGrattan (Actian)

> Le 15/10 à 11h10 – Salle de Conférence 2

  • IA responsable et régulation

En 2025 et au-delà, l’IA responsable est un enjeu majeur pour les entreprises. En intégrant des pratiques responsables dans leur développement et leur utilisation de l’IA, elles pourront non seulement se conformer aux réglementations, mais aussi éviter les biais et assurer la protection des données.

Table-ronde : Comment mettre en œuvre et appliquer les mesures relatives aux réglementations européennes, au RGPD et à l’AI Act au sein des organisations ? par Aldrick Zappellini (Crédit Agricole), Chadi Hantouche (Wavestone) et Laurence Hadj (Doctolib)

> Le 15/10 à 10h00 – Salle de Conférence 1

  • L’automatisation intelligente

L’intégration de l’IA dans l’hyperautomatisation des processus métiers, incluant l’automatisation des tâches répétitives et la prise de décision intelligente, sera cruciale ces prochaines années pour améliorer l’efficacité opérationnelle.

Keynote : Vers des agents IA capables de planifier des raisonnements complexes ? par Laurent Daudet (Lighton) et Iacopo Poli (Lighton)

> Le 16/10 à 14h35 – Salle de Conférence 3

  • L’IA & la cybersécurité

L’IA renforcera la cybersécurité en détectant proactivement les menaces et en automatisant les réponses, mais elle deviendra également un nouveau vecteur de menaces, exigeant une vigilance accrue.

Keynote : Mettre à profit l’IA et le machine learning pour la cybersécurité par Adrien Becue (Thalès)

> Le 16/10 à 16h15 – Salle de Conférence 3

Inscrivez-vous au salon BIG DATA & AI Paris ici !

Hydrogène renouvelable en Europe : des objectifs « irréalistes »

En mai 2024, l’étude Sisyphe menée par le CEA suggérait une demande en hydrogène bas carbone largement surestimée en Europe aux horizons 2030 et 2040. Alors que le plan RepowerEU fixe un objectif de consommation de 20 millions de tonnes par an d’hydrogène renouvelable au niveau européen à l’horizon 2030, l’étude table plutôt sur une demande de 2,5 millions de tonnes en 2030 et de 9 millions en 2040. Le rapport de la Cour des comptes européenne sur la politique européenne en matière d’hydrogène renouvelable, publié en juillet 2024, salue le cadre juridique mis en place, mais dénonce à son tour des objectifs « irréalistes en matière de production et d’importation d’hydrogène » de production.

Selon le rapport, « les objectifs de l’UE s’avèrent trop ambitieux ». Les États membres n’ont pas tous fixé leurs propres objectifs. « Lorsqu’ils l’ont fait, ces objectifs nationaux n’étaient pas nécessairement alignés sur ceux de la Commission », déplore la Cour des comptes européenne.

Hydrogène renouvelable ou bas carbone ?

Les objectifs de l’UE concernent uniquement l’hydrogène renouvelable, soit celui produit à partir d’électricité renouvelable ou de biomasse. La Commission n’a fixé aucun objectif en matière d’hydrogène bas carbone au niveau de l’UE. Selon la définition de l’UE, l’hydrogène bas carbone « est celui qui provient de sources non renouvelables et qui émet au minimum 70 % de gaz à effet de serre en moins que les combustibles fossiles sur la totalité de son cycle de vie ».

Concernant l’hydrogène renouvelable, le rapport pointe différentes difficultés : des problèmes d’efficacité liés à l’électrolyse, un coût de production qui n’est pas encore compétitif, des besoins en électricité renouvelable et en eau importants et des besoins en infrastructures de transport et de distribution. Côté hydrogène bas carbone, « un acte définissant la méthode d’évaluation des réductions des émissions de gaz à effet de serre pour l’hydrogène bas carbone est toujours en suspens », pointe le rapport. En particulier, il faudra préciser la place accordée à l’hydrogène bas carbone produit à l’aide de gaz naturel avec captage et stockage du carbone dans la stratégie européenne. « Des efforts en matière de normalisation et de certification sont encore nécessaires », précise la Cour des comptes européenne.

Le financement de l’UE au développement de l’hydrogène est toutefois important. « Pour la période 2021-2027, le financement total de l’UE en faveur de projets liés à l’hydrogène est actuellement estimé à 18,8 milliards d’euros », calcule la Cour des comptes européenne. Elle regrette néanmoins que la Commission ne dispose pas d’une vue d’ensemble complète des besoins. Face à une multitude de programmes de financement de l’UE différents, assortis de règles diverses, il lui est difficile de déterminer celui qui est le mieux adapté à un projet donné. La Cour des comptes européenne recommande donc à la Commission d’établir une feuille de route à l’échelle de l’UE et de suivre les progrès réalisés. Elle lui préconise « d’obtenir des données fiables sur les financements nationaux et d’évaluer l’adéquation des modalités de financement de l’UE en conséquence ».

La majorité des décès liés à l’ozone en Europe s’explique par de la pollution importée

L’ozone troposphérique est un polluant nocif formé dans la couche basse de l’atmosphère par l’interaction entre la lumière du soleil et des gaz précurseurs, principalement des oxydes d’azote (NOx) et des composés organiques volatils (COV), d’origine naturelle et anthropique. Des niveaux élevés de cet ozone dans l’air ambiant sont néfastes sur la santé, car ils provoquent des problèmes respiratoires qui peuvent conduire dans les cas les plus graves à une hospitalisation et au décès. Pour la première fois, des chercheurs de l’Inserm, de ISGlobal1 et du BSC-CNS2 ont quantifié l’impact de cette exposition à l’échelle du continent européen. Leurs travaux, publiés dans Nature Medicine révèlent que la majeure partie de ce polluant est importée d’autres pays.

Pour suivre les concentrations d’ozone troposphérique et de ses précurseurs (NOx et COV), les scientifiques ont utilisé un système de qualité de l’air, baptisé Caliope, développé au BSC-CNS, et qui retrace ces polluants formés ou émis dans 35 pays européens, ce qui représente la couverture d’une population totale d’environ 530 millions de personnes. Pour obtenir des données en dehors de la zone d’étude, une approche de modélisation a été utilisée et a permis de suivre la dispersion et le transport des polluants atmosphériques sur de longues distances. L’analyse s’est appuyée sur les données de la saison chaude, de mai à septembre, au cours de laquelle les valeurs d’exposition à l’ozone sont les plus élevées. Les données d’Eurostat, l’office statistique de l’Union européenne, ont quant à elles permis d’estimer la mortalité.

L’étude chiffre à près de 115 000 le nombre de décès attribuables à l’ozone entre 2015 et 2017, sur l’ensemble de la zone des 35 pays européens considérés, soit un taux de mortalité de 72 décès annuels pour un million d’habitants. Plus de 88 % de ces décès seraient liés à une exposition à de l’ozone en provenance d’autres pays et seulement près de 12 % à une exposition d’origine nationale. Cette situation s’explique par le fait que contrairement à ses précurseurs tels que le dioxyde d’azote (NO2) qui ont une durée de vie plus courte, l’ozone troposphérique a une capacité à persister sur de longues distances dans la troposphère libre pendant le transport. Dans le détail, 60,2 % de tous les décès observés sont liés à de l’ozone en dehors de l’Europe, 20,9 % a son origine dans les autres pays européens analysés, tandis que les 7,2 % restants sont liés à de l’ozone issu du transport maritime.

Il apparaît également que les pays les plus industrialisés et les plus peuplés sont les principaux contributeurs à la mortalité attribuable à l’ozone transporté au-delà des frontières. Ainsi, l’ozone provenant de la France a provoqué 4 003 décès dans des pays voisins pendant la saison chaude entre 2015 et 2017. Plus précisément, cet ozone a provoqué 32,3 % des décès attribuables à ce polluant au Luxembourg, 29,3 % en Suisse et 24,4 % en Belgique. De son côté, l’ozone provenant d’Allemagne a provoqué 3 260 décès chez ses voisins européens.

Des stratégies de luttes paneuropéennes et mondiales doivent être menées

L’étude souligne également l’importance des vents dominants, notamment ceux venant de l’ouest et se dirigeant vers l’Est, sur le transport de l’ozone et donc sur les décès. Par conséquent, les pays du sud-ouest de l’Europe sont moins touchés par les effets sanitaires du transport transfrontalier d’ozone, et à contrario sont ceux où la mortalité attribuable à la production nationale d’ozone est la plus élevée. Cette dernière représente en Espagne 53,7 % des décès attribuables à l’ozone, 47,1 % en France et 46,2 % au Portugal.

Les résultats de ces travaux soulignent la nécessité de mettre en œuvre des stratégies paneuropéennes et mondiales coordonnées de lutte contre les polluants atmosphériques, tels que l’ozone troposphérique. Des recherches futures devraient affiner cette étude en analysant la contribution à la mortalité des différents secteurs ou activités économiques (énergie, industrie, transport, résidentiel, agriculture…), par pays, du transport transfrontalier d’ozone.

Limiter le réchauffement climatique se révèle aussi une démarche essentielle pour réduire l’impact de l’ozone, comme l’explique Hicham Achebak, chercheur à l’Inserm et à l’ISGlobal : « Le réchauffement climatique renforcera les conditions de formation de l’ozone troposphérique à l’avenir, car les mécanismes photochimiques de formation de l’ozone sont favorisés pendant les vagues de chaleur et les périodes de fort rayonnement solaire. Lutter contre le réchauffement climatique est nécessaire pour améliorer durablement la qualité de l’air. Il sera aussi important de faire d’autres recherches pour identifier aux mieux les sources de pollution qui contribuent le plus à la mortalité, que ce soit l’ozone ou d’autres polluants dont les effets sont tout aussi délétères sur la santé. »

1 ISGlobal : Institute for Global Health de Barcelone

2 BSC-CNS : Barcelona Supercomputing Center – Centro Nacional de Supercomputación

Décarboner 50 sites industriels, en captant le CO2 ?

En novembre 2022, Emmanuel Macron réunissait les dirigeants des 50 sites industriels en France les plus émetteurs de gaz à effet de serre (GES). L’objectif : qu’ils élaborent leurs trajectoires de réduction des émissions de GES en vue d’atteindre les objectifs de la future stratégie nationale bas carbone. Ces contrats de transition écologique, signés le ministre délégué chargé de l’Industrie et les présidents des entreprises concernées, ont été présentés par le ministère de l’Économie en décembre 2023. Le Réseau Action Climat et France Nature Environnement ont publié mi-juillet un rapport pour dresser le bilan climat et environnement de ces sites pour l’année 2023. Ils y mentionnent « la difficile mutation de l’industrie française ».

Parlons chiffres. L’industrie représente environ 18 % des émissions françaises de GES. Les 50 entreprises concernées génèrent quant à elles actuellement 55 % des émissions industrielles en France. À travers ces contrats, elles s’engagent à réduire leurs émissions de gaz à effet de serre GES de 50 % d’ici 2032. Mais il sera difficile de suivre l’atteinte de ces engagements. Car les feuilles de route complètes ne sont pas rendues publiques. Les contrats de transition sont des documents de trois pages qui ne reprennent que les ambitions globales, mais ne communiquent ni les moyens ni les indicateurs mis en place. Pire, « les industriels n’ont aucune obligation de les respecter et certains ont déjà averti du décalage de leur décarbonation face à un prix du carbone volatil et une incertitude sur le coût de l’électricité », dénonce le rapport.

Une hausse des émissions en 2023

Les engagements ayant été dévoilés fin 2023, ils ne portent pas encore leurs fruits. Mais le Réseau Action Climat s’inquiète tout de même de la hausse des émissions de GES sur plusieurs sites concernés. « C’est notamment le cas de l’usine pétrochimique TotalEnergies de Gonfreville (+9,8 %), LAT Nitrogen à Grand-Quevilly (+42 %), Aluminium Dunkerque (+5,3 %), Lyondell Chimie France à Fos-sur-Mer (+3,8 %) », énumère l’ONG.

Face à cette dynamique, ce qui inquiète particulièrement le collectif d’associations, c’est l’intention d’une partie de ces entreprises de recourir aux technologies de captage de carbone. Car les entreprises devraient diminuer en priorité leurs émissions, avant d’éventuellement capter et stocker les émissions résiduelles.

Financer les alternatives au captage de CO2

En 2023, l’Institut Rousseau a estimé le coût de la décarbonation de l’industrie française à 48 milliards d’euros. C’est 27 milliards de plus que les investissements actuellement prévus. L’Institut recommande que 20 milliards d’euros soient pris en charge par l’État sous forme de subventions à l’investissement vert industriel. Le Réseau Action Climat recommande le fléchage de ces aides publiques vers les autres solutions de décarbonation, à savoir la sobriété et l’économie circulaire. Il demande de les conditionner à l’atteinte d’objectifs climatiques, sociaux et environnementaux afin de maximiser leur efficacité.

Lors de la COP28 climat à Dubaï en décembre 2023, les dispositifs de captage et de stockage de carbone ont été au cœur des négociations. L’accord final adopté appelle le monde à se détourner des énergies fossiles. En particulier, il invite les pays à développer les technologies de captage et de stockage de carbone. Beaucoup d’ONG écologistes et de think tank, à l’instar du WWF et l’Iddri, avaient alors dénoncé un pari technologique qui coûte très cher et détourne les fonds de solutions jugées plus efficaces et pertinentes.

La revue du Magazine d’Actualité #2 : du 9 au 13 septembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Le nanosatellite le plus COCORICO !

La mission phare du CubeSat ROBUSTA-3A : observer les phénomènes météo méditerranéens
ROBUSTA-3A est le grand nom d’un nanosatellite made in Montpellier. Développé avec l’aide d’environ 300 étudiant.e.s du CSUM. Lancé lors du vol inaugural d’Ariane 6, ce CubeSat de 3 unités va veiller les effets de l’ouest de la Méditerranée du changement climatique.
> Lire l’article dans son intégralité

L’info la plus (DÉ)SATELLISÉE

Un objet de 420 tonnes, qui tourne à 27 000 km/h autour de la Terre ?
And the winner is… SpaceX
En fin de vie, la station spatiale internationale (ISS) doit être désorbitée. La mission, initialement confiée à trois vaisseaux cargo russes Progress, a été modifiée en février 2022. La NASA a finalement délibéré.
> Lire l’article dans son intégralité

L’article le plus ÉLECTRISANT

Automobile électrique : la Chine fait de l’ombre à l’Europe
Très active sur le marché de la voiture électrique et hybride, la Chine a dépassé l’Europe sur le terrain des ventes. Malgré une période délicate sur le plan économique de la RDC, l’UE et en particulier l’Allemagne sont destabilisées.
> Lire l’article dans son intégralité

Le sujet le plus CONSCIENT…

Un soutien croissant pour la criminalisation des atteintes à l’environnement
Un sondage mené auprès de 22 000 personnes dans 22 pays, dont 18 pays du G20 nous apprend qu’une importante partie des participants estiment que les actions qui causent des dommages graves à l’environnement et au climat devraient être criminalisées.
> Lire l’article dans son intégralité

L’article le plus PROTECTEUR

Quand IA rime avec Maya
Pathogènes, parasites, dégradation de l’habitat, pesticides sont des causes du syndrome d’effondrement des colonies d’abeilles observé en Europe et en Amérique du Nord. Des chercheurs français et mexicains ont développé un modèle d’IA pour détecter les effets sublétaux des pesticides en temps réel.
> Lire l’article dans son intégralité

Le jeu concours le plus BRITISH

Jeu concours : Do you speak scientific English?
Les versions anglaises de nos articles de référence sont sorties ! Une belle occasion de vous proposer de jouer avec nous pour voyager across the Channel. Attention le concours termine le 14 novembre 2024.
> Lire l’article dans son intégralité

 

Favoriser les prédateurs naturels pour lutter contre les ravageurs de cultures

Chaque année, près d’un tiers des principales cultures agricoles mondiales (blé, riz, maïs, pommes de terre, soja) est perdu. À eux seuls, les animaux ravageurs sont responsables d’environ 10 % de ces pertes, ce qui représente environ 21 millions de tonnes. Une étude menée par des chercheurs brésiliens et américains, publiée dans la revue Proceedings of the Royal Society, démontre que les prédateurs naturels peuvent atténuer ces pertes et offrir une alternative à l’utilisation de produits phytopharmaceutiques.

Les scientifiques ont effectué une méta-analyse de 86 études et ont procédé à 317 comparaisons par paires en testant l’effet des prédateurs sur les populations de ravageurs ainsi que sur le rendement des cultures. Il apparaît que dans toutes les études, les prédateurs ont réduit les populations de ravageurs de 73 % en moyenne, en comparant les cultures avec et sans prédateurs. Plus précisément, leur présence a réduit la proportion de ravageurs de 51 % dans les cultures céréalières, de 103 % dans les cultures d’arbres fruitiers, dans les oléagineux et les protéagineux, et de 62 % en cultures maraîchères.

Autre résultat important : ces prédateurs ont permis d’augmenter le rendement des cultures de 25 % en moyenne. « Les coléoptères, les oiseaux, les araignées et les autres prédateurs invertébrés étaient tous des agents de lutte biologique efficaces, écrivent les auteurs de cette étude. Nous n’avons pas réussi à détecter un impact des chauves-souris et des hémiptères sur les populations de ravageurs, peut-être en raison du faible nombre de comparaisons par paires. »

Les chercheurs ont été étonnés d’observer que les prédateurs multi-espèces n’effectuaient pas un contrôle biologique plus élevé que les prédateurs mono-espèces, que ce soit avec des oiseaux, des coléoptères ou des araignées. « Nous montrons qu’une seule espèce de prédateur résident peut assurer une lutte antiparasitaire au moins aussi efficace que plusieurs espèces. Ceci est important, car cela souligne à quel point il est bénéfique de conserver les espèces prédatrices naturelles dans les systèmes de culture. »

La saisonnalité des précipitations est le seul facteur climatique identifié comme ayant un impact sur les prédateurs. Ainsi, les cultures situées dans des régions où les précipitations sont les plus saisonnières, sont celles où les populations de ravageurs sont les plus faibles en raison du contrôle biologique plus efficace effectué par les prédateurs. Pour les scientifiques, ce résultat montre que « les prédateurs sont des agents résidents efficaces de contrôle biologique sur tous les types de cultures, et que le changement climatique futur, avec une saisonnalité accrue des précipitations, augmentera probablement l’impact des prédateurs naturels sur les ravageurs des cultures. »

Le marché du biocontrôle en croissance en France

Les prédateurs naturels, classés dans la catégorie des macroorganismes, sont l’une des quatre familles de la lutte biologique, encore appelée biocontrôle, qui peut être utilisée pour protéger les plantes contre les maladies, les insectes, les ravageurs et les adventices. Les trois autres familles sont l’utilisation de microorganismes (bactéries, virus, champignons), de médiateurs chimiques (phéromones, kairomones…), et de substances naturelles, qu’elles soient d’origine minérale, animale ou végétale (comme l’acide pélargonique, secrété naturellement par les géraniums).

Selon l’Inrae, le marché du biocontrôle connaît une croissance annuelle à deux chiffres en France et a atteint 13 % des ventes de pesticides en 2021. Pour cet institut, cette lutte biologique « demande beaucoup d’innovation organisationnelle pour agir collectivement à l’échelle d’un territoire. Mais cette régulation à long terme est infiniment plus durable économiquement que l’utilisation récurrente d’un produit. »

En France, le biocontrôle est reconnu comme une alternative clé aux produits phytosanitaires conventionnels et comme l’un des piliers de l’agroécologie. Depuis 2020, il fait l’objet d’une stratégie nationale, qui vise à la mise en œuvre d’une série de mesures dans le domaine de la recherche, de l’expérimentation, de l’innovation industrielle, de la réglementation et du déploiement de solutions sur le terrain.

En mars dernier, à l’occasion du Salon international de l’agriculture, le ministère de l’Agriculture et de la Souveraineté Alimentaire a lancé officiellement le « Grand défi biocontrôle et biostimulation pour l’agroécologie ». D’une durée de 6 ans, ce programme prévoit de soutenir des travaux dans ce domaine grâce à l’apport de 42 millions d’euros gérés par l’ANR (Agence Nationale de la Recherche), dans le cadre du programme France 2030, et 18 millions d’euros apportés par des acteurs privés. L’objectif est d’accélérer l’innovation, de développer et de diversifier les solutions de biocontrôle et de biostimulation disponibles, en combinaison avec d’autres solutions, pour une protection agroécologique des plantes. L’ABBA (Association biocontrôle et biostimulation pour l’agroécologie), qui compte plus de 80 membres issus d’organisations publiques et privées, est chargée d’animer ce programme.

Le concours est désormais terminé !

Pour rappel, les prix à gagner étaient :

  • 1er prix : Bon d’achat Eurostar de 800€ + 3 mois d’accès aux articles en anglais
  • 2ème et 3ème prix : 3 mois d’accès aux articles en anglais.

Pour les gagnants non abonnés : abonnement d’un an à la ressource de leur choix + 3 mois d’accès aux articles en anglais

Les gagnants seront informés par email dans les jours suivant le tirage au sort. Ils auront 1 semaine pour se manifester et réclamer leur prix. Passé ce délai, si le gagnant ne se manifeste pas, le cadeau sera attribué à un autre participant.

En attendant, consultez 3 articles gratuitement jusqu’au 15 décembre 2024 :

  1. Systèmes nucléaires spatiaux
  2. Matériaux pour l’impression 3D
  3. Risques en cybersécurité de l’IoT – Panorama des principales menaces

Merci encore à tous pour votre participation et bonne chance à tous les participants !

Retrouvez le règlement complet du concours ici.

Certaines espèces des zones tropicales pourraient mieux résister au changement climatique

Le rapport du GIEC de 2022 est sans ambiguïté : le climat évolue de manière inévitable et rapide. Dans ce contexte, prédire les réponses des espèces terrestres et marines à ce changement est capital pour limiter la perte future de biodiversité et mettre en place des stratégies de conservation efficaces. Actuellement, les modèles de prédiction traditionnels d’estimation de la diversité des espèces ne prennent pas en considération leur potentiel de préadaptation. Des chercheurs de l’Ifremer et de l’Université de Lausanne ont développé un nouveau modèle qui tient compte de ce phénomène et révèlent que certaines espèces pourraient mieux tolérer le changement climatique que prévu. Leurs travaux sont publiés dans la revue Nature Ecology and Evolution.

Aujourd’hui, les températures sur la terre varient entre environ -70 degrés en Antarctique à +48 degrés à l’équateur, mais ces limites ont de tout temps évolué. Par exemple, il y a 130 000 ans, au cours de la dernière ère interglaciaire, le climat était plus chaud et semblable à celui que l’on pourrait connaître d’ici à la fin du siècle. Les espèces qui ont évolué à cette période pourraient donc être « pré-adaptées » aux changements à venir. Or, jusqu’ici, les modèles statistiques prévoyant la réponse des espèces au changement climatique ne considèrent pas ce potentiel de préadaptation, ce qui pouvait fausser leurs prédictions.

« Prenons l’exemple d’une espèce tropicale marine ou terrestre : les modèles statistiques traditionnels prédisent qu’elle disparaîtra dans les endroits où la température dépassera la limite chaude actuelle de 48 degrés, explique Mathieu Chevalier, chercheur en écologie marine à l’Ifremer. Mais cette vision pourrait être trop restrictive, car notre connaissance est limitée par l’étude des conditions climatiques actuelles. Selon Antoine Guisan, professeur d’écologie spatiale à l’Université de Lausanne : « lorsqu’une espèce est « marquée » par des conditions climatiques, elle garde en effet une préadaptation à ces conditions qui peut perdurer sur des milliers, voire des millions d’années. Si son habitat évolue vers un climat que l’espèce a déjà connu par le passé, cette préadaptation lui offrira alors une tolérance à ces nouvelles conditions climatiques. »

Pour prendre en compte ce facteur, les scientifiques ont développé un nouveau modèle et l’ont appliqué à près de 25 000 espèces terrestres et marines, incluant des animaux et des plantes, et pour lesquelles l’UICN (Union Internationale de Conservation de la Nature) fournit des cartes de distribution géographiques. Ils ont ensuite croisé ces données avec des scénarios d’évolution future du climat du GIEC et du CMIP (Coupled Model Intercomparison Project : Projet d’intercomparaison de modèles couplés du programme mondial de recherche sur le climat).

Le nouveau modèle prédit une perte de 39 % au lieu de 54 %

Bilan : 49 % de ces espèces vivent actuellement dans des niches climatiques, c’est-à-dire dans des conditions climatiques dans lesquelles l’espèce peut prospérer, et qui sont contiguës (collées) aux limites des conditions climatiques actuelles. Les chercheurs ont également calculé que 86 % d’entre elles pourraient avoir une niche susceptible de s’étendre au-delà des limites climatiques actuelles, un chiffre qui grimpe même à 92 % pour les espèces marines. Le résultat le plus frappant concerne les zones tropicales, puisque le nouveau modèle prédit une diminution de 39 % de la diversité des espèces tropicales terrestres d’ici à 2041-2060, alors que les modèles traditionnels estiment sa disparition à 54 %.

« Notre étude montre qu’il est important d’affiner sans cesse nos modèles, de prendre en compte de nouvelles hypothèses sur la réponse possible de certaines espèces. Si cela vaut pour les espèces tropicales qui pourraient mieux tolérer le changement climatique que prévu, les anciennes estimations restent valides pour les espèces des régions froides, alpines et polaires, et dans une large mesure, pour les espèces des zones tempérées, car le climat qui règne actuellement à ces endroits n’existera plus d’ici à 2041. Ces espèces vivent déjà à la limite de leur niche climatique et ne seront pas en mesure de tolérer des températures significativement plus chaudes. Ça, c’est une certitude ! », prévient Olivier Broennimann, chercheur en écologie spatiale à l’Université de Lausanne.

Même si la perte de diversité des espèces terrestres dans les zones tropicales pourrait être moins importante que prévu, les chercheurs alertent sur le fait qu’elle reste à un niveau très important. De plus, il s’agit d’une estimation et le climat n’est pas la seule variable à prendre en compte pour avoir une prédiction réaliste du risque d’extinction des espèces. Il faut en effet considérer d’autres pressions anthropiques, comme la perte d’habitats, la pollution, la surexploitation ou encore les invasions biologiques.

L’IA pour évaluer l’exposition des abeilles aux pesticides

Le syndrome d’effondrement des colonies d’abeilles a émergé ces dernières décennies, affectant les colonies d’abeilles en Europe et en Amérique du Nord. Il se caractérise par la disparition soudaine des abeilles d’une ruche, laissant derrière elles la reine, la nourriture et quelques jeunes abeilles. Plusieurs facteurs ont été avancés pour en expliquer les causes, tels que les pathogènes, les parasites, la dégradation de l’habitat et les pesticides. Des études ont aussi montré que l’exposition à plusieurs pesticides neurotoxiques, à des expositions sublétales – doses n’entraînant pas leur mortalité –, réduisent en moyenne de 25 % l’activité quotidienne de vol des abeilles européennes.

Partant de ce constat comme un indicateur de la présence de pesticides neurotoxiques dans l’environnement, des chercheurs d’INRAE et de l’université de Mexico ont utilisé un modèle d’intelligence artificielle pour détecter les effets sublétaux des pesticides en temps réel sur la base de l’activité de vol des abeilles. Ce modèle a été formé sur un ensemble de quatre bases de données d’activité de vol comprenant 42 092 enregistrements de vol provenant de 1 107 contrôles et 1 689 abeilles exposées à des pesticides. Les résultats de cette étude sont publiés dans la revue Ecological Informatics.

Suivre les abeilles pour mieux les protéger

Ainsi, suivant le nombre de vols par jour et du temps passé hors de la ruche à chercher de la nourriture, le modèle classe les abeilles comme étant en bonne santé ou exposées aux pesticides. Si la précision de classification du modèle utilisé s’élève à 68,46 % avec cinq jours d’enregistrements d’activité par abeille, elle atteint 99 %, après 25 jours de données d’activité. « Ces résultats soulignent les performances hautement prédictives des modèles d’IA pour la toxicovigilance et mettent en évidence le potentiel de notre approche pour une surveillance en temps réel et rentable des risques dus à l’exposition aux pesticides neurotoxiques dans les populations d’abeilles domestiques », avancent les chercheurs. Cette nouvelle technologie ne reste plus qu’à être testée sur le terrain.

Pour suivre les abeilles sur le terrain, les scientifiques les identifient grâce à des puces RFID (radio frequency identification) ou des étiquettes QR codes collées sur leur thorax. Des lecteurs RFID ou des compteurs optiques placés à l’entrée de la ruche détectent en continu les abeilles marquées entrant dans la ruche. Pour simuler des événements d’intoxication quotidiens, les butineuses reçoivent une dose de pesticides et sont relâchées à proximité ou loin de leur colonie. La question reste désormais de savoir quels résultats donnera l’IA utilisée directement sur le terrain avec des expositions environnementales de pesticides.

SpaceX construira le véhicule pour désorbiter l’ISS en 2031

La station spatiale internationale (ISS) vit ses dernières années et devrait finir sa vie dans l’Océan Pacifique en 2031. En juin dernier, la NASA a finalement retenu SpaceX pour développer et livrer le vaisseau spatial qui servira à désorbiter l’ISS d’ici moins de 7 ans. L’USDV (US Deorbit Vehicle) sera une version plus puissante et plus lourde de la capsule Dragon de SpaceX. La NASA en sera propriétaire, le lancera et l’exploitera.

En juillet, la NASA et SpaceX ont donné un peu plus de détails sur les modifications apportées à la capsule Dragon pour déplacer l’objet de 420 tonnes, qui tourne à 27 000 km/h autour de la Terre. Sarah Walker, responsable du programme Dragon de SpaceX, a alors expliqué que l’USDV serait deux fois plus grand, disposerait de six fois plus de carburant, tout en générant et en stockant trois à quatre fois plus d’électricité que la capsule Dragon actuelle. Il totalisera en plus 46 moteurs Draco, soit 30 de plus que la capsule Dragon actuelle. La masse totale du vaisseau s’élèvera environ à 35 tonnes, dont 16 tonnes de carburant.

La fin de l’ISS passe des Russes aux Américains

À peine trois semaines avant l’assaut de la Russie contre l’Ukraine le 24 février 2022, la NASA publiait un plan de transition de l’ISS prévoyant d’utiliser trois vaisseaux cargo russes Progress pour désorbiter l’ISS à la fin de sa durée de vie. Mais la guerre en Ukraine a une nouvelle fois changé les plans.

Si la Russie a accepté de continuer à exploiter le segment russe de l’ISS jusqu’en 2028, les autres partenaires ont convenu de maintenir leurs portions en fonctionnement jusqu’en 2030. Finalement, la NASA a lancé en 2023 une demande de propositions auprès de l’industrie américaine et a choisi le 26 juin SpaceX pour construire l’USDV pour 843 millions de dollars (755 millions d’euros). Ce montant n’inclut pas le lancement ou d’autres coûts comme l’intégration au lanceur. La NASA travaille toujours pour obtenir du Congrès l’approbation des 1,5 milliard de dollars (1,34 milliard d’euros) nécessaires à la construction et au lancement de l’USDV.

Une fin annoncée dans l’océan Pacifique Sud

La NASA souhaite lancer l’USDV un an et demi avant la désorbitation de l’ISS, pour qu’il s’arrime à la station. Cela placerait le lancement à l’horizon 2029, dans cinq ans. Six mois avant la destruction de la station, le dernier équipage quittera l’ISS, lorsqu’elle sera descendue à 330 kilomètres. Lorsqu’elle atteindra environ 220 kilomètres, l’USDV sera activé pour une désorbitation finale contrôlée de la station spatiale. L’objectif sera de la brûler lors de son entrée dans l’atmosphère, et de plonger ce qu’il en reste dans l’océan. Tout comme la station spatiale, l’USDV devrait se désintégrer en entrant dans l’atmosphère.

Le plan de transition de l’ISS cible un étroit couloir d’environ 2 000 kilomètres de long, proche du point Nemo dans l’océan Pacifique Sud, zone de l’océan la plus éloignée de toute terre émergée sur la planète. Dana Weigel, responsable du programme ISS de la NASA, a déclaré que la NASA s’attend à ce que des pièces de la station allant de la taille d’un four à micro-ondes à celle d’une berline survivent à la rentrée dans l’atmosphère et s’écrasent dans ce couloir.

L’urgence écologique désormais ancrée dans les préoccupations

Et si l’écocide devenait réellement un crime pénal dans la plupart des pays ? Mené auprès de 22 000 personnes dans 22 pays, dont 18 pays du G20, un sondage Ipsos UK commandé par Earth4All et la Global Commons Alliance montre un soutien massif pour la criminalisation des atteintes à l’environnement. Ainsi, 72 % des participants estiment que les actions qui causent des dommages graves à l’environnement et au climat devraient être criminalisées. Ce sondage paraît dans un contexte où des lois criminalisant les atteintes environnementales, telles que l’écocide, commencent à voir le jour dans plusieurs pays, dont la Belgique, le Chili et la France.

Selon l’étude, près des trois quarts des personnes interrogées dans 18 pays du G20 voudraient pénaliser les décisions des gouvernements et des entreprises nuisant gravement à la nature. En ce sens, la majorité des citoyens des pays du G20 demande des actions concrètes pour la protection de la planète. Owen Gaffney, co-leader de l’initiative Earth4All, se félicite que « la majorité des gens veulent protéger les biens communs mondiaux et 71 % estiment que des actions urgentes doivent être prises immédiatement ».

L’urgence de la situation environnementale

Les résultats témoignent d’une anxiété croissante des citoyens vivant dans les plus grandes économies de la planète. Ainsi, 59 % des répondants déclarent être très ou extrêmement inquiets de l’état actuel de l’environnement. Ce chiffre a légèrement augmenté depuis une enquête similaire menée en 2021. De plus, 69 % des personnes interrogées estiment que la planète approche de points de bascule critiques pour le climat et la biodiversité, à cause des activités humaines.

L’enquête met aussi en lumière des perceptions différentes des risques environnementaux suivant les sexes. Les femmes semblent ainsi plus inquiètes que les hommes pour l’avenir de la planète. Si elles sont 62 % à se dire très préoccupées par l’état actuel de la nature, c’est le cas de seulement 56 % des hommes. Elles défendent également davantage la prise de mesures radicales pour résoudre les problèmes environnementaux dans la prochaine décennie (74 % contre 68 % des hommes).

L’étude montre enfin d’importantes disparités géographiques. Les citoyens des économies émergentes, comme l’Inde (87 %), la Chine (79 %) ou l’Indonésie (79 %), se sentent plus exposés aux risques climatiques que ceux vivant en Europe ou aux États-Unis. Cette exposition perçue aux risques environnementaux y provoque une demande plus forte pour une action immédiate.

Des segments de la population prêts à agir

L’enquête a segmenté les répondants en cinq segments distincts en fonction de leurs attitudes envers la protection de la planète. Les Planetary Stewards, par exemple, sont ceux qui sont les plus engagés dans la lutte pour le climat. Ce groupe, composé principalement de personnes issues de pays émergents comme le Brésil, l’Argentine ou le Kenya, estime que des changements systémiques sont nécessaires pour faire face aux défis environnementaux. C’est le groupe le plus présent en France (27 %).

Les Concerned Optimists partagent une forte inquiétude tout en restant optimistes quant à la possibilité d’améliorer la situation grâce à des actions rapides. Les Steady Progressives, quant à eux, prônent des réformes plus progressives. Enfin, les Climate Sceptics et les Unengaged représentent une minorité (13 % des répondants) qui s’oppose ou se désintéresse des politiques environnementales.

Les 6 replays autour de la mobilité sont disponibles

Au programme

  • Batterie à Refroidissement Immersif
  • Solution optimisée de protection et gestion des architectures BEV 400V.
  • Le VIKE, nouvel objet de mobilité urbain pour optimiser le budget et l’empreinte écologique du transport de marchandises en ville
  • SWIBA : un système de pilotage batterie 3 en1

VOIR LE REPLAY

 

  • Développement de fonction innovante pour le blindage des câbles
  • Intégration du solaire au véhicule
  • VTTAE : un VTT électrique robuste et innovant made In France

VOIR LE REPLAY

 

  • eRoadMontBlanc – ERS : La route électrique du futur
  • SELFPLUG : un système de connexion automatique des véhicules électriques
  • CARAPOWER : une plateforme d’expérimentation systémique pour l’électronique de puissance

VOIR LE REPLAY

 

  • Les premiers poids lourds rétrofités hydrogène en voie d’homologation en France
  • H2 BOOST : développement et validation d’un CityBus H2 au coût d’exploitation optimisé

VOIR LE REPLAY

 

  • CITY ONE : le premier vélo électrique fabriqué en fonderie avec un cadre et une fourche en aluminium 100% recyclé
  • SIGAL : un concept multimodal, frugal et citoyen de vélo biporteur longtail électrique
  • Station Sécurisée Vélos : la solution complète au service d’une mobilité positive
  • NEOTRUCKS : la première solution de mobilité durable pour la supply chain
  • HeSy Mobility : une nouvelle gamme de motorisations éco-conçues et à haute performance énergétique

VOIR LE REPLAY

 

  • MOIRA : analyser les risques des suspensions automobiles et ferroviaires
  • dBFlash : contrôle automatique de véhicules bruyants en zone urbaine
  • EXXOTEST : Une plateforme de service complète pour les tests des constructeurs
  • CTIS : un système innovant de passage d’air et de gonflage de pneus
  • NOMAD : l’analyse d’équipements et de matériels améliorée

VOIR LE REPLAY

 

Au cours de ces sessions, différents thèmes d’innovation ont été abordés par plusieurs intervenants, adhérents du pôle de compétitivité CARA.

CARA en quelques mots :

CARA, implanté en régions Auvergne-Rhône-Alpes et Centre-Val de Loire, est un pôle de compétitivité réunissant plus de 420 adhérents (industriels, opérateurs de transports, laboratoires de recherche et centres de formation).

Le pôle de compétitivité CARA soutient les évolutions des systèmes de transport de personnes et de marchandises offrant des solutions pour la digitalisation et la décarbonation des moyens de transport. Ainsi, l’évènement Mobility Techdays organisé par CARA se pose en vitrine des savoir-faire innovants des régions Auvergne-Rhône-Alpes.

Ce rendez-vous présentera 22 projets d’innovation à destination des acteurs du secteur des mobilités (français et internationaux), dans un cadre professionnel privilégié. Ils sont repartis sur 3 thèmes

  • Electrification & Powertrain
  • Structure & Matériaux
  • Systèmes de transport & Intelligence

Cette mise en valeur est propice à de futures collaborations. A vos agendas, la prochaine édition se tiendra le 21 novembre 2024 au Matmut Stadium de Gerland, à Lyon.

D’ici là, inscrivez-vous pour connaître les projets innovants qui seront présents lors des Mobility Techdays.

10ème édition du SIDO : l’événement qui accélère la transformation digitale des entreprises

Pour ses dix ans le SIDO annonce une édition inédite ! À l’occasion de ce millésime anniversaire, SIDO enrichit sa proposition de valeur avec, notamment, la création d’un side-event, Lyon Cyber Expo, dédié à la cybersécurité pour les PME, ETI et Grands Groupes.

En quelques années seulement SIDO est devenu le rendez-vous incontournable des professionnels souhaitant concrétiser un projet de transformation numérique. Réseaux et connectivité, composants hardware, ingénierie, intégrateurs, software, intelligence artificielle, nouvelles interfaces homme-machine, robotique collaborative, réalités immersives… toutes les briques technologiques indispensables à un projet 4.0 sont représentées sur le salon, proposant ainsi aux visiteurs une vitrine complète de solutions pour leur business. Avec son format exposition et conférences, SIDO présente et décrypte ces technologies, notamment leurs applications et usages, grâce aux nombreux retours d’expériences partagés pendant deux jours.

Deux jours pour participer à un concentré d’expertises

Capitaines d’industrie, dirigeants de PME et d’ETI, décideurs en entreprise, responsables de l’innovation ou de la R&D… À l’heure de l’essor exceptionnel des intelligences artificielles génératives et de leur convergence avec des technologies comme l’IoT industriel, la robotique, les réalités immersives ou le quantique, il est capital de prendre le bon wagon et de trouver les bons partenaires.

En 2024, SIDO ne s’arrête pas là, et accélère le mouvement sur la thématique du numérique responsable. La zone Impact by SIDO, rassemblera notamment des entreprises et startups développant des solutions IoT, IA, XR ou Robotique basées sur un modèle économique durable ou répondant à des enjeux écologiques majeurs. Cette initiative s’inscrit dans le cadre d’un partenariat avec la Métropole de Lyon qui sera présente avec des acteurs du reconditionnement IT. Le programme de conférences, déjà imprégné de la thématique depuis plusieurs années, adressera notamment les enjeux de la frugalité numérique, de la gestion des ressources, de la performance énergétique, de l’éco-conception et du cycle de vie d’un produit.

Lyon Cyber Expo : le nouveau RDV des PME, ETI & grands groupes

En tant qu’événement numérique phare de la Région Auvergne-Rhône-Alpes, SIDO souhaite vivement participer à l’effort collectif de sensibilisation des entreprises du territoire aux risques cyber et s’associer aux différentes initiatives régionales. Lyon Cyber Expo, véritable spin-off du SIDO, ambitionne d’être une plateforme d’échange business où industriels, tech leaders et monde de la recherche peuvent collaborer, partager leurs connaissances, créer de nouveaux partenariats technologiques et concevoir des projets concrets pour protéger l’écosystème numérique de nos entreprises. Parmi les partenaires de cette première édition, Minalogic, Cap’tronic, le Club de la sécurité des systèmes d’information régional (Clusir) Auvergne-Rhône-Alpes, l’Association pour le Digital et l’IT en Région Auvergne-Rhône-Alpes (Adira), la Fédération Française de la Cybersécurité, Digital League ou encore le Cercle des Femmes dans la Cybersécurité (CEFCYS) ont tous répondu à l’appel.

En parallèle, le programme de conférences abordera des sujets brûlants tels que le Cyber Resilience Act, la Directive NIS2 qui entre en vigueur à partir d’octobre 2024, la gestion des risques et détection des menaces, mais également les défis de sécurité spécifiques aux systèmes de contrôle industriel et la convergence IT/OT.

Plus de 200 speakers attendus et 70 conférences au programme

Ils vous partageront leurs expertises et expériences pour vous donner les clés d’une transformation digitale réussie ! Plusieurs intervenants ont déjà confirmés leur présence : Émeline Baume (1ère Vice-Présidente, Métropole de Lyon), Laurence Devillers (Enseignante-Chercheuse en éthique de l’IA, Université Paris-Sorbonne), Julie Galland (Directrice de la recherche technologique, CEA), Juliette Fropier (Cheffe de projet Intelligence Artificielle, Ministère de la Transition Écologique et de la Cohésion des Territoires / Commissariat Général au Développement Durable), Mathieu Delaplace (Délégué à la sécurité numérique pour la région Rhône-Alpes, ANSSI), Hervé Roustan (Responsable R&D, Rio Tinto), ou encore Mathieu Wellhoff (Directeur du service Sobriété numérique, Ademe)… et bien d’autres à découvrir très prochainement

Inscrivez-vous gratuitement pour visiter l’événement dès maintenant

ROBUSTA-3A : un nanosatellite montpelliérain en passe de faire la pluie et le beau temps sur la Méditerranée

9 juillet 2024, 21 h, heure de Paris. Il y a deux mois, Ariane 6 filait pour la toute première fois de son histoire vers l’espace, après son décollage depuis le nouvel ensemble de lancement ELA4, aménagé pour l’occasion, au prix de huit années de travaux, au sein du Centre spatial guyanais de Kourou. Un vol inaugural couronné de succès, à l’occasion duquel le dernier-né de la famille des lanceurs européens a notamment permis le déploiement de huit CubeSats, ces nanosatellites faits d’unités cubiques de dix centimètres de côté.

Parmi eux, CURIE, un « détective radio » conçu par la NASA, mais aussi, pour le reste, une série de CubeSats développés par des start-up, entreprises et universités européennes :

  • 3Cat-4, de l’Université polytechnique de Catalogne ;
  • ISTSat-1, de l’Université de Lisbonne ;
  • GRBBeta, conçu par la jeune pousse slovaque Spacemanic ;
  • OOV-Cube développé par l’Université technique de Berlin (TU Berlin) et la société berlinoise RapidCubes ;
  • Replicator de la start-up allemano-polonaise Orbital Matter ;
  • Currium One de l’entreprise berlinoise PTS.
ROBUSTA-3A a pris place à bord d’Ariane 6
ROBUSTA-3A a pris place, le 9 juillet dernier, à bord d’Ariane 6. © ESA, CNES, Arianespace, ArianeGroup

Mais aussi – last but not least – un CubeSat de trois unités entièrement conçu et assemblé au sein du Centre spatial de l’Université de Montpellier (CSUM), fruit de plus d’une décennie de travail et de l’implication de pas moins de 300 étudiantes et étudiants… Son nom : ROBUSTA-3A.

Un travail de longue haleine

Tout a commencé en 2006, année au cours de laquelle le CNES lance un appel à projets baptisé EXPRESSO (EXpérimentations et PRojets ÉtudiantS dans le domaine des Systèmes Orbitaux et des ballons) dans l’optique d’attirer étudiantes et étudiants vers la filière spatiale, tout en leur offrant la possibilité d’acquérir une forme d’expérience professionnelle.

Des objectifs auxquels le Professeur à l’Université de Montpellier et chercheur du groupe RADIAC de l’Institut d’Électronique et des Systèmes[1] Laurent Dusseau se révèle naturellement sensible. L’enseignant-chercheur décide alors de répondre à cet appel lancé par le CNES, en présentant un projet qu’il nomme ROBUSTA, pour Radiations On Bipolar for University Satellite Test Application.

« [Nous] avons décidé de répondre à cet appel à projets EXPRESSO avec un picosatellite emportant une charge utile vouée à l’étude de ce qui s’avère aujourd’hui l’une des préoccupations majeures en matière de résistance [des satellites] aux radiations : la sensibilité accrue au faible débit de dose[2] des composants bipolaires », expliquaient le Pr Dusseau et ses collègues dans un article co-signé en 2009. Un projet qui fera finalement partie des trois retenus par le CNES, sur les huit réponses reçues par l’établissement public. S’ensuivent ainsi six années de développement, qui aboutissent, le 13 février 2012 à la mise en orbite de ce qui n’était alors rien de moins que le tout premier CubeSat français : ROBUSTA-1A.

ROBUSTA-3A est un CubeSat de 3 unités
Succédant à plusieurs modèles 1U, ROBUSTA-3A est quant à lui un CubeSat de 3 unités. © Université de Montpellier – Fondation Van Allen

Un véritable « écosystème » du nanosatellite

Quelques mois auparavant, le conseil d’administration de l’Université de Montpellier actait par ailleurs la création du Centre Spatial Universitaire de Montpellier (CSUM), une plateforme technologique destinée à développer et à rassembler moyens et compétences en matière d’ingénierie, de production, d’opération, de tests et d’applications des nanosatellites. Quelques mois plus tard, en novembre 2012, c’est aussi une autre structure clé qui voyait le jour : la Fondation Van Allen. Présidée par l’ex-ministre Jean-Claude Gayssot, cette fondation partenariale de l’Université de Montpellier assure, depuis lors, un soutien stratégique et financier au CSUM, tout en jouant un rôle de catalyseur de projets collaboratifs. Parmi ses quatre membres fondateurs, figurent en effet – outre le représentant du monde académique qu’est l’Université de Montpellier – trois acteurs du monde économique : Airbus Defence & Space, 3D Plus, et le groupe Expleo. Et ça n’est pas tout : en 2015, la fondation a lancé son « Club des Partenaires », aujourd’hui riche d’une trentaine d’entreprises basées aux quatre coins de la France, qui forment ainsi un véritable « écosystème » du nanosatellite. De quoi poursuivre, avec tous les soutiens nécessaires, cet ambitieux projet ROBUSTA initié en 2006.

Outre la mise au point, à partir de 2012, du successeur du CubeSat ROBUSTA-1A – un autre nanosatellite 1U baptisé ROBUSTA-1B, qui a permis la collecte de données sur la dégradation de composants électroniques soumis à l’environnement radiatif spatial pendant pas moins de six ans – ainsi que d’autres projets de satellites 1U[3], le CSUM et ses partenaires se sont lancés, en 2013, dans le développement d’un satellite trois fois plus volumineux : le fameux ROBUSTA-3A. Co-financé par la Fondation Van Allen et le CNES dans le cadre du projet NanoLab Academy, ce travail de développement s’est poursuivi pendant une décennie, grâce à la contribution d’environ 300 étudiantes et étudiants. Il n’en fallait pas moins, en effet, pour parvenir à donner vie à ce CubeSat de 4 kg conçu – littéralement – à partir d’une feuille blanche.

Le développement de ROBUSTA-3A s’est étalé sur une décennie, avec la contribution d’environ 300 étudiantes et étudiants du CSUM
Co-financé par la Fondation Van Allen et le CNES, le développement de ROBUSTA-3A s’est étalé sur une décennie, et a nécessité la contribution d’environ 300 étudiantes et étudiants du CSUM. © Fondation Van Allen

Du « fait maison », de A à Z

Il faut dire tout d’abord que, outre une mission secondaire d’étude des radiations sur les composants électroniques – logiquement inscrite dans la droite ligne du projet ROBUSTA – ROBUSTA-3A s’est vu confier une mission principale plus surprenante : contribuer à l’amélioration des modèles de prévision d’un phénomène météorologique causé – en substance – par l’accumulation d’humidité atmosphérique au-dessus de la Méditerranée : les épisodes cévenols… Comment ? En se faisant le relais[4] d’ondes électromagnétiques – les signaux des systèmes de localisation satellitaire GNSS – dont la modification par la vapeur d’eau atmosphérique constitue un parfait proxy pour évaluer les niveaux d’humidité troposphérique (une approche sur laquelle le Pr Laurent Dusseau a apporté un éclairage détaillé dans le cadre d’un colloque grand public organisé en 2023 par l’Académie des Sciences et Lettres de Montpellier, à découvrir ici en vidéo).

Les éléments constitutifs de ROBUSTA-3A ont été quasi intégralement conçus au sein du CSUM
Les éléments constitutifs de ROBUSTA-3A ont été quasi intégralement conçus au sein du CSUM. © Fondation Van Allen

Pour mener à bien cette mission, le CSUM s’est donc entouré d’une série de partenaires de renom – Météo-France, l’IGN, l’ENSTA Bretagne, ainsi que le Port de Sète – et s’est attelé au développement, en interne, de la quasi-totalité des briques technologiques constitutives de ROBUSTA-3A. « Nous ne nous sommes pas contentés d’assembler des solutions sur étagère, mais avons, au contraire, tout développé à partir d’une feuille blanche », expliquait à l’occasion d’un point presse organisé une dizaine de jours après la mise en orbite du CubeSat, le Pr Dusseau. « Nous avons tout conçu ici, de A à Z[5], de la moindre pièce mécanique, aux logiciels, en passant par les cartes électroniques nécessaires au fonctionnement du satellite », a-t-il précisé, en faisant valoir, au passage, la fiabilité de ces briques technologiques développées au sein du CSUM.

En témoigne, en effet, la situation dans laquelle se trouvait ROBUSTA-3A quelques jours après sa mise en orbite à 580 km au-dessus de nos têtes. « Le de-tumbling s’est très bien passé, le spin a été très rapidement sous contrôle. […] Le système de commande d’attitude et d’orbite (SCAO) s’est même révélé plus performant que ce à quoi nous nous attendions… Nous poursuivons actuellement les étapes suivantes de commissioning », résumait le 18 juillet dernier, face à la presse, le Pr Dusseau, tout en estimant à quelques semaines encore, le temps de travail nécessaire avant que ROBUSTA-3A ne soit, enfin, pleinement opérationnel[6]. Le nanosatellite montpelliérain pourrait ainsi contribuer dès cet automne à la prévision des pluies cévenoles ; phénomène météorologique qui, sous l’influence du changement climatique, pourrait d’ailleurs bien devenir de plus en plus fréquent.

Un aboutissement, mais pas un point final – bien au contraire – pour le CSUM, qui compte en effet désormais se lancer dans des projets de développement de nanosatellites au format 12U.


[1] UMR 5214

[2] Enhanced Low Dose Rate Sensitivity (ELDRS)

[3] ROBUSTA-3A est le 8e nanosatellite du CSUM en orbite.

[4] Voir le schéma en page 11 de ce document.

[5] À l’exception de quelques éléments : ADCS (Attitude Determination and Control System) et système de communication radio en bande S. 

[6] MàJ 26/08 : ROBUSTA-3A se porte bien. Avec le retour des vacances d’été, les opérations reprennent pour le préparer à démarrer prochainement sa mission, nous indique la fondation Van Allen.

Les ventes de véhicules électriques décollent en Chine, mais ralentissent en Europe

La Chine est particulièrement active sur le marché de l’électrique et les dizaines de marques chinoises qui sont récemment apparues commencent sérieusement à faire de l’ombre aux constructeurs étrangers, dont Tesla. Et le ralentissement économique que connaît le pays en ce moment ne semble pas inverser cette tendance, la concurrence entre constructeurs et les subventions accordées cette année par l’État ayant tendance à faire baisser le prix d’achat des véhicules.

La part de marché de l’électrique recule dans l’UE

Contrairement à ce qui se passe en Chine, la vente de véhicules électriques semble marquer un coup d’arrêt en Europe, après trois ans de croissance. Et la situation en Allemagne y est pour beaucoup.

En effet, l’Allemagne demeure le premier marché automobile de l’UE avec 2,8 millions de véhicules immatriculés en 2023. Or, le pays a décidé de supprimer les aides à l’achat pour les voitures électriques, pour des raisons économiques, l’Allemagne n’arrivant pas à boucler son budget.

Pour le marché automobile européen et pour les constructeurs, ce revirement politique a des conséquences directes. Selon un rapport récent, 100 000 voitures électriques (provenant aussi bien de constructeurs allemands que de l’import !) seraient actuellement entassées sur des parkings en Allemagne.

Le moteur thermique, pas totalement enterré dans l’UE après 2035

Cette situation peut laisser perplexe, alors que la fin des moteurs thermiques en Europe est toujours prévue pour 2035 ! Mais il faut dire que depuis qu’elle a été annoncée, en 2022, la mort programmée des véhicules thermiques est loin de faire l’unanimité. C’est même un très fort sujet de controverse, cette marche forcée vers le tout électrique étant critiquée par de nombreux experts et bien entendu par les constructeurs eux-mêmes.

Malgré les polémiques, Ursula von der Leyen a néanmoins décidé de maintenir cet objectif de 100 % de voitures neuves « zéro émission » en 2035. En revanche, une promesse a été faite, dans une volonté d’apaisement : accompagner la nouvelle loi « de textes réglementaires autorisant les moteurs thermiques fonctionnant avec des carburants synthétiques (e-fuels) ».

Car, il faut préciser que la loi n’a jamais fait mention d’une interdiction des moteurs thermiques. Elle interdit simplement aux véhicules neufs d’émettre du CO2. Les moteurs pourront donc, en théorie, rouler au carburant de synthèse, à condition que des carburants 100 % neutres en carbone soient disponibles en 2035, ce qui n’est pas le cas actuellement.

Par ailleurs, ces carburants de synthèse sont coûteux à produire et leur impact environnemental est loin d’être neutre. Leur usage sera donc probablement limité aux véhicules de luxe et aux plus riches, Porsche ayant déjà inauguré sa première usine de production d’e-fuel en 2022.

Un boom des modèles hybrides

La technologie hybride, en revanche, est particulièrement populaire, aussi bien en Chine qu’en Europe, et certains y voient l’avenir de la motorisation électrique. Il faut dire que pour les utilisateurs, l’hybride est un compromis intéressant, puisqu’elle permet d’économiser de 20 % à 30 % de carburant et de bénéficier des avantages de l’électrique (couple au démarrage), sans en subir les inconvénients (autonomie).

En Chine, 945 000 modèles hybrides ont ainsi été vendus rien que sur le mois de juillet 2024 contre 505 000 véhicules 100 % électriques. Pour ce qui est de la France, si la vente de véhicules 100 % électriques patine, les acheteurs semblent aussi se tourner vers les motorisations hybrides. Cette tendance s’observe également dans le reste de l’Europe puisque les ventes d’hybrides simples ont bondi de 22,3 % entre janvier et juin 2024.

L’avenir de la mobilité est incertain

Est-il vraiment réaliste d’imaginer un avenir sans moteur thermique ? La résistance actuelle du marché et la popularité des moteurs hybrides sont peut-être le signe que non. D’un autre côté, la baisse du prix des véhicules électriques qui se profile va certainement changer la donne – en Chine les voitures électriques coûtent déjà moins cher que les modèles thermiques – et l’électrique va bien finir par réaliser une percée durable. Quoi qu’il en soit, l’avenir de l’automobile semble incertain, notamment en Europe.

Par ailleurs, comme le rappelle l’ADEME dans son avis concernant l’électrification massive du marché des véhicules particuliers, la mobilité n’est pas qu’une question de motorisation et le passage à l’électrique n’est pas un simple changement de carburant. Il est tout aussi important de repenser nos modes de déplacement, notamment en privilégiant des solutions alternatives pour les trajets longue distance.

La revue du Magazine d’Actualité #1 : du 2 au 6 septembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

L’info la plus ENCOURAGEANTE

Les performances récentes de l’industrie française sont optimistes
A l’initiative de Bpifrance, un état des lieux sous forme d’infographies publié cet été dresse un portrait de l’industrie française. 40 ans de désindustrialisation ont laissé des traces mais la réindustrialisation semble en marche, comptant sur un tissu industriel varié et sain.
> Lire l’article dans son intégralité

La voiture la plus QUANTIQUE

L’informatique quantique stimule le secteur automobile
Dans le monde industriel, le secteur automobile s’intéresse aux applications de l’informatique quantique qui permettraient d’obtenir des résultats plus rapides, plus précis, une meilleure gestion de la supply chain et une prise de décision améliorée.
> Lire l’article dans son intégralité

L’article le plus SEXY

Textile Made in France : la situation du Slip Français
Le textile made in France traverse une période délicate. Guillaume Gibault, président fondateur du Slip Français, explique les démarches de relance de son activité dans ce contexte de crise.
> Lire l’article dans son intégralité

Le sujet le plus EUROPEEN

Hydrogène naturel : un potentiel à développer et une filière à construire
Des permis d’exploration ont été déposés dans des régions de France à la géologie propice à la présence d’hydrogène naturel. Labelliser celui-ci comme décarboné au niveau européen permettrait d’accéder à des subventions et de faciliter la commercialisation en cas de découverte.
> Lire l’article dans son intégralité

L’animal le plus INSPIRANT

Une particularité des pythons pourrait aider à améliorer les traitements cardiaques
Des scientifiques ont observé un super-pouvoir des pythons constricteurs : leur cœur s’adapte à l’alternance de longs jeûnes et d’ingestions de proies parfois démesurées. Il ressort renforcé en volume et en puissance des périodes de digestions, faisant espérer des avancées du côté des thérapies cardiaques.
> Lire l’article dans son intégralité

Des prédictions micro-météorologiques à l’échelle de la parcelle agricole

Bientôt des prédictions météorologiques à l’échelle de la parcelle qui prennent en compte les échanges entre la végétation et l’atmosphère ? Dans une étude publiée dans Journal of Atmospheric Sciences, des chercheurs de l’INRAE révèlent avoir franchi une étape décisive dans ce projet grâce au suivi de l’évolution des conditions météo du début de la matinée. Cette période, peu abordée à ces échelles, est en effet cruciale pour les prévisions relatives au fonctionnement des écosystèmes cultivés.

Pour parvenir à une prévision fine d’un territoire, les scientifiques ont pris comme modèle une parcelle forestière d’une surface de 25 km2 (5 x 5 km). Un travail de simulation a été entrepris et a consisté à représenter l’évolution des flux de masse et d’énergie au-dessus du couvert forestier, entre 4 h et 9 h du matin, une période complexe à cause de sa forte variabilité temporelle liée au réchauffement de la surface. C’est en effet au cours de la matinée que la couche limite atmosphérique (CLA), qui correspond à l’interface entre la surface terrestre et l’atmosphère libre, se développe et s’épaissit.

L’étude de cette partie inférieure de l’atmosphère est très importante, car elle est sous l’influence directe des processus terrestres et dépend non seulement des paramètres météorologiques (vent, température, humidité…), mais aussi de la topographie et du type d’environnement (océan, paysage rural, urbain…). Elle est actuellement un maillon important de la physique des modèles de prévision et de climat. Ceux qui ne prennent pas en compte ce paramètre peuvent conduire à des erreurs de prédiction des conditions météorologiques à l’échelle territoriale.

Pour réaliser la simulation sur la parcelle forestière, le supercalculateur Juliot-Curie installé au sein du TGCC (Très grand centre de calcul) du CEA a été utilisé par les auteurs de cette étude. Durant plusieurs mois, il a permis d’accumuler 7,5 To (téraoctet) de données, soit l’équivalent de 26 jours de calcul en continu, pour une simulation représentant les échanges de masse et d’énergie durant 5 h (de 4 h à 9 h du matin). Cette quantité massive d’informations a permis l’obtention d’une résolution spatiale et temporelle extrêmement fine, de l’ordre du mètre et de la milliseconde, respectivement.

Quantifier un rejet massif de CO2 par la forêt en début de matinée

Les chercheurs ont identifié des différences dans les échanges (en termes de mouvements des masses d’air, flux de chaleur et d’évaporation) entre la forêt et l’atmosphère dans des conditions de vents faible ou fort. Parmi les résultats obtenus, ils sont parvenus à reproduire pour la première fois, dans des conditions de vent faible, un rejet massif de CO2 par la forêt en début de matinée. Il est dû à son accumulation dans l’air du sous-bois durant la nuit, en raison de la respiration des plantes et du sol et de la faible turbulence au sommet de la canopée, limitant les échanges avec l’atmosphère au-dessus.

Cette étude va se poursuivre grâce à des travaux de thèse dans le but d’étendre ces simulations à des paysages plus complexes, afin d’étudier la micro-météorologie dans des environnements associant cultures et forêts, caractérisés par des reliefs vallonnés, ainsi que dans des systèmes agroforestiers. L’objectif est de quantifier l’impact des hétérogénéités du paysage sur le microclimat et d’identifier des stratégies d’aménagement des paysages agricoles visant à atténuer les effets du changement climatique sur les cultures.

La compréhension de la complexité microclimatique est essentielle pour développer des stratégies agricoles qui en tirent parti, afin d’atténuer les extrêmes climatiques. Avec ses cultures, ses haies, ses forêts, mais aussi ses routes, le territoire rural offre une hétérogénéité qui génère une variabilité spatiale des flux de chaleur et des mouvements d’air plus ou moins chargés d’humidité. Ces échanges influent localement sur le climat, créant des zones mieux adaptées aux conditions climatiques extrêmes et des zones plus critiques. C’est le cas par exemple des systèmes agroforestiers qui intègrent des arbres dans les cultures et qui permettent de limiter l’évaporation du sol, d’atténuer le vent et les pics de chaleur, créant ainsi des conditions favorables aux cultures.

Étudier les pythons pour trouver de nouvelles thérapies cardiaques

Face à un environnement extrême, certains animaux ont développé des mécanismes de survie uniques. Ces derniers nous donnent un aperçu d’applications potentielles pour la santé humaine. Que ce soit en Afrique, en Asie du Sud ou encore en Australie, les pythons peuvent croître jusqu’à une longueur totale de 6 mètres ! Mais leur « super-pouvoir » ne se trouve pas là. En effet, ils sont capables de jeûner pendant de longues périodes, avant de se nourrir énormément à la moindre opportunité. Même si cette opportunité prend la forme d’un cerf entier ! Pour parvenir à digérer une telle quantité de nourriture, le cœur des pythons s’adapte : il gagne en masse, son débit augmente et sa fréquence de battements va jusqu’à doubler. Deux semaines après un repas, la digestion du python prend fin et tous ses systèmes retournent à la normale. Seul lui reste un organe cardiaque légèrement plus gros et puissant qu’auparavant…

Des pythons royaux au grand cœur

Le cas des pythons a fait de l’œil à Claudia Crocini et son équipe de recherche de l’université du Colorado à Boulder (États-Unis). Son idée étant d’étudier le fonctionnement du cœur de pythons gavés afin d’utiliser ces nouvelles connaissances en vue de la mise au point de traitements plus efficaces chez l’humain. Rien que la fibrose cardiaque (traduite par un épaississement du tissu entourant le cœur), qui survient des suites d’une agression – un infarctus du myocarde par exemple – et peut mener à une insuffisance cardiaque, compte parmi les premières causes de morbi-mortalité dans le monde. La recherche effectuée par l’équipe américaine, présentée plus en détail dans le journal PNAS du 19 août 2024, portait sur des spécimens de pythons royaux (Python regius).

Après 28 jours de diète, une partie des individus était nourrie à hauteur de 25 % de leur masse corporelle avant d’être comparée à leurs homologues encore à jeun. Après 24 heures, les animaux repus présentaient une masse cardiaque 24,5 % plus importante, des myofibrilles (de petites fibres contractiles au sein des fibres musculaires) ramollies et 50 % plus fortes, ainsi qu’un métabolisme boosté par 40 et aidé par toute une collection de gènes spécialisés. D’autres analyses sont nécessaires pour déterminer précisément la nature et la fonction des différents gènes et métabolites impliqués, mais l’étude actuelle suggère déjà que certains d’entre eux pousseraient le cœur à brûler de la graisse plutôt que du sucre. Pour en savoir davantage, il faudra encore patienter…

Boom des recharges électriques en 2024 : un été record

Les Français équipés de voitures électriques ont testé cet été la recharge électrique sur autoroute. Entre le 1er et le 18 août, le nombre de sessions de recharge a doublé par rapport à la même période en 2023, alors que sur la période le parc n’a augmenté que de 16 %. Le nombre de kilowattheures vendu a pour sa part augmenté de 110 %. « Cela signifie qu’au-delà d’une augmentation significative des sessions de recharge, nos usagers chargent plus d’énergie par session qu’en 2023 », partage TotalEnergies. Autrement dit, les voyageurs chargent davantage d’électricité à chaque session, soit pour optimiser le temps de trajet, soit pour voyager plus loin, soit parce qu’ils ont des batteries plus grosses.

TotalEnergies a constaté une augmentation de 116 % de la fréquentation de ses stations de recharge par rapport à l’été précédent. Le TOP 3 des plus grosses journées a été les samedis de chassés-croisés : le 3 août, le 10 août et le 27 juillet. Ce boom s’explique en grande partie par la hausse des ventes des véhicules électriques et par un réseau de bornes haute puissance désormais opérationnel dans 100 % des stations de l’entreprise sur autoroute et voies rapides. Cela représente plus de 1 000 points de recharge dans 230 stations-service sur tout le territoire. Ces bornes, capables de délivrer jusqu’à 300 kilowatts (kW), permettent aux usagers de recharger leur batterie en moins de 30 minutes. Une avancée cruciale pour les longs trajets estivaux.

Un coût élevé de la recharge ultra-rapide

Cette affluence croissante s’accompagne d’une interrogation de taille : quel est le coût de la recharge sur autoroute ? En moyenne, recharger 100 km sur une borne haute puissance de TotalEnergies coûte environ 11 €, avance l’entreprise. Une recharge rapide de 40 kilowattheures (kWh) – hors frais d’occupation supplémentaire – coûtera 19,6 €, une recharge ultra-rapide 23,6 €. Dans le détail, le géant pétrolier applique un taux de 0,49 €/kWh sur les bornes de puissance jusqu’à 50 kW et de 0,59 €/kWh sur les bornes de puissance supérieure à 50 kW. Des frais d’occupation de 0,40 €/min s’appliquent à partir de 45 minutes de connexion à la borne pour encourager la rotation des véhicules sur les stations de recharge.

Ces prix se situent dans la moyenne des prix observés sur autoroute, mais restent bien plus chers qu’une recharge lente à domicile. Cette dernière s’élève à 0,2516 €/kWh en option base, 0,27 €/kWh en heures pleines et 0,2068 €/kWh en heures creuses, au tarif réglementé de vente de l’électricité.

Un besoin de clarification des offres

Dans son troisième rapport semestriel sur le prix de la recharge publique publié fin juillet 2024, l’Avere-France rappelle qu’« une session de recharge peut être facturée au temps (par minute), à l’énergie (kWh) ou à une combinaison des deux », à quoi « s’ajoutent des frais auxiliaires, tels que les frais de session ou les frais de stationnement après la recharge ». Entre janvier et juin 2024, le prix de la recharge ultra-rapide a augmenté de 6,77 %, lorsque celui de la recharge rapide a baissé de 6,08 %, relève le rapport.

Selon l’étude, les coûts moyens d’une recharge ultra-rapide type s’échelonnent de 17 € à 26,4 € (pour 40 kWh consommés, à 0,52 €/kWh). Les prix varient suivant la présence ou non d’un abonnement, et du système de facturation, basé uniquement sur l’énergie consommée ou aussi au temps passé (pour 25 minutes à 0,21 €/min).

De son côté l’Autorité de la concurrence a publié en juin dernier son avis sur le fonctionnement concurrentiel des infrastructures de recharge pour véhicules électriques. Elle y explique : « Les structures tarifaires sont très diverses et le prix est difficilement anticipable par l’utilisateur final. » Elle recommande donc d’« imposer […] une tarification de la recharge au kWh » aux opérateurs et de compléter la « base de données publique actuelle en imposant […] la transmission de ces tarifs au kWh et leur mise à jour en temps réel, par point de recharge » afin d’aider à l’émergence de comparateurs de prix.