Un revêtement sans plastique, biodégradable et antibactérien pour rendre le papier étanche

Dans un précédent article, l’entreprise française Lactips nous présentait sa solution d’enduction du papier sans plastique, à base de caséine. L’autre solution dont il est question dans ce présent article, bien qu’elle ne soit pas à un stade de développement avancé, est également intéressante, car elle confère au papier des propriétés antibactériennes et antisalissures.

Un revêtement solide et imperméable baptisé « Choetsu »

La solution proposée par le professeur Zenji Hiroi de l’Université de Tokyo et son équipe consiste à utiliser une technique de revêtement à base de silice et de résine pour générer un film solide et imperméable à l’humidité.

Le processus de fabrication a l’avantage d’utiliser des produits chimiques peu coûteux et relativement sûrs.

Son fonctionnement est détaillé dans l’article paru récemment dans ACS Publications :

  • Dans un premier temps, un agent de revêtement est préparé, en mélangeant différents précurseurs liquides : méthyltriméthoxysilane (MTMS), alcool isopropylique, titanate de tétraisopropyle (TPT)¹.
  • La structure en papier est ensuite plongée dans ce liquide. Le mélange peut aussi être appliqué par pulvérisation.
  • Le papier imprégné est ensuite séché à température ambiante.
  • Une fine couche de siloxane se dépose (un composé organique à base de silicium) et vient alors renforcer le papier, qui garde cependant sa flexibilité.
  • Les groupes organiques restants viennent combler les porosités, ce qui rend également le papier étanche.

Baptisé « Choetsu », ce matériau hybride possède un autre avantage : grâce aux atomes de titane contenus dans le TPT, une fine couche de nanoparticules de TiO2 se dépose également lors du séchage. Or, le TiO2 (anatase) est connu pour son activité photocatalytique qui confère des propriétés antisalissures et antibactériennes.

Des matériaux hybrides organiques/inorganiques pour remplacer le plastique ?

Au-delà d’être une simple technique de revêtement du papier, la solution proposée par les chercheurs pourrait être applicable à d’autres matériaux.

Dans un communiqué de presse, Zenji Hiroi a ainsi déclaré : « Le défi technique est relevé et certaines applications pourraient être réalisées prochainement, comme des articles destinés à la consommation, au conditionnement ou au stockage des aliments. Nous espérons maintenant pouvoir appliquer cette approche à d’autres types de matériaux. La composition du liquide peut être adaptée à d’autres matériaux, et nous pouvons créer un revêtement résistant à la saleté et à la moisissure qui pourrait se former sur le verre, la céramique et même d’autres plastiques afin d’étendre leur utilité. »


¹ TPT : [(CH3)2CHO]4Ti), MTMS : CH3Si(OCH3)3

Une nouvelle méthode pour valoriser le plus puissant gaz à effet de serre

L’hexafluorure de soufre (SF6) est un puissant gaz à effet de serre. Son potentiel de réchauffement climatique est 23 900 fois plus élevé que celui du CO2 et sa durée de vie dans l’atmosphère s’élève à 3 200 ans. Depuis le protocole de Kyoto en 1997, ce gaz synthétique fait l’objet d’importantes restrictions. Son utilisation est, par exemple, depuis interdite dans la fabrication de baskets. Mais faute de produits alternatifs, il est encore utilisé comme isolant électrique des équipements haute tension, afin d’éviter la formation d’arcs électriques. Cet usage représente 80 % de tout le SF6 produit. Une équipe de l’ICBMS (Institut de Chimie et Biochimie Moléculaires et Supramoléculaires), en collaboration avec l’ENS (École Normale Supérieure) de Lyon et l’ICR (Institut de Chimie Radicalaire), vient de mettre au point une méthode pour valoriser le SF6 afin de générer des composés à haute valeur ajoutée. Les résultats de leur travail de recherche viennent d’être publiés dans la revue Angewandte Chemie International Edition.

Les chercheurs ont développé une nouvelle stratégie d’activation du SF6 en brisant une liaison S-F (soufre-fluor) dans des conditions douces. Concrètement, ce gaz a été mis au contact d’une molécule organique en solution, en l’occurrence une amine, puis a été irradié à l’aide d’une lumière visible bleue. Ce mélange a permis d’obtenir un solide intermédiaire qui peut être filtré et stocké. « Alors que le SF6 est un gaz très stable et inerte, nous avons réussi à lui faire perdre un fluorure et à le transformer en un réactif : le SF5- » révèle Anis Tlili, chercheur au CNRS.

Ce solide a ensuite servi à réaliser deux types de réactions. Il a d’abord été utilisé pour insérer du fluor sur des molécules organiques via une réaction de désoxyfluoration dans le but de transformer des produits oxygénés en produits fluorés. Cette réaction présente par exemple un intérêt pour désoxygéner des produits dérivés de la biomasse, afin de les transformer notamment en combustible.

Obtenir une meilleure stabilité physico-chimique

Le fluor modifie grandement les propriétés des composés organiques qui les portent et ces derniers sont donc très recherchés. « Il faut savoir qu’environ 40 % de produits agrochimiques et 20 % des produits pharmaceutiques contiennent au moins un fluor, ajoute le chercheur. Cette incorporation permet d’atteindre certaines caractéristiques physico-chimiques, notamment une meilleure stabilité. Par exemple, lorsque l’on remplace les liaisons C-H (carbone-hydrogène) par des liaisons C-F (carbone-fluor) dans des médicaments, cette modification le rend plus stable et l’on prévient des sous-réactions potentielles dans le corps humain. »

La deuxième réaction développée à partir de ce solide est l’insertion du groupement fluoré SF5 sur des composés organiques. Ce groupement est très convoité pour les raisons citées ci-dessus, mais peu de méthodes pour l’incorporer existent à ce jour. L’intérêt de cette réaction réside donc dans l’obtention de ce groupement en partant d’un gaz à effet de serre.  « À partir de ce gaz inerte, très nocif pour l’environnement, nous avons réussi à faire d’une pierre deux coups et démontré que l’on peut obtenir des produits potentiellement intéressants dans tous les domaines de la science de la vie », déclare Anis Tlili.

Ce travail de recherche va se poursuivre, notamment pour tenter de réaliser les réactions à une échelle plus grande que celle du laboratoire. Les scientifiques veulent aussi essayer d’obtenir d’autres molécules intermédiaires, présentant encore plus de stabilité et permettant d’autres applications potentielles.

Quels emplois dans les filières gaz et chaleur en transition ?

La transition énergétique se fait simultanément et souvent en lien avec d’autres transitions comme celle du numérique et celle des modèles économiques devant répondre aux nouveaux usages de la mobilité, des bâtiments, des villes durables, etc. L’ensemble des filières valorisant les gaz, la chaleur et les services qui y sont associés vivent ces évolutions et s’interrogent sur les besoins en nouvelles compétences et sur l’avenir de leurs métiers. Un accord-cadre d’engagement de développement de l’emploi et des compétences (EDEC) entre l’État et les branches professionnelles concernées a été l’occasion d’une étude pour donner une perspective à l’horizon 2030.

L’étude, publiée fin avril dernier, a été réalisée par Adecco Analytics et LHH. Elle englobe tous les maillons, de la production (méthane, chaleur, hydrogène) à la commercialisation, en passant par le transport, la distribution et les services énergétiques, équipements et installations dans tous les secteurs (mobilité, industrie, résidentiel et tertiaire, collectivités). Elle exclut l’extraction de pétrole et de gaz, ainsi que le raffinage et le transport par méthanier/gazoducs. À fin 2021, il y a environ 231 400 emplois directs et indirects existants dans ces différents maillons, le plus important étant celui des services (179 000 emplois). On dénombre 15 180 entreprises, dont 75 % de TPE et 11 % de PME, regroupant ensemble 58 % des salariés de ces filières. Ce recensement a donné l’occasion de créer un référentiel unique avec 11 grandes familles de métiers, 20 sous-familles et 62 métiers. Le détail de cette cartographie est donné par maillon et par région, où l’on constate une plus forte concentration d’emplois en Île-de-France et Auvergne-Rhône-Alpes.

Plus d’emplois à créer dans le cadre d’une vraie transition

Afin d’évaluer comment ces emplois pourraient évoluer d’ici 2030, les auteurs de l’étude ont imaginé trois scénarios possibles, en fonction d’une vingtaine de critères. Le premier scénario baptisé « L’avenir en vert ? » envisage une transition énergétique au rythme actuel. La tendance permet de développer la production de gaz renouvelables et de réseaux de chaleur/froid décarbonés, avec des soutiens publics, mais pas suffisamment pour franchir certaines maturités technologiques (chaudières à hydrogène par exemple) et développer de nouveaux usages dans la clientèle (mobilité au bioGNV par exemple). Il en ressort une augmentation des emplois (+89 600), mais la filière manque d’attractivité pour répondre aux enjeux de croissance et d’adaptation à la transition énergétique.

Le deuxième scénario, dit de « l’accélération verte ! », voit au contraire la transition se renforcer plus rapidement, y compris par une politique d’indépendance énergétique vis-à-vis du gaz fossile, notamment sous l’impulsion de la crise en Ukraine. Les financements publics et privés boostent le développement de l’hydrogène et du biométhane ; industriels et collectivités décarbonent leurs activités ; les particuliers font des efforts d’efficacité et se tournent vers les nouvelles solutions technologiques. Cette dynamique pousse à la reconfiguration des activités de transport, stockage, distribution et commercialisation. Le maillage territorial via des smart grids, qui interconnectent réseaux de gaz et d’électricité, avec le soutien de communautés de citoyens, contribue aussi à la création d’emploi qui a été chiffrée à +169 600. Dans ce contexte il est plus facile d’adapter les compétences et d’avoir des formations initiales plus en phase avec les besoins.

Anticiper les besoins de formation

Enfin, le dernier scénario prend la forme d’une « conversion en gris-vert… ». Le rapport de force avec d’autres modèles énergétiques, spécialement celui du « tout électrique », empêche la mise en œuvre rapide des politiques environnementales françaises et européennes. Par manque de soutien et de financement, la filière gaz/chaleur/services énergétiques se retrouve alors en dessous des objectifs de la programmation pluriannuelle de l’énergie. En particulier, le moindre développement des gaz renouvelables conduit à maintenir des importations de gaz d’origine fossile. En conséquence, l’augmentation du nombre d’emplois est limitée à +27 600. Si ce scénario fait office de repoussoir, il n’en est pas moins envisageable vu le fort soutien dont la filière électronucléaire fait encore l’objet.

Synthèse des emplois selon les scénarios envisagés (Source : The Adecco Group)

La filière gaz/chaleur/services énergétiques a intérêt à faire valoir le plus fort potentiel d’emplois dans le cas d’une transition énergétique valorisant la diversité des solutions (scénario 2). Elle a aussi l’opportunité d’agir tout de suite sur les métiers qui ont été identifiés dans l’étude comme en croissance (ingénieur énergie, data analyst, conducteur de travaux, technicien exploitation, chauffagiste, plombier, maintenance, etc.), et d’anticiper des parcours de reconversion pour les métiers qui seront en décroissance d’ici 2030. En complément, l’étude pointe les enjeux de formation : dans les domaines de l’hydrogène et du biométhane, les moyens qui y seront consacrés mériteraient d’être fédérés dans des pôles spécialisés à l’échelle de territoires (région, département, bassin d’emploi).

Le tantale, un élément exceptionnel mais controversé

Le tantale a un aspect banal et un nom issu de la mythologie grecque, ce qui ne laisse en rien deviner l’attention et la tension qu’il génère sur la scène internationale. Nous nous attacherons à décrypter tout au long de cet article cet élément stratégique.

Le tantale, un élément devenu indispensable dans la révolution numérique en particulier et dans l’industrie en général

Cet élément, bien qu’utilisé à l’échelon mondial en quantités nettement inférieures à d’autres métaux (environ 1800 tonnes) tels que le cuivre (environ 20,9 millions de tonnes) ou le fer (environ 2,5 milliards de tonnes), est considéré comme un métal stratégique. Ses propriétés électriques exceptionnelles ont permis de construire des transistors miniatures présents dans les smartphones, les ordinateurs portables, les caméras, etc. et généralement dans tous les appareils électroniques à la pointe de la technologie. Le tantale est donc un élément clé de la révolution numérique que nous vivons actuellement.

D’autres propriétés, de type mécanique et thermique, en font un additif précieux dans la fabrication de superalliages, d’instruments de coupe et de chirurgie dentaire par exemple. Sa biocompatibilité est mise à profit dans les implants médicaux.

En fait, les deux grands domaines de haute technologie consommateurs de tantale sont l’électronique  (transistors et couches conductrices dans les TV à écran plat, les têtes d’imprimante et les clés USB) et l’aéronautique, sous la forme de superalliages brevetés et appartenant à des  séries telles que celles des Monel(R), des Inconel(R), des Incoloy(R) ou encore des Waspaloy(R)).

Les superalliages utilisés dans l’aéronautique

Afin d’illustrer les propriétés exceptionnelles du tantale, nous nous intéressons à son utilisation dans la fabrication de certaines pièces de turbine de moteurs à réaction, telles que les disques ou aubes. La défaillance de ces pièces peut engendrer la perte de l’avion. Elles doivent donc être construites selon un cahier des charges très exigeant. Nous citerons ici le superalliage « Inconel 718 », à base de nickel et chrome, avec environ 5 % de tantale/nobium.

Les turbines d’avion à réaction subissent de violentes sollicitations au niveau mécanique et thermique car elles endurent le passage des gaz à hautes pressions et hautes températures pouvant monter respectivement jusqu’à 1370 bars et 1200°C [3] (à titre de comparaison : la pression atmosphérique est d’environ 1 bar). Ces sollicitations induisent une fatigue des matériaux par fluage (c’est-à-dire la déformation irréversible du matériau par contraintes mécaniques), par oxydation ou corrosion, ces deux dernières étant des réactions chimiques qui modifient la surface du matériau et parfois même l’intérieur, la fragilisant et provoquant à long terme sa rupture.

Le tantale est un additif, c’est-à-dire qu’il est ajouté en petites quantité dans l’alliage à base de nickel-chrome afin de durcir le mélange d’une part et de le rendre plus résistant à la corrosion chaude (réactions chimiques à haute température en présence d’eau de mer, qui rongent le matériau) d’autre part.

La présence de tantale dans les superalliages permet donc à ces derniers d’augmenter leurs performances mécaniques et chimiques à très hautes températures et pressions, et de répondre aux besoins très particuliers de l’aéronautique.

Le tantale en tant que minerai de conflits

Les ressources de tantale sont réparties dans plusieurs pays : l’Australie, le Brésil, la Chine, le Canada et plusieurs pays Africains, dont la République Démocratique du Congo (RD Congo) et le Rwanda. La grande majorité du tantale (entre 70 et 80% de la production mondiale) provient de la RD Congo. Or, les mines y sont exploitées de manière artisanale, à la pelle et à la pioche. Les conditions de travail des adultes, mais aussi des enfants (mentionnons ici que le droit international des enfants interdit leur exploitation par le travail), sont dénoncées par plusieurs organismes et journalistes [4]. De plus, les bénéfices des ventes de coltan extrait de ces mines congolaises alimenteraient l’achat d’armes servant à entretenir les conflits armés qui sévissent depuis une vingtaine d’années, dont les premières victimes sont les civils.

C’est la raison pour laquelle le tantale, mais aussi l’étain, le tungstène et l’or sont appelés « minerais de conflit ».

Existe-t-il des alternatives au tantale ?

Bien que les propriétés chimiques du nobium et du tantale soient très proches (ils ont le même degré d’oxydation, le même rayon entre autres), ils ne sont pas interchangeables, du moins dans les alliages à base de nickel. En effet, leurs rôles au niveau de la structure cristalline du superalliage dans sa globalité, ne sont pas les mêmes. De plus, le nobium forme un ensemble avec le nickel, appelé phase γ’, qui doit se trouver en quantité contrôlée.

Ainsi, il semble difficile de remplacer le tantale dans les superalliages existants actuellement dans l’industrie aéronautique en particulier, et l’industrie en général. Il semble également difficile de remplacer le tantale dans les transistors miniatures. L’alternative au tantale, si elle existe, ne semble pas concerner les matériaux et produits de consommation existants actuellement.

Une solution par contre au problème du minerai de conflit serait de développer des procédés chimiques plus respectueux de la santé humaine et de l’environnement que ceux actuels (basés sur l’utilisation de mélanges liquides incluant de l’acide fluorhydrique très agressif) et permettant d’extraire le tantale d’autres gisements que ceux du Congo. C’est le cas du « procédé Maboumine » développé par Eramet Research et l’institut de recherche de chimie ParisTech. C’est également l’un des objectifs de l’association internationale Prométia.

Une autre solution serait de changer de paradigme (démarche spécifique à la DeepTech) en recherchant des matériaux innovants ou une conception différente pour créer des objets ayant les mêmes fonctions que celles de nos objets usuels actuels. Cette démarche semblerait logique, bien que radicale, dans l’optique d’un épuisement des ressources terrestres de tantale à l’horizon 2038. Cette démarche résoudrait alors tous les problèmes évoqués précédemment.


[1] Article « Les « terres rares » et autres matériaux critiques et stratégiques, au cœur des conflits de demain ? » rédigé par Jean-François Guilhaudis et Jacques Fontanel

[2] Episode du podcast Cogitons Sciences de Techniques de l’Ingénieur avec Marianna Reyne sur les  « minerais de conflit »

[3] Mémoire de thèse rédigé en 2020 par Tom Sanviemvongsak, intitulé « Oxydation et corrosion à haute température de superalliages à base de nickel issus de la fabrication additive »

[4] Article « Le coltan, pour le meilleur et pour le pire », rédigé par Louis-Nino Kansoun pour le site internet écofin 

Prédire la microstructure des aciers grâce à la modélisation

Le projet PREDICSTRUCT est une initiative de l’institut technologique CTIF. Il vise à associer la simulation de la microstructure et l’intelligence artificielle (de type « machine learning »). Outil dédié à la métallurgie numérique, il accompagnera les industriels du secteur en les aidant à prédire le comportement de la microstructure des aciers, soumis à des contraintes.

Techniques de l’Ingénieur : Quelles sont les finalités du développement du logiciel PREDICSTRUCT ?

Ludovic Diez-Jahier : Ce sujet s’inscrit dans le prolongement de recherches sur un logiciel capable de simuler la microstructure d’un métal en prenant en compte les paramètres de fabrication.

Les objectifs du développement sont :

  • Développer l’approche de la métallurgie numérique au CTIF.
  • Trouver une corrélation entre les résultats du logiciel et ceux obtenus expérimentalement.
  • Développer l’ajout du machine learning dans le projet à partir de données expérimentales et logiciels afin de prédire les propriétés mécaniques.

Quels sont les verrous technologiques persistants ?

Les transformations à l’état solide restent encore difficiles à prédire. Ces transformations dépendent d’énormément de paramètres : forme de la pièce, vitesse de refroidissement, …. Néanmoins des premiers moyens de prédiction des changements de phases dans le métal à l’état d’équilibre commencent à être disponibles.

Quels sont les enjeux du développement des modélisations pour l’ensemble de l’industrie ?

Les propriétés mécaniques des pièces dépendent directement de la microstructure de celle-ci. La prédiction de la microstructure selon les paramètres de fabrication permettra d’optimiser ces paramètres pour obtenir la microstructure la plus optimum tout en diminuant les coûts de conception et de développement d’une pièce (fabrication de prototype, contrôle sur la pièce,…).

Dans le cas des pièces de fonderie nous étudions l’influence de plusieurs paramètres notamment celui du type de sable, de l’emplacement des refroidisseurs, de la température de coulée et bien d’autres paramètres.

Quelles sont les technologies qui viennent s’associer aux développements logiciels pour les rendre plus performants ?

Pour améliorer la prédiction des microstructures nous souhaiterions à terme y associer le logiciel Thermo-Calc qui permet d’apporter des données thermodynamiques et du machine learning pour améliorer la prédiction.

Propos recueillis par Pierre Thouverez.

Le prochain défi de l’humanité : vivre et travailler sur la Lune !

Le programme Artémis, mené conjointement par la NASA et l’agence spatiale européenne, l’ESA, l’agence spatiale Canadienne, l’ASC, l’agence japonaise d’exploration aérospatiale et plusieurs entreprises privées commerciales, est l’occasion pour les Français de mettre en œuvre un concept innovant de financement. Il s’agit là de créer un écosystème de recherche et développement mettant en synergie les acteurs du domaine public et du domaine privé, via l’incubation et le lancement de startups innovantes. Cette collaboration inédite a donné lieu à la création du dispositif « TechTheMoon », installé dans les locaux du CNES, à Toulouse. C’est dans ce cadre bouillonnant que les éléments de support vie, c’est-à-dire l’ensemble des dispositifs destinés à maintenir les astronautes vivants et en bonne santé sur la Lune, sont élaborés.

Guillemette Gauquelin-Koch, responsable des sciences de la vie au CNES, nous détaille les éléments de support vie.

Techniques de l’Ingénieur : Qu’appelle-t-on « support vie » ?

© Guillemette Gauquelin-Koch

Guillemette Gauquelin-Koch : Le support vie est l’ensemble des dispositifs destinés à accompagner l’être humain dans sa vie quotidienne en milieu hostile (ou non), en rapport avec ses besoins physiologiques, psychologiques et sanitaires. Les besoins physiologiques sont en lien avec la fourniture d’énergie, d’eau, de nourriture, d’oxygène et comprennent la gestion des déchets. Les besoins psychologiques sont en lien avec le fait que les astronautes vivront confinés dans des petits espaces et sur une longue durée, dans l’optique de l’implantation d’une base lunaire pérenne. Les besoins sanitaires sont en lien avec la présence de radiations et de gravité faible en plus du maintien en routine de la santé des astronautes.

La Lune est un milieu hostile, sans nourriture ni oxygène. Comment les astronautes peuvent-ils gérer ces contraintes à long terme ?

Le programme lunaire comporte trois volets, correspondant chacun aux thèmes suivants : « survivre », « vivre » et « habiter ». L’implantation d’une base pérenne implique que tout ce qui est nécessaire à la vie et aux activités humaines sera produit sur place. Le seul modèle soutenable à long terme est celui du fonctionnement circulaire, où tout sera recyclé et réutilisé indéfiniment, en tirant parti au maximum des ressources locales. Dans un premier temps, tout sera apporté depuis la Terre puis petit à petit, au fur et à mesure de l’installation du matériel lunaire, les humains devront devenir autonomes. Par exemple, l’énergie sera produite par des panneaux solaires et des centrales nucléaires portables. On peut signaler ici que des chercheurs américains ont réussi récemment à faire pousser des plantes dans des échantillons de sol lunaire rapportés sur Terre lors des précédentes missions lunaires Apollo.

L’expérience issue des séjours dans la station spatiale internationale (ISS) peut-elle être réinvestie dans le programme Artémis ?

C’est la partie technologique des missions dans l’ISS qui est réutilisée dans ce nouveau programme. Par exemple, on sait comment recycler l’eau et quel type de nourriture apporter.

L’alimentation est un point important. Elle doit satisfaire des besoins physiologiques, mais aussi psychologiques. On ne peut pas raisonnablement faire manger pendant des années aux astronautes de la nourriture lyophilisée par exemple. En manger pendant six mois ou une année est supportable, mais pas plus longtemps sans attaquer le moral des astronautes.

C’est plutôt la partie psychologique liée au confinement de longue durée qui est nouvelle et absente de l’expérience des missions dans l’ISS. Des expérimentations ont été menées pour étudier les risques psychosociaux, au cours de programmes tels que « Mars 500 » en 2010-2011, « Sirius » de 2020 à 2022 ou encore les missions ponctuelles dans la base Concordia en Antarctique, qui placent des groupes de personnes en autarcie et dans des modules complètement isolés de la civilisation et en milieu hostile pendant au moins quatre mois, voire une année ou deux. La collaboration avec des chercheurs en sciences humaines et sociales est inédite dans les programmes de recherches spatiales.

Quel est le rôle de MoonTheTech dans l’élaboration du support vie ?

MoonTheTech est un écosystème de recherche et développement innovant. L’argent public injecté dans ce dispositif retournera en grande partie dans l’économie française sous la forme d’aides financières et logistiques aux start-ups innovantes dans le domaine spatial et sous la forme de retombées technologiques sur Terre. Une bonne illustration de ces retombées est l’appareil à échographie mobile et contrôlable à distance, développé par le CNES et une entreprise privée, lors des missions dans l’ISS, dont bénéficient actuellement les patients vivant en zones isolées ou dans des déserts médicaux, sur Terre. D’autres innovations sont en cours d’élaboration et verront le jour dans moins d’un an. Parmi ces innovations à venir, on trouve celle de la start-up Orius qui travaille sur la culture de végétaux en milieu spatial, ou encore celle de Spartan Space qui construit des habitats lunaires gonflables. Le rôle des start-ups innovantes est donc d’apporter des solutions au support vie des futures missions lunaires puis martiennes tout en étant exploitables et utiles aux citoyens qui vivent sur Terre.

Les technologies quantiques : les entreprises doivent s’y préparer dès maintenant

Les technologies quantiques n’en sont encore qu’à leurs débuts. Mais les investisseurs sont d’ores et déjà convaincus par les promesses du quantique. Résultat, les fonds levés par les start-up, tant en France qu’à travers le monde, grimpent en flèche selon une étude de l’institut d’études privé Xerfi.

Cependant, « les organisations en sont encore au stade des proofs of concept » lit-on dans le rapport d’environ 70 pages publié en avril 2022 par Capgemini, un des leaders mondiaux du conseil, de la transformation numérique, des services technologiques et d’ingénierie.

Intitulé « Quantum technologies : How to prepare your organization for a quantum advantage now », ce document s’appuie sur les propos de responsables de projets quantiques au sein de 857 entreprises, mais aussi d’une trentaine de dirigeants, de chercheurs, d’universitaires et d’investisseurs en capital-risque.

Comme le montre le graphique ci-dessous, la France n’a pas à rougir puisqu’un quart environ des entreprises hexagonales interrogées par Capgemini s’appuie (ou prévoit de le faire) sur des technologies quantiques. Mais les Pays-Bas et la Chine se montrent très en avance sur le sujet avec près de 40 % d’organisations ayant intégré le quantique dans leurs projets.

Sur le papier, ces technologies peuvent entraîner un changement radical dans la manière dont les entreprises résolvent entre autres les problèmes d’optimisation de leur chaîne d’approvisionnement (malmenée notamment depuis la pandémie par les restrictions sanitaires et la pénurie de composants électroniques), de simulation mécanique et de protection des données contre le piratage.

Des solutions de cryptographie quantique sont déjà mises en œuvre. Mais de nombreuses organisations travaillant sur le quantique attendent l’émergence de normes avant de donner la priorité à la sécurité quantique.

L’informatique quantique permettrait également la découverte de matériaux légers et robustes ou de nouveaux médicaments. À mesure qu’ils deviennent plus petits, plus efficaces sur le plan énergétique et moins chers, les capteurs pourraient aussi jouer un rôle transformateur dans tous les secteurs. Ils peuvent accélérer la précision des mesures, notamment dans les secteurs de la santé/du diagnostic, de la défense, de l’automobile, du génie civil, de la construction, du pétrole/gaz, de l’espace et la cybersécurité avec le projet OpenQKD.

Pour les entreprises, l’objectif prioritaire est de ne pas rater le train du quantique sous peine d’être dépassées par des concurrents. Sept sur dix des organisations interrogées dans le cadre de cette enquête de Capgemini ont reconnu qu’en raison des longs cycles de développement de produits, elles doivent intégrer dès maintenant les technologies quantiques dans leurs processus.

« Une fois que ces technologies seront suffisamment matures, il y aura probablement une forte concurrence pour les compétences ou les ressources. Les entreprises qui les ont déjà mises en place seront susceptibles d’acquérir un avantage significatif sur leurs pairs », souligne Capgemini.

Presque la moitié des organisations travaillant sur les technologies quantiques s’attendent à ce qu’elles puissent être utilisées dans au moins une application commerciale majeure dans les 3 à 5 prochaines années.

La figure ci-dessus montre quatre domaines clés dans lesquels les technologies quantiques peuvent contribuer à améliorer la durabilité environnementale. Par exemple, la production d’électricité représente 25 % des émissions de gaz à effet de serre selon une étude publiée en février 2022 par l’US Environment Protection Agency (EPA).

L’informatique quantique peut aider à simuler de nouveaux matériaux photovoltaïques qui améliorent l’efficacité ou réduisent les coûts de fabrication des panneaux solaires.

Même si les technologies quantiques existent depuis quelques décennies, la technologie n’en est encore qu’à ses balbutiements pour ce qui est des applications commerciales. Un peu comme l’Internet des années 1980 et l’informatique peu après l’invention du transistor.

Une fois que les défis matériels et logiciels actuels seront surmontés, les technologies quantiques auront le potentiel de changer la façon dont nous résolvons certains de nos plus grands défis commerciaux et sociétaux. Mais leur impact réel n’apparaîtra clairement qu’au cours de la prochaine décennie. Et les entreprises doivent s’y préparer dès maintenant.

Techniques de l’Ingénieur participe au salon SEPEM Industries Est

SEPEM Industrie Est se déroule du 14 au 16 Juin 2022 au Parc des expositions Colmar Expo. C’est l’événement incontournable pour les industriels de la région Grand Est. Ce salon professionnel réunit plus de 450 exposants. Il a pour ambition d’apporter des solutions, à même de relever les défis de demain, en matière de productivité, d’innovation, de transition énergétique et écologique et d’attractivité des métiers autour des quatre piliers que sont l’efficience, la performance, la sécurité, et l’environnement-décarbonation.

Cet événement peut être abordé sous différents angles avec cinq parcours thématiques liés à l’Usine du futur. Ces parcours permettent aux visiteurs de découvrir le salon avec des informations concrètes et pragmatiques en lien avec :

  • la décarbonation et les solutions à mettre en place pour améliorer l’empreinte carbone de son activité,
  • la numérisation pour entrer sereinement dans l’ère de l’Usine du futur,
  • la modernisation des lignes de productions en vue d’une usine 4.0,
  • la montée en gamme de produits afin de gagner des parts de marché, en pensant différemment
  • et l’assistance cognitive de l’Homme sur site.

Durant ces trois jours, vous avez la possibilités de repérer les nouveautés dans les domaines suivants :
– les outils de maintenance pour assurer le bon fonctionnement d’une usine et des équipements
– les process pour améliorer les lignes de production et accompagner leur modernisation,
– les services et matériels pour assurer la protection mais aussi la sécurité de l’homme et des machines,
– les solutions concrètes pour aider et accompagner la mutation des industriels vers l’usine du futur.

Vous avez également l’occasion d’échanger avec des professionnels lors de temps forts tels que :

  • SEPEM Avenir, un espace dédié à l’attractivité des métiers, à la formation et à l’emploi ; 
  • Un pavillon robotique et cobotique pour envisager une modernisation des appareils de production ;
  • Des conférences qui porteront sur les 4 thèmes constituant l’ADN de SEPEM Industries : l’efficience, la performance, la sécurité et l’environnement.

Quelques mots sur les SEPEM Industries

Ce sont des rendez-vous industriels incontournables qui proposent, par ces salons, une offre adaptée à chaque territoire industriel pour répondre aux besoins d’aujourd’hui et de demain de tous les donneurs d’ordres opérationnels, pour toutes les filières. 

Pour plus d’informations, n’hésitez pas à consulter le site du salon ici.

Un produit ou un service « neutre en carbone »? Gare aux allégations !

À partir du 1er janvier 2023, les allégations « neutre en carbone », « zéro carbone », « climatiquement neutre », « 100 % compensé » ou toute formulation de signification ou de portée équivalente seront encadrées par un décret paru le 13 avril dernier. Elles ne pourront être utilisées qu’à la seule condition que l’entreprise rende aisément accessible au public un bilan carbone complet du produit ou service, assorti d’explications détaillées sur la façon dont les émissions de CO2 sont « prioritairement évitées, puis réduites et enfin compensées. »

Ces éléments devront être publiés sur le site internet de l’entreprise et un lien ou code QR devra être apposé sur la publicité ou l’emballage portant l’allégation de neutralité carbone. Le bilan carbone devra être mis à jour annuellement pour prouver que les réductions attendues ont bien lieu, et toute mention devra être retirée si l’empreinte carbone absolue du produit ou service augmente entre deux années.

Ce décret concrétise une recommandation de la Convention Citoyenne pour le Climat qui recommandait d’interdire l’usage des allégations de neutralité carbone. Un amendement de dernière minute avait remplacé l’interdiction stricte par un encadrement. Fanny Fleuriot, animatrice comptabilité carbone à l’Ademe et co-autrice de l’avis « Utilisation de l’argument de neutralité carbone dans les communications », nous explique les changements à venir.

Techniques de l’Ingénieur : L’article 12 de la loi Climat et Résilience visait à interdire dans la plupart des cas les allégations de neutralité carbone pour un produit ou un service. Elles seront néanmoins toujours possibles sous certaines conditions ; est-ce suffisant et conforme aux recommandations de l’Ademe ?

Fanny Fleuriot : Ce décret n’interdit pas totalement l’allégation de neutralité carbone d’un produit ou d’un service, mais les modalités sont très contraignantes. Pour l’utiliser, une entreprise devra calculer l’empreinte carbone de son produit selon les normes ISO en vigueur et la rendre publique. On est bien sur l’ensemble des étapes du cycle de vie du produit, de l’extraction des matières premières pour sa fabrication jusqu’à son utilisation et la fin de vie. L’entreprise devra mettre en place une stratégie de réduction compatible avec une stratégie de décarbonation ambitieuse, compatible avec l’accord de Paris et se tenir à cette stratégie. Si l’empreinte carbone du projet augmente d’une année sur l’autre, l’entreprise n’aura plus le droit d’utiliser l’allégation.

Certes, cela autorise l’allégation mais avec des modalités contraignantes pour décourager les acteurs qui voudraient utiliser ces allégations pour faire du greenwashing. Cela donne un cadre sur l’utilisation de telles allégations qui aujourd’hui se trouvent partout sans gage d’investissement et de réduction concrète d’émissions.

Même s’il n’y a pas beaucoup de consommateurs lambda qui scanneront les codes QR, les associations de consommateurs veilleront au grain. Les entreprises qui utiliseraient cette allégation sans démarche sérieuse de réduction des émissions de gaz à effet de serre se mettraient en porte-à-faux d’un point de vue juridique. Les associations de consommateurs ne vont pas se gêner pour faire monter les mauvaises pratiques auprès de la DGCCRF. Il ne faut pas non plus négliger l’impact des réseaux sociaux sur ces sujets.

Pourquoi l’Ademe ne recommande-t-elle pas l’utilisation de la mention « neutre en carbone » ?

Cette mention ne va tout simplement pas dans le bon sens pour changer les comportements des consommateurs. On ne doit pas promettre un produit « neutre en carbone », car les consommateurs doivent comprendre l’impact des produits qu’ils achètent. Et l’utilisation des mentions de ce type fragilise encore la confiance du consommateur envers  la communication des organisations.

Dans la langue française, le « neutre » veut bien dire qu’il n’y a pas d’impact. Il y a donc un imaginaire trompeur pour le consommateur qui a l’impression que son produit n’a pas d’impact. En plus, même si l’Ademe est totalement favorable au principe de compensation carbone qui permet de la solidarité climatique pour financer des projets, il y a bien différentes réalités. Il y a en effet une difficulté à faire le tri entre les acteurs qui ont une démarche sincère et ceux qui basent toute leur stratégie sur l’achat de crédit carbone à bas coût.

Enfin, parler de neutralité carbone contribue à mettre le carbone comme l’ennemi public n°1. Il ne faut pas oublier qu’il y a une panoplie d’autres impacts environnementaux, mais aussi des enjeux de changements de comportement, des enjeux de qualité de vie et des enjeux sociaux pour aller vers une société plus résiliente, plus juste, plus respectueuse du vivant.

Qu’est-ce qu’une communication responsable pour dire qu’un produit ou un service limite son impact ?

Il faut partir sur l’affichage environnemental du produit et non pas se limiter à son empreinte carbone. Car un produit peut avoir une faible empreinte carbone mais par exemple épuiser les ressources ou être toxique pour l’eau. Si l’entreprise veut communiquer sur sa stratégie de réduction côté carbone, à l’Ademe, on l’invite à communiquer sur un pourcentage de réduction d’émissions plutôt qu’une neutralité potentielle.

Le CRBA étudie les plantes comestibles pour faire face aux bouleversements climatiques

Des plantes résistantes à des écarts de température importants, à la sécheresse, tout en gardant de bonnes qualités nutritionnelles et cultivées sans intrants chimiques : c’est ce que recherche le Centre de ressources de botanique appliquée (CRBA), pour les importer en métropole lyonnaise. Le centre réalise des expéditions à l’international pour trouver ces nouvelles variétés. Il les étudie ensuite à la ferme Melchior, divisée en trois parties : le conservatoire des semences, la ferme et la station d’expérimentation Vavilov. Pour l’étude de ces variétés, le centre collabore avec différents partenaires tels que le CNRS, l’ENS de Lyon ou encore le lycée agricole de Saint-Genis-Laval. Nous avons échangé avec Stéphane Crozat, directeur scientifique du CRBA, pour comprendre l’origine de la recherche et les résultats actuels.

Techniques de l’Ingénieur : Quel est le point de départ de ces recherches ?

Stéphane Crozat : En travaillant de 2003 à 2008 sur un programme de recherche du CNRS, j’ai découvert que la région lyonnaise, dans la seconde moitié du 19e siècle, a été l’un des plus grands centres de création horticole en Europe. Des dizaines de milliers de variétés ont été créées dans la région. Les roses créées représentaient 60 % des variétés mondiales obtenues. C’était la deuxième ressource économique de la ville ! Mais quand nous avons recherché le patrimoine, il ne restait plus grand-chose sur place. C’est en Russie, à l’Institut Vavilov de Saint-Pétersbourg, que nous avons retrouvé 250 variétés lyonnaises, et nous en avons rapatrié une centaine. L’objectif de Nikolaï Vavilov (botaniste et père de la génétique mondiale), en développant cette banque de graines, était de nourrir le monde. Et il était conscient que, pour y parvenir, il lui fallait une grande diversité génétique, qu’il est allé chercher principalement lors d’expéditions ou en les commandant dans le monde entier.

La station Vavilov cultive différentes variétés pour tester leur résistance aux changements climatiques (crédit : CRBA)

Vous recherchez des plantes résistantes au changement climatique ?

Les laboratoires de création végétale mondiaux comme Bayer ou Monsanto ont créé des variétés qui, grâce à la chimie, vont s’affranchir de leur environnement – sol et climat – n’importe où dans le monde. Le problème, c’est qu’aujourd’hui, nous devons nous passer de la chimie qui détruit les sols et a des conséquences sur la santé humaine et la biodiversité. Alors, comment on s’adapte ? Comme Vavilov en a eu l’intuition : en trouvant la plus grande diversité pour pouvoir les étudier.

Comment les étudiez-vous ?

À la station Vavilov, on effectue différents tests. On cultive les variétés, on les compare, et on fait de la caractérisation agronomique : taille, couleur, comportement (besoins en eau, résistance au froid, à la maladie, productivité, qualité nutritionnelle, etc.). On fait également des tests organoleptiques qui consistent à faire goûter plusieurs variétés pour les classer de la plus sucrée à la plus acide, par exemple. Cela nous donne les grandes caractéristiques que l’on va ensuite étudier en laboratoire. Certaines caractéristiques sont liées au taux de vitamines, au taux de sucre, mais pas toujours : ce n’est pas parce qu’une tomate est sucrée qu’elle a forcément un taux de sucre important. Autre exemple : les légumineuses dont le taux de protéines est variable d’une variété à l’autre. On reprend l’idée que Vavilov a eue entre 1924 et 1926, à savoir tester 150 variétés (blé, soja, maïs, lin, etc.) sur 90 sites différents, du sud du cercle polaire jusqu’en zone semi-tropicale, pour comprendre ce qui permettait le rendement et la qualité nutritionnelle. Est-ce plutôt la génétique ? Le terroir ? Les deux ? Pour des variétés de blé par exemple, ce qui faisait le rendement, c’est la variété. Mais la qualité nutritionnelle c’était l’environnement. Ainsi, pour la même variété de blé, le taux de protéine pouvait varier entre 1,5 et 22 %. Aujourd’hui la moyenne nationale des blés est de 11,5.

Vous étudiez uniquement les semences locales ?

Non, l’idée est d’aller chercher des ressources différentes dans les zones sauvages et les zones hyper continentales. Par exemple, en 2015, nous avons fait une expédition dans le Caucase et on a prélevé 300 échantillons de plantes (légumes et fruits) à la même latitude que Lyon, mais autour de la mer Noire jusqu’à 1 800 m d’altitude. En 2019, j’étais dans une station Vavilov du Daghestan au-dessus de l’Iran, où l’amplitude thermique était -20°C +53°C. À 50°C, ils ont des variétés de melon et de pastèque qui produisent, alors que nous, non. Ou des arbres fruitiers qui produisent dans des zones avec cet écart de température, c’est super intéressant, et c’est ce que nous allons chercher pour les tester à Lyon dans la station. Quand on a de bons résultats, on les cultive dans la ferme Melchior, sur une année ou deux, sur des surfaces plus grandes pour voir ce que ça donne en termes de rendement. Et une fois convaincus, on va les passer dans la production de semences grâce à notre seconde ferme dédiée, pour les distribuer aux agriculteurs de la métropole.

Lorsque vous cherchez une variété à produire, vous allez rester dans les caractéristiques du territoire ? Vous n’allez pas chercher de variétés du Mexique pour les implanter à Lyon, par exemple ?

Si, pourquoi pas. On a tendance de manière intuitive à se dire, comme il y a un réchauffement climatique, on va remonter les variétés du sud vers le nord. Alors on le fait déjà un peu, mais c’est un peu contre-intuitif. Par exemple l’hiver dernier, on a eu des gelées tardives. Alors il vaut mieux aller chercher les variétés dans les zones hyper continentales plutôt que dans une zone où l’amplitude thermique est +5°C +53°C. Car si la température est à 0°C, ça ne passe plus. Comme on est plus sur un dérèglement avec des épisodes de chaud, froid, sécheresse, etc., on va chercher les variétés qui vont nous permettre de nous adapter au mieux.

Vous cherchez également des espèces sauvages.  Pourquoi ?

Pour les comparer. En fait, les espèces sauvages ont de bonnes qualités nutritionnelles. Les taux de protéines et vitamines sont plus importants, car les plantes vont développer des vitamines pour résister contre les agresseurs et les maladies. Pourquoi ne pas garder les sauvages puisqu’elles sont plus nutritives ? Eh bien, comme elles ont élaboré des mécanismes de défense, elles sont moins digestes. Si vous deviez manger ce que le Néandertal mangeait, vous ne pourriez pas. L’intérêt de retourner aux plantes sauvages à l’origine de la plante cultivée est de regarder ce qu’il y avait en qualités nutritionnelles à l’origine. Par exemple, l’Inra a sélectionné des brocolis peu amers et on s’est rendu compte que les nouvelles variétés étaient de plus en plus sensibles à la mouche du chou. La mouche du chou déteste l’amertume. Moins le chou est amer, plus il est attaqué et plus il est sensible aux maladies.

La biométrie comportementale : la protection de notre identité numérique sans soucis !

Le paysage des menaces numériques est en perpétuelle évolution, car les cybercriminels ne cessent de faire évoluer leurs techniques malveillantes. C’est le cas avec le « vishing » (ou « voice phishing »).  Au cours de ces attaques, les pirates se servent d’un numéro de rappel inséré dans le corps de l’email comme appât, puis s’appuient sur l’ingénierie sociale et l’usurpation d’identité pour inciter la victime à appeler et à interagir avec un faux représentant.

La protection de l’identité numérique devient plus que jamais indispensable, car c’est une demande croissante des internautes. 72 % des utilisateurs souhaitent savoir comment leurs données sont traitées lorsqu’ils utilisent des comptes de réseaux sociaux. 63 % des citoyens de l’UE souhaitent disposer d’une identité numérique unique sûre pour tous les services en ligne, selon une enquête Eurobaromètre.

Et cet objectif ne peut être atteint sans la création de normes. Comme pour la protection des données personnelles, qui a donné naissance au RGPD (Règlement général sur la protection des données à caractère personnel) dès 2016, l’Europe joue encore les pionnières.

Un accès rapide et sécurisé

Avec son cadre de l’Identité numérique européenne (EDI), la Commission européenne ambitionne de proposer un cadre à l’échelle de l’UE. Ce « standard » permettrait aux individus et aux organisations de relier les identités numériques nationales à un permis de conduire ou à d’autres formes d’identification.

S’il est adopté, il permettra aux Européens de présenter rapidement un portefeuille numérique sur un appareil mobile ou un ordinateur portable pour s’identifier et valider instantanément certaines informations. « Cette technologie nous permettra de contrôler quelles données nous partageons et l’usage qui pourra en être fait », a déclaré Ursula von der Leyen, présidente de la Commission européenne, dans son discours sur l’état de l’Union, le 16 septembre 2020.

Les organismes de santé des États-Unis, d’Europe et d’Asie font également progresser les normes d’identité numérique. De nombreux prestataires de soins de santé dans le monde utilisent l’authentification sans mot de passe pour accorder au personnel un accès rapide et sécurisé à une vaste bibliothèque de dossiers de patients en quelques secondes.

De plus en plus d’entreprises abandonnent les techniques traditionnelles de protection par mot de passe ou code PIN et adoptent d’autres techniques d’authentification comme les empreintes digitales, les codes de jetons matériels (appelés aussi « tokens » par les spécialistes et qui se matérialisent notamment sous la forme d’une petite clé USB) ou les badges de proximité.

Les progrès réalisés dans les méthodes d’authentification de ce type permettent aux entreprises d’améliorer l’expérience client de diverses manières. Une meilleure expérience numérique peut se traduire par une augmentation de l’adoption des applications et une diminution des demandes d’assistance au service informatique de l’entreprise.

Selon le cabinet d’analystes Forrester Research, les grandes entreprises dépensent jusqu’à 1 million de dollars par an en personnel et en infrastructure pour gérer les réinitialisations de mots de passe.

La biométrie est presque devenue synonyme d’expérience numérique. Quoi de plus simple que d’utiliser un appareil mobile pour se connecter à une application ou de presser son empreinte digitale sur un écran pour passer la sécurité d’un aéroport ou ouvrir une application sur son téléphone ?

Fuite de données biométriques

Du point de vue de la sécurité, les données biométriques sont la référence ; elles sont plus sûres que les mots de passe, car elles sont beaucoup plus difficiles à contrefaire et à contourner (mais pas impossibles). Les données biométriques sont également plus faciles à utiliser pour l’utilisateur, car il est impossible de les oublier.

La biométrie comportementale entre également dans cette catégorie. Ces stratégies – comme la vérification d’une personne par sa localisation, la façon dont son téléphone bouge dans sa main ou même l’analyse de la façon dont elle tape sur son clavier – prendront de l’ampleur à l’avenir, à mesure que les gens se familiariseront avec les méthodes d’identification avancées.

Mais la biométrie comportementale a un talon d’Achille, qui ne lui est pas propre, mais qui reste difficile à maîtriser complètement : le stockage de ces données particulières sur des serveurs. Au mois d’août 2019, des hackers israéliens travaillant pour la société de sécurité vpnMentor avaient eu accès à plus de 27,8 millions de données biométriques (empreintes digitales, visage…). Cette fuite de données provenait de la société sud-coréenne Suprema qui se présente comme « le leader du marché européen des systèmes de contrôle d’accès basés sur des données biométriques »…

Écoutez notre podcast Cogitons Sciences : Guide pour bien choisir ses matériaux [Matériaux, histoire d’une vie #2]

Comment faire un choix de matériau pertinent et selon quels critères ? Pour quelle application ? Sur quelle méthode de sélection peut-on s’appuyer ? Ces questions ont été posées à Bruno Chenal, président de la SF2M, la Société Française de Métallurgie et de Matériaux.

Écoutez l’épisode !

La carte d’identité du matériau [6:00 – 16:07]

Le nombre de matériaux augmente et leur choix est de plus en plus complexe. « De nouveaux matériaux permettent un nouvel usage et améliorent les performances d’un produit. L’aluminium et ses alliages, liés à l’histoire de l’aéronautique, ont permis des avions plus rapides, de plus grande capacité, plus légers. » Le choix d’un matériau pour une application donnée se base sur ses propriétés, son procédé d’élaboration et de fabrication, et son design. « C’est ce que définit le cahier de charges. » Bruno Chenal distingue « les propriétés intrinsèques, qui définissent la carte d’identité du matériau », d’un côté et de l’autre, « ses propriétés extrinsèques qui interviennent lors de sa sélection finale : son prix, son impact environnemental, sa disponibilité, l’aspect santé-sécurité. »

Évolutions du cadre de vélo [16:20 – 20:26]

Ce passionné de cyclisme illustre son propos avec un cadre de vélo. « Les propriétés attendues sont la rigidité, l’élasticité, le dynamisme, le poids, la durabilité, mais aussi le prix et le fait de pouvoir le fabriquer en série ». Les cadres de vélo ont longtemps été en acier. Ils ont été allégés, grâce aux alliages d’acier, et à des tubes amincis. L’aluminium est trois fois plus léger que l’acier, plus cher et moins résistant. Le diamètre des tubes a été augmenté pour les renforcer. Les composites à fibres de carbone offrent des cadres plus légers. Plus cher, le titane allie une faible densité aux caractéristiques élevées de l’acier. Enfin, les composites permettent des formes d’ailes d’avion, pour un aérodynamisme amélioré. Différents compromis conduisent à différents choix.

Sélectionner… [20:35 – 24:07]

Bruno Chenal propose de s’appuyer sur « une méthode rationnelle de choix qui permet de faire le choix optimal d’un matériau », mise au point par le professeur Michael Ashby. Dans les diagrammes d’Ashby, une propriété donnée est représentée et les matériaux sont positionnés, chacun dans des domaines. Elle permet de restreindre les choix des matériaux, pour arriver à une seule solution.

…Et fabriquer ! [24:16 – 30:38]

Reste la question de la fabrication du matériau et du produit. « La fabrication additive donne accès à des géométries impossibles à produire par usinage. Le fait de pouvoir produire ces pièces en une seule fois avec un seul matériau ouvre de nouvelles perspectives. De nouveaux matériaux, mieux adaptés, peuvent être développés. ». Bruno Chenal recommande l’approche la plus ouverte possible. Un choix est un compromis.

Écoutez l’épisode ici. 

Références citées :

Laboratoires Bell Labs

Les professeurs Michael Ashby, de l’Université de Cambridge, et Yves Bréchet, de l’Université de Grenoble

Les diagrammes d’Ashby

Logiciel Granta Design d’Ansys

« Une industrie accro aux minerais de conflit », deuxième épisode de cette mini-série du podcast Cogitons Sciences

Ressources pour aller plus loin :

– Livres Michael Ashby :
« Choix des matériaux en conception mécanique », Dunot, 2012
« Matériaux et environnement : choix éco responsable en conception », Dunot, 2011
– Livres co-signés Michael Ashby et Yves Bréchet :
« Sélection des matériaux et procédés de mise en œuvre », Eyrolles, 2001.
Choix et usage des matériaux, article de ressources documentaires de Techniques de l’Ingénieur corédigé par Yves Bréchet, Michael Ashby, Michel Dupeux et François Loucher.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Marie-Caroline Loriquet, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Bientôt des batteries structurelles, pour un stockage d’énergie « sans masse » ?

Le poids des batteries est actuellement un frein au développement des avions électriques et un handicap au développement de véhicules propres. Ces travaux conduits par des chercheurs suédois de la Chalmers University of Technology, en collaboration avec l’Institut royal de technologie KTH de Stockholm, ouvrent la voie vers un stockage d’énergie « sans masse ».

Une technologie qui associe stockage d’énergie et résistance mécanique

Si le concept de batterie structurelle n’est pas nouveau, les résultats obtenus jusqu’à présent n’étaient pas à la hauteur des attentes. En 2007, l’US Army Research Laboratory (ARL) réalisait ainsi la première tentative de fabrication d’un composite structurel stratifié. Malheureusement, la batterie structurelle composite obtenue n’était pas en mesure de stocker l’énergie électrochimique à cause d’une mauvaise isolation électrique. Elle présentait en revanche des caractéristiques mécaniques intéressantes.

Entretemps, plusieurs tentatives ont été réalisées par d’autres, via notamment l’utilisation d’électrolytes en gel et de nouveaux types d’électrodes, mais les propriétés mécaniques étaient cette fois trop faibles.

Jusqu’à présent, aucune technologie de batterie structurelle ne semblait présenter à la fois une bonne capacité de stockage d’énergie et une résistance mécanique suffisante.

Un nouveau type de batterie structurelle plus solide, à base de fibre de carbone

La nouvelle technologie de batterie proposée par l’équipe de chercheurs est constituée d’une électrode négative en fibre de carbone, d’une électrode positive composée d’un film d’aluminium, d’un séparateur en fibre de verre et d’une matrice électrolyte structurelle (SBE).

Elle est le fruit de nombreuses années de recherche, leurs travaux ayant été désignés par Physics World comme l’une des dix plus grandes percées scientifiques de 2018.

Étapes de fabrication d'un composite structurel pour batterie
Étapes de fabrication d’un composite structurel pour batterie (Crédit : Adv Energy and Sustain Res, Volume: 2, Issue: 3, First published: 27 January 2021, DOI: 10.1002/aesr.202000093)

Le papier publié récemment en open access dans le journal Advanced Energy & Sustainability Research met ainsi en avant des performances intéressantes. Avec une rigidité de 25 GPa, ce prototype de batterie structurelle est en théorie capable de concurrencer de nombreux matériaux du marché.

Par ailleurs, la batterie qu’ils ont développée a une densité d’énergie de 24 Wh/kg, ce qui équivaut à environ 20 % de la capacité d’une batterie lithium ion. Si cela peut paraître peu, il faut aussi prendre en compte que ce matériau permettra d’alléger les véhicules en intégrant directement la batterie dans leur structure. La consommation d’énergie d’un véhicule en fonctionnement sera ainsi considérablement réduite, ce qui est susceptible de diminuer fortement l’empreinte environnementale.

Une infinité d’applications sur le long terme

Leif Asp, premier auteur de l’étude, est enthousiaste, et indique dans un communiqué de presse : « La batterie structurelle de prochaine génération a un potentiel fantastique. Si l’on considère les technologies grand public, il serait tout à fait possible, d’ici quelques années, de fabriquer des smartphones, des ordinateurs portables ou des vélos électriques qui pèsent deux fois moins qu’aujourd’hui en étant beaucoup plus compacts ».

Sur le long terme, ce type de batterie a probablement une portée bien large. Lorsque les performances seront suffisantes et que la technologie sera mature, il deviendra alors imaginable de concevoir des avions, des voitures ou encore des satellites alimentés par ce type de batterie structurelle ultralégère.

Leif Asp confirme ainsi que leurs travaux suscitent un fort intérêt de la part d’industriels de différents domaines. Ils viennent ainsi de lancer un nouveau projet financé par la Swedish National Space Agency. Son but est d’améliorer les performances des batteries structurelles en remplaçant par exemple la feuille d’aluminium à l’électrode positive par de la fibre de carbone, afin d’améliorer la rigidité et la densité d’énergie.

Car les performances sont encore largement améliorables. Leif Asp, professeur à Chalmers et responsable du projet, estime ainsi qu’une densité énergétique de 75 Wh/kg et une rigidité de 75 GPa sont des objectifs réalistes. Si de tels chiffres sont un jour atteints, les batteries structurelles de prochaine génération seront alors aussi solides que l’aluminium, mais bien plus légères.

Une prothèse bionique en développement pour reproduire pleinement la marche

Après un diplôme universitaire de technologie à l’IUT d’Amiens puis une formation d’ingénieur à l’UTC (Université Technologie de Compiègne), Guillaume Baniel débute sa carrière chez Thales. Il a la responsabilité de maintenir en condition opérationnelle les générateurs de bord installés dans les avions Mirage 2000. En 2018, il perd l’usage de sa jambe gauche, en dessous du genou, et commence à étudier la littérature scientifique mondiale sur les prothèses et les orthèses dites actives. Un an plus tard, il dispose des premières briques technologiques d’un futur dispositif actif d’aide à la marche. Grâce au soutien d’Eurasanté, un incubateur lillois, il décide de valoriser sa double compétence en gestion de projet et en développement technologique en créant sa start-up. Entretien avec Guillaume Baniel, le cofondateur et le CEO de Revival Bionics.

Techniques de l’Ingénieur : Pour quelle raison avez-vous décidé de développer votre propre dispositif d’aide à la marche ?

Guillaume Baniel, cofondateur et CEO de Revival Bionics. Crédit : Revival Bionics

Guillaume Baniel : Je suis équipé d’une orthèse passive, qui entoure ma jambe gauche paralysée, et qui est constituée d’un ressort en carbone qui se déforme lors de la phase d’appui, puis restitue l’énergie. Ce dispositif ne possède pas de mode de propulsion plantaire, ce qui rend la marche contraignante. Je dois en permanence pallier l’absence de propulsion par des compensations au niveau du bassin, de ma jambe droite valide, et des muscles de ma jambe gauche, au-dessus de mon genou. Malgré la présence de cet équipement, la marche me fait souffrir.

Les personnes amputées du membre inférieur sont confrontées au même problème. Elles sont équipées d’une prothèse passive, qui fonctionne selon le même principe. Le pied artificiel est constitué d’un ressort en carbone, le même que celui que l’on peut observer sur des athlètes lors des JO, sauf que la lame est plus petite. Si cet équipement est relativement bien adapté au régime de course, cela est beaucoup moins vrai pour la marche et les activités quotidiennes.

Face à toutes ces contraintes, j’ai décidé de développer mon propre dispositif d’aide actif à la marche.

Pourquoi avez-vous développé une prothèse active plutôt qu’une orthèse active ?

Il est plus facile de concevoir un dispositif électromécanique compact qui vient remplacer le membre inférieur amputé plutôt qu’un autre qui vient entourer le membre paralysé. Ensuite, pour des raisons d’opportunité de marché et de débouchés potentiels. Il n’existe actuellement aucune orthèse active commercialisée et je pense que j’aurais eu des difficultés à convaincre des personnes de l’intérêt d’un tel équipement, même si pour les patients il est très fort. Le marché des prothèses actives est quant à lui plus dynamique. Environ 750 000 personnes sont amputées du membre inférieur chaque année dans le monde. Une entreprise allemande (Ottobock) commercialise déjà un produit qui s’appelle Empower. À l’origine, il a été développé par le célèbre grimpeur et inventeur Hugh Herr, puis par une start-up issue du MIT (Massachusetts Institute of Technology) aux États-Unis.

Quelles technologies avez-vous développées pour concevoir votre prothèse active ?

Notre dispositif est le fruit d’un assemblage de quatre briques technologiques. La première est constituée d’un moteur électrique, relié à une transmission mécanique, dont la fonction est de remplacer le mollet. La seconde se présente sous la forme d’un ressort qui vient se substituer au tendon d’Achille. La troisième repose sur une carte électronique qui pilote le système et fait office de contrôle moteur en remplacement du cerveau. Et la dernière se présente sous la forme d’une batterie dont le rôle est de remplacer la dépense métabolique d’un humain par une dépense électrique. L’ensemble de ces briques mécatroniques nous permet de créer un système analogue à celui d’une personne valide avec un mollet, un tendon d’Achille, une cheville, un pied ; le tout est animé d’un mouvement très naturel, calqué sur la démarche humaine.

Le démonstrateur de prothèse active de pieds développé par Revival Bionics. Crédit : Revival Bionics

Quelles difficultés avez-vous dû surmonter pour concevoir votre dispositif ?

Il faut savoir que la cheville est l’articulation du corps humain qui développe le plus d’énergie. Par exemple, celle d’une personne de 100 kg développe un couple très important de 150 newtons mètres (N m) pendant un très court instant ; un chiffre équivalant à celui d’une voiture de moyenne catégorie. Une prothèse du pied est donc un équipement extrêmement sollicité. Pour faire face à cette contrainte, nous utilisons un ensemble de matériaux qui sont à la fois légers et très résistants comme le titane, la fibre de carbone, l’aluminium aéronautique, et un acier à haute résistance élastique. Cette forte sollicitation sur le plan mécanique nous a également obligés à développer un système de contrôle-commande capable d’assurer un mouvement cohérent et pertinent en permanence pour que le patient puisse profiter d’un pied très fluide.

Ensuite, nous avons fait preuve d’originalité au niveau de l’architecture de notre système pour qu’il soit très compact tout en étant très robuste. Nous avons réussi à résoudre d’importants problèmes d’intégration, pour que les quatre briques technologiques soient intégrées dans notre dispositif, et nous l’avons breveté. Il ne mesure pas plus de 20 cm de haut pour un poids compris entre 2 et 2,5 kg, batterie comprise. Et au final, l’autonomie de notre batterie est presque deux fois plus importante que la seule prothèse active disponible sur le marché et commercialisée par l’entreprise Ottobock.

À quel stade de développement se trouve votre projet ?

Nous avons conçu un démonstrateur fonctionnel qui a fait l’objet d’une première évaluation formative. Elle a été réalisée par un orthoprothésiste qualifié qui est lui-même amputé, et son premier retour est élogieux.

Nous sommes actuellement dans une période où nous cherchons à lever des fonds pour un montant total de 3 millions d’euros. Cette somme nous permettra d’embaucher une équipe et de poursuivre le développement de notre dispositif, notamment gagner encore en compacité afin que notre prothèse ne pèse que 2 kg. Jusqu’ici, nous l’avons entièrement conçue à deux, mon associé et moi. Il s’agit d’une véritable performance, au regard des autres initiatives en cours dans le monde.

Notre objectif est de réaliser des évaluations précliniques et cliniques de notre prothèse active en 2024. Puis de commercialiser notre produit dans la foulée, en ayant franchi toutes les étapes réglementaires pour parvenir à apposer le logo CE sur notre équipement, car c’est un dispositif médical. Dans le futur, je compte aussi développer d’autres prothèses et orthèses actives.

L’ozone serait un gaz à effet de serre plus important qu’on ne le pense

La planète se réchauffe et l’océan Austral est l’une des principales régions d’absorption de l’excès de chaleur. Malheureusement son réchauffement profond et rapide réduit sa capacité d’absorption.

Les modifications des niveaux d’ozone dans la haute et la basse atmosphère seraient responsables de près d’un tiers du réchauffement observé dans les eaux océaniques bordant l’Antarctique au cours de la seconde moitié du XXe siècle.

L’ozone, un gaz vital pour notre planète qui est aussi un polluant

Bien que très peu présent dans l’atmosphère terrestre (seulement 6 à 8 ppm), l’ozone est essentiellement concentré dans une couche de 20 km d’altitude située au niveau de la stratosphère.

Cette couche d’ozone, si célèbre depuis la découverte d’un trou au niveau du pôle sud dans les années 1980, joue un rôle vital puisqu’elle absorbe les UV-B nocifs à la vie sur terre. D’ailleurs, malgré l’interdiction des CFC en 1987¹, l’effet néfaste des émissions de gaz chlorés se fait toujours sentir. Ainsi, au printemps 2020, un trou record s’est formé au-dessus de l’Arctique, favorisé par des anomalies de température dans le pacifique nord.

Mais cet ozone créé par l’interaction entre le rayonnement UV solaire et l’oxygène de l’air ne doit pas être confondu avec l’ozone troposphérique, créé dans les basses couches de l’atmosphère.

Lui aussi tristement célèbre, ce gaz est issu de l’interaction entre le rayonnement solaire et des polluants atmosphériques, les oxydes d’azote (NOx) et les composés organiques volatils (COV). Principale cause du « smog », cet ozone est ainsi directement lié aux activités humaines : combustions fossiles, évaporation de solvants et de combustibles liquides.

L’ozone troposphérique est plus qu’un polluant : c’est également un facteur de réchauffement de l’océan Austral

Une étude conduite par une équipe de chercheurs internationale et publiée dans le journal Nature Climate Change démontre que cet ozone troposphérique est bien plus qu’un simple polluant.

En simulant l’évolution des niveaux d’ozone dans les hautes et basses couches de l’atmosphère entre 1955 et 2000, l’équipe de chercheurs est arrivée à la conclusion que l’augmentation du niveau d’ozone dans les basses couches de l’atmosphère était responsable de 60 % du réchauffement global dû à l’ozone dans l’océan Austral, sur la période étudiée.

Cette découverte va donc à contre-courant des connaissances actuelles, car l’ozone troposphérique était jusqu’ici surtout connu comme un facteur de forçage du climat près des sources de pollution principales, c’est-à-dire dans l’hémisphère nord.

Selon le Dr Michaela Hegglin, professeure associée en chimie atmosphérique et co-autrice de l’étude dirigée par la University of California Riverside, les émissions dans l’hémisphère nord ont bien un effet sur l’hémisphère sud :

« Nous savons depuis un certain temps que l’appauvrissement de l’ozone dans les hautes couches de l’atmosphère affecte le climat de surface dans l’hémisphère sud. Nos recherches ont montré que l’augmentation de l’ozone dans la basse atmosphère, due à la pollution atmosphérique principalement dans l’hémisphère nord et qui « fuit » dans l’hémisphère sud, est également un problème grave. »


¹ Les CFC sont les principaux gaz responsables de cette destruction de la couche d’ozone. Ils ont été interdits par le protocole de Montréal en 1987.

Le monde ne progresse (presque) plus vers le développement durable

La pandémie mondiale de Covid-19, la crise climatique et écologique, la guerre en Ukraine et les autres conflits militaires, ainsi que les tensions géopolitiques ont eu raison des progrès en matière de développement durable, selon le 7e rapport du Réseau de Solution pour le Développement Durable (SDSN). Pour la deuxième année consécutive, l’indice ODD moyen diminue légèrement pour atteindre 66,0 points fin 2021. Depuis 2019, l’indice ODD moyen baisse en moyenne de 0,01 point par an. Sur la période 2015-2019, le monde progressait pourtant sur les ODD à un rythme de 0,5 point par an, les pays les plus pauvres réalisant des gains plus importants que les pays riches. Cela était cependant déjà trop lent pour atteindre l’échéance de 2030. Désormais, les progrès de l’indice des ODD stagnent dans toutes les tranches de revenu.

« Les pays pauvres et vulnérables sont tout particulièrement frappés par de multiples crises sanitaires, géopolitiques et climatiques et par leurs retombées internationales, alerte Jeffrey D. Sachs, président du SDSN et premier auteur du rapport. Afin de rétablir et d’accélérer les progrès vers les ODD, nous avons besoin d’une coopération mondiale pour mettre fin à la pandémie, négocier la fin de la guerre en Ukraine et assurer le financement nécessaire pour atteindre les ODD. »

Un besoin urgent de paix

Tableaux de bord des ODD 2022 par région et groupe de revenu
Tableaux de bord des ODD 2022 par région et groupe de revenu (niveaux et tendances). Extrait du 7e rapport du Réseau de Solution pour le Développement Durable (SDSN)

Sur les 17 objectifs de développement durable, les ODD socio-économiques sont les plus touchés par les différentes crises. Citons notamment l’ODD 1 (Pas de pauvreté) et l’ODD 8 (Travail décent et croissance économique). « La proportion de personnes confrontées à l’extrême pauvreté a considérablement augmenté depuis 2019, y compris dans les pays à faible revenu, souligne le rapport. Les petits États insulaires en développement sont également particulièrement vulnérables aux crises internationales, en partie en raison de leur dépendance vis-à-vis du système commercial international. »

Les conflits en cours impactent la sécurité alimentaire (ODD2) et les prix de l’énergie (ODD7), déjà impactés par la crise climatique et la crise de la biodiversité. En ce sens, le rapport note aussi de faibles avancées sur les ODD 11 à 15 concernant le climat, la biodiversité et le développement urbain durable. En particulier, les ODD 14 et 15 portant sur la vie des océans et la vie terrestre stagnent et présentent encore d’importants défis.

Face à ces crises, les États concentrent leurs investissements sur le court terme au détriment du long terme. Le rapport souligne donc le besoin urgent de paix et de coopération internationale. Il appelle à un plan mondial de financement des ODD dans les pays les plus pauvres et les plus vulnérables pour inverser la tendance. Ce plan mobilise le G20, le Fonds Monétaire International (FMI) et les Banques Multilatérales de Développement. Objectif : les mobiliser en amont du Sommet ODD en septembre 2023 où se réuniront les États membres de l’ONU concernant les priorités à donner pour rétablir et accélérer les progrès vers le développement durable d’ici 2030 et au-delà…

Devez-vous craindre les robots dans votre travail ?

Étudiants, avant de vous lancer dans des études plus ou moins longues, vérifiez si votre prochain emploi ne sera pas assuré par une machine ou un logiciel. Selon cette étude suisse, qui a étudié 1 000 emplois, les « physiciens » présentent le risque le plus faible d’être remplacés par une machine. À l’opposé, les « abatteurs et emballeurs de viande » affichent le risque le plus élevé.

D’une manière générale, les emplois liés à la transformation des aliments, au bâtiment et à l’entretien, ainsi qu’à la construction et à l’extraction semblent présenter le risque le plus élevé.

Pour le savoir, il suffit d’aller sur ce site et de taper en anglais, par exemple « Automotive Engineers » pour voir le résultat ci-dessous :

Pour établir ce diagnostic, deux équipes suisses ont comparé des études techniques (articles de recherche, brevets…), économiques et scientifiques. Elles se sont notamment appuyées sur la feuille de route pluriannuelle (pour la période allant de 2021 à 2027) européenne H2020 pour la robotique (MAR ou « Multi-Annual Roadmap »), un document stratégique de la Commission européenne qui est périodiquement révisé par des experts en robotique.

Cette roadmap décrit des dizaines de capacités exigées des robots actuels ou susceptibles d’être exigées par les futurs robots, organisées en catégories telles que la manipulation, la perception, la détection et l’interaction avec les humains.

Les chercheurs suisses ont évalué le niveau de maturité des capacités robotiques en utilisant une référence bien connue, la « Technology readiness level » (TRL), un « niveau de préparation technologique » développé à la NASA dans les années 70.

Améliorer les politiques de reconversion

Pour les capacités humaines, les deux équipes se sont appuyées sur O*net (Occupation Information Network), une base de données américaine d’environ 1 000 professions classées en termes d’aptitudes (attributs durables de l’individu), de compétences (capacités développées/formées) qu’ils requièrent.

Après avoir fait correspondre de manière sélective les capacités humaines de la liste O*net aux capacités robotiques du document MAR, les deux équipes ont pu calculer la probabilité que chaque emploi existant soit exercé par un robot.

Publiée dans Science Robotics, leur étude pourrait être utilisée par les États pour mesurer le nombre de travailleurs susceptibles d’être confrontés à des risques d’automatisation dans de nombreux secteurs. Principale originalité, elle ne se limite pas aux impacts de l’intégration de robots logiciels (comme la reconnaissance de la parole et des images, les chatbots, etc.) qui concerne le tertiaire. Elle s’intéresse aussi aux robots intelligents qui effectuent un travail physique.

Les gouvernements pourraient ainsi adapter leurs politiques de reconversion, les entreprises évalueraient les coûts d’une automatisation croissante et les fabricants de robots seraient capables d’adapter leurs produits aux besoins du marché.

Ces données seraient également très utiles aux étudiants et autres personnes en reconversion pour se repositionner sur le marché du travail vers des emplois moins à risque. Ces scientifiques ont en effet créé une méthode permettant de trouver, pour un emploi donné, des emplois alternatifs présentant un risque d’automatisation nettement inférieur.

Anticiper les tsunamis grâce aux signaux gravitationnels et à l’IA

Au cours des trente dernières années, les tremblements de terre ainsi que les tsunamis qu’ils génèrent ont provoqué la mort de près d’un million de personnes. Les systèmes d’alerte mis en place reposent sur l’analyse des ondes sismiques, mais sont inopérants lors de très grands séismes. Le signal mesuré a en effet tendance à saturer dès que la magnitude dépasse le seuil d’environ 7,5. Cette difficulté peut avoir de lourdes conséquences, comme à Fukushima en 2011. Les systèmes japonais n’ont pas permis d’anticiper le tsunami à venir, car ils avaient estimé une magnitude du séisme de 8 au lieu de 9, et donc des vagues de 3 mètres alors qu’elles ont dépassé les 15 mètres de haut. Une équipe de recherche internationale, regroupant des chercheurs de l’IRD (Institut de recherche pour le développement) et du Los Alamos National Observatory (un laboratoire aux États-Unis), a développé un nouvel outil numérique permettant d’estimer instantanément la magnitude des grands séismes. Leurs travaux viennent d’être publiés dans Nature.

À l’origine de ce travail de recherche, la découverte en 2016 de signaux nommés les PEGS (Prompt Elasto-Gravity Signal) grâce à un instrument de mesure appelé un gravimètre superconducteur. Ces PEGS sont des signaux gravitationnels générés par le mouvement d’une immense masse de roche lié à la survenue d’un séisme de grande ampleur. « Lors du séisme de Fukushima, une masse représentant une surface de 500 km de long sur 200 km de large s’est déplacée sur plusieurs mètres en quelques secondes, explique Quentin Bletery, chargé de recherche à l’IRD. Cette masse en mouvement a perturbé le champ de gravité terrestre. Cette perturbation se propage, comme une onde gravitationnelle, à la vitesse de la lumière. Les PEGS présentent donc un très fort intérêt en termes d’alerte, car ils se propagent beaucoup plus vite que les ondes sismiques. »

En 2017, des travaux de recherche ont mis en évidence qu’il est possible de mesurer ce signal à partir d’un sismomètre, puisque cet appareil a pour fonction d’enregistrer l’accélération du sol, et que la gravité est une accélération. Sauf que le signal est très faible, environ un million de fois plus petit que celui d’une onde sismique. Les chercheurs de cette étude ont développé un algorithme d’intelligence artificielle capable d’estimer la magnitude d’un grand séisme en cours à partir des PEGS.

Plus précisément, les scientifiques ont entraîné un algorithme de type deep learning sur des données synthétiques, c’est-à-dire de « faux séismes », car les données relatives aux grands séismes passés ne sont pas assez nombreuses. « Nous avons entraîné notre modèle sur des centaines de milliers de séismes synthétiques, localisés partout dans le monde, détaille le chercheur. Nous avons fait varier leur magnitude, et nous avons calculé pour chaque séisme, les PEGS attendus sur tout le réseau de stations sismiques. Par-dessus le signal, nous avons rajouté du « bruit », car la Terre bouge en permanence et au lieu d’observer un signal plat, de petites oscillations sont tout le temps présentes. À partir de ce travail virtuel, nous avons entraîné l’algorithme à estimer toutes les secondes la magnitude et la localisation des très grands séismes. »

Une estimation fiable des séismes dont la magnitude est supérieure à 8,2

Ce nouveau modèle a ensuite été testé sur des données passées, notamment celles obtenues lors du séisme de Fukushima. Résultat : il a été capable d’estimer sa magnitude exacte, en l’occurrence 9,0, en deux minutes, c’est-à-dire le temps qu’a mis le séisme pour atteindre sa magnitude maximale. La seule limite de l’algorithme est qu’il est incapable d’estimer la magnitude d’un séisme en dessous de 8,2, car le signal devient alors trop faible à mesurer. « Pour l’alerte tsunami, ce n’est pas un problème, car les séismes de magnitude inférieure à 8,2 sont peu susceptibles de générer des tsunamis conséquents », précise Quentin Bletery.

Les chercheurs veulent à présent mettre en place ce système au Pérou, et ils aimeraient aussi l’installer au Japon. Parmi les pistes de développement à venir, ils ont l’intention de tenter de « débruiter » les signaux, en développant un autre algorithme. L’objectif de ce travail étant de parvenir à extraire les PEGS des petites oscillations enregistrées de manières permanentes par les instruments, et ainsi être en mesure d’estimer les séismes dont la magnitude est inférieure à 8,2.

Une autre voie de recherche consisterait à étendre ce système à l’échelle mondiale. « Avec les ondes sismiques, cela n’avait pas d’intérêt, puisque le temps qu’elles atteignent l’autre côté de la planète, un tsunami se serait déjà produit, alors qu’avec les ondes gravitationnelles, c’est en théorie possible. Grâce à l’utilisation de toutes les stations sismiques dans le monde, nous aurions également plus de données à analyser et il serait alors peut-être possible de détecter des magnitudes inférieures à 8,2. L’autre avantage serait de mettre en place un système d’alerte opérationnel dans des régions du monde qui n’ont pas les moyens d’en développer actuellement », conclut le chercheur.

« Nucléaire, stop ou encore ? »

Polarisée à l’extrême, la question de la place du nucléaire en France déchaîne souvent les passions. Les anti- et les pro- échangent des arguments dans le meilleur cas, et bien souvent ne s’écoutent plus. Au milieu, la majorité de la population n’a pas d’avis réellement tranché. Le sujet pourrait pourtant s’inviter dans le débat, car il faut décider la reconduite ou l’arrêt du parc vieillissant de 56 réacteurs (depuis que deux ont été arrêtés à Fessenheim), tout en envisageant simultanément la construction de nouveaux EPR.

Antoine de Ravignan, rédacteur en chef adjoint à Alternatives économiques vient de publier un livre très pédagogique sur cette question, intitulé « Nucléaire, stop ou encore ? ». Même s’il penche plutôt du côté du « stop », il sait mettre en avant les avantages de l’atome. Il nous livre quelques réflexions.

Techniques de l’Ingénieur : Le nouveau mandat d’Emmanuel Macron et sa volonté de planification écologique sont-ils propices à un nouveau débat sur le nucléaire ?

Antoine de Ravignan : Par le passé, il n’y a jamais eu de débat de fond sur l’intérêt de développer une filière nucléaire en France. Mais nous ne sommes plus dans les années 1960-1970 où le gouvernement pouvait décider d’un programme nucléaire civil sans aucune concertation. Notamment, depuis 2016, la Commission nationale du débat public (CNDP) peut être saisie sur des plans ou programmes, comme elle l’a été pour la dernière programmation pluriannuelle de l’énergie (PPE) ou le plan national de gestion des déchets et matières radioactives. Ce débat est nécessaire et ne doit pas porter seulement, au cas par cas, sur tel projet nucléaire. Il doit être l’occasion de choisir collectivement notre système énergétique pour l’avenir. L’urgence climatique et le besoin de planification ne devraient pas empêcher que la CNDP, garante des conditions démocratiques du débat, soit saisie à ce sujet, ce qui reste possible par 60 députés ou 60 sénateurs ou 500 000 résidents sur le territoire français (ressortissants de l’UE et majeurs).
S’il avait lieu, le cadre de ce débat devrait aussi être bien précisé : en plus de l’indépendance de l’organisateur (ce qui est le cas de la CNDP), il est nécessaire de bien délimiter le champ de la discussion et la question posée ; il faut ensuite permettre à tout le monde d’y participer et enfin être très clair sur ce qui sera fait du résultat du débat. Mais je suis assez pessimiste. A priori, les pouvoirs publics n’ont pas la volonté de lancer un tel débat. En 2019, le gouvernement a d’ailleurs subrepticement passé une disposition dans la loi énergie-climat pour que la future PPE et la Stratégie nationale bas-carbone fasse seulement l’objet d’une simple « concertation préalable adaptée ».

Les données sur l’impact d’un système avec ou sans nucléaire sont-elles suffisantes pour éclairer le débat ?

Pendant longtemps, il y a eu une forte culture du secret dans la filière nucléaire. Ce n’est pas encore parfait – le manque d’information lors des récents problèmes de l’EPR de Taishan en Chine le prouve – mais c’est bien mieux qu’avant. À la suite de l’accident de Tchernobyl, l’expertise citoyenne est montée en puissance et a forcé l’État à être plus transparent ; l’exigence des associations et la création d’une autorité de sûreté indépendante, l’ASN en 2006, ont aussi permis de mieux informer le public. On a aussi beaucoup progressé sur la connaissance des coûts, notamment grâce aux travaux de la Cour des comptes.
Le rapport récent de RTE sur les Futurs énergétiques fait la synthèse des données existantes et permet de mieux saisir les options possibles, y compris la capacité des filières à réaliser des objectifs élevés de nucléaire ou d’énergies renouvelables. Concernant les coûts comparés des systèmes électriques avec sortie ou relance du nucléaire (et prolongation poussée du parc actuel), RTE fait apparaître des écarts somme toute assez limités, ce qui relativise beaucoup l’idée que l’intérêt économique de poursuivre dans le nucléaire justifierait d’en courir les risques. D’autant que les marges d’incertitudes sont très importantes. Elles portent principalement sur les coûts de financement. Aux conditions actuelles, les coûts globaux du système électrique en 2050 sont semblables, qu’on relance le nucléaire ou qu’on mise uniquement sur les énergies renouvelables. Ensuite, vu les risques d’allongement des délais et de hausse des coûts d’un nouveau programme nucléaire, une garantie publique sera nécessaire lors de l’investissement initial dans des réacteurs et pour sécuriser leurs revenus. Quelle ironie de l’histoire : les subventions aux énergies renouvelables étaient vilipendées par les pronucléaires et désormais ce sont eux qui les demandent pour construire de nouveaux EPR.
En France, comme le rapport au nucléaire reste très politique, voire idéologique, ces questions ont du mal à être clairement exposées. D’autant plus qu’on est souvent obligé de déminer de fausses idées.

Lesquelles ?

Dans mon livre, je liste plusieurs fausses affirmations. Arrêter le nucléaire voudrait dire le retour à la bougie ? Tous les scénarios de RTE et de l’Ademe montrent que ce n’est pas le cas. Le nucléaire serait moins cher ? Comme je l’ai dit précédemment, c’est loin d’être le cas vu le coût du capital de ces immenses investissements. Le nucléaire serait plus sûr ? Le risque d’accident est pourtant bien réel et les incidents se multiplient sur les réacteurs vieillissants. Le nucléaire assurerait notre indépendance énergétique ? Il faut bien importer l’uranium et la promesse de réutilisation des combustibles usés via des réacteurs surgénérateurs – le vieux programme « superphénix » qu’on ressort du chapeau en en changeant le nom – ne repose sur aucune base économique et industrielle. Une solution 100 % renouvelable serait impossible techniquement à cause de la variabilité de l’éolien et du solaire, et serait écologiquement insoutenable ? Là aussi, les travaux scientifiques, comme dernièrement les rapports RTE-AIE et de l’Ademe, montrent la faisabilité d’une telle solution.
Tous ces poncifs détournent l’attention des Français du vrai enjeu qui est de savoir comment faire évoluer nos modes de vie vers plus de sobriété et d’efficacité. L’impératif est à la réduction de nos consommations d’énergies et de matières, et cela devra être fait avec ou sans nucléaire.

Un mois dans l’espace #29

On peut donc jardiner sur la Lune

Des scientifiques de l’université de Floride sont parvenus à cultiver des végétaux avec pour substrat une roche lunaire, le régolithe. Cette pierre, dont la composition est proche des roches volcaniques que l’on peut retrouver sur Terre, permet pour la première fois d’imaginer concrètement une installation durable sur la Lune et la possibilité d’y nourrir les astronautes présents sur notre astre. Aussi, ces découvertes laissent entrevoir des solutions applicables sur Terre, notamment pour améliorer le rendement des cultures sur sols pauvres.

L’étude en question, publiée sur le site Communication Biology, a permis, à travers 12 échantillons de terre lunaire (issue de prélèvements effectués lors des différentes missions Apollo), pesant chacun 1 gramme, d’évaluer dans quelle mesure ce substrat permettait de faire germer des graines d’arabette des dames (Arabidopsis thaliana). Le choix de ce végétal ne doit rien au hasard : l’arabette des dames pousse très bien, même dans un milieu hostile. Ensuite, cette plante est la plus utilisée par les laboratoires de recherche, et son génome est entièrement séquencé.

Les chercheurs ont ajouté au substrat de l’eau et une solution nutritive, et mis en place une batterie de témoins, sans terre lunaire mais avec des conditions approchantes de celles que l’on peut trouver sur la Lune, voire sur Mars.

Le résultat est plus que prometteur, puisque toutes les graines ont germé. C’est une petite révolution dans le milieu de l’agriculture spatiale, car c’est la première fois qu’un tel test est mené avec succès. Au bout de six jours cependant, les plantes cultivées sur sol lunaire se sont montrées plus fragiles que les témoins, s’accompagnant du rabougrissement de certaines parties de la plante (feuilles et racines) qui ont pris une teinte rouge. L’expérience n’est donc pas une réussite totale. Qui plus est, les analyses menées sur l’ARN de ces plantes montrent qu’elles ont subi un stress important, ce qui souligne que le matériau lunaire est loin d’être un terreau idéal. Sans surprise.

Au final, le résultat de cette expérience ouvre la voie à de nouvelles recherches, pour adapter les végétaux aux terreaux lunaires et martiens, et parvenir à cultiver des végétaux jusqu’à maturité. Il s’agit d’un des nombreux enjeux que les agences spatiales devront maîtriser pour imaginer coloniser – ou habiter sur le long terme – nos astres les plus proches.

Des nouvelles du télescope James Webb

Son décollage le 25 décembre dernier a fait la une de l’actualité. Cela fait désormais 5 mois que le télescope James Webb est en orbite, à près de 1,5 millions de kilomètres de la Terre. Avant d’être complètement opérationnel, le télescope doit aligner tous ses instruments scientifiques (3 imageurs et un spectrographe) avec le miroir principal, qui mesure près de 6,5 mètres de diamètre, et dont le déploiement s’est terminé au mois de janvier 2022. Un des imageurs a également mis du temps pour être opérationnel : en effet, ce dernier doit atteindre la température de -266 °C pour fonctionner de manière optimale.

La Nasa a déclaré, à travers la publication d’un communiqué il y a quelques jours, que tous les voyants étaient désormais au vert : les instruments sont en place (comme en témoigne l’illustration en tête d’article, publiée par la Nasa), opérationnels, et prêts à explorer les confins de la galaxie, avec l’ambition d’obtenir des clichés d’une netteté jamais égalée (et même jamais approchée).

Sur ce point, le communiqué de la Nasa précise même que les performances du télescope sont supérieures aux prévisions les plus optimistes des chercheurs.

Dans les deux prochains mois, les ingénieurs de la Nasa vont tester les différents modes d’observation du James Webb, et réaliser des tests de stabilité thermique pour évaluer les performances des instruments à différentes températures. Ensuite, le télescope James Webb pourra se mettre au travail, avec pour mission prioritaire de capter les signaux lumineux émis par les toutes premières galaxies formées après le big bang.

Image d’illustration en tête d’article : Image d’évaluation de l’alignement du télescope James Webb ©Nasa

Les terres agricoles européennes seraient une immense réserve de microplastiques

L’épandage direct des matières organiques est un procédé de valorisation agricole considéré comme vertueux, car il permet – a priori – de répondre à des enjeux économiques et environnementaux qui sont totalement compatibles avec la logique d’économie circulaire. Pourtant, depuis quelques années, certaines études alarmantes viennent ternir ce tableau idyllique, en mettant en cause l’efficacité des processus d’élimination de ces polluants dans les stations.

La pollution aux microplastiques, un problème d’ampleur mondiale

Les microplastiques sont des particules de plastique dont la taille est inférieure à 5 mm. Fortement présentes dans les cours d’eau, les mers et les océans, elles sont une source potentielle de contamination chimique et biologique pour l’ensemble de la chaîne alimentaire.

Naturellement, les eaux usées en contiennent beaucoup et une part non négligeable semble s’accumuler dans les boues en sortie des stations. En effet, d’après les relevés réalisés sur une station du Pays de Galles, des chercheurs des universités de Cardiff et de Manchester évaluent que 1 % du poids de ces boues serait constitué de microplastiques.

L’ampleur de cette pollution serait ainsi colossale, car les chercheurs estiment qu’entre 31 000 et 42 000 tonnes de microplastiques sont déposées chaque année dans les sols européens.

L’étude publiée dans le journal Environmental pollution indique que l’Allemagne, le Royaume-Uni, l’Espagne, la France et l’Italie représentent plus de 76 % de la masse totale de particules microplastiques contenues dans les boues d’épuration en Europe.

L’épandage, une pratique nécessaire qui doit être mieux contrôlée

Dans la conclusion d’un récent rapport d’information du sénat au sujet des effets des métaux lourds sur l’environnement et la santé, l’ADEME affirme que « la volonté politique affichée dans la plupart des pays européens est la pérennisation de la filière de l’épandage ».

L’épandage de boues d’épuration est donc amené à perdurer, ce qui n’est pas un problème en soi, car le véritable défi est bien l’élimination des particules microplastiques de ces boues d’épuration.

James Lofty, de la Cardiff University’s School of Engineering et premier auteur de l’étude, pointe le cœur du problème dans un communiqué de presse :

« À l’heure actuelle, il n’existe aucune législation européenne qui limite ou contrôle l’apport de microplastiques dans les boues d’épuration recyclées en fonction des charges et de la toxicité de l’exposition aux microplastiques. »

Puis il ajoute : « Des efforts devront être faits pour renforcer la surveillance normalisée de la concentration en microplastiques contenus dans les boues d’épuration et dans les sols agricoles. Cela donnerait une vision plus précise des niveaux de contamination des sols dans toute l’Europe. »

Ces travaux confirment une fois de plus à quel point l’ampleur de la pollution aux microplastiques a été jusqu’ici sous-estimée et que des mesures devront être prises, notamment pour améliorer les moyens de détection, de contrôle et d’élimination.

La recharge sans fil s’invite dans nos maisons

Qui n’a jamais pesté après des câbles trop courts ou qui s’emmêlent ? Est-ce bientôt la fin de ce cauchemar ? Aux États-Unis, le Californien Belkin a annoncé un partenariat avec Wi-Charge pour créer des produits grand public compatibles avec la recharge sans fil. La commercialisation d’un premier modèle serait prévue pour début 2023.

Selon la société israélienne qui a développé cette technologie à infrarouges, cette solution serait capable d’envoyer jusqu’à 1 watt d’énergie aux appareils situés dans un rayon de 10 mètres environ. Il n’est donc plus nécessaire de poser un appareil sur un support pour qu’il se recharge. Le récepteur peut également envoyer à l’émetteur des données telles que le niveau de la batterie et des statistiques d’utilisation.

Dans un premier temps, Wi-Charge avait commencé par développer un dispositif capable d’envoyer une puissance de 4 watts. Mais cette capacité ne répondait pas aux besoins des entreprises qui souhaitaient alimenter en priorité des capteurs et autres objets connectés. Or, ces appareils IoT (Internet of Things) n’ont pas besoin d’une puissance aussi élevée, car ils sont en mode veille la plupart du temps.

Deux technos concurrentes

L’entreprise a ensuite développé une solution pour le grand public. En 2018, elle avait reçu un prix CES Best of Innovation pour avoir rechargé un iPhone à quelques mètres de distance. Seul bémol, l’émetteur était trop encombrant pour attaquer le marché des particuliers.

Depuis, Wi-Charge a conçu un émetteur plus petit (mesurant 9×9×4 cm) qui se branche sur le courant alternatif ou continu. D’où l’annonce de Belkin qui propose une variété de produits technologiques grand public, notamment des supports de recharge sans fil compatibles avec Apple MagSafe et des haut-parleurs.

Cette solution Wi-Charge/Belkin vient concurrencer une autre technologie de recharge sans fil utilisée notamment par Archos pour une caméra de sécurité intérieure, un moniteur d’air et un tracker intelligent. Ces appareils devraient être eux aussi commercialisés début de l’année prochaine.

Mais la marque française Archos s’appuie sur le procédé d’Ossia et un récepteur d’énergie Cota qui utilise les ondes radio (fréquence de 5,8 GHz) pour recharger des appareils. Selon Ossia, les appareils se parlent 100 fois par seconde.

Autre différence, l’émetteur de Wi-Charge, qui a un angle de couverture de 80 degrés, doit donc avoir une « vue » directe avec l’appareil pour l’alimenter. Ce n’est pas le cas avec la solution de l’Américain Ossia. Pour pallier cet inconvénient, Wi-Charge précise que l’émetteur peut être fixé au plafond comme un détecteur de fumée.

Planification écologique : l’heure du choix politique

L’ADEME a réalisé quatre scénarios pour atteindre la neutralité carbone en 2050, compilés dans le rapport Transitions 2050 : choisir maintenant, agir pour le climat. L’objectif : « contribuer aux délibérations pour la prochaine stratégie française énergie-climat qui va construire notre prochaine stratégie nationale bas carbone », a rappelé Valérie Quiniou-Ramus, directrice exécutive prospective et recherche de l’ADEME, à l’occasion du 19e forum international de la météo le 17 mai à l’Hôtel de Ville de Paris.

Faire le pari d’une trajectoire plutôt qu’une autre suppose en effet des choix sociétaux importants. Quelle part donner à la sobriété ? Quelle place accorder à l’innovation et à l’industrie ? Faut-il s’appuyer uniquement sur des puits de carbone naturels ou accepter des puits technologiques pour atteindre la neutralité carbone ? Valérie Quiniou-Ramus souligne l’urgence pour le gouvernement de déployer une action concertée sur le sujet. « Il faut accorder nos violons pour aller sur une trajectoire qu’on choisira et qu’on va suivre, déclare-t-elle. C’est de la planification qui concerne tous les acteurs économiques, les collectivités locales et le grand public. »

La neutralité carbone est possible pour la France

« La neutralité carbone est possible [en 2050, NDLR], mais il est impératif d’agir dès maintenant », affirme Valérie Quiniou-Ramus. La réduction de la demande en énergie, ainsi que la place accordée à la consommation est le facteur clé pour l’atteindre. La pression exercée sur les ressources naturelles ainsi que la quantité totale des émissions de gaz à effet de serre générés jusqu’en 2050 dépendent en effet des scénarios.

Valérie Quiniou-Ramus explique : « Le scénario frugal est celui où on agit au plus vite. Entre le scénario 1 [« génération frugale » reposant sur la sobriété et les puits naturels, NDLR] et le scénario 4 [« pari réparateur », qui conserve les modes de vie actuels en pariant sur des solutions technologiques, NDLR], les émissions de gaz à effet de serre cumulées entre aujourd’hui et 2050 diffèrent : il y a environ cinq années d’émissions de gaz à effet de serre actuelles de la France en plus en 2050 dans le scénario 4. »

Lever les freins à une action concertée

Céline Guivarch, directrice de recherche au CIRED et co-autrice du troisième volet du sixième rapport du GIEC, confirme l’urgence à agir. Pour ce faire, elle invite à changer d’échelle les investissements dans la transition écologique. « À l’échelle mondiale, les flux d’investissements actuels dans les solutions d’efficacité et de transformation des différents secteurs sont d’un facteur 3 à 6 inférieurs à ce dont nous avons besoin le long des trajectoires compatibles avec un réchauffement de 2°C ou 1,5°C. Les secteurs où le facteur est le plus grand sont les transports, l’agriculture et la foresterie. »

Pourtant, comme l’a rappelé le troisième volet du rapport du GIEC, le monde a déjà à sa disposition des technologies pour baisser de moitié les émissions de gaz à effet de serre dans tous les secteurs d’ici 2030. Et il ne manque pas de capitaux et d’épargne à l’échelle internationale. « C’est une question de réorientation : on investit encore trop dans les énergies fossiles qu’il s’agit de réorienter vers les solutions d’atténuation », poursuit Céline Guivarch.

On revient ainsi à la question de la planification au sommet de l’État, en concertation avec les acteurs économiques. « Le fléchage des investissements passera nécessairement par des politiques publiques pour augmenter les risques dans les placements polluants et faire baisser les risques de l’investissement dans la transition écologique », rappelle Céline Guivarch. Et ce sans oublier la société civile. « Les gens sont prêts à faire un effort, mais il y a vraiment la notion d’effort partagé entre citoyens, entreprises et État et volonté de planification et de transparence sur la cible et la trajectoire », conclut Valérie Quiniou-Ramus.

Le meilleur de la tech #19

Un collecteur d’énergie basé sur la photosynthèse de cyanobactéries

Les objets connectés se comptent aujourd’hui par milliards et devraient même atteindre le billion d’ici à 2035… Mais comment les alimenter ? Car qui dit objets connectés, dit sources d’énergie portables (batterie ou collecteur). Malheureusement, ces derniers ne sont pas privés de défauts. Les batteries par exemple sont construites à partir de matériaux chers et non durables (terres rares) et finissent par se décharger entièrement. Quant aux collecteurs, ils ne sont pas toujours recyclables en fin de vie, notamment pour ce qui est des cellules photovoltaïques. Quid donc d’un système de collection d’énergie bio-photovoltaïque ? C’est l’idée poursuivie par les membres de la collaboration entre l’université de Cambridge et la compagnie Arm, spécialisée dans la conception des microprocesseurs. Leur nouvel outil fonctionne grâce à la présence de cyanobactéries Synechocystis, ou algues bleues. Ces micro-organismes sont placés à même des anodes d’aluminium, où ils réalisent la photosynthèse. Dans leur publication d’Energy & Environmental Science en date du 12 mai 2022, les chercheurs en charge du projet annoncent que le courant ainsi produit a suffi à mettre en route un Arm Cortex M0+. Relativement courant, le microprocesseur a puisé dans le bio-collecteur durant 6 mois sans arrêt, avec pour tout apport extérieur de l’eau et la lumière ambiante. Finalement, le nouveau système s’appuie sur des matériaux durables, abordables et aussi recyclables. Le tout contenu dans un mécanisme pas plus grand qu’une pile AA !

Le métabolisme des coraux décrypté

Porites lutea est un corail pierreux que l’on trouve dans les eaux très peu profondes des récifs indopacifiques. C’est cette espèce qui a servi d’exemple pour une nouvelle recherche visant à mieux comprendre les interactions des coraux avec les flux de dioxygène (O2) de leur environnement aquatique. Jusqu’à maintenant, mesurer simultanément les processus de transport impliqués et les concentrations de O2 restait un véritable casse-tête. C’est pourquoi une équipe internationale comptant des chercheurs allemands, danois et suédois a développé la méthode « sensPIV » (PIV signifiant Particle Image Velocimetry). Elle repose sur l’utilisation de particules de moins de 1 micromètre trempées dans un colorant luminescent. Une fois placées dans le milieu d’intérêt, les microparticules sont suivies par imagerie, leur luminosité diminuant avec l’augmentation de la teneur de l’environnement en O2. Les tests, décrits le 23 mai 2022 dans Cell Reports Methods, se sont d’abord tenus sur des appareils microfluidiques avant de passer aux coraux à proprement parler. Les chercheurs ont alors mis les colonies de Porites lutea de l’Institut Alfred-Wegener de Bremenhaven (Allemagne) en présence de leurs fameuses particules. Ils ont relevé l’utilisation par ces organismes de mouvements ciliaires afin de transférer le dioxygène produit par photosynthèse jusqu’aux zones de consommation. Une nouvelle étape essentielle dans la connaissance approfondie du métabolisme des coraux, sérieusement menacés par le changement climatique…

Une pâte torsadée robotique

La robotique molle se heurte à un sacré défi : se passer de contrôles externes. En effet, comment parvenir à un mécanisme capable de réagir intelligemment aux modifications de son environnement, et ce sans « cerveau » ? Dans le PNAS du 23 mai 2022, des chercheurs de l’université d’État de Caroline du Nord et de l’université de Pennsylvanie ont présenté leur robot mou autonome. Ce dernier possède une intelligence physique, c’est-à-dire basée sur les matériaux qui le composent et sa forme même. Le robot est ainsi composé de rubans torsadés d’élastomères à cristaux liquides sensibles à la température. De l’extérieur, il rappelle des pâtes rotini… mais translucides. Pour se mouvoir, la « nouille » robotique collecte l’énergie thermique de son environnement. Plus précisément, toute portion de son corps en contact avec une surface dépassant les 55°C va se contracter et provoquer un roulement de l’ensemble – et plus il fera chaud, plus le robot ira vite ! Il est capable de gravir des pentes sablonneuses ou rocailleuses sans glisser. De plus, face à un obstacle, le robot va de lui-même se retourner, voire même sauter s’il le faut ! De quoi braver n’importe quel labyrinthe…

De nouveaux matériaux synthétisés pour stocker les gaz industriels inflammables

L’acétylène est classé dans la catégorie des gaz hautement volatils et inflammables. Pour les industriels, il est trop risqué de le stocker dans des bouteilles à haute pression, comme c’est le cas avec le butane et le propane. Ils peuvent utiliser des matériaux poreux, mais qui ne permettent pas des cycles de stockage et relargage optimaux. En cause : leur grande affinité avec les molécules de gaz inflammables, ce qui complique leur libération au moment du déstockage, car elles se retrouvent piégées dans le matériau hôte. Une équipe de recherche internationale, regroupant le CNRS, Air Liquide et l’Université de Kyoto au Japon, vient de mettre en évidence les capacités très prometteuses d’une nouvelle famille de matériaux pour le stockage de gaz inflammables tel que l’acétylène. Ces travaux viennent d’être publiés dans la revue Nature Chemistry.

Le matériau appartient à la famille des MOF (Metal–Organic Frameworks) ou réseaux métallo-organiques en français, ces derniers étant capables de former des structures cristallines nanoporeuses. Il est constitué de briques organiques (l’acide 1,4-benzènedicarboxylique et la 4,4’-bipyridine) et de briques métalliques (le zinc). « À l’image d’un jeu de Lego, ces briques sont assemblées à l’aide de connecteurs pour créer un matériau à trois dimensions, comme une charpente, explique François-Xavier Coudert, directeur de recherche au CNRS. L’idée principale est d’utiliser une brique organique et de la lier à au moins deux métaux afin de parvenir à créer un réseau. » Une deuxième étape consiste à modifier ces briques grâce à l’incorporation de différents groupes chimiques. Plusieurs d’entre eux ont été testés, et les scientifiques ont démontré que l’ajout des groupes nitro (NO2) ou amino (NH2) permet de faire varier la gamme de pression lors du stockage de l’acétylène.

Structure du Metal-Organic Framework MOF-508, composé de carbone (noir), d’azote (bleu), d’oxygène (rouge) et de zinc (vert). Crédit : François-Xavier Coudert/CNRS

Ce nouveau matériau a la caractéristique de proposer deux états, l’un ouvert et l’autre fermé, facilitant ainsi l’absorption et la désorption du gaz. Pour un volume donné, il est capable de stocker et relarguer 90 fois plus d’acétylène que les matériaux poreux actuellement utilisés. Il permet aussi de récupérer 77 % du gaz stocké dans une bouteille, une performance largement supérieure aux matériaux traditionnels, et cela, aux conditions de température et de pression imposées par l’industrie. « La pression idéale de la plupart des matériaux actuellement sur le marché ne correspond pas à celle à laquelle les industriels veulent travailler, analyse le chercheur. Les gaz inflammables sont soit stockés dans des bouteilles qui n’ont pas beaucoup d’affinité avec le gaz, mais dans ce cas, on en stocke peu. Ou alors, dans des matériaux qui ont beaucoup d’affinités avec le gaz, permettant ainsi d’en stocker plus, mais dans ce cas, le déstockage devient difficile. L’avantage de notre nouveau matériau est que l’on peut stocker une quantité importante d’acétylène et en même temps le relâcher facilement. On gagne sur les deux tableaux, ce qui n’est pas possible avec les matériaux conventionnels. »

Tester d’autres combinaisons pour stocker le CO2 et le méthane

L’autre point positif de ce matériau est qu’il est flexible, c’est-à-dire qu’il est possible de faire varier ses caractéristiques grâce aux différents groupes chimiques ajoutés, afin qu’elles correspondent à la gamme de pression des industriels. « Ce qui n’est pas le cas avec les matériaux actuels, qui ne sont pas ajustables, ajoute François-Xavier Coudert. S’ils ne correspondent pas aux contraintes des industriels, il faut alors s’orienter vers une autre famille de matériaux. » Les scientifiques vont poursuivre leur travail de recherche pour tester d’autres combinaisons de groupes chimiques pour que ce nouveau matériau soit adapté au stockage d’autres types de gaz tels que le CO2 et le méthane.

Ce nouveau matériau a d’ores et déjà fait l’objet d’un dépôt de brevet par l’Université de Kyoto et Air Liquide. Pour l’instant, un démonstrateur a été conçu, fonctionnant dans des conditions d’utilisation proches de celles employées par les industriels, mais à l’échelle d’un laboratoire. L’étape suivante va consister à tenter de réaliser la synthèse de ce matériau à plus grande échelle.

La clarification des politiques publiques, clé de la transition agricole

L’agriculture représente environ 19 % des émissions de gaz à effet de serre françaises, principalement du méthane et du protoxyde d’azote. En 2019, le secteur de l’agriculture (hors usage ou changement d’usages des terres et foresterie) émettait 85 millions de tonnes de CO2 équivalent (MtCO2 eq), en baisse de 8 % par rapport à 1990. Voici les chiffres clés que rappelle à la tribune Sébastien Bouvatier, adjoint au sous-directeur de la performance environnementale et de la valorisation des territoires au ministère de l’Agriculture et de l’Alimentation, lors du 19e Forum international de la Météo et du climat, le 17 mai à l’Hôtel de Ville de Paris.

« L’élevage (fermentation entérique et gestion des déjections) est la source de 68 % des émissions nationales de méthane et la culture des sols (fertilisation minérale et organique) de 80 % des émissions nationales de protoxyde d’azote (N2O), complète le site notre-environnement.gouv.fr. Le secteur de l’agriculture intègre également environ 11 Mt de CO2 eq. liés à la consommation d’énergie par les engins agricoles et sylvicoles. »

Une question de réduction de GES

La dernière stratégie nationale bas-carbone (SNBC-2) objective une baisse des émissions qui relèvent de l’agriculture de -46 % en 2050 pour atteindre 48 MtCO2 eq en 2050. Elle prévoit une étape de -18 % en 2030. L’État travaille actuellement sur la SNBC-3 qui sera finalisée en 2024. Elle fixera de nouveaux objectifs nationaux pour intégrer les nouveaux objectifs européens du paquet Fit for 55.

Sébastien Bouvatier explique : « L’idée est d’arriver progressivement à ce que les émissions du secteur agricole soient plus que compensées par la fonction de puits et que le secteur des terres – agriculture et forêt – soit négatif en émissions nettes. Les discussions sont encore en cours pour définir un horizon au niveau européen et comment se répartir l’effort entre États membres ».

Quels leviers pour réduire les émissions de GES ?

La SNBC-2 prévoit une multitude de leviers pour réduire les émissions de GES et amplifier les puits de carbone. Sébastien Bouvatier énumère : « Il y a des leviers techniques sur les pratiques de fertilisation, sur la place des légumineuses dans l’agriculture française, sur la gestion des effluents d’élevage, sur la gestion des élevages plus globalement, sur l’alimentation animale, sur l’efficacité énergétique et le choix énergétique. Il y a un rôle important du secteur agricole avec toutes les énergies renouvelables, la séquestration du carbone dans les sols, mais aussi dans la biomasse. On peut aussi travailler sur le gaspillage, sur les régimes alimentaires et améliorer la précision des inventaires nationaux pour diminuer les incertitudes ».

Plusieurs politiques publiques peuvent ainsi être mobilisées pour atteindre les objectifs climatiques. Sébastien Bouvatier poursuit : « Le Plan d’action climat du ministère de l’Agriculture de juin 2021 récapitule comment les différentes politiques publiques conduites par le ministère permettent de se saisir de ces différents leviers pour faire évoluer le visage de l’agriculture et du système alimentaire afin de répondre davantage  aux enjeux climatiques : la PAC, les autres politiques environnementales – sur les nitrates, la qualité de l’air, l’économie circulaire… – la politique commerciale, les politiques alimentaires et de réduction du gaspillage ».

Une attente : clarifier les politiques publiques

Céline Imart, agricultrice et porte-parole d’Intercéréales, l’interprofession de la filière céréalière, veut défendre l’action des agriculteurs : « Cette transition, on est déjà dedans », assure-t-elle. « Le changement climatique, on le voit, on le subit. Il y a déjà des pratiques que l’on met en œuvre pour s’adapter au changement climatique : les pratiques d’agroforesterie, le développement de cultures intermédiaires, l’introduction de légumineuses dans la rotation, la lutte contre l’apparition de nouveaux ravageurs… Mais on a besoin d’un accompagnement et d’aides pour valoriser ces filières sur lesquelles on s’engage. »

Céline Imart invite à mettre fin aux « injonctions contradictoires des politiques publiques ». Si l’on souhaite réellement relocaliser l’agriculture, elle souligne l’importance de mettre fin à la multiplication des signatures d’accords de libre-échange et de développer de vrais politiques de soutien à la transition. « On a besoin d’avoir une vision politique claire, des outils de recherche et d’innovation extrêmement forts et d’investissements », résume-t-elle.

En particulier, la filière céréalière et oléopro espère beaucoup du label bas-carbone en cours de déploiement pour rémunérer les agriculteurs qui s’engagent dans des pratiques vertueuses afin de capter et stocker davantage de carbone. « La rémunération des services environnementaux rendus, l’agriculteur en a besoin : il en a besoin financièrement sur son exploitation et il en a besoin en tant que source de reconnaissance et de fierté », prévient-elle.

L’Agence Smart Industry accompagne les industriels dans leur transition « 4.0 »

Implantée sur trois sites en France, l’Agence Smart Industry accompagne chaque année une trentaine de sociétés dans leur digitalisation. Traitant à 70 % avec des PME, l’agence fondée par Alexandra Desserre a tissé des liens forts avec l’industrie aéronautique, mais accompagne également des entreprises de l’agroalimentaire ou encore de l’industrie pharmaceutique. Disposant ainsi d’un point de vue privilégié sur l’industrie, sa présidente nous livre sa vision du niveau de digitalisation des usines françaises, des solutions adoptées et du chemin restant à parcourir.

Techniques de l’ingénieur : Comment l’agence que vous dirigez a-t-elle vu le jour ?

Alexandra Desserre : fondatrice et présidente de l’Agence Smart Industry. © Agence Smart Industry

Alexandra Desserre : L’Agence Smart Industry a été créée en 2017, elle aura donc cinq ans en juillet prochain. J’ai créé l’agence suite à une expérience que j’ai eue en tant que Directrice de la digitalisation au sein d’une industrie, dans le milieu du cognac. Ce qui m’animait dans ce type de projet était de le monter, de le manager… Je me suis posé beaucoup de questions et j’en suis arrivée à la conclusion que ce que j’aimais faire, c’était définir la stratégie et mettre en place les choses, mais je ne me voyais pas forcément dans dix ou vingt ans toujours au sein de cette société. J’ai donc fait un benchmark des besoins et je me suis dit que s’il y avait des besoins de digitalisation dans ce grand groupe, c’est certainement que d’autres entreprises se posaient aussi des questions sur ce type de démarche. J’ai donc proposé à mon directeur de l’époque de créer mon agence et de finaliser le projet chez eux en leur demandant d’être mes premiers clients. Il m’a dit « bingo ! » et ça a donc commencé comme ça.

En plus de son siège d’Angoulême, l’agence s’est implantée à Bidart et Avignon. © Agence Smart Industry

Comment l’agence a-t-elle évolué depuis sa création ? Quels sont les principaux services que vous proposez aujourd’hui ?

Nous sommes aujourd’hui 12 personnes, réparties au sein de trois entités. Il y a tout d’abord le site d’Angoulême, notre siège. Nous avons aussi ouvert une agence l’année dernière à Bidart, à côté de Biarritz, et nous sommes en train d’ouvrir une troisième agence à Avignon. C’est en train de se faire et l’agence devrait être opérationnelle pour septembre.

Nous proposons aujourd’hui deux grands lots de services. Le premier correspond à ce que nous appelons « l’analyse fonctionnelle », qui consiste à proposer à l’industriel de définir avec lui une stratégie de digitalisation, autour d’une méthodologie qui s’appelle la méthodologie DILO, pour « Day in the life of… ». Le but est d’aller sur le terrain et de rencontrer les personnes qui créent de la valeur au sein de l’industrie. Nous partons en effet du principe que ces personnes n’ont pas attendu la digitalisation pour créer de la valeur. Nous cherchons donc à identifier avec elles comment elles utilisent les systèmes et ce qui leur fait perdre du temps ou des données. À partir de cela, nous pouvons établir une « maturité digitale » : nous classons toutes les actions effectuées au sein de l’entreprise autour de plusieurs axes et notamment une question : est-ce pertinent de digitaliser ? Il ne faut en effet pas digitaliser à tout prix… Nous arrivons ainsi à l’élaboration d’une liste de solutions potentielles que nous aimerions soumettre à l’industriel, tout en sachant que nous ne vendons pas de solutions et ne prenons pas de commission. Nous leur garantissons ainsi une objectivité la plus totale. C’est un gros point positif qui explique sans doute pourquoi tant d’industriels nous appellent.

En parallèle, nous avons aussi trois personnes au sein d’un service informatique interne qui appliquent la même méthodologie DILO, sur le terrain, mais pour se pencher cette fois sur la partie infrastructures : les serveurs, la téléphonie, le wifi, l’accès à internet par la fibre, le site web… Nous sommes également certifiés en matière de cybersécurité, ce qui nous permet de réaliser un test d’intrusion « en boîte noire », pour évaluer le degré de maturité de l’entreprise en matière de cybersécurité. Nous accompagnons environ 70 % de PME et pour ces petites sociétés il est crucial de parler d’infrastructures quand on parle de digitalisation. Nous nous sommes aperçus que les personnes avec qui nous interagissions n’étaient pas forcément formées ou matures pour parler d’informatique. Nous apportons donc aussi de la pédagogie. Tout cela fait ainsi partie du premier lot de services que nous proposons.

En ce qui concerne le second lot, il s’agit de MOA[1] et de formation. Nous pouvons aussi proposer à l’industriel, une fois les solutions de digitalisation choisies, de continuer à l’accompagner dans le management de son projet de digitalisation.

Vous indiquiez accompagner environ 70 % de PME. Y a-t-il des secteurs plus particulièrement représentés parmi vos clients ?

Nous essayons de toucher tous les types d’industries. Nous sommes en effet des industriels à part entière avant d’être des spécialistes en stratégie de digitalisation. Nous avons toutefois un lien assez fort avec le domaine de la métallurgie, et plus particulièrement le secteur de l’aéronautique. Nous faisons ainsi partie du programme qui s’appelle le GIFAS[2] et qui rassemble un grand nombre de sociétés répondant à cette typologie. Nous avons aussi des clients dans d’autres domaines : mise en bouteilles, agroalimentaire, pharmaceutique… Nous ne sommes par ailleurs pas fermés et nous voulons avant tout établir un échange avec l’industriel dans le but d’être efficients pour lui. Tout sujet est étudié. Nous accompagnons, au cours d’une année, une trentaine de sociétés.

Prévoyez-vous éventuellement de faire évoluer, de compléter votre offre de services dans les mois à venir ?

Cette année, nous avons voulu accentuer l’offre sur la partie informatique. Il s’avère qu’il existe aujourd’hui des besoins en matière de cybersécurité chez des industriels qui sont déjà relativement matures et ont déjà mis en place une stratégie de digitalisation. Ils n’ont donc pas forcément besoin d’un regard opérationnel, et nous aimerions soutenir un peu plus la partie informatique seule.

Cela implique des recrutements…

Oui, exactement. Nous sommes en recherche active d’un profil plutôt orienté « Business development » qui pourrait être actif sur les trois agences. Il est toujours compliqué de trouver la perle rare, mais nous ne désespérons pas ! Au gré des projets, d’autres recrutements sont aussi possibles, notamment sur nos agences en croissances de Bidart et Avignon. Nous souhaitons avant tout apporter de l’humain dans la digitalisation, et cela passe par la proximité. Nous voulons donc favoriser cet aspect en maillant, à terme, le territoire le plus finement possible. Nous réfléchissons ainsi à une autre localisation qui serait plus proche de la Bretagne… Et nous ne sommes pas fermés, des opportunités peuvent se présenter à tout instant.

L’industrie 4.0 est désormais une réalité pour la quasi-totalité des industriels. © Adobe Stock

De par vos activités, quelle vision avez-vous du niveau de digitalisation de l’industrie française ? Sommes-nous plutôt en retard, ou en avance… ? Observez-vous des différences en fonction des domaines d’activité ?

De manière très générale, j’observe qu’il y a eu un « avant » et un « après Covid », et ce de manière vraiment très prononcée. Je pense que les industriels ont une vision qui a changé parce qu’ils ont été « forcés », même si le terme est peut-être un peu fort, à se confronter à l’industrie 4.0. Le Covid leur a soit laissé le temps, car ils avaient un peu moins d’activités, soit ne leur a pas laissé le choix : il leur fallait, pour certains, avoir une stratégie de digitalisation afin d’être plus productifs. Je ne rencontre désormais plus un industriel, tous secteurs confondus, qui ne soit pas au courant de ce qu’est l’industrie 4.0. Quand j’ai commencé, certains étaient perdus sur ce sujet et pensaient que cela n’était pas fait pour eux, ou y étaient totalement hermétiques. Il doit encore y en avoir, mais ils sont de moins en moins nombreux.

Au-delà de cette vue globale, il y a effectivement, je pense, des domaines bien plus avancés que d’autres. De l’expérience dans l’aéronautique que je peux par exemple avoir en participant au programme du GIFAS, je constate que le niveau de maturité dans ce domaine n’est pas négligeable. Des outils sont déjà en place depuis quelques années. Ils ont parfois été mis en place car il y avait une forme d’opulence dans ce domaine d’activité-là : avant le Covid, c’était une industrie qui fonctionnait très bien et qui avait donc beaucoup d’argent à disposition. Des outils ont donc parfois été mis en place sans trop savoir à quels besoins ils allaient permettre de répondre. Pour autant ils sont là, et un gap a été franchi. Cette tendance s’observe moins dans d’autres domaines qui auraient pourtant des besoins, comme l’agroalimentaire. Notre but est donc de les prendre par la main pour leur montrer en quoi une stratégie de digitalisation cohérente peut leur être bénéfique.

Quels sont justement les bénéfices que peut tirer un industriel de la mise en place d’une stratégie de digitalisation ?

Indéniablement, je pense qu’une véritable attractivité s’opère sur la montée en compétences. Ce que nous voyons sur le terrain, en rencontrant les opérateurs, les techniciens, ceux qui font la donnée, c’est qu’ils réalisent énormément de tâches sans valeur ajoutée. La digitalisation peut être un réel levier de montée en compétences. Cela ne laisse heureusement pas les opérateurs indifférents. Je pense que c’est la chose la plus importante pour recentrer la digitalisation autour de l’humain. Les métiers vont changer, la digitalisation va permettre de simplifier les tâches, de supprimer au maximum celles qui sont sans valeur ajoutée et cela va montrer aux opérateurs que l’on a besoin d’eux et de leur expertise : ils voient des choses que personne d’autre ne voit au cours d’une journée.

L’âge peut-il avoir une influence sur l’intérêt ou au contraire les craintes des salariés pour la digitalisation ?

Certes, un jeune est né avec la digitalisation, les smartphones, les réseaux… Mais quand on vient d’intégrer un outil digital, parmi le panel de personnes à former, finalement on se rend compte que la personne qui, de prime abord, a une appétence naturelle pour ce genre d’outil, est en fait celle qui va le moins écouter. Une personne d’un certain âge, y compris si elle n’est pas à l’aise avec les technologies, va être plus attentive, à l’écoute. Un jeune peut prendre cela un peu plus à la légère. On se retrouve donc avec des personnes moins à l’aise de prime abord qui vont finalement maîtriser l’outil de manière plus rapide parce qu’ils auront été plus attentifs au cours de la formation.

Déclinée en plusieurs niveaux, la digitalisation peut aller jusqu’à l’utilisation de solutions d’IoT et d’intelligence artificielle. © Adobe Stock

Même si vous n’en proposez pas directement, quelles solutions pouvez-vous préconiser lorsque vous établissez une stratégie de digitalisation ?

Sur le domaine qui nous concerne, car nous sommes vraiment spécialisés sur la partie conduite opérationnelle des processus de fabrication, il existe différents groupes de solutions. Sur la première marche de digitalisation, il s’agit principalement d’outils-métiers comme les ERP[3]. Il faut souligner que beaucoup d’industriels ne maîtrisent pas leur ERP ou n’en ont tout simplement pas. Il peut aussi s’agir de CAO ou de CFAO[4], des outils qui existent depuis plus de vingt ans, qui sont connus, mais pour autant pas forcément maîtrisés.

Cette première marche est la plus importante, elle est indispensable pour accéder aux niveaux supérieurs de digitalisation.

On passe ensuite à de la digitalisation de deuxième niveau, avec des outils de type MES[5] par exemple, qui permettent de connecter les machines et d’automatiser certains processus de qualité, de maintenance, avec de la GMAO[6]. L’idée est de réceptionner les données réelles de production pour pouvoir les confronter aux données théoriques paramétrées dans l’ERP. Cela permet de mesurer les différents niveaux de productivité, de qualité, de maintenance etc.

Il y a enfin un niveau supplémentaire qui vise à automatiser encore plus les informations reçues. Il s’agit dans ce cas de solutions d’IoT[7], et, potentiellement sur certains outils, d’intelligence artificielle. Cela permet de guider les personnes dans leur prise de décision.

Quels sont les points de vigilance à garder en tête lorsque l’on envisage de déployer toutes ces solutions de digitalisation ?

Le risque majeur d’un projet de digitalisation c’est l’humain. On le voit avec le salon Global Industrie, il existe des solutions technologiques pour quasiment tous les besoins. En revanche, si l’on n’a pas bien exposé le besoin, les problématiques, rencontré les humains, le plus gros problème que l’on rencontrera au moment de la mise en place de la solution sera l’humain. C’est lui en effet qui utilisera cette solution.

Les risques techniques existent, bien entendu, mais restent identifiés comme tels : on va donc logiquement trouver des réponses adaptées. En revanche, si un humain se refuse à utiliser une solution parce qu’elle ne lui semble pas adaptée, cela peut être très compliqué. C’est pour cela que nous mettons un point d’honneur à mettre l’humain au cœur de la digitalisation : nous prenons le temps d’échanger, de rassurer les personnes en leur montrant pourquoi elles auront de la valeur demain. On entend parfois des craintes autour du remplacement de certains emplois par des robots. C’est typiquement le genre de chose à éviter, et il faut l’expliquer aux salariés. Il faut leur montrer que sans leur cerveau, sans leur regard et sans leur expertise, on aura beau avoir la meilleure solution de digitalisation au monde, cela sera vain. C’est de l’humain dont on a besoin avant tout.

La digitalisation est-elle, selon vous, un processus que l’on peut réaliser en un temps donné, avec une date de fin, ou s’agit-il au contraire d’une démarche au long cours ?

De la même manière qu’une entreprise a un service d’amélioration continue pour les services de production, je pense que la digitalisation peut elle aussi évoluer en continu. Si l’on optimise un processus, si l’on change d’approche, si l’on répond à un nouveau client qui nous demande des choses différentes, forcément, il faut que l’on optimise et que l’on améliore ce que l’on fait déjà. Il en va de même avec la digitalisation.

Ce que nous faisons, généralement, avec les industriels c’est que lorsque nous clôturons la mise en place du projet de digitalisation, nous proposons un lot peu important financièrement, à 4 000 € par an, qui consiste à suivre le projet de digitalisation dans le contexte de l’amélioration continue et éviter ainsi de tomber dans l’obsolescence.

Selon vous, quel chemin reste-t-il à parcourir, dans l’industrie française, en matière de digitalisation ?

C’est très compliqué à dire… Les niveaux de digitalisation sont très différents. On peut parfois être surpris : de toutes petites PME peuvent avoir un niveau de digitalisation énorme, alors que des grands groupes digitalisent pour digitaliser et au final se retrouvent avec des outils qui ne sont pas forcément les plus pertinents. Je pense donc qu’il s’agit d’un processus continu, un cercle vertueux, qui n’atteindra pas forcément un jour un niveau de perfection. On est en tout cas sur une pente très croissante quant au niveau de maturité des industriels.


[1] Maîtrise d’ouvrage

[2] Groupement des industries françaises aéronautiques et spatiales

[3] Un ERP (Enterprise Resource Planning) ou PGI (Progiciel de Gestion Intégré) est un système d’information qui permet de gérer et suivre au quotidien l’ensemble des informations et des services opérationnels d’une entreprise. (Source : Cegid)

[4] Conception et Fabrication Assistée par Ordinateur

[5] Manufacturing Execution System : logiciel de pilotage de production collectant les données de production en temps réel grâce à l’analyse de la traçabilité, au contrôle qualité, au suivi de production, à l’ordonnancement et à la maintenance préventive et curative. (Source : Quasar Solutions)

[6] Gestion de maintenance assistée par ordinateur

[7] Internet of things : internet des objets

Découvrez les lauréates de l’édition 2022 d’Ingénieuses…

Le 1er Avril dernier, le jury d’Ingénieuses composé de membres de la CDEFI et de représentants de partenaires et soutiens, dont Techniques de l’Ingénieur fait partie, ont sélectionné les lauréates de cette nouvelle édition. La remise des prix s’est tenue le jeudi 19 mai sur le campus de Cachan de l’EPF école d’ingénieur-e-s.

Sur les neuf prix décernés lors de la cérémonie, cinq sont revenus à des écoles d’ingénieurs et quatre à des élèves et femmes ingénieures. 

Ci-après les lauréates d’Ingénieuses’22 :

Prix à destination des écoles d’ingénieur-e-s (quatre prix décernés) :

  • Polytech Angers, lauréate du prix de l’école la plus engagée – catégorie administration, pour son projet « Polytech Angers s’engage pour plus d’égalité » ;
  • l’ESEO, lauréate du prix de l’école la plus engagée – catégorie association de l’école, pour son projet « Arduin’elles » ;
  • l’EPITA, lauréate du prix du projet le plus original, pour son projet « 404Elles » ;
  • CentraleSupélec, lauréate du prix spécial du jury, pour son projet « Summer Camp CentraleSupélec » ;

Prix Cap Ingénieuses :

  • Polytech Marseille, lauréate pour son projet « Les ingénieuses du piano solaire de Marseille 13° ».

Prix de l’élève-ingénieure France 2022 :

  • Louise BAEHR, élève à l’IMT Nord Europe, lauréate du prix remis en partenariat avec l’AUF Europe Ouest ;

Prix de l’élève-ingénieure Maghreb 2022 :

  • Widad YESFI, élève à l’université Cadi Ayyad de Marrakech, lauréate du prix remis en partenariat avec l’AUF Maghreb ;

Prix de la femme ingénieure (deux prix décernés) :

  • Sylvie PIERUNEK, diplômée de l’INSA Toulouse, docteure de l’INSA Lyon et responsable de l’équipe d’implémentation physique des microcontrôleurs chez STMicroelectronics, lauréate du prix de la femme ingénieure 2022 ;
  • Yulia AKISHEVA, diplômée de l’ISAE-SUPAÉRO et actuellement doctorante rattachée à l’école, lauréate du prix de la femme ingénieure junior 2022.

Techniques de l’Ingénieur est fier d’avoir contribué à cette édition 2022 et félicite tous les lauréates. Rendez-vous l’année prochaine pour une nouvelle opération Ingénieuses.

Regards de dirigeants #18 : Marc Rumeau, IESF

Marc Rumeau a accepté de livrer aux Techniques de l’Ingénieur sa vision du développement d’IESF pour les années à venir, qui doit servir un objectif prioritaire : la réindustrialisation (et l’industrialisation) du pays. Pour faire de cette ambition un succès, le président d’IESF veut entre autres agir auprès des jeunes, des étudiants, des futurs ingénieurs pour améliorer l’image de l’industrie en France, qui se dégrade auprès des jeunes générations depuis de nombreuses années.

Les journées nationales de l’ingénieur, organisées au mois de mars, ont rencontré un franc succès. Qu’en retenez-vous ?

Les journées nationales de l’ingénieur se sont effectivement tenues au début du mois de mars : 88 événements labellisés par l’IESF ont eu lieu, qui ont permis de communiquer auprès du jeune public notamment, pour les rapprocher du monde de l’industrie.

Aussi, depuis début février, nous avons lancé l’enquête nationale IESF, auprès des entreprises, des recruteurs, des écoles d’ingénieurs… nous voulons cette année atteindre la barre des 60 000 réponses à notre enquête, et nous visons la barre des 100 000 réponses dès l’année prochaine. Évidemment, plus il y a de répondants, plus le tableau que cela nous permet de dresser est pertinent.

Vous qui êtes en poste depuis moins d’un an, quel élan voulez-vous impulser à l’IESF pour les années à venir ?

A mon arrivée chez IESF, nous partions du constat que les ingénieurs et scientifiques de France n’étaient pas suffisamment représentés dans le débat national autour de l’avenir de l’industrie hexagonale.

La problématique que nous avons soulevée, c’est la difficulté des ingénieurs et des scientifiques, en France, à parler de leur travail et à communiquer autour de leurs idées. C’est une des raisons pour laquelle nous avons décidé de faire appel à la jeunesse, au sein de l’IESF, pour donner un souffle nouveau à notre mouvement. Mais aussi pour challenger cette jeunesse, qui veut donner du sens à sa carrière. Il y a donc un véritable « rafraîchissement » des effectifs, qui correspond à la nécessité de parler à la jeune génération actuelle, en utilisant les mêmes codes qu’elle.

Avec la volonté, sous mon mandat, de placer l’IESF dans une position qui permettra aux ingénieurs de faire entendre leur voix dans le débat public et auprès des ministères et des institutionnels.

Quels sont vos axes de travail en ce qui concerne la formation des ingénieurs dans l’hexagone ?

La bataille des sciences et la réforme du bac sont des sujets très importants. Il manque environ de 15 à 20 000 ingénieurs en France chaque année. Nous avons un vrai souci à ce niveau. Pour réindustrialiser la France, il faut absolument disposer de suffisamment d’ingénieurs qualifiés, ce qui n’est pas le cas aujourd’hui. Une filière comme le nucléaire par exemple a beaucoup souffert ces dernières années, et il manque aujourd’hui beaucoup d’ingénieurs, ouvriers spécialisés et techniciens pour maintenir le niveau de compétences développé sur ce secteur d’activité depuis des décennies.

Sur ces sujets, il nous faut nous rapprocher d’institutions comme le CNAM par exemple, comme l’UIMM avec qui nous allons signer une convention de partenariat, pour définir de manière beaucoup plus synergique les besoins en termes de compétences et de formation.

Cette démarche consistant à se rapprocher des organismes professionnels et de formation est-elle une clé pour développer des actions d’importance ?

Oui, il est certain que l’IESF doit, et c’est une de mes priorités, se rapprocher de tous les acteurs de la formation, des syndicats professionnels, des entreprises, pour peser sur l’avenir de l’industrie. L’IESF participe, par exemple, avec l’association des chambres de commerce et d’industrie de France à un projet de réindustrialisation. Il faut noter que depuis quelque temps, de plus en plus d’ingénieurs sont nommés à la tête des CCI, ce qui est une tendance intéressante. Les CCI ont un rôle très important de par leur action territoriale. Les défis à mener au niveau territorial sont nombreux et parmi eux la nécessité de développer des structures de formations partout sur le territoire, ce qui permettrait à de nombreux futurs ingénieurs d’être formés sans avoir à s’expatrier de leur région de résidence.

Ensuite, un paramètre important, au-delà du coût unitaire des études, c’est le logement. Le fait d’avoir des écoles d’ingénieurs à travers tout le territoire facilite de facto l’accès des étudiants aux écoles d’ingénieurs.

Parlez-nous du livre blanc de “propositions et recommandations” publié par l’IESF cette année, quelques mois avant les élections présidentielles ?

C’est un livre de propositions et de recommandations, auquel ont eu accès les candidats à la récente élection présidentielle. L’élection d’Emmanuel Macron et certains de ses engagements viennent valider certaines propositions que l’on trouve dans ce livre blanc, comme l’hydrogène, la réindustrialisation, la relance du nucléaire, entre autres. Je pense que ce livre blanc a eu un impact dans le débat public sur l’industrie. Nous avons d’ailleurs décidé, dès cette fin d’année de sortir un tome 2 de ce livre blanc, une version revue et augmentée, qui contiendra de nouvelles propositions. En filigrane, c’est la réindustrialisation, mais aussi l’industrialisation sur certains secteurs porteurs, que nous voulons promouvoir à travers ce premier livre blanc, et ceux qui suivront.

Vous évoquiez tout à l’heure la nécessité de rapprocher les jeunes de l’industrie. Quelles sont vos propositions sur ce sujet ?

Nous voulons toucher encore plus de jeunes et les ramener vers le monde de l’industrie. Il faut absolument que ce soit des jeunes qui présentent ces métiers aux étudiants, pour une raison simple : il est plus facile de communiquer cette passion de la science et de l’industrie en étant de la même génération. La transmission est plus évidente. Dans la même veine, nous sommes beaucoup plus présents sur les réseaux sociaux depuis quelques mois, pour être plus proches du jeune public et de ses pratiques.

Les écoles d’ingénieurs doivent également évoluer pour s’adapter aux enjeux actuels. Comment faire ?

Les enjeux pour les écoles d’ingénieurs sont multiples : il faut d’abord que ces écoles se financent, car elles sont aujourd’hui très dépendantes de leurs contrats de recherche avec les entreprises. Les programmes de développement d’avenir, impulsés par l’Etat, participent également à donner les moyens aux écoles de se financer.

Le second enjeu est de revoir le modèle économique des écoles d’ingénieurs, pour ne plus être dépendants et il faut faire évoluer les modèles économiques et les rationaliser.

Il faut également que les écoles restent attractives pour les jeunes. Pour le moment, il y a un déficit d’enthousiasme et d’engagement à l’école sur ce point-là. Il faut absolument faire évoluer les choses sur ce point, il s’agit d’ailleurs d’une proposition de notre livre blanc, qui consiste à proposer aux conseillers pédagogiques de passer du temps dans les usines avec des ingénieurs. Le but est d’inverser cette tendance qui voit de moins en moins de jeunes taper aux portes des écoles d’ingénieurs. Il est notamment fondamental  de faire revenir les filles vers la filière scientifique qui suite à la réforme du bac « désertent » cette filière !

Dernier point : si nous arrivons à inverser la tendance, nous aurons une nouvelle problématique, avec la disparition progressive des classes préparatoires, qui représente aujourd’hui un véritable problème pour les années qui viennent.

Autre sujet d’importance, la formation tout au long de la carrière. Quelles sont les propositions de l’IESF sur ce sujet ?

Il faut que les nouveaux ingénieurs acceptent d’être en formation tout au long de leur vie. C’est clairement l’enjeu pour les carrières de demain. L’évolution des technologies, du management, des envies des jeunes ingénieurs, doit absolument s’accompagner de processus de formation tout au long de la carrière, qui donneront aussi aux salariés des armes supplémentaires sur le marché de l’emploi.

Pour terminer, pensez-vous que la prise de conscience autour des difficultés de l’industrie française est réelle aujourd’hui dans le pays ?

Il faut absolument se réveiller sur ce qu’est aujourd’hui la réalité industrielle française. En effet, aujourd’hui, le PIB français industriel par habitant est de 6000 euros. En Allemagne, c’est plus du double. Pour rattraper ce retard, il va falloir, sur le long terme, réparer les erreurs faites depuis des décennies en termes de désindustrialisations, de délocalisations, d’éducation, pour redonner à notre pays un outil industriel de premier rang dans le concert mondial.

Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.