Elias Crespin : lorsque sciences et art s’entremêlent

© Elias Crespin. Photographie Manuel Martinic

Fils de mathématiciens ayant lui-même étudié l’ingénierie informatique, Elias Crespin se reconnaît à ses œuvres géométriques suspendues au plafond par des fils en nylon, reliées à des moteurs et dirigées par programmation informatique. Lorsqu’il nous accueille dans son atelier à Ivry-sur-Seine, des dizaines d’œuvres semblent flotter dans la large salle blanche. Ronds, triangles et figures géométriques de tout ordre sont suspendus et se transforment, dans une lenteur méditative et un silence complet. Un regard ailleurs et les œuvres ont complètement changé d’apparence. Pour désigner ces mutations d’une forme à une autre, Elias Crespin parle de chorégraphies, qu’il a lui-même dessinées et programmées.

Ses connaissances et son appétence pour les sciences ont influencé son art, même s’il n’a pas choisi volontairement de lier les deux. « Tout a commencé devant une œuvre de l’artiste vénézuélien Jesús-Rafael Soto. Je me suis dit qu’avec des fonctions mathématiques paramétrées, il serait possible de faire bouger cet objet. C’est resté à l’état d’idée pendant 2 ans, puis j’ai réfléchi au moyen de déplacer un objet à partir d’un logiciel que j’aurais programmé. J’ai essayé avec de plus en plus de moteurs, pour voir comment les connecter et les adresser individuellement pour qu’ils fonctionnent de façon autonome », se remémore l’artiste. Une fois la technique opérationnelle, il y a suspendu un filet mécanique pivotant et flexible, comme un écho au travail de sa grand-mère, l’artiste Gego. C’est ainsi qu’est née sa première œuvre, Malla Electrocinética I, et que se sont initiées ses chorégraphies. Avec plus d’une centaine d’œuvres à son actif, il est désormais exposé dans le monde entier, et une de ses œuvres, L’Onde du Midi, a notamment élu domicile au musée du Louvre depuis 2020.

Les figures géométriques sont suspendues à des caissons accrochés au plafond et reliées grâce à des fils en nylon.

Mécanique, électronique et programmation

Muni d’un large sourire, Elias Crespin ouvre un des caissons normalement accroché au plafond et s’enthousiasme de nous expliquer les mécanismes derrière ses œuvres. « Il existe trois aspects principaux pour faire fonctionner les sculptures : la mécanique, l’électronique et la programmation. À l’intérieur des caissons se trouvent des moteurs pas-à-pas d’une résolution standard de 6 400 pas par tour qui permettent d’avoir 16 positions intermédiaires par tour. Ensuite, des poulies changent le mouvement rotationnel du moteur en mouvement linéaire, et permettent aux fils de nylon accrochés d’effectuer des mouvements verticaux », indique Elias Crespin. Les moteurs sont contrôlés par l’électronique et conçus de telle sorte que 12 bits puissent commander 64 moteurs. Son œuvre exposée au Louvre compte 256 moteurs et nécessite des signaux de 36 bits.

Intérieur d’un caisson.

Pour la programmation, Elias Crespin compte sur des raspberry. « J’utilise une interface que j’ai développée moi-même, que nous pourrions appeler une interface de séquencement ou de composition, avec laquelle je peux interactivement faire bouger et donner une forme particulière à l’œuvre. Toutes les œuvres ont le même programme mais ce programme est paramétré différemment en fonction de la chorégraphie. Un des paramètres est la géométrie de l’œuvre, donc dépend des cordonnées de chaque point en mouvement, et de l’emplacement des moteurs », précise-t-il. La danse est une suite de formes. L’artiste définit les coordonnées des formes, puis le logiciel calcule les positions intermédiaires pour muter d’une position à une autre, toujours dans un rythme très calme. « Je préfère les mouvements lents car c’est une esthétique qui me plaît, et qui me permet de transmettre une forme de paix », explique l’artiste. Enfin, la Wifi permet d’établir le lien entre le logiciel de composition et l’œuvre.

Au bout des fils en nylon, Elias Crespin suspend des formes géométriques conçues avec des matériaux légers, comme des tiges ou des fines découpes en inox, aluminium ou plexiglas. Il travaille en ce moment à faire évoluer son logiciel pour pouvoir entre autres gérer des moteurs plus puissants et en conséquence, des éléments plus lourds.

De la création au vieillissement des œuvres

Afin de concevoir ses sculptures, Elias Crespin suit plus ou moins les mêmes étapes. S’il s’agit d’une commande pour un espace spécifique, la dimension, l’identité visuelle et les contraintes architecturales éventuelles sont induites d’emblée. Pour les œuvres sans espace particulier, c’est différent. « Après une centaine d’œuvres réalisées, mon expérience me permet d’avoir un bagage, ce qui peut aussi être un frein à mon imaginaire car je reste dans mon univers, détaille l’artiste. Je commence toujours par définir l’identité géométrique de l’œuvre. Est-ce que ça sera des éléments concentriques, des ronds, des triangles, des carrés, des baguettes ? Puis je prépare le caisson, la plateforme de contrôle comme je l’appelle. Je réalise un dessin technique avec un modèle 3D de l’intérieur du caisson où je place les moteurs, les cartes, l’alimentation, donc tous les composants qui prennent du volume. À ce moment-là, j’ai une bonne idée du mouvement général de l’œuvre. Après avoir accroché les éléments, j’utilise mon interface et je teste les positions pour programmer la chorégraphie ».

Pour la pérennité des œuvres, Elias Crespin doit prendre en compte le vieillissement des composants. « C’est un véritable défi pour nous. Dans presque chaque ville où nous exposons les sculptures, nous avons formé un technicien capable d’intervenir en cas de problèmes, comme une surcharge électrique ou des fils cassés. Nous préparons aussi de la documentation pour l’entretien technique en espérant que ça maintienne les œuvres en état de marche dans le temps. Les composants vieillissants devront être remplacés. Pour L’Onde du Midi au Louvre, nous avons donné chacune des pièces en doublon. Ils devraient pouvoir la garder en fonctionnement pour les 50 voire 100 prochaines années ! Et après, nous verrons… », conclut Elias Crespin.

Photo de Une : TriAlineados Fluo Vert d’Elias Crespin

Un bouclier tarifaire pour limiter la hausse du prix de l’électricité à +4%

Selon la Commission de Régulation de l’Énergie (CRE), le tarif réglementé de l’électricité aurait dû augmenter de 44,5 % pour les particuliers ce mardi 1er février. Pour éviter cette hausse colossale, le Premier ministre Jean Castex avait annoncé le 30 septembre dernier la mise en place d’un « bouclier tarifaire » en France. Il gèle le prix du gaz pour l’hiver au tarif d’octobre 2021 et plafonne la hausse des tarifs réglementés d’électricité au 1er février à +4 % TTC pour les clients résidentiels et professionnels, situés en métropole continentale ou dans une zone non interconnectée.

Pour y parvenir, le gouvernement abaisse la Taxe Intérieure sur la Consommation Finale d’Électricité (TICFE) à son niveau minimum prévu par le droit européen. Aujourd’hui fixée à 22,5 euros par mégawattheure (€/MWh), elle passera à 1 €/MWh. Cette baisse représente un coût budgétaire pour l’État de huit milliards d’euros.

Une hausse de 20 térawattheures des volumes ARENH

Le Gouvernement a aussi décidé d’augmenter les volumes ARENH (Accès régulé à l’électricité nucléaire historique). Ils passeront ainsi de 100 à 120 térawattheures (TWh) pour 2022, soit environ 30 % de la production du parc nucléaire historique. Le prix de ces volumes additionnels d’ARENH sera révisé à 46,2 €/MWh, contre 42 €/MWh pour les volumes initiaux.

Pour rappel, le dispositif de l’ARENH permet aux fournisseurs alternatifs d’accéder à un prix régulé, depuis 2011 et jusqu’en 2025, à l’électricité produite par les centrales nucléaires historiques d’EDF mises en service avant 2010. Ce dispositif a été créé pour permettre à l’ensemble des fournisseurs de s’approvisionner en électricité de base dans des conditions économiques équivalentes à celles d’EDF. Il permet ainsi à tous les consommateurs de bénéficier d’une électricité moins chère, puisque l’investissement dans le parc nucléaire actuel, consenti dans les années où EDF était en situation de monopole, a déjà été amorti.

L’Association Nationale des Opérateurs Détaillants en Énergie accueille avec soulagement cette redistribution, mais estime qu’elle aurait plus être encore davantage renforcée. Elle partage via un communiqué : « Cette décision de l’exécutif était nécessaire, cependant elle aurait pu être amplifiée en augmentant le volume supplémentaire à 50 TWh, ce que réclamait depuis longtemps l’ANODE et de nombreuses associations de consommateurs telles que l’UFC-QUE CHOISIR, l’UNIDEN ou le CLEEE ».

« Concrètement, les fournisseurs alternatifs d’électricité pourront acheter plus d’électricité à prix réduit à EDF. Ces fournisseurs seront ensuite tenus de répercuter intégralement cet avantage au bénéfice des clients. Ce point fera l’objet d’une surveillance étroite, en lien avec la Commission de régulation de l’énergie », explique le gouvernement dans un communiqué.

Un rattrapage éventuel en 2023

Mais ce bouclier tarifaire risque de ne pas suffire. « Une fois la fiscalité réduite et les volumes d’ARENH mis à disposition, la CRE évaluera l’éventuel rattrapage à réaliser en 2023 sur les tarifs réglementés de vente d’électricité (TRVE), dont le niveau dépendra des prix de marché en 2022 et des éventuelles mesures qui seront prises », avertit la CRE.

Afin d’éviter un rattrapage qui pourrait s’avérer trop rapide, l’ANODE précise déjà que cette mesure « devra être, a minima, pérennisée pour éviter de nouvelles hausses de prix pour les consommateurs, qui seraient sinon inévitables en 2023 ».

La Chine explose les compteurs de l’éolien offshore

En un an, la Chine a explosé les compteurs de l’éolien offshore. En installant 16,9 gigawatts (GW) sur l’année 2021 contre 3,1 GW en 2020, le pays prend de loin la première place en termes de capacités installées. Au total, le pays compte désormais près de 26,8 GW d’éolien offshore, contre 9,9 GW fin 2020. Il détrône ainsi de loin le Royaume-Uni, ancien numéro 1, avec ses 11 GW installées fin 2021.

À en juger par les chiffres disponibles actuellement, il y aurait 52,2 GW de capacité éolienne offshore installée et connectée dans le monde, dont plus de la moitié située dans les eaux chinoises. Sur Twitter, Simon Evans, rédacteur en chef de Carbon Brief, illustre bien à quel point la Chine devient le leader incontesté de l’éolien offshore.

Le plein de nouvelles capacités pour l’éolien offshore

En décembre 2021, la China Three Gorges Corporation a annoncé la mise en service complète de trois projets éoliens offshore totalisant 3,1 GW. L’entreprise a notamment mis en service son plus grand parc éolien offshore : la centrale Shapa et ses 269 turbines, comptant pour 1,7 GW près de Yangjiang dans la province du Guangdong.

Pour Joyce Lee, directrice des politiques du Global Wind Energy Council, ces développements attestent à quel point l’offshore jouera un rôle important dans la transition énergétique. « Cette nouvelle positive fait suite à une série de développements passionnants dans l’éolien offshore au cours du mois dernier, des 25 000 MW d’éolien offshore attribués lors de la récente compétition Scotwind Leasing au premier appel d’offres éolien posé en mer au Japon en décembre. Le Vietnam a relevé ses ambitions pour l’éolien offshore dans son dernier plan de développement électrique à environ 5 000 MW d’ici 2030, tandis que le mois prochain pourrait voir jusqu’à 7 000 MW de projets éoliens offshore mis aux enchères dans la baie de New-York aux États-Unis. »

Au total, la Chine a ajouté près de 101 GW d’éolien et de solaire sur l’année 2021 : 53 GW de capacité solaire photovoltaïque et 47,6 GW de capacité éolienne. Mais l’énergie du pays dépend toujours à 84 % des énergies fossiles et les émissions ont tout de même augmenté d’environ 5,5 % en 2021, rappelle Carbon Brief.

La filière textile contrainte de remplacer les substances chimiques à risques

Alors que son entrée en vigueur date de 2007, l’industrie du textile doit poursuivre ses efforts pour s’adapter aux contraintes imposées par le règlement européen REACH (Registration, Evaluation, Authorisation and restriction of Chemicals). Celui-ci vise à mieux protéger la santé humaine et l’environnement contre les risques liés aux substances chimiques, et restreint progressivement leurs usages. C’est ainsi qu’en novembre 2020, la présence de certaines substances dites CMR (cancérigène, mutagène ou toxique pour la reproduction) est devenue interdite dans les textiles au contact de la peau. Fortement consommatrice de produits chimiques, la filière textile parvient, avec plus ou moins de facilité, à trouver des produits de substitution.

Actuellement, une douzaine de familles de substances dangereuses font l’objet de restrictions. Mais le secteur n’a pas attendu le règlement REACH pour limiter leur emploi. Dès les années 60 et 70, à l’époque où leur nature cancérigène est découverte, les colorants azoïques sont bannis dans l’industrie sur le territoire européen. Il décide de les substituer par d’autres matières colorantes telles que les colorants anthraquinoniques et les phtalocyanines. Un risque de présence de ces colorants azoïques existe malgré tout en Europe, car leur synthèse est tombée dans le domaine public, et ils continuent à être utilisés par certains pays d’Asie comme la Chine et l’Inde. Bien que les importations soient interdites, les frontières ne sont en effet pas totalement étanches.

L’industrie chimique a également réussi à remplacer les phtalates, couramment utilisés comme plastifiants des matières plastiques. Ils pouvaient représenter jusqu’à 50 % du poids de certains produits comme les bâches. Ces composés chimiques sont classés dans la catégorie des perturbateurs endocriniens et sont qualifiés de reprotoxiques, c’est-à-dire qu’ils provoquent une baisse de la fertilité. Des produits de substitution ont rapidement été trouvés par les industriels grâce à l’utilisation d’autres plastifiants pour PVC tels que l’adipate d’octyle. Même scénario avec les APEOs (Alkylphenol ethoxylates) qui ont été substitués par des tensio-actifs non aromatiques.

La filière a par contre plus de difficultés à trouver des substituts aux composés perfluorés, employés jusqu’ici pour leurs propriétés antitâches, répulsifs à l’eau et à l’huile. Ils contiennent au moins deux atomes de fluor, voisins dans la molécule. Les fabricants tentent de les remplacer par des acides gras et leurs sels ou alors par des silanes fonctionnels. Mais ces solutions techniques sont moins pertinentes, car ces nouveaux composés peuvent être répulsifs à l’eau, mais pas aux huiles, et ne sont donc pas efficaces contre toutes les tâches.

Certains substituts modifient le toucher des tissus

Les composés anti-feu à base d’ignifugeants bromés ou phosphorés sont eux aussi difficiles à substituer. Utilisés dans la fabrication de rideaux et les tissus d’ameublement, ils avaient prouvé leur forte capacité à stopper la propagation des flammes, même à faible concentration. Sauf qu’ils sont classés dans la catégorie des PBT (Persistance Bioaccumulation Toxicité). Plusieurs solutions techniques existent malgré tout pour les remplacer, comme l’emploi de formulations intumescentes, notamment celle consistant à former une croûte charbonneuse afin de créer une barrière à l’air. Mais elles sont jugées moins efficaces et peuvent dans certains cas ne pas être compatibles avec certains colorants ou modifier le toucher du tissu. Les industriels se retrouvent alors pris en étau entre les contraintes du règlement REACH et l’obligation de respecter des normes de sécurité imposées sur certains textiles, notamment pour ceux utilisés dans les ERP (Établissements Recevant du public)

Les métaux lourds font eux aussi l’objet de restrictions. Et là encore, la filière se heurte à des difficultés à les remplacer, d’autant qu’ils sont présents à différents niveaux, comme l’intérieur des colorants, dans certains apprêts ainsi que dans les polymères qui constituent les fibres synthétiques. Aucune solution miracle n’existe et il n’est par exemple pas possible de s’en passer dans certains cas, car ils sont utilisés comme catalyseurs métalliques dans la fabrication de polyesters ou de polyamides. Tout l’enjeu se alors situe au niveau de la qualité de fabrication du produit final, afin qu’il ne reste pas ou très peu de résidus dans les polymères.

La filière reste malgré tout confiante sur sa capacité à trouver des solutions dans les années à venir. Certes, elle ne retrouvera pas des produits aussi performants qu’avant les années 2000, mais des compromis vont être trouvés grâce au travail de la recherche. D’ores et déjà, toutes les familles de substances toxiques ont été identifiées et des solutions partielles trouvées.

Toutes les informations figurant dans cet article ont été recueillies auprès d’un expert du secteur du textile, que nous n’avons pas cité afin de protéger son identité, respectant ainsi son souhait d’anonymat.

Une seconde cavité saline expérimentée pour stocker de l’hydrogène en France

Après Étrez dans l’Ain, une seconde cavité saline située en France, à Carresse-Cassaber dans les Pyrénées-Atlantiques, fait actuellement l’objet d’études dans le but d’y stocker de l’hydrogène. L’initiative est cette fois-ci portée par HDF (Hydrogène de France) et Teréga, dont l’ambition est d’initier le déploiement d’une nouvelle filière de stockage massif d’hydrogène. Celui-ci sera issu d’énergies renouvelables, de types panneaux solaires et éoliens, et sera produit par électrolyse de l’eau. Une première phase a débuté afin d’étudier la préfaisabilité de ce stockage géologique, en partenariat avec le BRGM (Bureau de recherches géologiques et minières). Baptisé Hygéo, ce projet fait l’objet d’un soutien et d’un cofinancement de la région Nouvelle-Aquitaine.

Schéma représentant la cavité saline expérimentée dans le cadre du projet Hygéo. Crédit photo : BRGM

La cavité a la caractéristique d’être de faible dimension. Elle ne mesure que quelques milliers de m³ alors qu’en général, les volumes de ce type de stockage souterrain font plusieurs millions de m³. La cavité a aussi pour particularité d’être fermée depuis le milieu des années 2010 et n’a jamais accueilli d’hydrocarbures. Située à 700 mètres de profondeur, elle servait auparavant de stockage temporaire de saumure, avant qu’il ne soit réinjecté dans d’autres cavités accueillant du propane, afin de les maintenir en pression. « Nous avons dû reprendre toutes nos connaissances de ce site, depuis sa création dans les années 60 jusqu’à sa fermeture définitive » déclare Anne-Gaëlle Bader, cheffe de projets à la direction des géoressources du BRGM.

Avec son expertise en prévention des risques sur ce type de site, le service géologique national va devoir s’assurer que le puits et la cavité n’ont pas souffert pendant la période de fermeture. Pour cela, une panoplie d’outils va être descendue sous terre : sonars, caméras, capteurs, instruments de mesure d’ondes soniques… « Nous voulons par exemple être sûrs que le tube à l’intérieur du puits est bien cimenté, et qu’il n’y a pas de vide entre celui-ci et le terrain », ajoute l’experte du BGRM.

Anticiper les changements de pression à l’intérieur de la cavité

Les données issues de ces différents outils permettront de réaliser des travaux de modélisation numérique, couplant écoulement, réactivité mécanique et microbiologie, pour garantir la sécurité et la performance du site de stockage. Un travail qui devrait permettre notamment d’anticiper les changements de pression, lorsque l’hydrogène sera introduit dans la cavité. « L’une des difficultés avec l’hydrogène est que la molécule est beaucoup plus petite et donc plus mobile que celle de propane, analyse Anne-Gaëlle Bader. Étant donné que c’est un gaz inflammable, nous devons être très conservateurs dans nos mesures et nos tests. C’est au cours de l’étude que nous pourrons déterminer à quelle pression maximum l’hydrogène pourra être stocké sans endommager la cavité. »

Si les résultats de cette première phase sont concluants, des tests d’étanchéité seront réalisés en introduisant de la saumure dans la cavité pour évaluer si celle-ci et le puits répondent bien aux montées en pression, puis de l’azote, un gaz inerte et donc non dangereux et dans un troisième temps de l’hydrogène. À la suite de cette seconde phase, des études d’ingénierie et de construction pourraient ensuite être menées et une exploitation commerciale envisagée à l’horizon 2026. Cette cavité permettrait alors de stocker 1,5 GWh d’énergie, ce qui représente l’équivalent de la consommation annuelle de 400 foyers.

Quatre sites de stockage d’hydrogène en cavités salines sont actuellement recensés dans le monde, dont trois aux États-Unis et un en Angleterre. Ce dernier site est le plus ancien et fonctionne depuis les années 70. « Nous disposons déjà d’un retour d’expérience sur ce type de stockage, et aucun souci majeur n’a eu lieu, c’est-à-dire qu’il ne s’est jamais produit d’accident », précise la cheffe de projets du BRGM.

Nouveau banc d’essai pour les piles à hydrogène

L’engouement actuel pour l’hydrogène comme vecteur énergétique du futur est conditionné à de nombreuses avancées techniques. Deux enjeux majeurs sont la production décarbonée de cette molécule et le déploiement d’infrastructures de recharges dans l’optique d’une mobilité hydrogène. Dans le domaine du transport, il est aussi nécessaire de mieux comprendre les caractéristiques des systèmes utilisant de l’hydrogène dans les véhicules. Deux solutions sont possibles : soit la combustion directe dans un moteur thermique, soit le recours à une pile à combustible dans les véhicules électriques.

L’IFPEN travaille sur plusieurs de ces aspects et vient tout particulièrement de lancer des expérimentations sur un nouveau banc d’essai de piles à combustible (PàC). « Depuis 2018, l’intérêt des pouvoirs publics et des acteurs industriels pour l’hydrogène est très fort. Face aux questions émergentes, nous avons commencé en 2019 par la simulation numérique des PàC. Puis, en 2020, nous avons mené des expérimentations sur un véhicule de série, la Hyundai Nexo, et nous venons d’en lancer d’autres sur la nouvelle Mirai de Toyota. Mais de nouveaux types de tests des PàC, directement sur banc d’essai et hors véhicules roulants, vont nous permettre d’aller plus loin pour améliorer l’utilisation de cette technologie », explique Pierre Leduc, chef de projet Véhicules électrifiés et pile à combustible de l’IFPEN.

Améliorer l’efficacité des piles à combustible

Pour bien saisir le travail que mène l’IFPEN, il faut avoir à l’esprit la combinaison d’éléments d’un véhicule électrique fonctionnant avec de l’hydrogène. Tout d’abord, ce type de véhicule contient la pile à combustible et une batterie. Un des enjeux est donc d’arriver à gérer au mieux ces deux sources d’électricité de tensions différentes qui varient selon la demande de puissance, et dont le courant continu doit ensuite être transformé en courant alternatif pour le moteur, via de l’électronique de puissance (onduleur). De plus, il faut distinguer le cœur de la PàC constitué des cellules produisant l’électricité et les auxiliaires qui permettent son alimentation en hydrogène et en air comprimé, son refroidissement, etc.

Le banc d’essai de l’IFPEN à Solaize permettra de tester des piles à combustible pour la mobilité hydrogène. Crédits : IFPEN

Le nouveau banc d’essai de l’IFPEN permet d’isoler et d’étudier spécifiquement le système « cœur + auxiliaires », pour une puissance totale jusqu’à 210 kW, un niveau correspondant au besoin d’un poids lourd. En sortant ainsi des contraintes du véhicule roulant, les essais vont permettre d’identifier les leviers d’amélioration de l’efficacité des PàC. « Nous avons par exemple besoin de mieux gérer la purge de la pile. En effet, la réaction entre l’hydrogène et l’oxygène crée de l’eau, et la présence de l’azote de l’air qui est certes inerte peut gêner la réaction. Il faut donc éliminer l’eau et l’azote de la pile, mais sans consommer trop d’énergie ni perdre d’hydrogène » détaille Pierre Leduc. Autre sujet majeur, le vieillissement de la pile dû à l’usure des catalyseurs (comme ceux en platine) lors de la réaction H2/O2 ou à de trop forts échauffements. La quantification de ces phénomènes qui abaissent le rendement du système permettra de mieux les modéliser, et ainsi comprendre les conditions dans lesquelles on peut éviter un vieillissement prématuré. L’enjeu est de taille puisque aujourd’hui, la durée de vie d’une PàC sur voiture est d’environ 10 000 heures, alors qu’il en faudrait trois à cinq fois plus pour les poids lourds.

Un banc d’essai à disposition des industriels

Le banc d’essai a été installé à Solaize, au sud de Lyon, là même où de premières applications des PàC pour le transport avaient été testées dans les années 1970 et réévaluées dans les années 1990 par l’IFP (à l’époque sans le EN d’Energies Nouvelles). L’installation a été faite avec le soutien de la filière Carnot. L’investissement dans cet outil d’expérimentation est conséquent (montant non communiqué) mais est inclus dans un ensemble plus large testant des technologies hydrogène, ce qui permet la mutualisation de certains coûts (procédure de sécurité, formation des équipes, approvisionnement en hydrogène, etc.). Si les résultats des premiers tests sur la Hyundai Nexo avaient fait l’objet d’une publication dans la communauté scientifique, les prochaines données acquises par IFPEN seront commercialisées. Ainsi, non seulement des PàC existantes seront étudiées mais les fabricants de piles à combustible pour les marchés adéquats (voir encadré ci-après) pourront venir tester leurs projets.

Bien choisir les véhicules utilisant la pile à combustible

Le dynamisme du marché des véhicules électriques à batterie laisse-t-il une place pour les piles à combustible ? En fait, les batteries sont plus adaptées aux véhicules de tourisme car elles sont énergétiquement trois fois plus efficaces que les PàC. Mais l’hydrogène sera plus pertinent pour les longues distances, ou les trajets à forts dénivelés, ou lors des températures froides ou les besoins de recharge rapide. Pour toutes ces raisons, les bus, poids lourd, taxis, ou les trains sur des lignes non électrifiées (comme la SNCF et Alstom le prévoient) représentent un marché intéressant pour les piles à combustible. Le stockage de l’hydrogène exige un niveau de sécurité élevé (à 350 ou 700 bar) mais la capacité embarquée donne environ deux fois plus d’autonomie qu’une batterie. Et le temps de recharge est sans comparaison : moins de 10 minutes alors qu’une batterie nécessitera au moins le triple (en recharge rapide), si ce n’est des heures en recharge lente.

Des blocs de polystyrène expansé sous la route pour éviter les dégradations liées à la sécheresse

L’impact de la sécheresse sur les maisons est bien connu grâce à la prise en charge des dégradations par les sociétés d’assurance. Dans le cas des routes, dont l’entretien revient aux départements, ce phénomène est beaucoup moins étudié. En cause, la difficulté à différencier les dégradations habituelles liées, entre autres, au trafic et à l’action du gel et du dégel, et celles en lien avec le réchauffement climatique.

Pourtant, depuis 2015, des déformations inhabituelles de la chaussée sont observées, comme l’explique Lamine Ighil Ameur, chercheur en Mécanique des Sols au Cerema (Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement) : « Avec l’augmentation de la fréquence et de l’intensité des périodes de sécheresse, on constate la formation de fissures longitudinales proches des bords des chaussées, accompagnées d’un tassement différentiel et la formation d’une marche. Ces dégradations constituent un danger pour la sécurité des usagers. Elles s’observent encore plus dans les zones boisées à cause des racines des végétaux qui captent l’eau du sol sous la chaussée. Des accotements larges ont aussi tendance à amplifier l’évapotranspiration et à augmenter les déformations de la route, de même que la présence de sols argileux très plastiques, qui ont la particularité d’être sensibles au phénomène de retrait et de gonflement. »

Depuis 2017, en partenariat avec les Conseils départementaux de la région Centre-Val de Loire, le Cerema mène un projet de recherche appelé ORSS, pour Observatoire des Routes Sinistrées par la Sécheresse, au sein duquel plusieurs solutions techniques sont développées pour conforter les routes endommagées. L’une d’elles vient de débuter dans le Cher avec la pose de blocs de polystyrène expansé sous la structure de chaussée.

Éviter le phénomène de retrait-gonflement des sols argileux

L’expérimentation se déroule sur une portion de 170 mètres d’une route départementale reliant Morlac et Vallenay. Le matériau testé est celui breveté par l’entreprise Colas, appelé Compostyrène. Il a la particularité d’être la fois léger et résistant, et est déjà utilisé depuis plus de 30 ans pour stabiliser les sols compressibles. Dans le cadre de ce projet, il sera utilisé pour une autre finalité et aura pour rôle d’alléger la structure de la chaussée afin d’éviter la remontée des fissures de sécheresse ainsi que toute forme de dégradation liée au retrait-gonflement des sols argileux (RGA).

Travaux de mise en place du Compostyrène sur une route départementale dans le Cher – Crédit : Ighil Ameur, Cerema, 2021

Pour le mettre en place, des travaux de terrassement de la largeur de chaussée et d’un mètre de profondeur ont été nécessaires. Un géotextile anti-contaminant a d’abord été posé au fond de la fouille, puis un drainant constitué de gravillons d’une granulométrie de 10 à 20 mm, sur une épaisseur de 15 cm. Deux rangées de Compostyrène ont ensuite été posées et brochées au moyen de connecteurs métalliques pour éviter le glissement des blocs durant les travaux. Au-dessus de ceux-ci, une dalle de répartition en béton armé d’une épaisseur de 15 cm a été coulée avant la mise en place de l’enrobé pour reconstituer la chaussée.

Schéma de mise en œuvre de la technique basée sur le Compostyrène – Crédit : Colas, 2021

Pour les besoins de cette expérimentation, deux épaisseurs de blocs Compostyrène sont testées. La première consiste à obtenir une épaisseur totale de 40 cm grâce à la pose de deux rangées de 20 cm, et la seconde, par la pose de deux rangées de 30 cm, permet d’obtenir une épaisseur totale de 60 cm. « Nous avons placé des capteurs d’humidité dans le sol pour mesurer la dessiccation à travers la succion, c’est-à-dire la différence de pression entre l’air et l’eau du sol non saturé, ajoute l’expert du Cerema. Les deux épaisseurs nous permettront de définir plus tard si une épaisseur de 40 cm suffit ou s’il faut qu’elle soit de 60 cm pour limiter les effets liés à la sécheresse. »

Une autre solution technique testée dans le Loiret

Les travaux se sont terminés en novembre dernier, et cette expérimentation doit se prolonger jusqu’en 2024. Le Cerema souhaite en effet tester ce matériau sur au moins trois périodes de sécheresse. Cette technique de remédiation, consistant à agir sur la structure de la chaussée, est la première des trois catégories de solutions testées dans le cadre de l’ORSS pour limiter les effets de la sécheresse. La deuxième consiste à agir sur l’environnement proche de la route, notamment les accotements et la végétation, afin de limiter le phénomène d’évapotranspiration. Et la dernière repose sur l’injection de produits stabilisants dans le sol, pour le rendre moins sensible aux variations de teneur en eau. Cette solution est actuellement testée dans le Loiret depuis l’été dernier.

À terme, le Cerema souhaite rédiger un guide de recommandation de nouvelles solutions pour la résilience ou l’adaptation des routes vis-à-vis de la sécheresse. « Il n’y a pas de solution unique, nous souhaitons en présenter plusieurs en fonction des caractéristiques de chaque chaussée et de leurs coûts pour aider les départements, dont le rôle est d’assurer l’entretien des routes », conclut Lamine Ighil Ameur.

Un nouvel avion bas carbone propulsé à l’hydrogène

« Jusqu’à 279 passagers pourraient voler entre Londres et San Francisco sans escale, avec la même vitesse et le même confort que les avions d’aujourd’hui, révolutionnant l’avenir du transport aérien », a annoncé début décembre l’Aerospace Technology Institute (ATI), un groupement britannique composé du gouvernement et de l’industrie aéronautique. D’une envergure de 54 mètres, l’avion présenté devrait comporter deux turboréacteurs alimentés par la combustion d’hydrogène. Cet hydrogène liquide sera stocké à -250°C dans des réservoirs se trouvant à l’arrière et sur les côtés de son fuselage.

Les travaux de recherche initiaux sont financés par le gouvernement britannique à hauteur d’environ 17 millions d’euros. Un premier prototype va être développé et devrait effectuer un premier vol de démonstration à l’horizon 2030.

L’ATI n’est pas le premier à faire une annonce de ce genre. Airbus avait annoncé en 2020 trois concepts d’avions à hydrogène qui devraient voir le jour en 2035. Nombreuses sont les compagnies à la recherche de l’avion du futur, le moins polluant possible. Mais les avions à hydrogène ne seront pas neutres en carbone. Au mieux, ils pourront se targuer d’être « bas carbone », à condition que l’hydrogène utilisé soit de l’hydrogène vert. Et s’il n’y aura effectivement pas d’émission de CO2 pendant le vol, le processus pour obtenir de l’hydrogène n’est lui jamais neutre en carbone.

Les limites de l’hydrogène

Il existe plusieurs manières de produire de l’hydrogène. Pour que cet hydrogène soit « vert », il faut électrolyser de l’eau avec de l’électricité bas carbone (nucléaire, éolien ou hydraulique). Pour remplacer les carburants classiques par de l’hydrogène dans l’aviation, il serait donc nécessaire d’augmenter de manière considérable la capacité de production d’énergie, par exemple en construisant de nombreux réacteurs nucléaires. Il ne semble pas possible, avec les connaissances actuelles, de généraliser des lignes d’avions à hydrogène vert dans le monde dans les prochaines années. Il pourrait à la rigueur s’agir de niches, avec uniquement quelques lignes dans le monde.

Une autre limite à l’utilisation de l’hydrogène concerne son stockage et sa distribution. Avoir des infrastructures pour stocker et distribuer l’hydrogène, comme cela est fait avec les carburants classiques, demanderait de lourds (et donc coûteux) investissements. Un frein dont l’ATI semble avoir conscience.

Trois types d’avion bientôt présentés

Les détails du projet FlyZero devraient être publiés début 2022. Ils comprendront des feuilles de route technologiques, des rapports de marché et rapports économiques et une évaluation de la durabilité, mais surtout les trois concepts d’avions finaux : régional, monocouloir et de taille moyenne. Deux autres aéronefs de taille plus modeste, destinés aux liaisons régionales ou continentales, devraient donc être présentés.

Le groupement britannique à l’initiative de ce projet estime que « ces résultats aideront à façonner l’avenir de l’aviation mondiale avec l’intention de préparer le Royaume-Uni à se tenir à l’avant-garde du vol durable dans la conception, la fabrication, la technologie et les compétences pour les années à venir ».

Image de une © ATI

Protection des données personnelles : un bilan mitigé

Instaurée dès 2007, cette date marque l’anniversaire de la Convention 108 du Conseil de l’Europe qui constitue le premier instrument légalement contraignant au niveau international dans le domaine de la protection des données. C’est en quelque sorte les prémices du Règlement général sur la protection des données qui est exécutoire dans toute l’Europe depuis mai 2019.

Quel est le bilan 15 ans après ? « Peut mieux faire » pourrait être le principal commentaire en bas du bulletin des élèves « entreprises-administrations ». Premièrement, les internautes sont de plus en plus conscients que les entreprises, et surtout les GAFAM, récupèrent des volumes de plus en plus importants de données personnelles pour mieux cibler leurs messages publicitaires et affiner nos profils.

Le soufflet RGPD est vite retombé

L’entrée en vigueur du RGPD a été l’occasion pour les entreprises de revoir leurs « traitements » de données personnelles – de leurs clients, mais aussi de leurs salariés – afin d’être en conformité. Présenté à tort comme une série de 99 articles abscons pour le commun des mortels, car rédigés par des juristes, ce texte européen a été vu comme une contrainte supplémentaire pour de nombreuses entreprises.

Incapables dans la plupart des cas d’assurer par elles-mêmes leur mise en conformité, elles ont fait appel à des spécialistes et notamment des DPO (Data protection Officer) ou Délégués à la protection des données. Mais le soufflet RGPD est vite retombé en 2020 à cause notamment de la pandémie.

« Après l’amélioration observée à l’occasion des précédents Index, la dégradation observée en 2021 se confirme cette année, et semble indiquer qu’avec les difficultés induites par la pandémie, les organisations continuent à donner la priorité à d’autres tâches que la bonne gestion des demandes de droit d’accès RGPD », commente dans un communiqué de presse Paul-Olivier Gibert, Président de l’AFCDP, l’association des Délégués à la protection des données (DPD/DPO).

Surveillance et télétravail

Des personnes (consommateurs ou salariés) qui estiment n’avoir pas obtenu satisfaction en contactant l’entreprise en cause n’hésitent plus à se plaindre à la CNIL et cette dernière peut être amenée à diligenter « une mission de contrôle sur place afin de relever les raisons qui expliquent une gestion approximative des droits des personnes », précise Paul-Olivier Gibert.

Et la situation ne s’est pas arrangée depuis l’obligation du télétravail. Plus de la moitié des entreprises françaises prévoirait de renforcer la supervision de leurs employés en situation de travail à distance selon l’étude « The Virtual Floorplan : New Rules for a New Era of Work » et réalisée par Vmware, un important éditeur spécialisé dans la virtualisation logicielle.

S’appuyant sur les réponses de 7 600 dirigeants, responsables de services RH et informatiques et employés, cette enquête constate que différentes mesures sont envisagées ou mises en place :

  • utilisation de logiciels de surveillance des emails (37 %), de la navigation sur Internet (36 %) et des outils de collaboration (45 %) ;
  • recours à des systèmes de vidéosurveillance (24 %) et de webcams dotées de technologies de suivi du regard (25 %) ;
  • installation de logiciels d’enregistrement de frappes au clavier (20 %).

Toutes ces mesures déployées ou envisagées respectent-elles la législation ? L’article L.2323-47 du Code du travail indique que « le comité d’entreprise est informé et consulté, préalablement à la décision de mise en œuvre dans l’entreprise, sur les moyens ou les techniques permettant un contrôle de l’activité des salariés ».

Or, les preuves recueillies par des moyens de surveillance non déclarés et sans que les salariés en aient été informés préalablement sont illicites (art. L.1222-4 du Code du travail).

Un salarié ne peut pas être sanctionné à partir d’éléments de preuve obtenus par un dispositif de surveillance sans information préalable de sa mise en place.

En juin 2019, la CNIL avait prononcé une amende de 20 000 € à l’encontre d’une TPE employant 9 salariés, et spécialisée dans la traduction libre et assermentée, pour avoir mis en place en son sein un système de vidéosurveillance des salariés ne répondant pas aux exigences du RGPD.

« Assurément, la perception de la protection des libertés au regard de la prolifération des traitements de données est en train d’évoluer. Le rôle du droit est non seulement de l’encadrer, mais encore de s’y adapter et de l’accompagner. La pandémie a mis le droit des données à caractère personnel à l’épreuve. Il faut trouver un juste équilibre entre les enjeux sanitaires qui supposent un suivi (tracking) le plus précis possible et les droits et libertés des personnes », explique maître Julien Le Clainche, avocat à la Cour, spécialisé dans la protection des données personnelles..

Le meilleur de la tech #15

La mort des cellules vue en direct

Le mécanisme de l’apoptose, ou mort cellulaire programmée, comporte encore de nombreuses zones d’ombres… Des zones que les chercheurs de la Nanjing University aimeraient bien éclairer. Ils ont donc mis au point un nanocapteur compact capable de réaliser des mesures à l’intérieur même des cellules, qu’ils ont décrit dans Advanced Photonics le 6 janvier 2022. À la fois flexible et peu toxique, le capteur se compose de microfibres intégrées à une nanogrille d’oxyde de zinc. Au total, son étendue sensible est de 800 nm sur 6 μm, ce qui lui permet d’effectuer un suivi précis et in situ sur le long terme. En plus de relever les variations de l’environnement interne cellulaire, la nanosonde représente une nouvelle porte d’entrée pour les scientifiques et leurs appareils fibrés non fluorescents, en quête d’une meilleure compréhension de la biochimie fondamentale.

Des pulsations laser pour imager le cerveau

Pour imager le cerveau, le nec plus ultra reste la TD-fNIRS (Time-Domain functional Near InfraRed Spectroscopy). À l’aide de lasers picosecondes effectuant des pulsations inférieures à 150×10-12 secondes, cette technique non invasive permet d’estimer certaines propriétés optiques du tissu ciblé (comme ses coefficients d’absorption et de diffusion). Avec ces informations, il est ensuite possible de remonter à des résultats plus intéressants pour les scientifiques, comme la concentration en hémoglobine dans le cerveau. Problème : le procédé est complexe et coûte cher à mettre en œuvre. C’est pourquoi les chercheurs de la compagnie de neurotechnologie Kernel ont travaillé sur un casque modulaire faisant fi de ces limitations. Le résultat est le Kernel Flow, présenté le 18 janvier 2022 dans le Journal of Biomedical Optics, et constitué d’un assemblage de 52 modules pour une masse totale avoisinant les 2 kg. Le casque est également entouré de deux sources laser miniaturisées et d’une douzaine de détecteurs. Le Kernel Flow a été mis à l’essai auprès de deux participants, pour des mesures similaires à celles observées dans les systèmes de pointe actuels. Avec cet appareil, les chercheurs espèrent bien ouvrir de nouvelles perspectives d’application, notamment dans le domaine des neurosciences.

Le thermomètre qui s’auto-recharge

C’est un thermomètre un peu particulier que les chercheurs de la Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) ont développé. Avec ses trois couches (électrolyte, diélectrique et électrode), leur capteur de température est capable de s’auto-recharger. Pour cela, il profite du déséquilibre de charges entre l’interface électrolyte/diélectrique (et ses ions) et l’interface diélectrique/électrode (et ses électrons), à l’origine d’un nuage ionique. L’appareil portable réalise également ses mesures de cette manière. En effet, quand la température change, le nuage ionique gagne ou perd en épaisseur, ce qui se répercute sur le voltage. Les autres atouts du capteur sont listés dans les Proceedings of the National Academy of Sciences du 25 janvier 2022. Ainsi, il se distingue des autres thermomètres par sa capacité à s’étirer, et ce sans gêner ses mesures. De plus, il sera possible à l’avenir de le miniaturiser, voire de le rendre transparent ! Pour le moment, les scientifiques se sont contentés de le tester en l’intégrant à une pince robotique molle, se saisissant d’un œuf dur bouilli (dont la température a été relevée). La réalisation des chercheurs de la SEAS offre des possibilités inédites d’interfaces humain-machine et d’emplois de robots mous, que ce soit en santé ou en ingénierie.

Imprimer des organes dans l’espace ?

L’impression d’organes 3D, ou bio-impression, est développée depuis plusieurs années par différents laboratoires dans le monde, notamment pour pallier le manque de donneurs d’organes. Mais ces recherches pourraient avoir des applications plus inattendues… dans l’espace. La NASA avait lancé en 2016 un concours : le Vascular Tissue Challenge. L’objectif était de créer un tissu humain épais et vascularisé pouvant survivre pendant 30 jours. En juin dernier, deux équipes gagnantes ont été désignées. C’est le Wake Forest Institute for Regenerative Medicine (WFIRM) qui a raflé les deux premiers prix dotés de 300 000 et 100 000 dollars. « Un accomplissement impressionnant » estime Jim Reuter, administrateur associé de la NASA pour la technologie spatiale dans le communiqué de presse de la NASA. « Lorsque la NASA a lancé ce défi en 2016, nous n’étions pas sûrs qu’il y aurait un gagnant ».

Préparer les missions spatiales habitées

Si la NASA finance ce type de projet, c’est parce qu’il pourrait aider les astronautes lors de futures missions dans l’espace lointain. L’application la plus évidente est la possibilité pour les futurs voyageurs de l’espace d’imprimer eux-mêmes divers tissus et organes humains en cas de besoin, à partir des propres cellules des astronautes de la mission pour éviter les risques de rejet. Mais une autre application de ces travaux consiste à la préparation de ces missions au long court.

En effet, on ne sait pas comment vont se comporter les organes humains confrontés aux conditions spatiales pendant de longues périodes de temps. L’étude de la physiologie dans l’espace était déjà au cœur des préoccupations, mais avec le développement de missions annoncées vers la Lune ou Mars, elle devient de plus en plus cruciale. En étudiant ces tissus bio-imprimés dans l’espace, il sera possible d’analyser les conséquences de ce milieu sur le corps humain, sans risque pour les astronautes. Ces tissus modèles pourront être utilisés pour étudier comment l’exposition aux rayonnements affecte le corps humain, documenter le fonctionnement des organes en microgravité et développer des stratégies pour minimiser les dommages aux cellules saines tout en vivant ou en travaillant dans l’espace.

L’équipe Winston, la première des deux équipes à terminer ses travaux selon les règles du défi, en plus de recevoir 300 000 dollars, aura la possibilité de faire avancer ses recherches à bord du laboratoire national américain de la Station spatiale internationale (ISS).

Il ne s’agira pas de la première société à tester des organes bio-imprimés dans l’ISS. En 2019, l’astronaute Christina Koch a installé le premier système capable de fabriquer des tissus humains dans les conditions de microgravité de l’espace, créé par la société américaine Techshot. Ce projet de recherche avait des objectifs similaires à ceux du Vascular Tissue Challenge de la NASA, sauf qu’au lieu d’imprimer en 3D du tissu hépatique, il s’agissait de tissu cardiaque transplantable.

De son côté, l’Agence Spatiale Européenne (ESA) travaillait déjà en 2019 sur un procédé de bio-impression de tissus humains, en collaboration avec l’hôpital de l’Université Technique de Dresden et l’entreprise Blue Horizon. Et à n’en pas douter, d’autres projets suivront.

[Parution] Les grands événements de l’année – Que retiendrons-nous de l’actualité scientifique et technologique de 2021 ?

Le 23 avril 2021, le spationaute Thomas Pesquet prend le commandement de la Station spatiale internationale (ISS). Il est le premier Français à assumer cette responsabilité et occupera ce poste jusqu’à son retour sur Terre le 9 novembre.

L’année 2021 a été marquée par le grand plan d’investissement d’avenir annoncé par le gouvernement : France 2030. 30 milliards d’euros déployés sur 5 ans, visant à développer la compétitivité industrielle et les technologies d’avenir, dont l’hydrogène vert, l’industrie décarbonée, les transports du futur, une alimentation saine et durable, etc. En parallèle, une stratégie d’accélération « Santé numérique » a été lancée pour faire de la France un leader sur l’innovation en e-santé.

Enfin, la conférence des Nations Unies sur les changements climatiques s’est tenue à Glasgow (COP26) en novembre. 137 pays ont fait un pas en avant historique en s’engageant à stopper et à inverser le recul des forêts et la dégradation des terres d’ici à 2030.

Découvrez une sélection d’articles de fond de notre collection pour analyser, approfondir et prendre du recul face à ces événements. Cette base documentaire s’adresse à tous ceux qui souhaitent un complément d’information et un éclairage pertinent sur les temps forts de l’actualité technologique et scientifique.

L’art pour comprendre le vieillissement des écomatériaux

Pour comprendre le vieillissement des futurs écomatériaux, des chercheurs de l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae) et l’Institut de recherche Dupuy de Lôme (IRDL) ont étudié – dans le cadre du projet européen Flower – des objets d’art conçus à base de lin. L’équipe d’Alain Bourmaud, chercheur à l’IRDL dans une équipe pionnière du développement des écomatériaux à partir de fibres de lin depuis une vingtaine d’années, a obtenu des financements pour une thèse fondamentale. C’est l’idée d’Alessia Melelli, étudiante italienne spécialisée dans l’art, qui a été retenue. Nous avons échangé avec Johnny Beaugrand, directeur de recherche à l’Inrae – qui a encadré l’étudiante – sur les résultats de l’étude publiée dans Journal of Cultural Heritage, le 7 novembre 2021, l’intérêt de ces matériaux plus écologiques mais également des prochains travaux.

Techniques de l’Ingénieur : Pourquoi avoir choisi des tissus issus de l’art pour faire votre étude ?

Johnny Beaugrand : On dit souvent que les fibres biosourcées ne sont pas durables dans le temps. Avec cette étude sur un linge mortuaire de plus de 4 000 ans et des tableaux italiens de la Renaissance, nous avons démontré que ce n’était pas le cas. Grâce aux connaissances historiques, nous avions une traçabilité sur le stockage, l’environnement de conservation et le traitement de ces matériaux à base de lin. Nous souhaitions déterminer les différents facteurs environnementaux pouvant impacter ou détériorer les fibres pour en tenir compte dans le développement des futurs écomatériaux, en intégrant par exemple le vieillissement chimique.

La fibre de lin utilisée pour concevoir les écomatériaux
La fibre de lin est utilisée pour concevoir les écomatériaux.
Copyright : Flower (Inrae/IRDL)

Le linge mortuaire vieux de plus de 4 000 ans n’a pas subi de variation importante d’humidité et de température : il était stocké dans un milieu relativement sec, dans le désert, puis stocké dans de bonnes conditions dans les musées. Il n’a pas subi de dégradation biologique puisque les conditions de température et d’humidité ne favorisaient pas le développement de microorganismes, ni de dégradation chimique.

Pour ce qui est des tableaux italiens, nous avions demandé à la fois des échantillons en bonne santé et d’autres malades. Nous avons vu que les fibres de lin des tableaux, qui sont sous tension, ont presque les mêmes constituants, les mêmes cartes d’identité que celles des linges égyptiens ou les fibres modernes. Alors qu’il y a de la peinture. Leur conservation était bonne, dans un environnement ni trop sec, ni trop chaud, sans traitement chimique agressif pour les fibres.

Quels sont les résultats de votre étude ?

On a comparé les effets des variations de température et d’humidité sur les tableaux italiens et les linges mortuaires, ainsi que les agressions chimiques et biologiques. Ce sont les trois grands facteurs qui peuvent apporter du vieillissement à ces fibres. Pour les fibres égyptiennes, l’impact du temps est relativement modeste. Lorsqu’on compare les propriétés mécaniques, la composition et l’organisation des molécules des fibres de lin, elles sont quasi similaires à celles d’aujourd’hui. Elles sont un peu plus fragiles et cassantes, mais c’est vraiment léger. Et leur conservation est assez bonne pour leur âge. Ce qui est positif pour l’utilisation industrielle de ces fibres.

Par contre, avec les tableaux, nous avons deux types de vieillissement ou de maladie. Dans un cas, le tissu a reçu un traitement au 18e siècle, une couche de protection à base de colle animale. Nous avons retrouvé ces traces par microscopie infrarouge. Au lieu de préserver les tableaux dans le temps, les espèces chimiques, encore actives, ont au cours du temps commencé à dégrader les fibres.

Dans un autre cas, avec un traitement du même type, mais des conditions humides favorables au développement des microorganismes, nous avons observé certains fongiques faire des tunnels à l’intérieur des fibres. Ces matières sont riches en carbone et c’est un bon substrat pour ces espèces.

Comment avez-vous étudié ces matériaux ?

Nous avons utilisé différents outils permettant de voir la composition des fibres à l’échelle atomique, avec la spectrométrie à résonance magnétique nucléaire, mais également à l’échelle moléculaire, avec une approche d’imagerie non destructrice, la microscopie biphoton. Une technique qui avait déjà été utilisée sur des pièces capillaires mais jamais sur des fibres. Cette technique nous permet d’avoir une observation directe, pour voir par exemple s’il y a des zones d’écrasement, des coupures, des fissures ou encore une compression. On peut voir assez finement la matière sans avoir à apporter trop d’énergie avec le faisceau d’émission. Si on apporte trop d’énergie, la matière peut être endommagée. Cette technique permet d’avoir un bon compromis entre la finesse d’observation, la résolution spatiale et la limitation de la dégradation.

Fibres de lin observées au microscope électronique à balayage
Des fibres de lin observées au microscope électronique à balayage.
Copyright : Johnny Beaugrand

Le lin d’hier est-il le même qu’aujourd’hui ?

Non, pas tout à fait. Il y a beaucoup de caractères en commun entre la fibre d’il y a 4 000 ans et la fibre d’aujourd’hui. Par contre la plante, on sait qu’elle était un peu différente  : le génome et la morphologie de la plante ont changé, il y a eu de la sélection variétale depuis un siècle sur le lin car c’est vraiment une plante industrielle. Les critères de rendement – plus de fibres, plus hautes – font que les fibres d’aujourd’hui ne sont pas tout à fait les mêmes qu’il y a 4 000 ans. Par contre, la constitution et la fiche d’identité de la fibre est quasiment la même, ce qui est quand même amusant.

La fibre qu’on utilise dans le textile ou les applications composites a un rôle de renfort dans la plante. C’est elle qui donne le soutien qui permet cette croissance verticale de la plante. Cette structure c’est le fruit de l’évolution depuis plusieurs millénaires. Et depuis 4 000 ans jusqu’à aujourd’hui, on n’a pas vu d’évolution majeure. On a sélectionné des plantes qui ont plus de fibre et des temps de croissance plus courts. Mais le constituant de base, la fibre, est à peu près le même.

En quoi les résultats de votre étude sont-ils utiles pour les écomatériaux d’aujourd’hui ?

Cela nous a renseignés sur la façon dont il faut conserver les fibres, mais également sur leur durabilité. Certaines espèces chimiques, notamment les acides, sont à éviter, et les changements d’humidité. À la fois, c’est une problématique pour les écomatériaux mais également un avantage si on veut créer de l’obsolescence programmée ou améliorer la recyclabilité de pièces composites difficiles à dégrader.

En effet, il y a de gros soucis de recyclage sur certaines pièces de structures comme dans le transport, l’énergie éolienne ou encore les satellites. Ces structures sont composées de composites, sont multimatériaux et très riches en fibre de carbone. Le problème : elles sont faites pour durer des centaines d’années. Et c’est difficile, ensuite, de séparer les composants pour les envoyer en filière de recyclage. Mais nous avons des pistes pour améliorer le potentiel de recyclabilité.

Lesquelles ?

En mettant des zones de faiblesses où, sous l’effet d’une stimulation environnementale comme l’eau par exemple, nous pourrions aider à mieux séparer les couches. Une sorte de mille-feuilles. Nous avons vu que pour les fibres naturelles, si elles sont stockées dans de bonnes conditions sans être en contact avec de l’eau, il n’y a pas de soucis sur leur durabilité. Mais si elles le sont, elles interagissent, ce qui peut créer des défauts de matériaux. Et cela peut nous aider à mieux séparer les composants dans les pièces. L’Europe essaie de promouvoir cette stratégie avec des financements.

De plus, la sensibilité peut être utilisée comme un avantage sérieux. Car dans certains secteurs d’applications, certaines pièces ne méritent pas d’avoir des critères de durabilité de 50 ans. Par exemple les produits de maraîchage en plastique que l’on essaie de substituer. Il y a par exemple des normes de filets de pêche qui ne doivent pas avoir des durées de vie de plus de 5 ans. Des sociétés en lien avec des universitaires ont réussi à en créer, en revenant à des fibres naturelles avec des agents de surface permettant de protéger les fibres… mais pas trop. Au bout de quelque temps, le filet va commencer à se dégrader.

Quelle est la suite de ces travaux ?

Avec mon collègue Alain Bourmaud et le Synchrotron Soleil, nous allons travailler dans la continuité de ces travaux, avec un échantillon plus large, en partenariat avec l’Institut français d’archéologie du Caire. Nous allons travailler avec le réseau de musées égyptiens et on va pouvoir obtenir beaucoup plus de matières premières et d’informations. Ce travail portera exclusivement sur le lin car c’est une plante européenne. Il y a eu beaucoup de recherches sur cette plante. Et nous pensons que c’est un modèle de choix car nous pouvons remonter très loin dans le passé avec les textiles, les cordages, etc.

Allez-vous travailler sur des échantillons plus récents ?

Oui, par exemple ceux principalement dans les transports, comme l’automobile. On cherche à remplacer les fibres de verre par des fibres de lin qui sont plus légères, avec d’excellentes propriétés mécaniques. Mais il faut qu’on aide les entreprises à utiliser le lin sans avoir à réviser tout leur procédé, pour que cela ne soit pas trop cher. Il faut pouvoir utiliser le lin sans perdre en cadence et en productivité. Avec le lin, on a du gros potentiel, mais il y a d’autres espèces botaniques pouvant également remplir la fonction. Le lin est surtout, au niveau français, le fleuron de la fibre, et nous avons un patrimoine industriel. Si on veut faire des changements, bons pour la planète, autant taper sur les gros volumes et que cela percole dans d’autres secteurs.

A-t-on les capacités de production suffisantes pour répondre aux besoins ?

Les matières premières de lin, mais également de chanvre dont les fibres sont intéressantes pour les écomatériaux, n’ont pas pu pourvoir les demandes. Les prix du lin ont encore explosé. Pourtant, les surfaces cultivées augmentent d’année en année, 3 à 5 % par an, mais la production ne suffit pas. Avec les nouvelles réglementations et les lois européennes, notamment sur le taux de CO2 émis par les véhicules et le bâtiment, les grands groupes sont obligés de se pencher sur le biosourcé, et donc de s’approvisionner. Ce qui crée un pic de demande, notamment cette année. Mais même s’il y a un gros effort industriel, des collectivités et des régions, qui aident à financer de nouvelles usines, nous n’avons pas les capacités, aujourd’hui, pour fournir la demande.

Ces cultures viennent-elles concurrencer les cultures vivrières ?

Le lin est une culture en rotation avec des cultures vivrières type pomme de terre. La culture va dépendre du prix de revient. Si on promet aux agriculteurs que leur production sera achetée sur un certain nombre d’années, ils feront les investissements. Les filières lin et chanvre se sont développées ces dernières années et ont permis d’agrandir les surfaces exploitées.

Pour ce qui est du chanvre, on le cultive sur des terres marginales, qui ont moins d’intérêt. Il est beaucoup moins exigeant, car il ne nécessite pas d’intrant, et peu de phytosanitaire. La contrepartie : les rendements sont moins importants. Actuellement la filière voudrait aussi stimuler la productivité en faisant plus de sélection variétale. Il y a des programmes qui se lancent et des sélectionneurs qui viennent voir l’Inrae pour faire travailler sur le sujet. Je commence d’ailleurs une chaire industrielle – Agrapi – avec le producteur de semences Hemp-il ADN et l’Ensam d’Angers.

Les thèses du mois : FRANCE 2030 pousse l’industrie vers le futur

Pour notre dossier de janvier, « FRANCE 2030 pousse l’industrie vers le futur », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Optimization of the infrastructure cost of hydrogen transported at different states of aggregation in France and Germany.
Amin Lahnaoui
Thèse de doctorat en Ingénierie, mécanique et énergétique, 24-09-2020
École nationale supérieure de techniques avancées (Palaiseau). Unité de Chimie et Procédés

 

Production d’hydrogène à partir de catalyseurs biosourcés produits par thermoconversion et chargés en métaux lourds
Théodore Graul
Projet de thèse en Génie des Procédés et de l’Environnement, depuis le 01-10-2020 .
Centre de Recherche d’Albi en Génie des Procédés, des Solides Divisés, de l’Energie et de l’Environnement

 

Étude de l’amélioration de la production d’hydrogène par le procédé d’électrolyse de l’eau alcaline : simulation avec mécanique des fluides numérique et optimisation génétique
Damien Le Bideau
Thèse de doctorat en Sciences pour l’ingénieur, 29-01-2021
Institut de Recherche Dupuy de Lôme

 

Conception intégrée optimale du système propulsif d’un avion régional hybride électrique
Matthieu Pettes-Duler
Thèse de doctorat en Génie électrique, 23-04-2021
Laboratoire Plasma et Conversion d’énergie

 

De la conception et de l’intégration des systèmes avion à la simulation de scénarios environnementaux soutenables pour le secteur aérien
Thomas Planès
Projet de thèse en énergétique et transferts, depuis le 01-01-2020
ISAE-ONERA CSDV – Commande des Systèmes et Dynamique du Vol

 

Méthodologie et outils pour l’optimisation multicritères d’une architecture de train hybride électrique à hydrogène.
Charles Lorenzo
Doctorat en Génie électrique, 17-11-2021
FEMTO-ST

 

Neospora caninum : nouvelle classe de biomédicament pertinent dans l’arsenal thérapeutique contre le cancer
Agathe Poupee
Thèse de doctorat en Sciences de la Vie et de la Santé, 15-12-2020
Infectiologie et santé publique

 

Impression 3D de dispositifs médicaux utilisés en chirurgie : quelles recommandations pour l’élaboration d’un modèle d’évaluation médico-économique ?
Carole Serrano
Thèse de doctorat en Droit et économie de la santé 15-12-2020
Groupe de recherche et d’accueil en droit et économie de la santé

 

L’évaluation ergonomique de dispositifs connectés en santé pour le domicile patient dans le cadre de la chirurgie ambulatoire : vers un modèle de l’utilisabilité adapté à la e-santé
Noémie Chaniaud
Thèse de doctorat en Psychologie cognitive et ergonomie, 30-11-2020
Centre de recherche en psychologie : cognition, psychisme et organisations

 

Process Innovation in Pharmaceutical Industry
Ivan Lugovoi
Thèse de doctorat en Sciences de gestion, 06-12-2019
Groupement d’études et de recherche en gestion à HEC

Vers une décarbonation de la production d’énergie

Un extrait de Vers un paradigme bas carbone des machines de production d’énergie par Mohamed MEBARKIA, José Antonio PERRELLA-BALESTIERI, Bernard DESMET, Georges DESCOMBES

La communauté des ingénieurs praticiens a un rôle majeur d’alerte et de conseil à jouer dans les débats actuels sur ce sujet d’intérêt général des énergies bas carbone utilisables dans les machines de production d’énergie. Les scénarios à élaborer en matière d’analyse scientifique, de robustesse et de praticité d’usage de ces énergies alternatives peuvent être déclinés comme suit : objectiver les tendances et les freins du nouveau bouquet énergétique, développer significativement des machines à combustion externe couplées à la polygénération (récupération d’énergie fatale), et intégrer les forces et les faiblesses de la problématique pour déboucher sur l’analyse prospectiviste d’une mobilité décarbonée.

Une nécessaire prise en compte de tous les secteurs

Pour ces nouveaux modes de production d’énergie, cela permettra d’analyser à grande échelle leur chaîne réelle de valeur énergétique à bas carbone, leur empreinte climatique et économique au vu de leur praticité d’usage accessible au plus grand nombre, et de hiérarchiser leur potentiel en matière de crédibilité, de faisabilité technologique, d’autonomie, de praticité d’usage et de devenir économique, sans oublier leur gestion thermique. La réflexion scientifique doit être assise en priorité sur la thermodynamique environnementale contemporaine des machines thermiques et des énergies à bas carbone et faible pouvoir réchauffant. L’analyse du cycle de vie en ressources, du cycle de la valeur en investissement et de l’économie circulaire couplée à la thermoéconomie fait partie intégrante de cette étude à conduire en lien avec les spécialistes. Il convient d’insister naturellement sur les avancées significatives en matière de biomasse, d’analyse de cycle de vie environnementale – sous réserve de lever les paradoxes des biocarburants et sans omettre l’important secteur de la récupération d’énergie fatale (polygénération couplée entre les machines à feu et moteurs électriques) qui a vocation à se développer significativement.

Cette démarche concerne aussi le secteur agricole, qui interpelle sur le défi majeur de production de nourriture indispensable à la survie de l’humanité, même si les modèles de production en masse et de libre-échange des aliments de base sont contestés, avec en sus l’utilisation quasi exclusive de tracteurs et de machines agricoles qui fonctionnent massivement avec des énergies fossiles. Les groupes électrogènes en hôpital et en centres d’urgence fonctionnent eux aussi majoritairement avec des énergies fossiles et sont donc à décarboner, en remarquant qu’ils constituent l’approvisionnement de secours indispensable pour prendre instantanément le relais électrique en cas de panne du réseau conventionnel de distribution. On peut formuler les mêmes remarques sur l’indispensable décarbonation des bâtiments, du chauffage et des machines de réfrigération. Il en est de même des avancées prometteuses des technologies high-tech en matière de communication interactive, de santé et d’intelligence artificielle, qui sont également émettrices de CO2 en l’état actuel.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 10 février 2022 !

« Vers un paradigme bas carbone des machines de production d’énergie » par Mohamed MEBARKIA, José Antonio PERRELLA-BALESTIERI, Bernard DESMET, Georges DESCOMBES

Les Français toujours contaminés par les pesticides

Dans le cadre de l’étude Esteban, Santé publique France a pu mesurer « les niveaux d’exposition à 5 familles de pesticides ainsi qu’aux PCB, dioxines et furanes, présents dans de nombreuses sources environnementales et alimentaires », fait savoir l’agence nationale de santé publique dans un communiqué. Pour la première fois, l’étude permet de décrire l’exposition à 5 familles de pesticides chez les enfants et l’exposition à de nouvelles substances, dont le glyphosate chez les adultes.

Santé publique France a étudié l’exposition de 2 503 adultes de 18 à 74 ans et de 1 104 enfants de 6 à 17 ans entre 2014 et 2016. Globalement, les niveaux mesurés sont en diminution par rapport à l’Étude Nationale Nutrition Santé (ENS) en 2006-2007 pour les pesticides dont les niveaux d’imprégnation avaient déjà été mesurés. Mais « certaines expositions à des substances aujourd’hui interdites concernent une part non négligeable de la population », relève Santé publique France. Ainsi, le lindane contamine près de 50 % des adultes et des enfants, le glyphosate près de 20 %.

Des sources d’exposition diverses

L’étude a permis d’identifier les facteurs qui influencent les niveaux d’imprégnation mesurés dans la population. Ainsi, l’alimentation, la consommation de tabac et l’utilisation d’insecticides domestiques jouent un rôle primordial.

Par exemple, Santé publique France relève que la consommation d’œufs ou de matières grasses augmente les imprégnations aux organochlorés, PCB, dioxines et furanes. La consommation de viande bovine augmente quant à elle les imprégnations aux pyréthrinoïdes, PCB, dioxines et furanes. À l’inverse, « la consommation de produits issus de l’agriculture biologique diminuait celles en organochlorés, en DMTP (métabolite des organophosphorés), et en pyréthrinoïdes », note Santé publique France. Enfin, la consommation de tabac et l’utilisation d’insecticides domestiques augmentent les imprégnations en pyréthrinoïdes.

« Globalement, nous observons plutôt une baisse des niveaux d’imprégnations aux pesticides et autres substances mesurées. Les niveaux sont comparables à ceux retrouvés en Europe. Afin de diminuer certaines concentrations, nos résultats suggèrent d’adopter une consommation alimentaire variée intégrant des produits de l’agriculture biologique. Mais également de respecter les conditions d’utilisation des insecticides au domicile et d’aérer régulièrement son intérieur », conclut Clémence Fillol, responsable de l’unité surveillance des expositions à Santé publique France.

Électricité : la France rate la marche des énergies renouvelables

Le suivi régulier de la progression des énergies renouvelables (EnR) électriques en France permet de savoir si le pays est sur les rails au regard de ses objectifs nationaux et européens. La 12e édition du Baromètre réalisé par Observ’ER, en partenariat avec l’Ademe et la FNCCR, donne matière à réflexion, tant ces filières technologiques sont indispensables à la transition écologique.

D’abord la bonne nouvelle : au 30 septembre 2021, les chiffres consolidés montrent que près de 60 460 MW d’EnR électriques étaient raccordés, laissant envisager une capacité totale de 61,5 GW fin 2021. Ce sont donc 4 400 MW qui ont été ajoutés aux réseaux électriques en 2021, soit deux fois plus qu’au cours de l’année 2020. Ces nouvelles capacités sont à 71 % issues de projets solaires photovoltaïques, la majeure partie du reste étant le fait de l’éolien terrestre. L’activité de toutes les filières concernées (éolien, solaire, hydroélectricité, biomasse solide, biogaz, déchets et énergies marines) représente plus de 49 000 emplois directs (+ 5% par rapport à 2020) et un chiffre d’affaires dépassant 17,8 milliards d’euros (+ 10%).

Bilan EnR – chiffres 2021 (source Observ’ER)

La production d’électricité en 2021, vu les projections des derniers mois, devrait flirter avec les 125 TWh, soit un niveau équivalent à 2020. L’hydroélectricité compte pour une moitié environ de ce chiffre et l’éolien pour un petit quart. Hors hydraulique historiquement surtout présente en Auvergne-Rhône-Alpes, en Occitanie et en PACA, les régions françaises produisant le plus d’électricité renouvelable sont les Hauts-de-France (11,8 TWh), le Grand Est (10 TWh) et la Nouvelle-Aquitaine (7,6 TWh).

Des objectifs loin d’être atteints

Plusieurs types d’objectifs sont assignés à la France. Du point de vue européen, le marqueur de 2020 était d’atteindre une part de renouvelable de 27 % dans la consommation d’électricité française. Ce seuil n’a pas été franchi en 2020 (malgré une faible consommation due à la crise sanitaire et à une bonne productivité de l’éolien), ni en 2021 avec seulement 25 % au compteur. Si l’Union européenne a bien atteint son but globalement, la France est le seul pays à ne pas avoir rempli son contrat… La tension actuelle sur l’approvisionnement d’électricité en France aurait été moindre s’il ne manquait pas ces 3-4 GW.

Bilan EnR – Objectifs UE (source Sdes, 2021)

À moyen terme, les objectifs établis nationalement dans la programmation pluriannuelle de l’énergie (PPE) pour 2023 sont aussi loin d’être atteints – à part dans les filières hydroélectrique et biomasse solide, voire biogaz – car les trois filières les plus sollicitées pour la transition écologique accusent un retard important. En effet, dans le solaire photovoltaïque, les 13,2 GW actuels ne grimperont au niveau espéré (20,1 GW en 2023 et 35,1 à 44 GW en 2028) que si le rythme d’installation de 2021 (2 GW/an) se renforce. Pour la filière éolienne terrestre, le décrochage est aussi inquiétant : il faudrait passer de 18,5 GW à 24,1 GW en 2023 et 32,2-34,7 GW en 2028 ; ceci ne sera possible qu’en cas de doublement de la cadence de l’année passée, soit 2 GW/an. Enfin, l’issue de l’éolien en mer reste une énigme. Avec un zéro pointé de capacité actuellement, et malgré 3,5 GW déjà attribués par appel d’offres sur la façade atlantique, on se demande si les projets verront le jour à temps pour être à portée des 2,4 GW prévus pour 2023 et des 5,2 à 6,2 GW inscrits dans la PPE pour 2028.

Bilan EnR – courbe éolien (Source Observ’ER)

La PPE est d’ailleurs en cours de révision et s’alignera probablement sur la nouvelle ligne de conduite européenne du « Fit for 55 », ce qui rehaussera les objectifs. Alors que la compétitivité économique des énergies renouvelables ne cesse de grandir, les auteurs de l’étude rappellent qu’il est possible de donner un coup d’accélérateur à leur développement en actionnant plusieurs leviers (simplification des démarches administratives, soutien à l’innovation pour préparer l’industrialisation, multiplication des projets à gouvernance locale avec participation des citoyens, facilitation des projets d’autoconsommation, réduction et compensation des impacts environnementaux, rôle croissant des collectivités, etc.).

Surveiller la qualité des eaux depuis le ciel grâce à des images satellitaires

La surveillance de la qualité des eaux des rivières et des lacs est pratiquée de manière très partielle partout dans le monde. Dans les pays en voie de développement, elle n’est souvent pas réalisée, comme c’est le cas dans le bassin du lac Tchad. Ce déficit d’observation dans cette région s’explique par des difficultés d’accès au site liées à des problèmes sécuritaires, à la complexité de cet écosystème formé de centaines de lagunes et par le manque de moyens financiers de ce pays. Pour pallier ce manque, une équipe de recherche, comprenant entre autres des chercheurs de l’IRD (Institut de Recherche pour le Développement), a développé une méthode de surveillance de la qualité des eaux à partir d’images satellitaires.

Celles-ci sont issues de deux satellites d’observation de la Terre appelés Sentinel-2 et lancés par l’Agence Spatiale Européenne en 2015 et 2017. Ils sont capables de scanner le spectre visible et infrarouge, c’est-à-dire de capter le rayonnement solaire réfléchi et transmis par la surface terrestre. Pour ce travail de recherche, des bandes radiométriques bien précises ont été analysées, allant de 660 nanomètres dans le rouge à 850 nanomètres dans l’infrarouge.

Les capteurs installés sur ces satellites mesurent une luminance exprimée en W·m−2·sr−1 (watt/m2/stéradian). Pour calculer le rayonnement solaire réfléchi par la surface aquatique, les chercheurs ont transposé cette donnée en réflectance, afin d’obtenir une mesure physique indépendamment de l’éclairement incident. La qualité des eaux a été mesurée de manière indirecte, grâce à la présence de différents composés dans l’eau, qui a pour effet de modifier les propriétés optiques à la surface.

Observer le processus d’eutrophisation de l’eau

Trois familles de composés ont été analysées pour les besoins de ces travaux de recherche, comme l’explique Jean-Michel Martinez, directeur de recherche à l’IRD : « Le premier composé concerne les matières en suspension (MES), constituées de particules de sols érodés, appelées sédiments, et qui donnent la couleur marron à l’eau. Ces MES sont également liées à la présence de particules organiques provenant de la décomposition de résidus de végétations. Nous avons ensuite détecté les pigments photosynthétiques, principalement la chlorophylle-a, dont la présence est liée aux algues dans l’eau. La détection de ces algues permet de déterminer de manière indirecte la présence de nutriments dans l’eau tels que de l’azote et du phosphore, qui ont pour conséquence de favoriser leur apparition, et conduire, en cas de forte prolifération, au processus d’eutrophisation de l’eau [l’eutrophisation désigne l’accumulation des nutriments dans un milieu ou dans un habitat, NDLR]. »

Les matières organiques dissoutes constituent la dernière famille de composés analysés. Leur origine vient de la décomposition très avancée de matières organiques qui ne se retrouvent plus à l’état de particules, mais dissoutes. Seule la fraction colorée, nommée CDOM (Colored dissolved organic matter), est détectée. Celle-ci permet de mesurer le transport de carbone dans les eaux, un phénomène important à surveiller, car le CO2 présent dans les rivières se retrouve ensuite dans les océans avant d’être libéré dans l’atmosphère. Grâce à des travaux de modélisation et l’utilisation d’algorithmes développés dans le cadre de recherches antérieures de l’IRD et de la communauté scientifique, les chercheurs ont réussi à transposer les données des images satellitaires en niveaux de  concentrations de ces composés dans l’eau.

« Comparé à des mesures traditionnelles réalisées in situ, on estime que le taux d’erreurs de notre technique d’analyse par télédétection est inférieur à 20 % ou 30 %, confie le chercheur. En sachant qu’il est difficile de comparer les méthodes entre elles, car celles traditionnelles sont souvent réalisées en un seul point d’une rivière ou d’un lac et une seule fois, alors que notre technique permet d’analyser l’ensemble de la surface aquatique et de manière très fréquente. Certes, le résultat est moins précis, mais il est répété de manière tellement supérieure que l’information devient beaucoup plus intéressante. D’autant plus sur un site comme celui du lac Tchad, où il n’y avait aucune mesure jusqu’ici. »

Pas d’observations possibles en cas de nuages

L’un des atouts majeurs de cette nouvelle méthode de surveillance des eaux est en effet la fréquence des analyses. Les satellites Sentinel-2 scannent le même point de la surface terrestre tous les cinq jours. Une fréquence déjà très importante, mais idéalement les chercheurs aimeraient obtenir des mesures journalières, car en cas de nuages, aucune observation n’est possible. « Si les mesures sont réalisées tous les jours, cela augmente la probabilité d’avoir des images, poursuit Jean-Michel Martinez. Souvent, ce qui est crucial pour l’observation de la qualité des eaux se passe en période de crues, et donc en période de pluies lorsqu’il y a plus de nuages. »

Au-delà de la qualité des eaux, ces images satellitaires permettent également d’obtenir des informations sur l’ensemble d’un écosystème, car ce qui se passe dans le bassin versant d’un lac ou d’une rivière se retrouve dans l’eau. Grâce aux données satellitaires, il est ainsi possible de surveiller des phénomènes d’érosion des sols autour des surfaces aquatiques, qui peuvent par exemple être liés à l’activité humaine ou à la désertification.

Cette méthode d’analyse va d’ores et déjà être utilisée sur d’autres sites dans le monde, comme celui du bassin du Rio de la Plata. Le fait qu’il s’étende sur plusieurs pays d’Amérique du Sud (l’Argentine, la Bolivie, le Brésil, le Paraguay et l’Uruguay) rend difficile la mise en place d’un protocole d’étude unique par des moyens conventionnels. Comme pour le lac Tchad, ces travaux seront encadrés par l’Unesco dont l’ambition est de développer une surveillance des eaux dans les régions tropicales et de mettre en ligne un portail appelé World Water Quality Portal avec la mise à disposition de cartes.

En France, ces images satellitaires pourraient aussi aider à mieux surveiller la qualité des eaux continentales. La directive cadre sur l’eau (directive européenne) impose la réalisation de trois mesures par an, mais seules quelques centaines de lacs font l’objet d’une surveillance régulière, alors qu’il en existe plusieurs dizaines de milliers.

Image de une : photo du lac d’Ounianga Sérir, au Tchad, capturée le 14 janvier 2013 et appartenant au domaine public. Source de l’image : Flickr

Un capteur embarqué sur un drone pour mesurer les gaz à effet de serre

Débutée en 2015, la collaboration entre TotalEnergies et le GSMA (Groupe de spectrométrie moléculaire et atmosphérique), un laboratoire du CNRS et de l’Université de Reims Champagne-Ardenne, est sur le point de prendre un nouveau tournant. Leur campagne de test à grande échelle et de validation d’un nouveau système complet de quantification en temps réel des émissions atmosphériques de CO2 et de méthane s’est terminée avec succès. Les deux partenaires veulent à présent le déployer sur les sites de la compagnie multi-énergies. Avec pour objectif de localiser et mesurer précisément les gaz à effet de serre émis par les installations en vue de les maîtriser pour atteindre la neutralité carbone en 2050.

Capteur GES – Crédit photo : TotalEnergies GSMA

Ce nouveau système de mesure fonctionne grâce à un capteur spectrométrique à diode laser capable d’identifier l’empreinte spectrale d’une molécule. À l’aide d’une base de données, il est ensuite possible d’identifier son nom puis sa concentration avec un modèle spectroscopique. Plus précisément, le système est équipé d’un faisceau laser qui se propage dans un échantillon d’air, à l’intérieur duquel la présence de CO2 et de méthane provoque l’absorption du rayonnement infrarouge. Cette absorption du signal entre le laser et le détecteur permet ensuite de calculer la concentration.

Le capteur ne pèse que 1,4 kg

Cette technologie est de plus en plus utilisée dans le monde de la recherche et de l’industrie. Son principal avantage se situe au niveau de son faible poids. Le détecteur développé par TotalEnergies et le GMSA ne pèse en effet que 1,4 kg alors que les appareils standard pèsent environ une trentaine de kilos. Résultat : ce nouveau système peut être embarqué sur un drone et permet de réaliser une représentation en 3D des panaches d’émissions ainsi que leur évolution dans le temps.

Capteur GES – Crédit photo TotalEnergies GSMA

« Sur des plateformes pétrolières, la mesure est actuellement réalisée à l’aide d’instruments installés sur des bateaux ou des avions. Sauf que la localisation d’un panache d’émissions dépend de la direction et de la force du vent, et lorsqu’il se met brutalement à changer de sens, le bateau n’est pas assez réactif, tandis que l’avion n’arrive pas à se rapprocher suffisamment des sources. Nous avons démontré que sur ce type d’installation mais aussi sur des torches industrielles de 100 mètres de haut, notre appareil installé sur un drone est un outil de mesure très pertinent », explique Lilian Joly ,chercheur CNRS au GSMA et directeur du nouveau laboratoire commun créé avec TotalEnergies et baptisé LYNNA (Laboratoire d’analYses iNnovantes pour les émissioNs Atmosphériques).

Ce capteur est d’une part capable d’effectuer une cartographie temporelle des émissions grâce à des mesures rapides, allant jusqu’à 50 hertz. Et d’autre part, de décrire spatialement le panache grâce au drone qui peut se déplacer à une vitesse pouvant aller jusqu’à 60 km/heure. Ce détecteur se révèle en plus très précis puisque sa marge d’imprécision comparée à des appareils conventionnels n’est que de 0, 5 %. « Il n’existe pas d’outil commercial pour quantifier de manière précise les émissions de méthane, c’est sur ce plan également que notre système de mesure se différencie », ajoute le chercheur.

Un drone autonome se déplaçant sans intervention humaine

Ce travail de recherche ne va pas s’arrêter là. Grâce au laboratoire commun LYNNA, les deux partenaires ont pour ambition de faire baisser le poids de ce capteur à un kilo. Un nouveau prototype est également en cours de développement afin de réaliser des mesures de manière autonome, sans intervention humaine, grâce à un drone qui se déplacerait à heure fixe, en fonction de la météo, pour capter des échantillons d’air. « L’idée serait d’utiliser de l’intelligence artificielle, de type machine learning, pour que le drone soit capable de changer son profil de conduite en fonction des mesures qu’il détecte en temps réel, afin que la représentation 3D du panache et son évolution dans le temps soient les plus précises possible », complète Lilian Joly.

D’autres projets de développement sont également en réflexion, notamment l’élargissement de la détection à d’autres molécules, comme le monoxyde de carbone. L’objectif ici serait par exemple d’aider à la réalisation de bilan de combustion de torches, afin d’optimiser leur fonctionnement pour qu’elles émettent moins d’émissions.

Ce travail devrait aider la communauté scientifique à appréhender de manière plus fine les émissions de gaz à effet de serre. « Ces développements ont également des retombées sur la recherche au sens plus large, notamment sur un travail que je mène en parallèle sur la conception d’instruments sous balance stratosphérique dans le cadre de phases de calibration et de validation de satellites », conclut le chercheur.

France 2030, entre crise sanitaire et mondialisation

Le contexte autour du plan de relance France 2030 présenté en fin d’année dernière par le Président le la République, Emmanuel Macron, est complexe.

Tout d’abord, il y a l’aspect industriel de la relance. Autonomie, résilience, sobriété… les objectifs avoués à travers France 2030, qui succède au plan « France Relance » adopté quelques mois plus tôt, doivent permettre à l’industrie hexagonale de concilier une amélioration de la compétitivité avec la transition énergétique en cours. Pour résumer, il va falloir produire plus et mieux, tout en réduisant fortement l’empreinte écologique des activités industrielles.

Résilience VS décroissance ?

Un défi complexe, mais qui, comme l’affirmait Alexandre Saubot, président de France Industrie, au lendemain de la présentation du plan France 2030, doit miser au maximum sur le potentiel industriel français pour être couronné de succès : « des solutions pour faire la même chose qu’avant, voire mieux, avec beaucoup moins de carbone. C’est autour de ces innovations (…) qu’on va réussir à préserver, voire à améliorer notre niveau de vie, tout en protégeant mieux la planète. C’est ça l’enjeu. »  Le président de France Industrie pose là les bases d’un débat qui est loin d’être clos : la France parviendra-t-elle à atteindre ses objectifs climatiques en produisant moins – la fameuse décroissance – ou en produisant mieux ? Il est clair qu’aujourd’hui la tendance n’est pas à la décroissance. D’ailleurs, parmi les candidats à la prochaine élection présidentielle, même le candidat écologiste, Yannick Jadot, ne mise pas sur une stratégie de décroissance.

Alors comment mettre en œuvre une stratégie gagnante, alors que le contexte sanitaire et mondialisé est plus incertain que jamais ? Alexandre Saubot estime que « si vous voulez décarboner l’économie mondiale, il y a une solution simple, c’est de faire plus en France, pour une raison toute simple : grâce à l’énergie nucléaire et grâce à tout le travail fait par nos industriels, on a, parmi les grands pays industrialisés, le point ou l’euro de PIB le plus décarboné du monde. » Produire en France serait donc la solution miracle, grâce à notre production d’énergie en grande partie décarbonée. Alors pourquoi l’hexagone est-il aujourd’hui, et ceci de manière chronique, dans une situation de déficit commercial aggravé ? Sans se comparer avec l’Allemagne, il convient tout de même d’être lucide. Aujourd’hui, la France affiche un déficit commercial de près de 80 milliards d’euros pour l’année 2021, un record. Les causes de ces résultats, qui se répètent depuis de longues années sont connues : coût du travail, outil industriel vieillissant, taxation… ce qui fait dire à l’économiste Bruno Tinel, dans une interview au Parisien, qu’ « on commence à parler de réveil industriel, mais quand bien même des mesures seraient prises, elles n’auraient pas d’effets visibles avant cinq à 10 ans. La réindustrialisation ne se fait pas du jour au lendemain ».

Le facteur Covid-19

Le défi est donc complexe, surtout si l’on ajoute la problématique Covid-19. La crise sanitaire que le monde traverse depuis plus de deux ans a révélé la fragilité des chaînes de valeur au niveau mondial, et souligné les incohérences d’un marché mondialisé, qui voit des produits de première nécessité, qu’ils soient de santé, informatiques, ou automobiles, être fabriqués par un petit nombre d’acteurs. Cet état de fait, mis en lumière depuis deux ans, doit être remis en question via le plan France 2030.

Difficile de dire aujourd’hui si la nécessité de produire plus localement, plus sobrement, pour être plus autonome industriellement creusera son sillon dans l’hexagone. Si le contexte est aujourd’hui incertain, il est peut-être également l’occasion d’opérer les transitions nécessaires.

Un réfrigérant à base d’eau pour produire du froid de manière vertueuse

La plupart des systèmes réfrigérants fonctionnent avec des gaz fluorés et ont un impact négatif sur l’environnement. Depuis 2016, la start-up Leviathan Dynamics développe un procédé alternatif, totalement neutre pour la planète, puisqu’il utilise l’eau comme réfrigérant. Une performance rendue possible grâce à la technologie de compression mécanique de vapeur (CMV) et celle des compresseurs centrifuges à très haute vitesse permettant de concevoir des machines compactes. Ingénieur en mécanique de fluides et en énergétique, Karino Kang a créé cette entreprise avec son associé Alan Chauvin. Il nous présente le nouveau système réfrigérant développé par Leviathan Dynamics.

Techniques de l’Ingénieur : Présentez-nous la technologie développée pour votre start-up.

Karino Kang, CEO et cofondateur de Leviathan Dynamics. (Crédit : Leviathan Dynamics)

Karino Kang : Pour produire du froid, il est nécessaire d’évaporer un réfrigérant à basse température. Nous avons développé une technologie qui rend possible la Compression Mécanique de Vapeur (CMV) d’eau sous vide poussée en dessous de 50 millibars et qui nous permet d’évaporer l’eau à 15 ou à 7 degrés. Pour mettre au point ce procédé, nous avons dû lever un important verrou technologique car il entraîne la formation de vapeurs d’eau très légère. Face à cette contrainte, nous avons développé un compresseur capable de débiter un débit volumique très important, environ 200 fois plus élevé que ceux utilisés avec des gaz fluorés. Afin que ce compresseur reste compact, nous avons choisi de travailler avec la technologie des compresseurs centrifuges à très haute vitesse.

D’autres innovations ont-elles été nécessaires ?

Sur le cycle de la thermodynamique, nous avons développé un cycle à échange direct qui utilise l’eau comme réfrigérant. Ce système permet d’envoyer directement le réfrigérant aux endroits où il y a un besoin en froid et de procéder à son évaporation sur place. Sur des sites industriels avec des lieux de consommation éparpillés, ce type de cycle est peu utilisé avec des gaz fluorés, car cela nécessite de remplir les tuyauteries de réfrigérant et a pour conséquence d’en consommer énormément, car plus il y a de tuyaux et plus il y a de fuites. C’est pourquoi sur ces sites industriels, on utilise un cycle à échange indirect, c’est-à-dire que le froid est produit localement au niveau de la machine, puis transporté vers les lieux de consommation à l’aide d’un échangeur thermique et l’utilisation d’un fluide frigoporteur.

Grâce à notre cycle à échangeur direct qui utilise l’eau comme réfrigérant, les problèmes de fuites dans les tuyaux n’ont pas d’incidence. L’eau circule ainsi dans les tuyaux sans nécessité de placer un échangeur intermédiaire entre la machine et la boucle de circulation.

Quels sont les avantages et les applications de votre procédé ?

Le principal avantage est d’éviter l’utilisation de gaz fluorés. Il faut savoir que ceux actuellement utilisés font partie de la classe des HFC (hydrofluorocarbures) et que chaque kg utilisé représente des émissions de CO2 dans l’atmosphère d’environ 2 tonnes. L’eau est un réfrigérant abondant qui n’a aucun impact sur l’environnement, même en cas de purges ou de fuites dans les systèmes.

Ensuite, notre technologie présente une meilleure efficacité énergétique, de l’ordre de 30 % comparé aux gaz fluorés. Par contre, nous n’allons pas sur toutes les gammes de températures, car l’eau est un réfrigérant pertinent pour produire du froid à température positive, mais en-dessous de zéro degré, il gèle. Notre objectif est donc de produire du froid à 15 degrés pour des applications de refroidissement industrielles et à 7 degrés pour de la climatisation. Ces deux marchés représentent environ 80 % de l’utilisation du froid dans le monde.

Une autre application est également possible et concerne le domaine des pompes à chaleur, mais nécessite un couplage avec une autre technologie. On peut par exemple imaginer un couplage avec la technologie CO2, qui se révélerait être très pertinent dans des régions très froides comme celles situées dans le nord de l’Europe.

À quel stade de développement se trouve votre système ?

Notre technologie fonctionne, mais nous devons encore valider sa fiabilité et sa robustesse. À l’été 2022, nous allons installer un démonstrateur technologique sur un des sites d’Ariane Group. Nous sommes aussi à la recherche d’autres entreprises afin de tester et valider notre système dans des conditions climatiques différentes.

Appareil de traitement des effluents industriels (Crédit : Leviathan Dynamics)

En attendant, nous commercialisons un appareil pour le traitement des effluents industriels. Il s’agit d’une autre application, qui n’est pas destinée à produire du froid, mais qui utilise le même procédé, celui de la CMV. Concrètement, nous procédons à l’évaporation d’effluents industriels qui contiennent plus de 90 % d’eau. Notre procédé permet de condenser l’eau et donc de la distiller de manière très efficace et d’entretenir l’évaporation de l’effluent en consommant peu d’énergie. Pour les industriels, notre solution est très intéressante, car elle leur permet de réduire les quantités d’effluents à éliminer. Nous recyclons en moyenne 90 % de l’eau et elle peut ensuite être recyclée et réutilisée dans les processus industriels. Cette application est plus mature, car l’écart de température nécessaire entre la partie froide du système et la partie chaude n’est que de 7 degrés et est donc facile à atteindre. Alors que dans le cas d’une machine produisant du froid, l’objectif est d’avoir une différence de température plus importante d’au minimum 15 degrés voire de 30 degrés et cet écart est plus difficile à atteindre.

L’intelligence artificielle au service d’une meilleure efficacité énergétique des stations d’épuration

Au sein de l’agglomération rennaise, la réduction de la consommation d’électricité des stations d’épuration est une préoccupation ancienne. Dès 2004, les installations sont certifiées par la norme environnementale ISO14001. Depuis quelques années, en plus de se soucier de la qualité des eaux rejetées, les agents chargés d’assurer le suivi de l’assainissement doivent aussi veiller à la consommation d’énergie, qui représente l’un des principaux postes de dépenses avec l’éclairage public. Aujourd’hui, les 25 stations de ce territoire, qui compte environ 450 000 habitants, consomment 20 millions de kWh d’électricité chaque année, pour un volume traité de 25 millions de m³. Afin d’aller encore plus loin dans l’efficacité énergétique, Rennes Métropole a décidé de tester un nouvel outil de régulation faisant appel à l’intelligence artificielle.

Celui-ci a été conçu par la société Purecontrol, implantée sur la métropole, à Cesson-Sévigné. L’entreprise est spécialisée dans l’analyse de données industrielles et le contrôle des systèmes de régulation afin d’en améliorer les performances. Depuis quelques mois, elle a mis en place des équipements légers dans trois stations d’épuration afin de collecter les données des différents capteurs présents sur place, puis de les transférer vers des serveurs situés dans les locaux de l’entreprise. Toutes ces données sont ensuite analysées grâce à des algorithmes d’intelligence artificielle, de type machine learning, qui donnent ensuite des ordres de commandes pour piloter en temps réel les installations.

« Auparavant, nos agents analysaient différentes données disponibles, puis en fonction du contexte, procédaient à des ajustements dans le pilotage des stations, explique Boris Guéguen, directeur de l’assainissement de Rennes Métropole. Suivant la taille des installations, ces ajustements pouvaient être réalisés en moyenne une fois par jour et sur les plus petites, toutes les semaines. Grâce à l’utilisation de l’intelligence artificielle, les réglages sont à présent effectués chaque seconde et prennent également en compte un plus grand nombre de paramètres. »

Un besoin d’aération des bassins moins important en cas de pluies

L’aération des bassins de stockage des boues constitue le premier poste de consommation d’électricité d’une station, avec une part oscillant entre 40 et 50 %. Le pilotage intelligent de Purecontrol permet de démarrer et d’arrêter les moteurs actionnant les aérateurs à des moments très précis, en les décalant par rapport à ce qui était réalisé jusqu’ici. Les algorithmes d’intelligence artificielle analysent différentes données telles que la teneur en oxygène du bassin, le potentiel d’oxydoréduction, ainsi qu’un nouveau paramètre, la pluviométrie, grâce aux prévisions météorologiques. « Quand on sait qu’il va pleuvoir, les consignes habituelles ne sont pas justes, car les effluents d’entrée sont plus oxygénés, et il n’y a donc pas forcément besoin d’apporter autant d’oxygène lors du traitement des boues, déclare le directeur. Grâce à l’analyse de tous les scénarios passés et aux données météo, l’intelligence artificielle est capable d’anticiper ce phénomène pour réduire le besoin d’aération et donc celui d’électricité. »

Il ajoute que ce pilotage intelligent peut être perturbant au départ pour des personnes très rationnelles, habituées à comprendre des phénomènes avant d’en déduire des règles de conduite et des principes techniques : « Nous sommes ici dans le domaine de la datascience qui va tirer de multiples enseignements de nombreux paramètres influençant la consommation d’électricité, mais sans qu’il y ait par ailleurs une expertise humaine derrière chaque corrélation. »

Sur les deux premières stations testées, depuis 15 mois pour l’une et 9 mois pour l’autre, une baisse de la consommation d’électricité comprise entre 10 et 15 % a été constatée. « Cette réduction est significative, car ces installations avaient déjà des performances honorables sur le plan de l’efficacité énergétique », précise Boris Guéguen. Cette phase de test a en tout cas convaincu Rennes Métropole de déployer ce nouvel outil de régulation sur l’ensemble des stations, sauf celles de petite taille qui ne disposent pas d’automatismes. Un autre effet positif à ce pilotage intelligent a également été observé et concerne la plus grande régularité de la qualité des rejets des eaux traitées, et qui s’explique par l’ajustement en temps réel de l’assainissement.

Coupler le pilotage intelligent des stations avec des panneaux solaires

« Lorsque ce nouvel outil sera totalement déployé, notre objectif est de réduire la consommation d’électricité d’en moyenne 10 % sur l’ensemble du parc, ce qui représente un gain de 2 millions de kWh, prévoit le directeur. Le coût de ce pilotage intelligent est largement compensé par les économies d’énergie réalisées. Nous souhaiterions également travailler avec Purecontrol sur la régulation de nos 250 postes de pompage qui amènent les eaux usées vers les stations. Là aussi, il y a un gisement d’économie d’énergie important qui nous permettrait également d’ajuster le débit instantané qui arrive aux stations, et donc d’améliorer encore le traitement. »

Une autre expérimentation est également programmée dans les mois à venir. Cette fois-ci, la métropole souhaite installer des panneaux photovoltaïques équipés de trackers pour suivre la course du soleil, afin d’alimenter en électricité les stations. L’idée serait de coupler cette technologie avec les outils de régulation de Purecontrol dans le but de décaler le plus possible le fonctionnement des stations, et donc leurs besoins en électricité, au moment où les panneaux solaires produisent le plus d’électricité, c’est-à-dire en journée. Ceci, afin d’atteindre un taux d’autoconsommation de cette électricité par les stations le plus élevé possible et ainsi éviter de l’acheter sur le réseau. « En installant uniquement les panneaux solaires munis de trackers, ils devraient fournir environ 35 % du besoin électrique des stations, complète Boris Guéguen. Si nous les couplons avec l’outil de régulation intelligent, ce pourcentage devrait grimper à 50 % et ainsi permettre de consommer quasiment toute l’électricité produite par les panneaux. Nous allons prochainement faire un test de ce couplage sur une station. »

« France 2030 est un signal fort pour le projet de SMR français NUWARD »

A côté de ce pilier, l’entreprise mène des activités connexes, notamment dans le domaine des petits réacteurs nucléaires électrogènes. En effet, TechnicAtome joue un rôle central dans le projet de SMR (small modular reactor, en français petit réacteur modulaire) NUWARDTM,  qui fait l’objet d’un développement conjoint entre EDF, le CEA,  Naval Group, Framatome et TechnicAtome, la société ayant la responsabilité de la conception du réacteur lui-même.

Le plan de relance France 2030 prévoit un investissement d’un milliard d’euros consacré au développement des SMR. Plusieurs acteurs de cette filière vont ainsi bénéficier d’un appui financier important pour les accompagner dans leur projet durant les prochaines années.

Thierry Grenier, directeur des infrastructures et réacteurs civils chez TechnicAtome, a expliqué à Techniques de l’Ingénieur comment le développement de petits réacteurs modulaires pouvait répondre à des enjeux de marchés, et comment le plan France 2030 vient impacter la stratégie de développement de NUWARD.

Techniques de l’Ingénieur : En quoi consiste le projet NUWARD, développé par plusieurs acteurs majeurs de la filière nucléaire française ?

Thierry Grenier : Le projet NUWARD est un projet de petite centrale nucléaire modulaire qui regroupe les principaux acteurs de la filière nucléaire française. EDF est le leader du projet, en partenariat avec le CEA, Naval Group, Framatome et TechnicAtome.

Nous sommes aujourd’hui encore sur la phase avant-projet sommaire, dans un contexte français voué à s’élargir à des acteurs européens dans les phases qui vont suivre.
L’idée de travailler sur des centrales de petite puissance n’est pas nouvelle. Cela fait près de 50 ans que TechnicAtome développe des réacteurs compacts, notamment pour la propulsion navale. Historiquement nous n’étions pas les seuls à travailler sur ces petits réacteurs, mais nous sommes les seuls à avoir continué à développer notre savoir-faire sur le long terme, sur des technologies qui sont différentes de celles utilisées dans les réacteurs de grande taille installés aujourd’hui. Actuellement, environ 70 projets de SMR sont en développement dans de nombreux pays.

Pour quels marchés sont développés ces petits réacteurs ?

Dans un premier temps, l’usage envisagé était d’apporter l’électricité vers des zones géographiques isolées, un marché nécessairement limité. Plus récemment, EDF a fait émerger l’idée de produire des petits réacteurs pour remplacer les centrales à charbon, qui vont fermer les unes après les autres dans les prochaines décennies pour répondre aux objectifs de réduction des émissions de carbone. Cela change la donne, puisque c’est un marché beaucoup plus important, qui permet d’envisager un effet de série beaucoup plus intéressant pour réduire le coût d’une centrale, avantage très important au niveau concurrentiel.

De plus, il y a des zones où le réseau électrique ne permet pas l’implantation de grosses centrales. Ce n’est pas forcément le cas en France, mais la problématique se présente dans certains pays, là où ça coûte énormément d’argent et nécessite un temps considérable pour modifier le réseau. Ainsi, la possibilité d’installer, en lieu et place d’une centrale à charbon un SMR raccordable au réseau existant, présente beaucoup d’avantages, dont celui de la simplicité. C’est donc ce marché qui est visé en priorité.

Nous sommes partis sur le développement de réacteurs d’une capacité de production de 170 MW, c’est la limite technologique que nous nous sommes fixée. En en couplant deux, on arrive à 340 MW, ce qui correspond à la cible commerciale fixée par EDF. Notre volonté est de réaliser la commercialisation de ces petits réacteurs au début de la décennie 2030.

Quel est le paysage concurrentiel au niveau international sur les SMR ?

L’AIEA [Agence internationale de l’énergie atomique, NDLR] a dénombré environ 70 projets, au niveau international, de développement de ces petits réacteurs. Il y a donc une grande diversité de modèles et de technologies étudiés à l’heure actuelle : des réacteurs de très petite taille, des réacteurs à eau pressurisée comme le nôtre, des réacteurs à eau bouillante, au sodium, à sels fondus, à gaz… Au final, toutes les technologies nucléaires de 3ème et 4ème génération font l’objet de projets, en attendant de voir quelle va être la nature exacte des besoins.

Prenons l’exemple de ce qui se passe au Canada, qui est un pays très moteur en ce moment sur la volonté d’implantation de différents types de SMR. Les canadiens sont à la recherche de SMR pouvant fournir de 15 à 500 MW, pour des usages variés : extraction de schistes bitumineux, production de vapeur à haute température pour l’industrie lourde, fourniture d’énergie dans les zones reculées, elles sont nombreuses au Canada… Il s’agit là d’un bon exemple des potentialités multiples des SMR. Le besoin du client va donc avoir une influence cruciale sur le type de SMR adapté au besoin exprimé.

Qu’est-ce qui va faire la différence en termes de débouchés, parmi tous les produits SMR développés ?

Il y a tout d’abord un effet de timing, qui va étaler dans le temps la mise en place des différentes technologies de SMR. Les produits développés à partir des réacteurs de génération 3 et 3+ vont être prêts à l’horizon 2030, car ce sont des technologies qui sont déjà maîtrisées à l’heure actuelle.

Ensuite, il y a le choix du réacteur. Aujourd’hui les réacteurs les plus performants sont les réacteurs à eau pressurisée, c’est la technologie que nous avons choisie. Pour autant, certains concurrents choisissent de développer des réacteurs à eau bouillante, chaque acteur fait donc ses choix en fonction de différents paramètres et de son expérience. Forcément, au final, certains acteurs vont disparaître, car leurs projets auront échoué, le produit ne trouvera pas son marché, la technique développée ne sera pas la bonne… Au final, des appels d’offres vont sortir, et ce sont les technologies les plus adaptées et les plus avancées qui rafleront la mise à ce moment-là.

Ce qui est certain, c’est que la concurrence va être très importante sur le marché des SMR.

Pour revenir au contexte français, notre passé industriel sur le nucléaire et l’expérience de notre filière constituent un avantage certain sur certaines phases de développement des SMR.

Dans quelle mesure le plan France 2030 impacte-t-il la stratégie de développement de NUWARD ?

Ce qui ressort de ce plan France 2030, en ce qui concerne le sujet des SMR, c’est que l’Etat veut soutenir la filière. C’est un signal très important pour nous. Ce soutien, l’Etat l’avait déjà acté à travers le financement à hauteur de 50 millions d’euros de l’avant-projet sommaire, qui est pourtant une phase très en amont du projet. France 2030 vient confirmer l’intérêt de l’Etat, de façon massive puisque c’est un milliard d’euros qui devrait être injecté pour soutenir les acteurs de la filière SMR, dont, nous l’espérons, une partie pour le projet Nuward.

De notre côté, nous nous projetons sur la réalisation d’un premier de série. C’est une phase cruciale du projet, à travers laquelle nous devons faire la démonstration de notre technologie et des performances de notre centrale auprès des clients potentiels. La question de l’endroit où sera implanté ce premier de série est donc très importante.

Bien évidemment, il y aurait beaucoup d’avantages à installer ce premier de série sur le sol français pour tout un tissu d’entreprises plus petites, pour lesquelles ce type de projet est une opportunité unique en termes d’activité et d’emplois. Cependant, si un pays étranger finance la construction sur son sol d’un NUWARD, cela représente également une opportunité intéressante. Aujourd’hui, cette question n’est pas actée.

Propos recueillis par Pierre Thouverez.

Image de une : Le développement du SMR se fait en partie grâce à la réalité virtuelle ©YohanBrandt-TechnicAtome ©EDF2021

« Genvia est une filière à part entière » pour la transition écologique

Devenir un outil de la transition énergétique, mais également le rester. En effet, l’hydrogène est amené à être l’un des outils importants de la transition énergétique.

Genvia développe des systèmes d’électrolyse haute température permettant de produire, de manière réversible, de l’hydrogène ou de l’électricité. Une technologie unique, adaptée à la production locale d’hydrogène, mais aussi au stockage long.

Florence Lambert, présidente de Genvia, a expliqué à Techniques de l’Ingénieur les technologies développées par la société autour de l’électrolyse, ainsi que l’importance de France 2030 dans la mise en œuvre rapide de l’industrialisation des systèmes innovants développés par Genvia.

Techniques de l’Ingénieur : Pouvez-vous revenir sur la genèse de Genvia, qui est une société toute récente, et sur les technologies d’électrolyse que vous développez ?

Florence Lambert : Les choses sont allées très rapidement, puisque Genvia a été créé en mars 2021. Nous développons une technologie d’électrolyse, qui présente des avantages essentiellement de par son fonctionnement à haute température. En fonctionnant à une température comprise entre 700 et 800 degrés, on n’électrolyse plus de l’eau liquide mais de la vapeur. Cela permet de dissocier les molécules d’hydrogène plus facilement et d’obtenir un meilleur rendement, de l’ordre de 15% supérieur aux technologies alternatives que sont les électrolyses alcalines ou PEM.

Depuis quand est développée cette technologie ?

Elle a été développée pendant une quinzaine d’années par le CEA, au départ avec une vision massive d’électrolyse, qui a donné lieu au dépôt d’une quarantaine de brevets.

Florence Lambert, présidente de Genvia. (Crédit photo : Franck Ardito)

Dès le début, l’objectif a été de réaliser de l’électrolyse dans un système haute température. Alors que nos concurrents sur ce marché ont choisi un chemin différent, en partant d’une pile à combustible. Il faut bien comprendre que la problématique de l’étanchéité est un sujet fondamental sur ces technologies d’électrolyse. Chaque électron non collecté fait baisser le rendement global du système. En choisissant d’intégrer le design et l’étanchéité de notre système dans nos prérequis, dès le départ, nous avons pu développer un système ayant une résistance interne plus faible par rapport à nos concurrents. Cela permet au système de fonctionner à une température plus basse que la moyenne, et de fait cela nous permet d’utiliser un revêtement en acier commun et en céramique. Il n’y a pas non plus de catalyseur, ce qui simplifie beaucoup la conception.

De toutes ces innovations découle la création de la société en mars 2021, c’est cela ?

Le CEA a vite compris qu’il disposait là d’une technologie unique, qui plus est multi brevetée, et a donc décidé il y a deux ans de s’orienter vers un processus d’industrialisation de cette technologie. Pour cela, le CEA a sollicité des partenaires, en premier lieu l’entreprise Schlumberger, qui a joué le rôle d’accélérateur en termes d’industrialisation de la technologie, à travers leur usine de Béziers. C’est là qu’immédiatement nous avons pu projeter notre design innovant dans un référentiel industriel, avec sur place toutes les compétences nécessaires pour mener le projet d’industrialisation, du début à la fin. Aussi, l’usine de Béziers fonctionne sur un modèle d’usine 4.0, ce qui nous a permis de bénéficier de compétences sur ce qui se fait de mieux au niveau industriel.

A eux deux le CEA et Schlumberger représentent 80% de l’actionnariat de Genvia. Nous avons également des actionnaires minoritaires, qui sont venus se greffer au projet : la région Occitanie, via l’AREC, et deux autres actionnaires, qui vont représenter le monde des applications : Vicat et Vinci.

Où en est Genvia aujourd’hui ?

Nous avons aujourd’hui un atelier qui fonctionne à Béziers. Nous avons en effet récupéré un bâtiment, centenaire, que nous avons rénové. Il a été inauguré il y a peu, en présence du Président de la République : c’est aujourd’hui un atelier flambant neuf qui nous permet de produire nos premiers stacks, mais pas seulement. Le stack va être connecté dans des modules qui vont intégrer des composants thermiques, fluidiques mais également de l’électronique, de puissance notamment. Nous travaillons donc également à la production de ces modules, qui vont entrer en production dans notre usine dès la fin de cette année, avec la caractéristique de pouvoir produire 200 kilos d’hydrogène par jour, pour nos premiers modules.

Quelles sont les prochaines étapes ?

Aujourd’hui l’atelier fonctionne, et nous voulons avancer vite. Nous aurons une ligne pilote automatisée dès l’été 2022, avec une capacité de production de 300 stacks par an, ce qui nous permettra de produire quelques megawatts par an.

C’est sur la base de cette ligne pilote que tout va être accéléré. Certains de nos partenaires équipementiers envisagent même de venir s’installer à Béziers pour travailler avec nous, ce qui est un signe fort. Ce qui est important aujourd’hui est de développer un écosystème industriel autour de Genvia : équipementiers, intégrateurs en électronique, électronique de puissance et fluidique. Nous avons quatre ans pour démontrer que notre design, notre usine et nos systèmes, qui vont être développés sur le terrain dès 2023, fonctionnent, avec en point de mire la construction d’une gigafactory sur Béziers. Nous voulons ainsi être en mesure, dès 2030, de fournir un gigawatt d’électrolyseurs sur le sol biterrois. Ainsi que tous les systèmes associés.

Justement, dans quelle mesure le projet de gigafactory entre-t-il dans la stratégie de Genvia ?

Ce projet de gigafactory est fondamental dans notre stratégie, puisque cette usine nous permettra de nous projeter sur notre capacité à produire, tout en ayant une vraie modularité dans la gestion de l’espace et du temps sur les lignes de production.

Au-delà, il y a pour moi deux points fondamentaux pour la réussite de la société que notre usine va soutenir : d’abord, le développement de notre gigafactory nous permettra de travailler en direct avec les équipementiers. Nous travaillons continuellement sur l’amélioration des designs, mais également sur l’optimisation de nos recettes, sur chacun des procédés. C’est quelque chose que nous allons pouvoir désormais faire dans le temps, ce qui est très important. Et pour développer ces pratiques sur le temps long, il faut évidemment nouer des liens solides avec les équipementiers.

Le second point est la digitalisation. Elle permet d’apporter un niveau de traçabilité important, d’harmoniser les flux et de les accélérer. Cette digitalisation doit se faire de manière transversale, sur les cadences, la gestion des données et des flux en particulier.

Quelles applications peut-on imaginer autour des technologies développées par Genvia ?

Nous entendons être un outil de la décarbonation de l’industrie. Et nous voulons prendre le sujet par les deux bouts. Aujourd’hui, les procédés industriels consomment 9 000 tonnes d’hydrogène par an. Cet hydrogène est produit par vaporeformage. Nous voulons proposer une solution permettant de produire localement cet hydrogène, par électrolyse. C’est le premier marché que nous visons. Le second touche à la valorisation du CO2. Nous voulons collecter du CO2 industriel pour le valoriser en carburant de synthèse. De cette façon, nous produisons du CO2 “utile”, pour un usage irremplaçable aujourd’hui, je pense par exemple aux secteurs aéronautique et maritime. En revalorisant ce CO2, nous lui faisons gagner un cycle complet.

L’aspect réversible du processus d’électrolyse peut également donner lieu à de nombreuses applications…

A ce niveau-là, notre système est complètement unique. C’est le fait de pouvoir le faire fonctionner à haute température qui rend notre système totalement réversible. Dans un sens, vous produisez de l’hydrogène, et dans l’autre sens, vous produisez de l’électricité à partir de l’hydrogène. L’efficacité du rendement énergétique est moins bon que pour une batterie au lithium, puisqu’il est de l’ordre de 50% sur un aller-retour. Il devient rentable sur un stockage massif et à longue durée, au-delà de six à sept heures. Notre système pourrait donc se révéler extrêmement pertinent pour accompagner le développement des énergies renouvelables, et disposer de différentes échelles de temps en matière de stockage. Cela ne veut pas dire que les électrolyseurs vont remplacer les batteries, chaque système a ses avantages aujourd’hui. Cela dit, je suis persuadée que les systèmes Genvia peuvent devenir un véritable outil de la transition énergétique.

Il y a également des projets de couplage avec les SMR en développement, n’est-ce pas ?

Les projections sur 2050 laissent entrevoir une France largement décarbonée, avec des champs solaires, de l’éolien offshore et des SMR (en français : PRM, petit réacteur modulable). Nos systèmes pourraient, couplés à des SMR, faire du stockage, et produire de manière optimisée notre carburant.

D’ici-là, les étapes sont nombreuses. C’est pour cela que nous commençons par investir sur l’hydrogène industriel. C’est la première étape. A partir de là, en imaginant une montée en puissance des filières dans les années qui viennent, les systèmes Genvia pourraient être un outil de la politique énergétique du pays en 2050.

Dans quelle mesure le plan France 2030 permet-il à Genvia d’atteindre ses objectifs ?

Aujourd’hui le plus dur reste à faire, et la tâche est immense. Nous avons une technologie très prometteuse, mais elle sort à peine du laboratoire. Il nous faut aujourd’hui faire cette ligne pilote, embaucher, déployer notre technologie chez des clients qui ne sont pas encore prêts aujourd’hui à prendre des risques trop importants… Sans France 2030, le plan industriel que nous venons d’évoquer n’existerait pas, ou alors il serait repoussé de plusieurs années. C’est vraiment fondamental. Selon moi, France 2030 est une opportunité importante, une prise de risque mesurée à travers des partenariats public-privé, qui devrait permettre à l’industrie française de développer des filières industrielles fondamentales pour notre autonomie énergétique et la décarbonation de nos activités. A ce titre, j’explique souvent que pour moi, Genvia est une filière à part entière, qui me rappelle dans une certaine mesure l’époque où la France a voulu développer ses propres réacteurs nucléaires après la seconde guerre mondiale.

Propos recueillis par Pierre Thouverez

Photo de une : Maquette d’un électrolyseur haute température. Crédit image : ©Genvia

France 2030 : des choix industriels pragmatiques

Le plan d’investissement France 2030, présenté par le Président de la République au mois d’octobre dernier, vise à renforcer la compétitivité industrielle de la France et à investir sur des technologies d’avenir. Pour cela, ce sont près de 30 milliards d’euros qui vont être investis durant les 5 prochaines années.

10 axes forts se dégagent du plan France 2030, et qui dessinent les ambitions industrielles tricolores pour les prochaines années.

Des grandes ambitions sur l’énergie et la décarbonation

Près de huit milliards d’euros du plan France 2030 sont consacrés à la décarbonation de l’industrie, au développement d’un réacteur nucléaire de petite taille, et à la production d’hydrogène vert, secteur sur lequel la France veut devenir leader.

On peut ajouter à cela les quatre milliards d’euros, qui doivent faciliter le développement du premier avion bas carbone, et la production de quelques deux millions de véhicules électriques d’ici à 2030. Ces investissements, présentés dans le volet « transport du futur » du plan, portent bien entendus de forts enjeux en termes de décarbonation.

Alimentation, santé, et spatial bénéficient largement du plan d’investissement

L’autre axe fort de ce plan concerne les domaines de l’alimentation et de la santé. L’alimentation d’abord, avec des investissements qui vont se concentrer sur la durabilité et la traçabilité.

Le domaine de la santé va lui bénéficier d’une enveloppe globale de trois milliards d’euros, avec deux objectifs principaux : le développement de biomédicaments contre les cancers, les maladies chroniques et celles liées à l’âge, et aussi le développement de dispositifs médicaux innovants.

Le domaine de l’espace se voit quant à lui doté d’une enveloppe de près de deux milliards d’euros pour accompagner le lancement de lanceurs réutilisables, ainsi que de satellites de petite (voire très petite) taille.

Compétitivité VS Sobriété

A la suite de ces annonces, les réactions ont été multiples. La nécessité d’investir dès aujourd’hui dans des technologies qui pourraient s’avérer centrales dans la réalisation des transitions énergétique et numérique est une idée qui fait consensus. C’est par exemple ce que déclare le MEDEF dans La Tribune. Mais au-delà des annonces, beaucoup s’interrogent sur la méthode à employer pour mener ces chantiers de front, au vu de la pénurie annoncée en termes de compétences notamment.

Car le dilemme posé par les projections futures, à savoir une France décarbonée et compétitive industriellement, rend la marge de manœuvre étroite. C’est sur ce point-là que s’élèvent les commentaires les plus négatifs. C’est par exemple le cas de la Fondation pour la Nature et l’Homme, qui a regretté sur son site qu’« avec son plan d’investissement de 30 milliards d’euros présenté ce matin, le Président de la République cède un peu plus au mirage du “tout technologique » supposé résoudre, comme par magie, les crises écologiques ». Dans sa grande majorité, le mouvement écologiste souligne l’incompatibilité entre la compétitivité industrielle recherchée, et la sobriété nécessaire pour accomplir les objectifs de décarbonation. Les projets de SMR cristallisent, sans surprises, les critiques chez les écologistes, alors que l’opinion publique est plutôt favorable à cette annonce.

Enfin, il est intéressant de revenir sur les annonces faites sur l’alimentation, qui ont plutôt été chaudement accueillies, notamment par le monde agricole. Dominique Chargé, le Président de la coopérative agricole, a fait part de sa satisfaction : « La Coopération Agricole se félicite de la place centrale réservée à l’agriculture et à l’alimentation dans le cadre du plan  France 2030. Nous tenons également à saluer le fait que le président de la République ait pris en compte l’ensemble des défis auquel la chaîne alimentaire doit répondre : l’adaptation au changement climatique, la préservation de l’environnement, ou encore la croissance démographique, tout en assurant la compétitivité de nos entreprises et de nos filières ».

Une réaction qui synthétise finalement assez bien la problématique que la France va devoir affronter dans les années qui viennent : adapter les pratiques tout en restant compétitifs.

 

Le best of presse : au fil de l’actu sci-tech #8

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé la fin de l’année dernière mais aussi le tout début de 2022. Et comme nous sommes d’humeur festive, et que janvier n’est pas encore écoulé, nous osons – malgré le blasphème, d’accord – vous souhaiter une bonne année ! Double joie : le traditionnel bonus vous attend à la fin de cet article.

Il n’y a pas de mâle à cela

Espèce menacée, les condors de Californie n’ont pas dit leur dernier mot, loin de là… Ainsi, la San Diego Zoo Wildlife Alliance a annoncé, dans la revue académique Journal of Heredity, la naissance – en 2001 et 2009 – de deux poussins mâles issus d’œufs non fécondés. Une première chez les condors ! Il s’agit là d’un phénomène bien particulier, connu sous le nom de parthénogenèse, et repéré ici grâce à des analyses d’ADN de routine effectuées sur les nouveaux-nés devenus adultes. Précédemment observée chez d’autres espèces (d’oiseaux, de lézards et de poissons, notamment), la parthénogenèse est une forme de reproduction asexuée ne nécessitant pas l’intervention d’un mâle. Selon la BBC, qui consacre un article à cette découverte surprenante, on ne répertorie aujourd’hui que près de 500 condors dans le sud-ouest américain et au Mexique. Les savoir capables de parthénogenèse redonne de l’espoir quant à la survie de ces rapaces !

Une deuxième patiente, sans traitement, est guérie du VIH

Après avoir contracté le VIH, une trentenaire, diagnostiquée séropositive en 2013 et n’ayant pris de traitement antirétroviral que pendant quelques mois (en 2017), ne présente dans son sang plus aucune trace du virus à l’état intact. C’est ce que conclut une étude publiée dans la revue académique Annals of Internal Medicine. Ces cas de guérison spontanée sont extrêmement rares. En effet, comme le souligne Franceinfo, cette femme originaire d’Argentine n’est que la deuxième personne connue à être guérie du virus sans aucun traitement antirétroviral. Le média français rappelle que le premier cas de guérison spontanée a été rapporté en 2020. Il s’agissait alors d’une femme âgée de 67 ans, en Californie.

Mona Lisa sait pourquoi les sardines rétrécissent

Au travers de son projet scientifique, baptisé Mona Lisa, l’Ifremer a étudié la baisse de la taille des sardines en Méditerranée. Et pour cause : “en Méditerranée, leur taille est passée de 15 à 11 cm en moyenne, leur poids de 30 g à 10 g, et les sardines de plus de deux ans ont disparu”, explique l’institut de recherche sur son site web. Des évolutions alarmantes, en premier lieu pour les poissons concernés, mais aussi pour les humains : “les sardines plus petites et plus jeunes sont très peu valorisables commercialement”, note l’Ifremer. Selon les résultats de cette étude, la baisse de la taille des sardines est attribuable à leur alimentation ! En effet, le plancton, dont se nourrissent les sardines, est devenu moins nourrissant. Dans le golfe du Lion, situé en mer Méditerranée française, Mona Lisa a analysé la baisse de la qualité du phytoplancton (micro-algues). Non seulement la production de plancton a diminué, mais à cela s’ajoute aussi une baisse de la taille de ces organismes. Plus petites, les cellules planctoniques sont donc moins énergétiques pour les sardines qui les consomment.

Faire la pluie et le beau temps

À l’occasion du centenaire du Parti communiste, la Chine aurait utilisé une technologie de “cloud-seeding” (littéralement : ensemencement de nuages), pour dégager temporairement le ciel de la capitale.  L’opération se serait déroulée à Pékin, pendant deux heures, le 30 juin 2021, soit la veille de cette fête nationale. Elle aurait ainsi permis aux célébrations de se dérouler sous un ciel bleu. C’est ce que rapportait en décembre le quotidien hongkongais South China Morning Post qui précise que l’information provient d’une étude de l’université de Tsinghua. Selon le Guardian, l’étude, publiée dans la revue académique Environmental Science, décrit la manœuvre de “cloud-seeding” comme ayant eu recours à des fusées remplies d’iodure d’argent. Lancées dans les airs, ces fusées auraient stimulé la tombée de pluies artificielles. Toujours d’après le média britannique, les auteurs de l’étude assurent que ces précipitations auraient, de plus, fait diminuer de deux-tiers la concentration en particules fines PM2.5 et ainsi réduit (temporairement) le taux de pollution dans la ville chinoise. Le pays n’en est pas à son coup d’essai. En effet, le Guardian rappelle que la Chine est l’un des premiers promoteurs du cloud-seeding : le gouvernement chinois serait même allé jusqu’à dépenser, “pendant les cinq ans précédant 2017”, plus d’1,3 milliard de dollars pour soutenir cette technologie.

Mais l’ambition, semblerait-il, dépasse les nuages. Plus impressionnant encore, un “soleil artificiel”, cinq fois plus chaud que le véritable astre au cœur du Système solaire, aurait été créé en Chine, rapporte l’Independent en s’appuyant sur les informations d’un média de l’Etat chinois. Attention, il ne s’agit pas là d’une étoile, mais d’un réacteur à fusion nucléaire connu sous le nom d’EAST (pour Experimental Advanced Superconducting Tokamak, le tokamak étant un dispositif de confinement magnétique expérimental nécessaire à la fusion nucléaire). C’est un record, précise l’Independent, puisque l’EAST a fonctionné pendant plus de 17 minutes tout en atteignant la température de 70 000 000 °C ! Le but ? Parvenir à utiliser l’EAST comme une source quasi inépuisable d’énergie “verte”, nous informe le Smithsonian, édité à Washington.

Pouponnière géante de bébés poissons

On a presque envie d’agiter un hochet et de ronronner en extase (“Qui est un gentil petit poisson ? Mais oui, c’est toi !”) devant cette immense ribambelle de bébés poissons ! Plus sérieusement, il s’agit de nids de poissons. L’information a été repérée par le magazine en ligne LiveScience : la plus grande nurserie de poissons a été découverte sous la mer de Weddell en Antarctique ! Dans cette pouponnière spéciale d’une superficie de 240 kilomètres carrés, ce sont 60 millions de nids de poissons des glaces (“icefish” en anglais) qui jonchent le fond marin, surveillés par des poissons adultes. Dans le quotidien suisse Le Temps, on apprend que cette colonie, située à 500 mètres de profondeur, a été découverte de nuit, en février 2021, par une équipe de chercheurs à bord du brise-glace allemand Polarstern et appartenant à l’Institut Alfred Wegener (en Allemagne). Toujours selon Le Temps, des dizaines de milliards d’œufs patientent dans cette nurserie. LiveScience donne en effet le chiffre suivant : un nid contient en moyenne 1 700 œufs. À la lumière de cette donnée, nous nommons les parents poissons des glaces héros du jour.

Inoubliable James Webb

Nous n’allions quand même pas publier un Best of Presse sans aucune mention du télescope spatial James Webb, lancé le 25 décembre 2021 ! Si l’envie vous prend un jour, sait-on jamais, il vous est possible de suivre en temps réel sa position exacte par rapport à la Terre (ainsi que divers autres paramètres), grâce à cet outil en ligne mis à disposition par la Nasa. Mais au fait, en quoi consiste la mission du successeur de Hubble ? Pour répondre à cette question (mais pas que), Numerama a concocté un guide complet, en 13 questions-réponses. Dans un nouvel article, publié le 15 janvier 2022, le site d’information français a annoncé que l’observatoire spatial était désormais très proche de sa destination, ayant déjà couvert “90 % de la distance qui le sépare de son point d’arrivée”. Son point d’arrivée, c’est le point de Lagrange L2 du système Terre-Soleil. Le télescope James Webb avance actuellement à vitesse réduite, à près de 300 mètres par seconde, détaille Numerama, et il devrait atteindre le point de Lagrange L2 fin janvier 2022.

Un écran tout en saveurs

Lécher un écran de télévision et en goûter les saveurs. Une invention qui pourrait susciter en tout lecteur une première question : “mais pourquoi ?”. Dans Reuters, réponse de l’inventeur japonais, Homei Miyashita, professeur à l’université Meiji à Tokyo : alors que le monde est toujours plongé en pleine pandémie de Covid-19, “l’objectif est de permettre aux gens de vivre l’expérience de manger dans un restaurant à l’autre bout du monde, tout en restant chez eux”. Baptisé “Taste The TV” (TTTV), l’appareil est encore à l’état de prototype. Comme expliqué par Reuters : le dispositif utilise un carrousel de 10 sprays dont la combinaison produit un goût imitant celui de telle ou telle nourriture. Ce mélange est vaporisé sur un film jetable, disposé sur l’écran du TTTV, et l’utilisateur peut alors s’en délecter. Dans cette vidéo, une démonstratrice dit avoir goûté du chocolat :

Homei Miyashita a déclaré à Reuters que la production d’un TTTV à échelle commerciale devrait quand même coûter 100 000 yen, soit 875 $. Néanmoins, poursuit l’agence de presse, plusieurs entreprises se sont rapprochées de l’inventeur dans l’idée d’appliquer sa technologie autrement : par exemple, fabriquer un appareil qui permet de donner un goût de pizza ou de chocolat à un morceau de pain grillé. Quant à Homei Miyashita, sa volonté à terme est de pouvoir créer une plateforme, à l’image de Spotify ou Deezer, contenant une librairie de goûts “téléchargeables” et à portée de main (ou devrions-nous dire, de langue…).

Bonus : une carte des épaves bretonnes !

Le quotidien régional breton Le Télégramme a passé au peigne fin les chiffres du Shom (Service hydrographique et océanographique de la Marine). L’analyse de données a permis de cartographier les emplacements des épaves dans les eaux bretonnes, en particulier, mais aussi au large de toutes les régions côtières françaises. Il s’avère que la France compte 4 700 épaves (dont 4 200 autour des côtes métropolitaines) : parmi celles-ci, pas moins de 1 300 épaves sont bretonnes. Interrogé par Le Télégramme, Jean-Louis Trébaul, référent de la base de données du Shom, indique que sur les 1 300 épaves bretonnes, 711 n’ont pas été identifiées. Dans un graphique, en se basant toujours sur les données du Shom, Le Télégramme a classé par types le nombre d’épaves recensées. Ainsi, la majorité (au nombre de 1 879) des épaves répertoriées en France, n’appartient pour l’instant à aucune des catégories connues (celles-ci étant “pêche”, “commerce”, “vapeur”, “transport”, “militaire”, “débris”, “services maritimes”, “plaisance”, “autre” et “aviation”).

Crédit image de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur

La France souhaite expérimenter les systèmes de routes électriques

Les poids lourds ne représentent qu’un peu plus de 1 % du nombre des véhicules immatriculés en France. Pourtant, ils sont responsables d’environ 25 % des émissions de carbone du trafic routier. Ce chiffre grimpe même à 40 % sur les autoroutes très fréquentées, celles qui voient circuler plus de 8 000 poids lourds par jour, alors qu’en proportion, ils ne représentent que 10 à 15 % du trafic. Plusieurs alternatives pour décarboner ces véhicules existent déjà ou sont en cours de développement, comme l’utilisation de biocarburants, l’électrique sur batterie, ou l’hydrogène, mais toutes ont leurs limites. Une autre solution, complémentaire à ces dernières, pourrait venir des systèmes de routes électriques, encore appelés ERS pour Electric Road System.

En octobre dernier, la France a lancé un appel d’offres dans le cadre du quatrième PIA (Programme d’investissement d’avenir) afin de débuter l’expérimentation de technologies ERS. Il fait suite à la rédaction de trois rapports remis au ministre délégué auprès de la ministre de la Transition écologique, Jean-Baptiste Djebbari, et publiés sur le site de son ministère. « Un an auparavant, en octobre 2020, une réunion nationale s’était tenue à l’invitation du Ministère et avait rassemblé l’ensemble des parties prenantes concernées par cette thématique, parmi lesquelles des organismes scientifiques et techniques, des énergéticiens, des transporteurs, des constructeurs de camions, des gestionnaires routiers, des fournisseurs de solutions ERS… », ajoute Bernard Jacob, professeur à l’Université Gustave Eiffel.

En France, les autoroutes à grande circulation qu’il serait pertinent d’électrifier représentent entre 8 000 et 9 000 km, et concernent surtout celles concédées à des sociétés d’autoroutes. Le déploiement d’une technologie ERS permettrait de limiter l’emport de batterie sur les véhicules électriques, avec la possibilité de les recharger en roulant. Actuellement, les poids lourds électriques sur batterie ne dépassent pas 16 tonnes et ne peuvent parcourir que de courtes distances. Au-delà, le poids des batteries devient rédhibitoire. Par exemple, si l’on voulait faire fonctionner à l’électricité un poids lourd de 40 tonnes avec la même autonomie qu’en diesel, c’est-à-dire 1 000 km, il faudrait l’équiper de batterie lithium-ion dont le poids avoisinerait 10 tonnes. « En électrifiant les autoroutes à fort trafic, nous n’aurions aucun point géographique en France à plus de 150 km d’une autoroute électrique, ce qui permettrait de réduire la taille et donc le poids des batteries », explique Bernard Jacob.

Des caténaires au-dessus du sol, comme dans le domaine ferroviaire

Avant d’envisager le déploiement d’une telle solution, il sera nécessaire de choisir une technologie, parmi les trois familles proposées, chacune avec des avantages et des inconvénients. La première fonctionne avec des caténaires, selon le principe rencontré dans le domaine ferroviaire, à la différence qu’il est nécessaire d’installer deux câbles au-dessus de la voie de circulation équipée, car le retour du courant électrique ne se fait pas par l’intermédiaire des rails au sol. Cette contrainte oblige aussi l’installation de deux pantographes (dispositif articulé permettant au véhicule de capter le courant par frottement sur la caténaire) sur chaque véhicule.

« Ce procédé bénéficie d’un bon degré de maturité technologique, mais devrait faire face à de nombreuses contraintes d’exploitation, analyse Bernard Jacob. Il n’est pas compatible avec les voitures, ni avec les véhicules utilitaires légers, car les caténaires sont positionnées trop haut, à cinq mètres au-dessus de la chaussée. Cela limite donc la rentabilité de cette technologie. » Autre difficulté : en cas d’accident grave de la route, les hélicoptères ne peuvent pas accéder aux voies de circulation à cause des câbles électriques, même en coupant l’alimentation. La nécessité d’installer des poteaux tous les 50 mètres le long de la route, pour les soutenir, pose également un problème de sécurité routière en cas de sortie de route. Ce procédé ERS développé par le constructeur allemand Siemens fait malgré tout l’objet de plusieurs expérimentations en Allemagne.

La conduction par rail au sol constitue la deuxième famille technologique. Ce procédé, baptisé APS (Alimentation par le sol), fonctionne déjà à Bordeaux pour faire circuler son tramway en centre-ville. Dans le domaine routier, deux rails doivent être installés au sol, l’un pour amener le courant et l’autre pour le retour, et sont intégrés dans une structure d’environ 50 cm de large et une dizaine de cm d’épaisseur. Sous les véhicules, un patin de captation muni de deux plots conducteurs s’abaisse automatiquement pour se positionner sur le rail lorsqu’il le détecte et se relève lorsque le véhicule quitte la voie de circulation. Comparé aux caténaires, l’avantage de cette technologie est qu’elle s’adapte à tous les véhicules et qu’elle est quasi invisible, ce qui évite tout problème d’acceptabilité visuelle. De plus, ce procédé n’a pas de limite de puissance contraignante, car il peut facilement délivrer 3 à 4 MW par km contre 1 seul pour le précédent système.

Désactiver l’alimentation électrique du rail pour éviter les risques d’électrocution

Pour des raisons de sécurité, les rails sont segmentés en tronçons et alimentés en électricité uniquement lors du passage d’un véhicule au-dessus. Afin de limiter les coûts d’investissement lors de la pose de ces rails, chaque tronçon devrait mesurer une vingtaine de mètres et donc dépasser la longueur des véhicules. « Pour éliminer tout risque d’électrocution de piétons, l’alimentation électrique ne serait activée que pour des vitesses au-delà de 50 ou 60 km/h », précise Bernard Jacob. Cette technologie est développée par le constructeur français Alstom qui pourrait répondre à l’appel à projets du PIA pour mener des essais prochainement en France.

Le dernier système repose sur l’induction, avec un transfert de la puissance électrique sans contact à partir de boucles noyées dans la chaussée entre 6 et 8 cm de profondeur, vers une boucle réceptrice fixée sous le plancher des véhicules. Ce procédé peut délivrer une puissance électrique suffisante pour les voitures de 25 kWh. Par contre, les poids lourds exigent une alimentation de l’ordre de 300 kWh, et cette technologie n’y parvient pas pour l’instant. Cette difficulté s’explique par la plus grande hauteur entre le plancher du camion et la route, comparée aux véhicules légers. De plus, la surface de la boucle réceptrice sous les poids lourds sera comparable à celle des voitures. En effet, elle pourra uniquement être positionnée sous les tracteurs routiers, car les semi-remorques sont interchangeables d’un poids lourd à l’autre.

La Suède a déjà testé ces trois technologies. Avec l’Allemagne, ce sont les deux seuls pays européens à avoir mené des expérimentations d’ERS sur route ouverte. Avant son déploiement sur les réseaux autoroutiers, une décision politique à l’échelle européenne s’imposera afin de normaliser et d’harmoniser les procédés entre chaque pays.

SpacEarth Initiative : le programme pour promouvoir le spatial

Les maîtres d’œuvre, les équipementiers et les startups du secteur spatial, regroupés au sein du Groupement des industries françaises aéronautiques et spatiales (GIFAS), s’allient pour lancer le programme SpacEarth Initiative. Celui-ci vise à promouvoir la filière qui représente en France près de 18 000 employés et près de 250 entreprises. Dans un premier temps, afin d’en savoir plus sur l’image du spatial, la coalition a confié à Ifop la réalisation d’un sondage auprès d’un échantillon de 1 001 personnes, représentatif de la population française âgée de 18 ans et plus.

Une image positive, mais une connaissance superficielle

Premier enseignement : 76 % des Français ont une bonne image du spatial. Ce pourcentage atteint même 88 % chez les 18-24 ans. 20 % en ont une mauvaise image, 4 % une très mauvaise. Pour l’ensemble des répondants, la recherche scientifique (60 % de citations, dont 32 % en premier), l’observation de la Terre (56 % de citations, dont 23 % en premier) et l’exploration (46 % de citations, dont 23 % en premier) apparaissent comme les trois principaux domaines associés au spatial. La géolocalisation, la diffusion TV et l’accès à internet, la défense et la sécurité, ainsi que le changement climatique sont ensuite cités par moins de deux Français sur dix (dont 4 % à 6 % en première citation).

Mais à part Thomas Pesquet qui est connu par 91 % des sondés dont 82 % « précisément » (ont répondu par « oui précisément »), force est de constater que les différents éléments et organisations spatiales testés restent très largement méconnus par le grand public. Le système de géolocalisation européen Galileo est pour sa part connu à hauteur de 58 % dont 24 % précisément. Mais la mission Perseverance sur Mars, le programme Copernicus, les constellations de satellites Starlink et OneWeb, le télescope James Webb, ou encore les trois satellites d’observation militaires CSO sont connus par moins de trois Français sur dix et par moins d’un Français sur dix précisément.

Des contributions reconnues… une fois évoquées

Si les Français ont une image positive du spatial, ils perçoivent peu son importance dans leur quotidien. Ainsi, 57 % des sondés pensent que les activités spatiales jouent un rôle peu important, voire pas du tout important dans leur quotidien.

Mais une fois mentionnées, les contributions de l’industrie spatiale à différentes activités du quotidien sont largement reconnues. Ainsi plus de huit Français sur dix reconnaissent la contribution de l’industrie spatiale à la géolocalisation, à l’accès au téléphone, à internet et à la télévision. Entre sept et huit Français sur dix ont conscience de l’apport du spatial pour la production de données sur le changement climatique et l’évolution de la biodiversité, pour le soutien aux forces spéciales lors des interventions militaires et pour l’aide aux équipes de secours lors des catastrophes naturelles.

Une campagne et dix propositions

Pour valoriser les apports du spatial dans la vie quotidienne des Français, la coalition SpacEarth Initiative lance donc une campagne de promotion des usages des technologies spatiales. « Nous souhaitons aujourd’hui aller encore plus loin pour réenchanter le rôle de l’Espace dans notre vie sur Terre alors que celui-ci va jouer un rôle encore plus critique face aux grandes transitions environnementales et sociétales que nous abordons », déclarent Jean-Marc Nasr et Franck Poirrier, respectivement président et vice-président de la Commission Espace du GIFAS, par voie de communiqué.

La coalition dresse également 10 propositions stratégiques communes pour conforter la place de l’Europe parmi les leaders dans le domaine spatial. La filière souhaite ainsi porter auprès des décideurs la vision d’un spatial à l’européenne. Ce spatial permettrait à l’Europe d’être leader dans l’observation du climat et des risques environnementaux tout en maîtrisant son impact environnemental. Il mettrait fin aux déserts numériques, serait à la pointe de l’innovation et bénéfique au plus grand nombre.

#jesuisEUcolo : des citoyens pour accélérer la transition écologique européenne

L’Association des Conseils en Innovation (ACI) lance une consultation inédite pour impliquer les citoyens français dans la définition des futures priorités du programme Horizon Europe en matière d’environnement et de transition écologique. Avec un budget de 95,5 milliards d’euros, ce programme constitue un puissant levier de transformation écologique. Le programme a déjà soutenu plus de 7 000 projets d’innovation pour un budget de plus de 25 milliards d’euros entre 2014 et 2020. Au menu : des solutions durables en agriculture, transports, préservation de la biodiversité, recyclage des déchets, etc.

Pour orienter les sujets de recherche et impliquer davantage les citoyens dans le programme Horizon Europe, la concertation #jesuisEUcolo vise à montrer comment l’Europe peut soutenir concrètement des initiatives utiles pour les citoyens. Financée par la Représentation de la Commission européenne en France, elle a été labellisée Présidence Française de l’Union européenne (PFUE).

Promouvoir le programme Horizon Europe

La consultation prend naissance dans un appel à idées de la Commission européenne en France lancé en décembre 2020 pour promouvoir les politiques européennes. « ACI a répondu à l’appel à idées en proposant de promouvoir les politiques de financements de recherche et développement et plus particulièrement le programme Horizon Europe », se rappelle Emmanuelle Pianetti, déléguée générale de l’ACI.

« Cette concertation a deux objectifs : informer des projets de recherche financés par la Commission européenne et mobiliser le citoyen pour qu’il devienne acteur des travaux financés », poursuit-elle. Les participants pourront ainsi soumettre des thèmes de recherche, participer à des projets européens par le biais d’associations de consommateurs et évaluer les impacts sur le terrain des projets financés.

Les citoyens ont jusqu’au 5 avril pour se rendre sur la plateforme participative jesuiseucolo.org. Ils peuvent ainsi proposer, partager et débattre des sujets de recherche qui pourront être financés par l’Union européenne. Les contributions recueillies seront présentées le 21 avril à la Présidence de la Commission européenne, au Président du Parlement européen, au Président du Conseil de l’Union européenne et à la Présidence française de l’Union européenne. Elles seront également synthétisées sous forme d’un livre blanc permettant aux citoyens d’interpeller leurs élus, afin de construire une Europe durable, innovante et locale.

Des débats citoyens au programme

Trois débats citoyens sont programmés durant la période de concertation. Le premier se tiendra à Clermont-Ferrand le 5 février 2022. Il a pour vocation de définir collectivement les priorités en matière de recherche s’agissant de la transition écologique, sur la base des premières contributions reçues. Un second débat se tiendra à Dunkerque le 5 mars prochain. Il s’agira de définir les moyens et les méthodes qui devront être mis en œuvre par l’UE pour sélectionner les projets et évaluer leurs impacts. Il sera possible de suivre ces deux premiers débats à distance.

Le troisième et dernier débat se tiendra à Paris en parallèle de la Conférence de haut niveau sur l’engagement citoyen dans les Missions européennes, organisé par le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation dans le cadre de la Présidence française du Conseil de l’Union européenne. Il s’appuiera sur les contributions citoyennes recueillies en régions.

Regards de dirigeants #16 : Arthur Dupuy, Ateliers Arthur Dupuy

Formé à l’institut Paul Bocuse, Arthur Dupuy a créé en 2015 l’atelier Arthur Dupuy, une entreprise spécialisée dans la confection de signatures olfactives. Les signatures olfactives sont des fragrances, développées spécifiquement pour une marque ou pour un lieu comme un hôtel par exemple : elles permettent d’associer une odeur à une histoire, un lieu, pour en renforcer l’identité et favoriser la fidélisation de la clientèle.

Installé alors au sein de l’Université de Montpellier, Arthur Dupuy est rapidement rejoint par Isabelle Parrot, docteure en pharmacie. Tous les deux sont aujourd’hui à la tête d’une entreprise innovante en termes de parfumerie et de marketing, dans la ville de Montpellier, elle-même capitale historique des parfumeurs.

Arthur Dupuy a accepté de revenir pour Techniques de l’Ingénieur sur l’histoire déjà longue de sa jeune entreprise, et sur l’impact de la crise sanitaire sur son activité.

Yves Valentin : Pourriez-vous revenir sur l’histoire derrière la création de votre entreprise ?

Arthur Dupuy : Tout a commencé par une demande spécifique d’un client, en l’occurrence l’hôtel Le Royal de Lyon, un établissement 5 étoiles, qui collabore avec l’institut Paul Bocuse dont je suis diplômé.

Le client, l’institut Paul Bocuse, désirait disposer d’une signature olfactive sur mesure pour cet hôtel, afin de créer une identité supplémentaire pour ce lieu, et provoquer une émotion chez les usagers de l’établissement. Il s’agissait aussi, pour l’hôtel, de se différencier de la concurrence à travers cette création sur mesure. L’institut Paul Bocuse nous a donc chargé de la création de cette fragrance.

Nous nous sommes donc mis au travail en développant une formulation. J’avais à l’époque une vision très claire de ce que je voulais faire, mais pas les collaborateurs qualifiés pour le faire. Le hasard faisant parfois bien les choses, c’est à ce moment-là que j’ai rencontré Isabelle Parrot, docteure en pharmacie, avec qui je dirige l’entreprise aujourd’hui. Isabelle a tout de suite pris en charge l’aspect recherche et développement de l’activité, et amené avec elle la caution scientifique qui manquait alors au projet.

Combien de temps a duré le développement de cette fragrance ?

Cela nous a pris huit mois pour développer la signature olfactive pour l’hôtel Le Royal, car à l’époque nous n’étions pas du tout organisés comme nous le sommes aujourd’hui, et parce que la demande était très particulière : en effet, la signature olfactive devait pouvoir se décliner sur plusieurs types de diffusions : diffusion d’ambiance, bougies parfumées, sprays d’ambiance, céramiques parfumées… c’était un vrai défi.

Vous avez donc construit votre entreprise autour du développement de signatures olfactives sur mesure à travers cette demande initiale.

Oui. Aujourd’hui, la plupart des opérateurs équipant des lieux comme les hôtels sont plus spécialisés sur les supports que sur les parfums. D’ailleurs, les offres de signature olfactive sur mesure multi-supports pour un hôtel n’existaient tout simplement pas il y a six ans. La plupart des opérateurs aujourd’hui proposent encore des supports variés de diffusions de fragrances, avec un catalogue, mais sans réelle synergie globale au niveau olfactif. C’est ce créneau-là que nous avons décidé d’exploiter.

Quelle a été l’étape suivante pour l’entreprise Arthur Dupuy ?

À partir de là, la société a évolué, en étant placée dans un premier temps au sein de l’incubateur de la faculté des sciences de l’Université de Montpellier, puis dans un nouvel incubateur, celui du Business Innovation Center Cap Omega de Montpellier. Il y a même eu une troisième phase d’incubation, au sein de l’incubateur privé Village by CA. Cette phase de développement, à la fois soutenue par des fonds publics et privés, nous a permis d’obtenir une licence de savoir-faire, et l’autorisation de transférer ce savoir-faire au sein de la société Arthur Dupuy. Il était très important pour nous d’adosser notre activité à un savoir-faire et des compétences scientifiques.

Créations olfactives ©ArthurDupuy

En échange, la société reverse à ses tutelles, à savoir l’Université de Montpellier, L’Ecole Nationale de Chimie, le CNRS et l’IBMM (Institut des biomolécules Max Mousseron) des royalties annuelles indexées en partie sur les résultats de l’entreprise. C’est un bon exemple de valorisation de la recherche.

Au fil du temps la société a grandi, nous avons ouvert notre capital et sommes aujourd’hui soutenus par un acteur majeur de la parfumerie situé en région de Montpellier, la société Solignac Industries. Cela nous permet de travailler de manière plus ambitieuse tant au niveau de la commercialisation que de la R et D. Plus qu’un investisseur, Roxane (dirigée par Solignac Industries) est devenu pour nous un partenaire de développement, tant les synergies sont nombreuses entre leurs activités et les nôtres.

Quel est l’effectif aujourd’hui de votre entreprise ?

Nous avons aujourd’hui une équipe de 12 personnes, partagée équitablement entre le laboratoire et le reste de l’activité : marketing, commercialisation… au niveau de nos marchés, quatre secteurs couvrent l’ensemble de notre activité.

Le premier et le principal est l’hôtellerie restauration. Ensuite il y a l’univers des marques : cosmétiques, mode, artistes, personnalités…

Enfin, le monde des arts et les transports constituent les deux derniers secteurs de marchés sur lesquels nous évoluons. Le monde des transports, par exemple, développe des signatures olfactives pour aider les malvoyants et les malentendants à être prévenus, olfactivement, de l’arrivée d’un tramway par exemple. C’est un créneau sur lequel nous sommes très présents. Nous sommes en lice sur plusieurs appels d’offres, notamment à Grenoble et pour Paris 2024, sur ce type d’installations.

Quels sont vos process de fabrication ?

Les process de fabrication varient en fonction des demandes des clients. De manière générale, soit le client a déjà une idée de ce qu’il désire et nous sommes donc en situation de collecter les informations et les pistes qu’il nous donne pour nous mettre au travail. Second cas de figure, le client n’a pas d’idée arrêtée sur ce qu’il veut, et dans ce cas c’est à nous, à partir des briefs réalisés, de développer une fragrance sur mesure. Dans tous les cas, nous mettons entre un et trois mois pour développer une formulation spécifique, que le client pourra ensuite décliner sur une multitude de produits dérivés.

Comment avez-vous été impactés par la crise sanitaire ?

La crise sanitaire nous a frappé de plein fouet, puisqu’au cours du premier confinement nous avons perdu 50% de notre chiffre d’affaires. Nous avons donc décidé de changer notre fusil d’épaule et de nous lancer dans le B to C, partant du principe que les difficultés du marché B to B allaient perdurer.

Nous avons ainsi commencé à développer notre propre portefeuille de marques, sous l’appellation “Atelier Arthur Dupuy”.

Ce marché B to C a bien décollé, et depuis peu le marché B to B repart un peu partout. Ce que nous constatons aujourd’hui, c’est que le B to C est notre meilleur apporteur d’affaires pour le B to B, et qu’il faut absolument développer l’un pour nourrir l’autre. C’est notre stratégie à l’heure actuelle.

Nous nous sommes également recentrés sur notre production. Nous avons compris qu’il nous fallait mettre les challenges HSE tout en haut de notre liste des priorités. Les attentes en termes de HSE des potentiels clients en B to B sont de plus en plus importantes. C’est une problématique sur laquelle nous sommes déjà largement investis, à travers le choix de toutes nos matières premières et à travers différentes politiques mises en place au sein de l’entreprise. L’axe fort sur lequel nous travaillons en ce moment est la diversification de notre catalogue de produits, pour le B to C, et le sourcing, afin de développer des filières les plus locales possible pour notre approvisionnement. C’est un moyen efficace de réduire notre empreinte écologique.

Comment avez-vous géré cette période en termes de management ?

La crise du Covid-19 nous a permis de comprendre certaines choses, notamment au niveau du télétravail. Nous étions assez réticents au début, nous l’avons mis en place par obligation mais aujourd’hui cette pratique persiste, pour certains collaborateurs, car elle a fait ses preuves. Cela évite de perdre du temps dans les transports, et nous y avons gagné en productivité.

Quelle est votre actualité aujourd’hui ?

Notre participation au salon Made in France est un moment important pour l’entreprise et nous nous préparons beaucoup pour cet évènement.

Comme je l’ai déjà évoqué, l’univers olfactif décliné dans les transports en commun est un sujet qui nous occupe beaucoup, sur lequel nous fondons beaucoup d’espoirs.

Enfin, nous avons engagé de gros programmes de R et D, notamment sur la production de nouvelles matières premières, pour pouvoir nous exprimer de manière différente par rapport à nos concurrents d’un point de vue parfums, arômes et cosmétique.

Nous avons des projets dans le Sud de la France, au Portugal, en Afrique, pour développer la production de nouvelles matières premières, avec deux axes de travail fondamentaux : l’éco extraction et la valorisation totale de la matière première, en circuit fermé. Cette volonté de développer des circuits de production les plus neutres possible au niveau écologique fait aujourd’hui partie de notre ADN.

Aujourd’hui, dans quelle mesure êtes-vous pénalisé par les incertitudes sur le marché des matières premières ?

Entre les ruptures de stocks, l’augmentation des tarifs de 10 à 20 % sur les matières sèches, les délais de livraison multipliés par trois… La reprise est plus incertaine que ce que nous projetions. Certains fournisseurs sont même dans l’incapacité de nous dire quand est-ce qu’ils seront réapprovisionnés. Il faut donc être très prudent.

Au-delà, les aides mises en place par l’Etat durant la crise sanitaire ont permis de faire face aux défis d’alors. Certaines entreprises ont pu également profiter de cette période pour moderniser leurs outils de production, donc je suis optimiste pour la suite.

Propos recueillis par Yves Valentin, Directeur Général des Techniques de l’Ingénieur, et mis en forme par Pierre Thouverez, journaliste.

Image de Une : Arthur Dupuy ©Arthur Dupuy