Le biomimétisme, l’évolution continue

Quel est le rapport entre un robot, un avion et une maison écologique ? Ils peuvent tous bénéficier des apports du biomimétisme pour améliorer leurs performances et développer des propriétés inattendues.

En effet, pour trouver des solutions à nos problématiques d’aujourd’hui, telles que la pollution, le réchauffement climatique, les besoins en énergie, la recherche de ressources biosourcées et matières renouvelables etc., un regard vers les solutions proposées par la nature, végétale comme animale, permet souvent d’imaginer des solutions qui n’avaient pas été envisagées. Pour en savoir plus sur l’intérêt et les avancées du biomimétisme, découvrez notre infographie.

Pour vous faire découvrir les dernières innovations et les technologies les mieux inspirées, Techniques de l’Ingénieur est partenaire de Biomim’expo cette année encore.

En raison des conditions sanitaires, l’événement a pris cette année un format inédit : un rendez-vous sur 5 jours avec 25 sessions, plus de 100 intervenants, 100% en ligne, c’est la Biomim’expo week ! L’événement s’est déroulé la semaine du 7 au 11 décembre, avec au programme :

  • Lundi 7 décembre : Le biomimétisme, la Nature et nous.
  • Mardi 8 décembre : Le biomimétisme, un éco-système socio-économique d’innovations et d’investissement.
  • Mercredi 9 décembre : Vivre et Habiter demain.
  • Jeudi 10 décembre : Depuis la recherche et la connaissance vers les applications industrielles…
  • Vendredi 11 décembre : Pour un demain régénératif, de biodiversité, de vie et d’espoirs.

Parmi les conférences en ligne, Techniques de l’Ingénieur vous a invité à découvrir les innovations du futur dans le 3DEXPERIENCE Lab de DASSAULT SYSTEMES grâce à une immersion en réalité virtuelle.

Découvrez le replay de cette émission exceptionnelle ici !

 

 

HOP défend ses propositions pour des produits réparables en Europe

« Les Européens sont les plus gros producteurs de déchets électroniques dans le monde avec 16,2 kg par personne et par an, rappelle Adèle Chasson, responsable des affaires publiques de HOP. Pourtant, la plupart des citoyens européens ont la volonté de faire durer leurs produits plus longtemps : 77 % souhaitent plutôt réparer leurs produits plutôt que de les remplacer quand ils sont en panne ». Afin de combler le fossé existant entre ce désir de réparabilité et la réalité, HOP propose un livre blanc européen doté de 20 mesures.

Plusieurs mesures d’un premier livre blanc ont été reprises en France dans la loi anti-gaspillage pour une économie circulaire. En particulier, l’indice de réparabilité doit devenir obligatoire début 2021 en France, le décret devant prochainement être publié au Journal Officiel. Il sera remplacé par l’indice de durabilité en 2024. L’association souhaite désormais étendre son influence au niveau européen pour faire des produits réparables la norme en Europe. « Il est intéressant de lutter contre l’obsolescence programmée en France, mais il faut surtout allonger la durée de vie des produits à l’échelle européenne face à des firmes multinationales et un marché unique », prévient Laetitia Vasseur, co-fondatrice et déléguée générale de HOP.

Faire de l’Europe un territoire de réparabilité

Le contexte semble propice à l’adoption de mesures pour améliorer la réparabilité des produits en Europe. En mars 2020, la Commission européenne a publié son plan d’actions pour une économie circulaire. La durée de vie des produits y prend une place importante. Ce jeudi 26 novembre, dans un rapport d’initiative présenté par l’eurodéputé David Cormand, le Parlement européen appelle à sanctionner l’obsolescence prématurée en Europe par les pratiques commerciales trompeuses et demande un indice de durabilité et de réparabilité.

« Nous attendons des propositions législatives sur l’information des consommateurs, l’indice de réparabilité européen et les normes d’éco-conception, souligne Adèle Chasson. Il faut des règlements obligatoires qui disent que les produits doivent être réparables et durables ». HOP s’insurge par exemple qu’il n’y ait aucune information communiquée sur la réparabilité de produits d’importance comme les smartphones.

Pour l’éco-conception et l’information des consommateurs

En ce sens, le livre blanc incite à adopter des normes d’éco-conception et d’éco-design, ainsi qu’un meilleur encadrement de la publicité. « Comme l’Europe a la main sur son marché intérieur, elle peut imposer des normes de qualité et dire qu’elle veut uniquement des produits durables, réparables, démontables sur son marché unique », explique Adèle Chasson.

Le livre blanc invite à créer un indice de réparabilité et de durabilité au niveau européen. Il défend le renforcement des garanties légales en donnant la priorité à la réparation plutôt qu’au remplacement. « La réparation et la réutilisation doivent être rendues accessibles à tous les européens, défend Adèle Chanson. L’obstacle principal à la réparation est vraiment le coût. On propose d’étendre le mécanisme du fonds réparation ajouté dans la loi anti-gaspillage en France au niveau européen et d’étudier la possibilité de réduire la TVA sur les activités de réparation, de réutilisation et de reconditionnement. »

Le délit d’obsolescence programmée, une avancée incontestable

La parution de ce livre blanc est également l’occasion de faire un bilan du délit d’obsolescence programmée instauré en France en 2015. « On observe que le délit obsolescence programmée a été très vertueux car il a permis d’en faire un sujet majeur et d’aller plus loin pour s’intéresser à la durabilité des produits », estime Laetitia Vasseur.

À ce jour, le délit d’obsolescence programmée a permis de déposer trois plaintes, contre Epson, Apple et Nintendo. L’action contre Apple a abouti sur une transaction pénale avec la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), et une amende de 25 millions d’euros. « La DGCCRF a acté la pratique commerciale trompeuse par omission plutôt que le délit d’obsolescence programmée, explique Laetitia Vasseur. C’est clairement difficile de faire appliquer le délit d’obsolescence programmée et il n’y a pas de jurisprudence. Il faudra certainement le réécrire, le préciser pour qu’il soit plus facilement applicable et protège mieux les consommateurs. Le fait qu’il y ait des plaintes déposées permet une autre stratégie : le « naming, shaming » [« nommer et couvrir de honte », NDLR]. Je crois que l’enjeu de la réputation pour ces entreprises est très important et permet de faire avancer les choses, même si ce n’est pas sur un point de vue purement juridique. »

La subvention “industrie du futur”, au secours de l’industrie française

Étalé sur la période 2020 à 2022, le dispositif « industrie du futur » (en vigueur depuis le 24 octobre 2020), vise à moderniser l’outil productif français. Cette subvention aide ainsi les entreprises de tailles petite, moyenne ou intermédiaire, dans l’achat de nouveaux équipements affectés à une activité industrielle. La recherche et développement ou le prototypage ne sont donc pas éligibles.

8 catégories de biens, définies par décret, sont éligibles :

  • Les équipements robotiques et cobotiques ;
  • Les logiciels utilisés en conception, fabrication, transformation, ou maintenance ;
  • Les capteurs physiques récoltant des données sur le site de production, la chaîne de production, ou le système transitique ;
  • Les équipements de réalité virtuelle et de réalité augmentée utilisés en conception, fabrication, transformation, ou maintenance ;
  • Les équipements de fabrication additive ;
  • Les machines intégrées destinées au calcul intensif ;
  • Les machines de production à commande programmable ou numérique ;
  • Les logiciels ou équipements ayant recours à l’intelligence artificielle et utilisés en conception, fabrication, transformation, maintenance, ou optimisation de la production.

Cette mesure de subvention a été pensée par le Ministère délégué à l’Industrie et la Direction Générale des Entreprises (DGE), en collaboration avec la Fédération des Industries Mécaniques (FIM) et le Symop (Syndicat des machines et technologies de production) et ses adhérents. Responsable des Affaires publiques de la FIM et du Symop, Caroline Demoyer a répondu aux questions de Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Par quoi se distingue ce nouvel outil de subvention ?

Caroline Demoyer
Caroline Demoyer, responsable des Affaires publiques de la FIM et du Symop

Caroline Demoyer : Contrairement au dispositif du suramortissement numérique qui prendra fin le 31 décembre 2020, ce nouveau mécanisme de subvention des équipements industriels ne repose pas sur des recettes fiscales. Le suramortissement, en période de crise, n’était plus un outil efficace. Le Ministère délégué à l’Industrie a été très à l’écoute des entreprises et s’est appuyé sur leurs représentants pour définir le périmètre et les modalités pratiques d’une subvention, qui est un dispositif nettement plus incitatif et plus efficient en cette année compliquée économiquement. Présenté dans le cadre du plan France Relance, l’objectif de cette nouvelle mesure est non seulement de porter nos entreprises vers plus de digitalisation et de modernisation de leurs activités de production, mais aussi de les aider à rester compétitives aux niveaux français, européen et mondial.

Quelles sont les conditions pour en bénéficier ? 

Les seules entreprises concernées sont les PME et les ETI. La demande de subvention doit être faite pour des biens éligibles, destinés à équiper un site de production installé sur le territoire français. Et surtout : cette demande doit être réalisée avant toute contractualisation avec le fournisseur !

À quelle structure les entreprises doivent-elles s’adresser pour faire une demande ?

L’Agence des Services de Paiement (ASP) est l’interlocutrice unique pour ces entreprises qui souhaitent investir. En effet, pour simplifier les démarches, le ministère a mis en place un guichet unique géré par l’ASP. C’est lui qui gère l’ensemble du processus d’instruction d’examens des dossiers, de l’éligibilité de l’industriel au versement de la subvention, en un paiement unique et sur présentation de la facture certifiée acquittée.

Quelle enveloppe budgétaire pour le dispositif « industrie du futur » ?

Au total, il s’agit de 320 millions d’euros (M€). Cependant, c’est un montant qui peut s’avérer indicatif car tout va dépendre du nombre d’entreprises qui se saisiront de ce dispositif. Ce budget indicatif est réparti dans le temps : 40 M€ seront accordés en 2020, 140 M€ en 2021, et 140 M€ également en 2022.

Comment ces subventions sont-elles plafonnées ?

Le dispositif repose sur trois régimes d’aides. Pour le régime de minimis, le taux de subvention est de 40% dans une limite de 200 000 €. Ce plafond monte à 800 000 € pour les seules entreprises éligibles au régime temporaire Covid. Au-delà des limites imposées par ces deux régimes d’aides, les PME peuvent bénéficier d’une subvention au titre du régime PME, cette fois sans limite de montant, avec un taux de 20% pour une petite entreprise, 10% pour une moyenne.

En plus des PME et ETI industrielles, d’autres acteurs bénéficieront-ils indirectement de ce nouveau dispositif de subvention ? 

Tout à fait. Les bénéficiaires indirects de ces subventions sont évidemment les fournisseurs d’équipements, que le Symop représente, et dont les ETI et les PME concernées sont clientes.

Le dispositif de subvention « industrie du futur » fait l’objet d’un webinar organisé par Techniques de l’Ingénieur, et présenté par Caroline Demoyer. Il aura lieu le 10 décembre à 15h. Pour s’inscrire, c’est par ici

L’Europe part en guerre contre le « far-west du numérique »

Pour la première fois depuis sa création en 1995, Amazon.com dégageait un bénéfice net de 5 millions de dollars pour un chiffre d’affaires de 1,1 milliard au quatrième trimestre 2001. Dix-sept ans plus tard, son chiffre d’affaires pour l’année 2019 frôle les 280 milliards et son résultat net atteint 14,54 milliards.

Le succès phénoménal du champion du commerce électronique grand public montre à quel point le paysage de l’internet a été chamboulé en deux décennies. Les GAFAM sont devenus incontournables dans de nombreux secteurs et pas uniquement grand public.

Toujours à propos d’Amazon, sa filiale spécialisée dans le cloud (Amazon Web Service – 15,4 milliards de dollars de chiffre d’affaires en 2018) domine très largement ce secteur en forte croissance avec environ 48 % de part de marché.

Amende de 4,34 milliards d’euros

Les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et autres plateformes en ligne ont apporté des avantages considérables aux consommateurs et à l’innovation, ainsi que des gains d’efficacité pour les entreprises. La pandémie de Covid-19 a révélé tout l’intérêt de disposer d’une infrastructure informatique plus souple et reposant sur le cloud et de s’appuyer sur des solutions aussi pratiques que les visioconférences et les outils de travail collaboratif.

Mais les géants du numérique ont acquis une puissance phénoménale. Cette position dominante a déjà été condamnée par Bruxelles qui a infligé en 2018 sa plus grosse amende à Google : 4,34 milliards d’euros pour avoir abusé de la position dominante d’Android afin d’asseoir la suprématie de son moteur de recherche.

Si ces nouveaux services, technologies et modèles commerciaux ont apporté de nombreuses opportunités dans la vie quotidienne des citoyens européens, ils ont également créé de nouveaux risques pour les citoyens et la société en général, en particulier les fake news et les contenus haineux…

La Commission européenne a donc décidé de moderniser le paysage réglementaire relatif aux plateformes numériques. Un vaste chantier qui concerne aussi bien la responsabilité des plateformes que la lutte contre la diffusion de contenus illicites et la désinformation ou la publicité en ligne.

« L’Europe a compris qu’elle ne pouvait plus se permettre d’être naïve. Nous devons réguler cet espace informationnel qui est encore une zone de non-droit », a insisté Thierry Breton sur France Inter. Pour le commissaire européen au marché intérieur, « l’internet ne peut rester un Far West ». Certains évoquent l’idée d’un démantèlement des GAFAM.

La puissance des BATX

Cette volonté de recadrer les activités des géants du web ne concerne pas uniquement le vieux continent. Aux États-Unis, les autorités antitrust ont ouvert des enquêtes contre Google, Facebook, Apple et Amazon. Mais les géants chinois, regroupés sous l’acronyme BATX (Baidu, Alibaba, Tencent et Xiaomi), sont également visés par le projet européen.

Après une consultation publique menée entre juin et septembre dernier, la Commission européenne doit présenter son ambitieux projet de législation baptisé « Digital Service Act ». Il devrait moderniser le cadre juridique actuel des services numériques au moyen de deux piliers principaux :

  • « Premièrement, la Commission proposerait des règles claires définissant les responsabilités des services numériques pour faire face aux risques encourus par leurs utilisateurs et protéger leurs droits. Les obligations légales assureraient un système moderne de coopération pour la supervision des plateformes et garantiraient une application efficace ».
  • « Deuxièmement, il proposerait des règles ex ante couvrant les grandes plateformes en ligne agissant comme des gardiens, qui fixent désormais les règles du jeu pour leurs utilisateurs et leurs concurrents. L’initiative devrait garantir que ces plateformes se comportent de manière équitable et puissent être contestées par les nouveaux entrants et les concurrents existants, afin que les consommateurs disposent du choix le plus large et que le marché unique reste concurrentiel et ouvert aux innovations ».

Peu de géants européens

Les grandes plateformes devront « fournir plus d’informations sur le fonctionnement de leurs algorithmes », a expliqué Margrethe Vestager, vice-présidente de la Commission. Elles « devront nous dire comment elles décident des informations et produits qu’elles nous recommandent, et de ceux qu’elles cachent, et nous donner la possibilité d’influencer ces décisions. Elles devront nous dire qui paye pour les publicités que nous voyons et pourquoi nous avons été ciblés ».

« L’enjeu, c’est l’Europe contre le reste du monde. Dans la guerre sur les données entre les États-Unis et la Chine, soit l’Europe regarde passer les missiles, soit elle décide de s’équiper pour résister », explique Étienne Drouard, avocat en protection des données et cybersécurité au cabinet Hogan Lovells.

Or pour l’instant, il n’existe pas vraiment l’équivalent des GAFAM ou des BATX sur le vieux continent. L’Europe ne compte que trois entreprises technologiques dans le classement Fortune Global 500, contre douze aux États-Unis, cinq en Chine et six à Taïwan et au Japon. En 2019, les entreprises technologiques européennes ont reçu 34,8 milliards de dollars d’investissements en capital, contre 62,5 milliards de dollars investis dans des entreprises asiatiques et 116,7 milliards de dollars dans des entreprises américaines.

Comment apprendre les métiers manuels grâce à la réalité virtuelle ?

Laurent Da Dalto est le fondateur et directeur de l’entreprise Mimbus, qui conçoit des mondes immersifs pour former aux métiers manuels. Les outils pédagogiques se basent sur la réalité virtuelle et la réalité augmentée pour former à une vingtaine de métiers tels que soudeur, électricien, menuisier, etc. Ces dispositifs sont destinés à remplir trois objectifs : sensibiliser le public aux métiers manuels en leur faisant essayer les professions lors de salons par exemple, faire tester virtuellement les métiers afin de détecter les talents et recruter, et enfin, former les apprenants à ces métiers.

Laurent Da Dalto  est également auteur de ressources documentaires chez Techniques de l’Ingénieur à propos des environnements virtuels pour la formation : WOOD-ED TABLE : environnement virtuel pour la formation au geste du menuisier et CS WAVE : la réalité virtuelle pour la formation au soudage. Entretien.

Techniques de l’Ingénieur : Pourquoi vous êtes-vous concentré sur les métiers manuels ?

Laurent Da Dalto : En 2001, j’ai rencontré un professeur de l’AFPA [Agence nationale pour la formation professionnelle des adultes, NDLR] qui m’a fait comprendre qu’il y avait une pénurie des talents dans les métiers manuels. Il y a du travail, mais pas assez de candidats car les métiers manuels souffrent d’une mauvaise réputation. Ils sont associés à des environnements chauds, bruyants, fatigants, et sont présentés uniquement comme des voies secondaires, si les élèves n’arrivent pas à faire mieux. Les nouvelles technologies, et particulièrement la réalité virtuelle, permettent d’attirer de nouveaux profils et de montrer réellement en quoi consistent ces métiers. Avec la RV et la RA, on peut facilement transposer quelqu’un dans un chantier et lui faire ressentir la réalité de ces métiers.

Comment créez-vous vos formations ?

Nous travaillons avec des experts de chaque métier. D’abord, nous rencontrons des formateurs de chaque métier pour comprendre à quels endroits les environnements virtuels pourraient être utiles. Pour prendre l’exemple du métier de soudeur, nous avons vu que le point le plus important sur lequel travailler était le positionnement corporel et la régularité des gestes, donc nous nous sommes concentrés là-dessus. Ainsi, nous avons travaillé les paramètres au millimètre près et fait appel à des ingénieurs, des développeurs, des psychopédagogues pour créer la formation. Ensuite, nous réalisons des tests progressifs, des expérimentations avec les élèves puis nous réévaluons la formation tous les 6 mois – 1 an pour opérer des ajustements si besoin.

Formation en Réalité Virtuelle à la manipulation des fluides frigorigènes /Mimbus

Comment prenez-vous en compte l’environnement parfois difficile de certains métiers comme la chaleur, le bruit, les efforts physiques ?

Le bruit peut être reproduit facilement, en revanche ce qui est plus dérangeant dans l’apprentissage de métiers manuels via le numérique, c’est l’absence de toucher. On utilise des artifices pour compenser avec les autres sens. Par exemple, on peut intégrer des vibrations ou des informations visuelles : du texte en rouge, l’impossibilité d’attraper un objet s’il est trop lourd etc.

Quels sont les éléments favorables à la mise en place d’une formation virtuelle ?

Plusieurs paramètres entrent en jeu pour déterminer si le passage par le virtuel peut être préconisé. Nos technologies sont utiles pour former aux métiers dangereux, comme les menuisiers ou charpentiers qui utilisent des machines très risquées, ou pour les métiers qui ont lieu dans des environnements à risque. Mais aussi lorsqu’il est impossible de mettre en pratique un métier au cours de la formation. Par exemple, pour un laveur de glace sur les tours de la Défense, le virtuel permet de le mettre en situation et de vérifier s’il n’a pas peur. Enfin, un autre paramètre est le prix. Pour une formation de peintre, il existe des peintures automobiles très chères et qui ont un fort impact écologique. Pareillement, pour être soudeur, beaucoup de matière première est utilisée à perte durant la formation, uniquement pour l’apprentissage. Le virtuel permet d’éviter d’acheter des machines et des matières non nécessaires.

Formation en Réalité Virtuelle à l’habilitation électrique en milieu industriel /Mimbus

Quelle place donner aux apprentissages en réel par rapport aux apprentissages virtuels ?

Certains préféreraient tout transposer en virtuel mais je pense que l’apprentissage en réel reste nécessaire, il faut donc trouver la balance entre les deux. Pour donner un exemple, dans un CFA qui forme les opérateurs sur une ligne de production, j’ai pu voir qu’ils avaient le matériel pour réaliser des formations virtuellement, mais également une chaîne de fabrication physique. La clé vient aussi du formateur. Avec le numérique, le travail du formateur évolue et le pilotage de la formation est individualisé. Les formateurs ne sont plus forcément des experts de la discipline, mais plutôt des pédagogues. Un professeur de soudage n’a pas nécessairement besoin d’être lui-même soudeur pour bien former.

Quels sont les avantages à ce type de formation ?

Le virtuel permet de diviser au moins par deux le temps de formation. Les outils permettent de se concentrer sur l’apprentissage actif, ce qui fonctionne bien sur la nouvelle génération. A mon sens, il faudrait même intégrer ces outils très tôt, notamment pour orienter les jeunes vers les métiers manuels lorsqu’ils sont prédisposés à ces professions et pas intéressés par les apprentissages théoriques. Cependant, il ne faut pas oublier que la RV reste un outil, elle ne fait pas tout.

Que reste-t-il encore à améliorer ?

L’inconvénient aujourd’hui réside dans le matériel qui n’est pas encore parfaitement adapté : il est trop lourd et trop cher pour être développé en masse. Même si les prix baissent, il faut quand même un certain budget pour acheter les casques de réalité virtuelle et les ordinateurs adaptés. En outre, il faut apprendre à utiliser ces outils.

Selon vous, comment la pédagogie devrait évoluer ?

Je pense que la pédagogie de demain sera davantage individualisée et connectée. Elle pourrait passer par le téléphone portable car c’est maintenant une expansion de nous-même, et favoriser l’auto-apprentissage à travers des vidéos, des applis ou les réseaux sociaux. Dans ce cas, la place du professeur ou du formateur changerait totalement. Il serait davantage un animateur pédagogique chargé de s’assurer de la progression de l’apprentissage et de l’accès vers des débouchés.

Propos recueillis par Alexandra Vépierre

Retrouvez les ressources documentaires WOOD-ED TABLE : environnement virtuel pour la formation au geste du menuisier et CS WAVE : la réalité virtuelle pour la formation au soudage écrites par Laurent Da Dalto.

Black Friday Solidaire

Pour soutenir les secteurs qui souffrent de la situation particulière actuelle, le Black Friday 2020 de Techniques de l’Ingénieur n’est pas une opération de « vente ».

Pas de réduction, simplement du 27 novembre au 6 décembre, nous vous offrons :

  • 100 crédits CerT.I.  :  les 100 premiers inscrits pourront ainsi ouvrir le module de leur choix et passer leur attestation CerT.I.
  •  plus de 80 articles de référence.

Profitez donc de cette semaine pour découvrir les nouveautés proposées par Techniques de l’Ingénieur et plus particulièrement les articles interactifs ! Les quiz associés à ces articles sont également ouverts.

Pour obtenir votre module CerT.I. gratuitRemplissez ce formulaire

Notre sélection d’article à tester lors de cette semaine spéciale :

(Pour accéder à l’article, cliquez sur le lien puis sur le bouton « Libre Accès » en haut de la page.)

Dans l’offre AUTOMATIQUE ET INGÉNIERIE SYSTÈME :
Intelligence artificielle et diagnostic

Dans l’offre ROBOTIQUE :
Préhension robotique et manipulation dextre

Dans l’offre TECHNOLOGIES BIOMÉDICALES :
Fabrication additive-impression 3D dans le domaine de la santé

Dans l’offre MÉDICAMENTS ET PRODUITS PHARMACEUTIQUES :
Sources actuelles et futures des médicaments

Dans l’offre DROIT ET ORGANISATION GÉNÉRALE DE LA CONSTRUCTION :
Aide à la décision et approche performantielle pour les ouvrages bâtis

Dans l’offre LE SECOND OEUVRE ET L’ÉQUIPEMENT DU BÂTIMENT :
Foudre et protection des bâtiments – Techniques de protection

Dans l’offre LES SUPERSTRUCTURES DU BÂTIMENT :
Les Bétons Auto-Plaçants

Dans l’offre TRAVAUX PUBLICS ET INFRASTRUCTURES :
Conception des ponts – Éléments de dimensionnement des principaux ouvrages

Dans l’offre VIEILLISSEMENT, PATHOLOGIES ET RÉHABILITATION DU BÂTIMENT :
Comportement des structures en béton armé existantes – Corrosion des armatures

Dans l’offre LA CONSTRUCTION RESPONSABLE :
Performance énergétique des bâtiments existants – Études de cas

Dans l’offre MÉCANIQUE DES SOLS ET GÉOTECHNIQUE :
Effets de site sismiques pour les ouvrages de surface

Dans l’offre TECHNIQUES DU BÂTIMENT : PRÉPARER LA CONSTRUCTION :
Préparation d’un chantier BTP sur la construction d’une maison individuelle

Dans l’offre TECHNIQUES DU BÂTIMENT : L’ENVELOPPE DU BÂTIMENT :
Les adjuvants des bétons

Dans l’offre TECHNIQUES DU BÂTIMENT : LE SECOND OEUVRE ET LES LOTS TECHNIQUES :
Évacuation des eaux usées, eaux vannes et eaux pluviales dans une maison individuelle

Dans l’offre ÉLECTRONIQUE :
Cartes à puces – Technologie et cybersécurité

Dans l’offre OPTIQUE PHOTONIQUE :
Propagation guidée de la lumière

Dans l’offre PHYSIQUE ÉNERGÉTIQUE :
Détermination des propriétés thermodynamiques des fluides – Mélanges

Dans l’offre RESSOURCES ÉNERGÉTIQUES ET STOCKAGE :
Intelligence artificielle et gestion intelligente de l’énergie

Dans l’offre THERMIQUE INDUSTRIELLE :
Fluides caloporteurs et frigoporteurs – Définitions. Critères de choix

Dans l’offre FROID INDUSTRIEL :
Transfert de chaleur à basse température

Dans l’offre GÉNIE NUCLÉAIRE :
Physique des réacteurs – Modélisation et évaluation des observables de fission

Dans l’offre CONVERSION DE L’ÉNERGIE ÉLECTRIQUE :
Compensation des courants harmoniques et réactifs par convertisseurs multifonctions

Dans l’offre RÉSEAUX ÉLECTRIQUES ET APPLICATIONS :
Smart Grids : contexte, acteurs et enjeux

Dans l’offre SÉCURITÉ ET GESTION DES RISQUES :
Retour d’expérience technique

Dans l’offre ENVIRONNEMENT :
Introduction au droit de l’environnement industriel

Dans l’offre TECHNOLOGIES DE L’EAU :
Traitement des eaux avant utilisation – Filières et applications

Dans l’offre BRUIT ET VIBRATIONS :
Effet du bruit sur l’homme

Dans l’offre MÉTIER : RESPONSABLE RISQUE CHIMIQUE :
Comment déclarer ses produits sous SYNAPSE (toxicovigilance) ?

Dans l’offre MÉTIER : RESPONSABLE ENVIRONNEMENT :
J’utilise des produits chimiques, comment savoir si cela entraîne un classement ICPE pour mon site ?

Dans l’offre MATHÉMATIQUES :
Analyse numérique des équations intégrales

Dans l’offre PHYSIQUE CHIMIE :
La matière molle

Dans l’offre CONSTANTES PHYSICO-CHIMIQUES :
Caractéristiques des diélectriques liquides

Dans l’offre NANOSCIENCES ET NANOTECHNOLOGIES :
Graphène – Familles, propriétés, applications et modes de production

Dans l’offre RÉSEAUX TÉLÉCOMMUNICATIONS :
Lidars atmosphériques et météorologiques – Lidar rétrodiffusion aérosols nuages (LRAN)

Dans l’offre LE TRAITEMENT DU SIGNAL ET SES APPLICATIONS :
Influence des environnements virtuels

Dans l’offre DOCUMENTS NUMÉRIQUES GESTION DE CONTENU :
Enjeux et risques de la dématérialisation des documents

Dans l’offre TECHNOLOGIES LOGICIELLES ARCHITECTURES DES SYSTÈMES :
Jeux d’instructions : extensions SIMD et extensions vectorielles

Dans l’offre SÉCURITÉ DES SYSTÈMES D’INFORMATION :
Attaques des réseaux

Dans l’offre AGROALIMENTAIRE :
Cacaos et chocolats – Traitement et fabrication

Dans l’offre CHIMIE VERTE :
Synthèses totales bio-inspirées de substances naturelles – Concepts

Dans l’offre OPÉRATIONS UNITAIRES. GÉNIE DE LA RÉACTION CHIMIQUE :
Catalyse hétérogène – Mode d’action des catalyseurs

Dans l’offre FORMULATION :
Microfluidique et formulation – Émulsions et systèmes colloïdaux complexes

Dans l’offre BIOPROCÉDÉS :
Les biopolymères : différentes familles, propriétés et applications

Dans l’offre INDUSTRIE DU FUTUR :
Réalité Virtuelle et Réalité Augmentée pour la conception collaborative

Dans l’offre MANAGEMENT INDUSTRIEL :
Activités internationales de l’entreprise – Prévention et protection contre les risques

Dans l’offre CONCEPTION ET PRODUCTION :
Réalité Virtuelle et Réalité Augmentée pour la conception collaborative

Dans l’offre LOGISTIQUE :
Innovation en logistique et Supply Chain Management (SCM)

Dans l’offre EMBALLAGES :
Droit et pratique des emballages – Normes d’écoconception des emballages

Dans l’offre MAINTENANCE :
Méthodes de diagnostic et de pronostic de défaillance basées sur les modèles physiques

Dans l’offre TRAÇABILITÉ :
Revisiter la traçabilité avec les technologies industrie 4.0

Dans l’offre MÉTIER : RESPONSABLE QUALITÉ :
Audits de systèmes de management – La mise en œuvre

Dans l’offre MÉTIER : RESPONSABLE BUREAU D’ÉTUDE/CONCEPTION :
La Stratégie Make or Buy

Dans l’offre INSTRUMENTATION ET MÉTHODES DE MESURE :
Étude comparative de trois approches d’évaluation des incertitudes : GUM, GUM S1 et globale

Dans l’offre MESURES PHYSIQUES :
Étalonnage d’une balance par les utilisateurs

Dans l’offre MESURES MÉCANIQUES ET DIMENSIONNELLES :
Imagerie laser 3D à plan focal

Dans l’offre CONTRÔLE NON DESTRUCTIF :
Outils de l’intelligence artificielle appliqués au CND

Dans l’offre MESURES ET TESTS ÉLECTRONIQUES :
Mesures électriques des matériaux diélectriques solides

Dans l’offre TECHNIQUES D’ANALYSE :
Pesée minimale : son importance dans un processus d’analyse industriel

Dans l’offre QUALITÉ ET SÉCURITÉ AU LABORATOIRE :
Implantation des postes de travail au laboratoire : prévention des risques

Dans l’offre VÉHICULE ET MOBILITÉ DU FUTUR :
Véhicules automobiles hybrides électriques et leurs motorisations

Dans l’offre SYSTÈMES FERROVIAIRES :
Compatibilité électromagnétique du système ferroviaire – Bases, contexte et référentiels

Dans l’offre SYSTÈMES AÉRONAUTIQUES :
Dimensionnement des trous et des assemblages dans les structures composites

Dans l’offre TRANSPORT FLUVIAL ET MARITIME :
Transport et développement durable

Dans l’offre FABRICATION ADDITIVE – IMPRESSION 3D :
Finition de surface de pièces produites par fabrication additive

Dans l’offre FROTTEMENT, USURE ET LUBRIFICATION :
Tribocorrosion

Dans l’offre FONCTIONS ET COMPOSANTS MÉCANIQUES :
Garnitures mécaniques d’étanchéité – Cas des fluides compressibles et diphasiques

Dans l’offre TRAVAIL DES MATÉRIAUX – ASSEMBLAGE :
Vibrations d’usinage – Comment les identifier et les limiter

Dans l’offre MACHINES HYDRAULIQUES, AÉRODYNAMIQUES ET THERMIQUES :
Turbomachines – Bilan énergétique et applications

Dans l’offre SMART CITY – VILLE INTELLIGENTE :
Logistique urbaine : enjeux, pratiques et perspectives

Dans l’offre INNOVATIONS TECHNOLOGIQUES :
Contrôle de la fatigue des matériaux par émission acoustique

Dans l’offre MANAGEMENT ET INGÉNIERIE DE L’INNOVATION :
R&D collaborative – Manager un projet de recherche et développement en mode collaboratif

Dans l’offre ÉCO-CONCEPTION ET INNOVATION RESPONSABLE :
Le biomimétisme – Infographie

Dans l’offre PLASTIQUES ET COMPOSITES :
REACH : conséquences pour les plastiques et caoutchoucs

Dans l’offre ÉTUDE ET PROPRIÉTÉS DES MÉTAUX :
Métallurgie pour la microélectronique à support silicium

Dans l’offre TRAITEMENTS DES MÉTAUX :
Plans d’expériences et traitements de surface – Étude quantitative des effets et interactions

Dans l’offre MATÉRIAUX FONCTIONNELS :
Polymères rapidement biodégradables

Dans l’offre CORROSION VIEILLISSEMENT :
Corrosion des céramiques

Dans l’offre ÉLABORATION ET RECYCLAGE DES MÉTAUX :
Métallurgie du laminage à chaud des aciers – Application aux aciers faiblement alliés

Dans l’offre MISE EN FORME DES MÉTAUX ET FONDERIE :
Procédés de frittage PIM

Dans l’offre BOIS ET PAPIERS :
Bois énergie – Propriétés et voies de valorisation

Dans l’offre VERRES ET CÉRAMIQUES :
Satinage chimique du verre

Dans l’offre TEXTILES INDUSTRIELS :
Modélisation du procédé de filage textile

Dans l’offre TECHNOLOGIES RADARS ET APPLICATION :
Interférométrie radar

315 scénarios pour une électricité 100% renouvelable en France

Le Cired dévoile les résultats d’une étude parue dans The Energy Journal menée par deux de ses chercheurs et l’un de ses anciens chercheurs, désormais à l’institut I4CE. Ils ont développé un modèle open source pour la France continentale basé sur des données publiques, afin d’explorer le mix optimal de production et de stockage 100 % renouvelable capable de satisfaire la demande électrique heure par heure en 2050.

« Nous avons différents moyens de produire l’électricité : l’éolien maritime et terrestre, du solaire photovoltaïque, trois types d’hydrauliques – de lacs, au fil de l’eau et des stations de transfert d’énergie par pompage – du biogaz, de l’électrolyse pour produire de l’hydrogène qui combiné avec du CO2 produit du méthane de synthèse par méthanation, utilisé dans des turbines à gaz, et des batteries stationnaires », détaille Philippe Quirion, chercheur CIRED-CNRS et co-auteur de l’étude. Ces technologies suffisent à assurer un mix 100 % renouvelable en 2050.

Un coût du système électrique stable quel que soit le mix

L’ensoleillement et les vents étant difficilement prévisibles à l’horizon 2050, les profils horaires éolien et photovoltaïque reposent sur 18 années de données météorologiques historiques (2000-2017) issues de la Nasa et de la littérature scientifique. Le modèle se base sur le profil de consommation électrique horaire du scénario central de l’Ademe pour 2050.

« Le mix électrique optimal est très dépendant des coûts supposés pour 2050, ce qui peut expliquer les débats portant sur les technologies, souligne Quentin Perrier, chercheur au I4CE, ex-CIRED, et co-auteur de l’étude. Cela dépend parfois des hypothèses de coût et les optimisations sont assez sensibles à cela ». Si le mix électrique est variable, le coût total du système électrique reste toutefois stable.

Le scénario central de coût, se basant sur les projections du centre de recherche de la commission européenne (JRC) pour l’année 2050, prévoit un parc optimisé constitué à 46 % d’éolien sur terre, 31 % de PV, 11 % d’éolien offshore, 3 % de biogaz, 3 % d’hydraulique de lac et 6 % d’hydraulique de rivière. Quel que soit le scénario, le coût moyen de l’électricité oscille autour de 52 euros par mégawattheure, un coût proche de l’actuel. Philippe Quirion explique : « Le coût du système électrique est peu sensible aux coûts des technologies. Ces technologies sont largement substituables. Si par exemple le photovoltaïque s’avère être plus cher que ce que l’on pensait, on peut faire plus d’éolien et vice-versa. »

Choisir un système électrique sur la base d’une anticipation erronée des coûts n’entraîne qu’un regret de 4 %. En ce sens, Quentin Perrier prévient : « Mon message en matière de politiques publiques : il ne faut pas forcément attendre en cherchant le mix optimal parce que la bonne question est davantage de savoir comment on développe les investissements dans ces différentes filières pour avancer. »

Le coût du stockage n’est pas du tout prohibitif

Le modèle repose sur trois moyens de stockage d’énergie : des batteries, la méthanation et les stations de transfert d’énergie par pompage (STEP). Ce stockage n’impacte pas tant le coût du système électrique. « Ce coût se répartit à 85 % dans les moyens de production et 15 % dans les moyens de stockage », prévient Philippe Quirion. « On entend beaucoup de messages qui disent que si l’on met que des énergies renouvelables variables, le coût de gestion va exploser, complète Quentin Perrier. Ce n’est pas ce que l’on observe : le coût du stockage reste entre 15 % et 23 % suivant les scénarios. »

Les chercheurs ont volontairement retenu des hypothèses pessimistes. « D’une part, on s’interdit les importations et les exportations d’électricité, ce qui pénalise l’équilibre économique, prévient Philippe Quirion. De l’autre, on s’interdit la flexibilité de la demande aux fluctuations de la production, ce qui est important pour un système basé sur les énergies renouvelables ». En ce sens, ils estiment que leurs projections de coûts restent conservatrices.

Un outil en ligne pour tester les différents scénarios

Quentin Perrier explique l’utilisation de l’outil interactif mis en ligne pour accompagner la sortie de l’article. « En fonction des hypothèses de coûts sur les différentes technologies que vous rentrez, l’outil calcule le mix électrique optimal à partir d’énergies renouvelables pour la France en 2050 sur la production et le stockage selon les 315 scénarios de coûts ».

Philippe Quirion complète : « Le modèle choisit le parc d’investissement dans les moyens de production et de stockage et le fonctionnement de ce parc qui permet de satisfaire la demande d’électricité pour chaque heure de l’année sans aucun délestage, c’est-à-dire sans demande non satisfaite ».

La 6G déjà dans les étoiles avant d’être sur Terre

Nice est la première ville de France à être couverte par la 5G et l’opérateur SFR. Pendant ce temps-là, la Chine expérimente la 6G dans l’espace. Début novembre, une fusée Longue Marche-6 a mis sur orbite différents satellites, dont un dédié à cette nouvelle génération.

Développé conjointement par Chengdu Guoxing Aerospace Technology, l’Université des sciences et technologies électroniques de Chine (UESTC) et Beijing MinoSpace Technology, ce satellite (appelé Tianyan-5) permettra de vérifier les performances de la technologie 6G dans l’espace, car sa bande de fréquence s’étendra de la fréquence des ondes millimétriques 5G à la fréquence Térahertz.

En théorie, la 6G offrirait des débits 100 fois plus rapides que ceux de la 5G. «  Ces dernières années, plusieurs équipes dans le monde, dont la nôtre, ont montré qu’il était possible d’obtenir en laboratoire un débit de 100 Gbit/s avec des émetteurs THz délivrant des ondes de 300 GHz environ. En parallèle, en gagnant en puissance, on est parvenu à envoyer des données, certes à un débit inférieur, mais sur un kilomètre au lieu de quelques dizaines de mètres en laboratoire. Tout porte à croire que la transmission sans fil de données à très haut débit sur une longue distance est pour bientôt », avance Guillaume Ducournau, de l’Institut d’électronique, de microélectronique et de nanotechnologie.

Sans danger pour le vivant ?

Selon les Chinois, elle permettrait une transmission sans perte dans l’espace (pourtant, la perte augmente avec les fréquences plus élevées) pour réaliser des communications longue distance. Inférieure à 0,1 ms, la latence serait également utile pour la médecine et plus particulièrement les interventions chirurgicales à distance.

Découvertes au début du XXe siècle, les ondes électromagnétiques térahertz ont une fréquence comprise entre 0,1 et 10 THz. Elles sont situées entre les micro-ondes et la lumière infrarouge. Mais des études plus précises ont été entamées il y a une quinzaine d’années.

« Comme les micro-ondes, elles possèdent un fort pouvoir pénétrant leur permettant de traverser des matériaux comme les vêtements, le bois, le plastique. Et comme la lumière visible, elles se laissent focaliser, pouvant révéler des détails fins, de l’ordre du millimètre, voire moins. Enfin, comme l’infrarouge et à l’inverse des rayons X, elles sont non ionisantes, et donc a priori sans danger pour le vivant », explique Éric Freysz, du Laboratoire ondes et matière d’Aquitaine (CNRS).

Mais la technologie 6G n’en est encore à ses débuts. Elle doit surmonter plusieurs obstacles techniques en matière de recherche fondamentale, de conception du matériel et d’impact environnemental avant d’être commercialisée, selon un livre blanc publié par l’université finlandaise d’Oulu.

Différentes recherches sont menées dans le monde pour optimiser les différents composants. C’est le cas d’une nouvelle puce en silicium, décrite dans un article paru dans Nature Photonics par une équipe de l’université d’Osaka et de l’université technologique de Nanyang à Singapour. L’équipe a pu transmettre des données à 11 Gbit/s, sans erreur.

Il est encore trop tôt pour savoir quelles technologies seront concernées par la 6G. Mais une chose est sûre : les bandes de fréquence devront être élargies pour permettre des débits de données de classe térabits.

Un autre livre blanc sur la 6G, publié par la société japonaise NTTDoCoMo, estime que la 6G ne sera disponible que vers 2030, soulignant que les générations mobiles ont jusqu’à présent été espacées d’environ 10 ans ; nous avons eu la 3G au début des années 2000, la 4G en 2010 et la 5G en 2020.

Dépolluer les milieux grâce aux plantes exotiques envahissantes

Les plantes exotiques envahissantes, dépréciées pour leur capacité à coloniser des milieux, présentent un intérêt dans le domaine de la dépollution. En effet, elles sont capables de stocker dans leurs racines des métaux présents dans les milieux aquatiques. Grâce à la compréhension de ce mécanisme, le laboratoire de chimie bio-inspirée et d’innovations écologiques (ChimEco/CNRS/Université de Montpellier) a mis au point un filtre constitué de plantes exotiques envahissantes mortes capables d’emprisonner les métaux contenus dans les effluents. Ce filtre est ensuite valorisé en écocatalyseur, l’innovation brevetée du laboratoire. La start-up BioInspir a d’ailleurs été créée en janvier 2020 pour industrialiser ces solutions. Le laboratoire travaille en partenariat avec la Compagnie Nationale du Rhône pour les plantes aquatiques, le syndicat mixte des bassins versants du Gardon, Klorane Botanical Foundation des laboratoires Pierre Fabre, ainsi que la fondation Suez.

Les plantes exotiques invasives permettent de dépolluer les milieux.

Nous avons échangé avec Claude Grison, directrice de ChimEco et directrice scientifique de BioInspir, pour mieux comprendre le mécanisme de dépollution des plantes et son intérêt pour l’environnement.

Techniques de l’Ingénieur : Pouvez-vous nous présenter les travaux du laboratoire ChimEco ?

Claude Grison : Nous ciblons trois grands objectifs écologiques complémentaires : dépolluer les sols, l’eau et réfléchir à une meilleure gestion de la multiplication des espèces exotiques envahissantes, animales ou végétales. Dans chaque cas, nous développons des solutions basées sur les mécanismes de défense et d’adaptation des plantes à leur environnement. Nous étudions tout particulièrement les plantes capables de s’adapter au stress métallique.

Quelles sont les spécificités de ces plantes ?

Certaines d’entre elles ont développé des capacités très spécifiques d’accumulation de polluants. Elles sont à la base de phytotechnologies de remédiation, que nous développons à grande échelle. Une originalité de nos travaux est d’avoir pu montrer que les plantes qui stockent les polluants, qu’elles soient mortes ou vivantes, ne deviennent pas de nouveaux déchets. Elles sont transformées en écocatalyseurs qui vont remplacer les catalyseurs classiques issus de la filière conventionnelle, l’extraction minière, activité qui a un impact considérable sur l’environnement : impacts paysagers, perte de biodiversité, déstockage de carbone, production massive de déchets miniers, érosion des sols et pollution des systèmes aquatiques.

Pourquoi ne pas utiliser les plantes vivantes directement ?

L’utilisation de plantes vivantes nécessiterait de lourdes infrastructures avec de larges bassins. Les filtres végétaux sont basés sur l’utilisation de plantes mortes. Ils permettent de développer un procédé beaucoup plus performant, rapide, sobre et industrialisable. BioInspir a été créé pour réaliser un développement industriel de ces résultats. Notre filtre végétal est composé de plantes aquatiques envahissantes, largement présentes en Occitanie ainsi que dans la vallée du Rhône et les pays de la Loire. Le réchauffement climatique facilite leur expansion. Dans la mesure où ces plantes sont envahissantes, il n’est pas envisageable de les utiliser vivantes. Les gestionnaires des bassins versants sont contraints de fournir de gros efforts pour contrôler leur développement, en les récoltant massivement sur le terrain afin qu’elles n’étouffent pas la vie aquatique.

Ces filtres se présentent sous quelle forme ?

Les filtres se présentent sous la forme d’une poudre dont la granulométrie est contrôlée, et qui ressemble à du sable. Cette poudre est introduite dans de vastes colonnes que l’on installe in natura, à proximité du site à dépolluer, comme dans le Gard par exemple. On pompe l’eau contaminée, qui traverse alors ces colonnes remplies. Les polluants sont retenus et l’eau est dépolluée. Si elle répond aux normes environnementales, elle peut être rejetée dans l’environnement. Une seconde possibilité est de travailler en batch, dans de vastes réacteurs chimiques, pour traiter directement les eaux issues des procédés chimiques, avant tout rejet. Une troisième solution consiste à se déplacer sur des endroits stratégiques pour dépolluer l’eau. Nous avons ainsi construit un pilote mobile, que l’on utilise régulièrement dans la vallée de l’Orbiel près de Salsigne. Dans les deux premiers cas, nous gardons la poudre chargée en métaux pour la valoriser dans notre procédé d’écocatalyse.

Pouvez-vous nous expliquer ce qu’est cette écocatalyse ?

L’écocatalyse est un nouveau concept de la catalyse chimique. Les catalyseurs permettent d’accélérer la vitesse de réactions lentes et difficiles. Ils ne sont pas transformés lors de la réaction ; ils la facilitent.

Au lieu de produire des catalyseurs conventionnels qui dérivent de l’extraction minière et d’un traitement métallurgique, les écocatalyseurs sont d’origine végétale. Ils dérivent d’un effort de dépollution par une solution écologique : les plantes et les poudres végétales qui en dérivent phytoaccumulent les éléments métalliques. Ainsi, au lieu d’extraire des minerais au prix de lourds impacts environnementaux, notre action consiste à restaurer des écosystèmes dégradés et pollués. Le préfixe « éco » rappelle que les écocatalyseurs résultent de cet effort écologique.

Ces écocatalyseurs sont-ils vendus aux entreprises ?

Dans la mesure où les écocatalyseurs dérivent de plantes, ils possèdent une structure et une réactivité nouvelles. Ainsi, nous préférons vendre les molécules préparées avec des écocatalyseurs, plutôt que les écocatalyseurs eux-mêmes. Ce sont de nouveaux matériaux, dont nous avons appris à maîtriser et exploiter le potentiel en synthèse, mais il n’est pas connu de nos partenaires. De plus, nous les engageons dans des stratégies nouvelles de la chimie organique, dont l’objectif est de n’avoir aucun intrant chimique, aucune empreinte environnementale. Enfin, les filtres végétaux nous permettent de recycler les écocatalyseurs, y compris lorsqu’ils sont solubles dans le milieu réactionnel. BioInspir développe un modèle économique clair : la chimie de synthèse écocatalysée doit être la force motrice des efforts écologiques en supportant les coûts financiers de la dépollution.

Justement, sont-ils meilleurs que les catalyseurs conventionnels ?

Nous avons revisité tous les grands mécanismes de la chimie organique. Un grand nombre de réactions sont améliorées par les écocatalyseurs. Un de leurs points forts est leur composition polymétallique. Elle est idéale pour catalyser les réactions dites en cascade, ou encore les réactions multicomposants. Les écocatalyseurs possède une structure originale et une morphologie qui permet une très bonne dispersion du métal de transition. Ils sont ainsi utilisés en quantités très faibles. Par exemple, les écocatalyseurs fonctionnent avec des traces de palladium.

Et c’est un avantage considérable ?

Le palladium est très utilisé dans l’industrie pharmaceutique pour produire des médicaments. Il l’est également dans la catalyse automobile, dans les pots d’échappement des véhicules à moteurs à essence ou hybrides. Le passage des moteurs diesel au profit des moteurs à essence et hybrides s’est traduit par une forte demande en palladium pour assurer la production des pots catalytiques plus riches en cet élément. Les ressources en palladium sont principalement concentrées en Afrique du Sud et en Russie. Il y a une forte pression sur la demande qui est difficile à satisfaire. Le cours du palladium a ainsi explosé : il est aujourd’hui plus cher que l’or. Il est donc très utile de développer des réactions catalysées avec très peu de palladium. Les écocatalyseurs le permettent.

Et ce palladium est nécessaire ?

C’est une catalyse incontournable dans les procédés modernes de construction de molécules aromatiques complexes. Ces méthodologies ont remplacé d’anciennes méthodes qui avaient une forte empreinte environnementale. Le palladium est peu toxique, mais malheureusement, il coûte de plus en plus cher. C’est pourquoi nous avons étudié une méthode de recyclage efficace avec les poudres végétales. Les poudres gorgées de palladium sont ensuite transformées en un éco-palladium que l’on utilise dans diverses réactions. Quand la réaction est terminée, le palladium est à nouveau recyclé. Le procédé peut être étendu aux terres rares.

Existe-t-il des limites aux filtres et aux écocatalyseurs ?

Les filtres végétaux permettent de séquestrer de nombreux métaux stratégiques (palladium, rhodium, platine, scandium, cérium, ytterbium, lanthane…), primaires (cobalt, cuivre, manganèse, nickel, zinc, fer) et toxiques (arsenic, cadmium, plomb, …). Les possibilités dépassent largement le cadre de nos travaux précédents concernant les plantes terrestres hyperaccumulatrices de métaux. Dans ce dernier cas, les plantes sont capables d’extraire essentiellement les métaux primaires. Les limites sont celles de l’adaptation naturelle des plantes terrestres hyperaccumulatrices. Les filtres végétaux fonctionnent sur un principe différent qui relève de lois physicochimiques bien établies, les lois de l’adsorption. L’éventail des possibilités est donc beaucoup plus large.

Comment utiliser un retour d’expérience ?

Extrait de l’article Retour d’expérience technique par André LANNOY

Dans le domaine industriel, le retour d’expérience intervient à tous les stades de la vie d’un produit ou d’une installation, de l’avant-projet sommaire à la fin de vie, en passant par l’avant- projet détaillé, la réalisation, la mise en service, l’exploitation.

L’expérience acquise au cours de ce cycle de vie est naturellement reconduite, pour la définition de nouveaux produits ou de nouvelles installations. Au cours de toutes ces phases, l’utilisation des banques de données de retour d’expérience est un facteur d’optimisation :

  • au niveau du respect des critères de sécurité, pour ce qui concerne la fiabilité des matériels, l’analyse des événements d’exploitation, les procédures de maintenance des matériels et d’exploitation ;
  • sur le plan de l’amélioration de la qualité des équipements et de leur durée de vie ;
  • afin de vérifier les critères économiques associés à la disponibilité, au contrôle, à la maintenance des matériels et à l’approvisionnement des pièces de rechange.

Le retour d’expérience est un processus d’amélioration continu, une composante importante au service du management.

Constituer une base de données

Certains de ces objectifs peuvent se révéler contradictoires. Il est donc important d’identifier précisément ce que l’on recherche avant de constituer une banque de données de retour d’expérience et de réaliser les outils d’accès et de traitement qu’il faudra lui associer. On peut ainsi distinguer différents types de bases de données dans le domaine industriel :

  • les banques d’événements à caractère historique, associant des faits techniques ou humains (événements, incidents, accidents, etc.) au temps, et qui concernent plutôt les situations d’exploitation dans les installations ;
  • les banques de défaillances qui nécessitent le recueil de défaillances, de dégradations, d’actions de maintenance et de statistiques de fonctionnement, et qui concernent toutes les situations relatives aux matériels ;
  • bien d’autres banques encore (de contrôle, surveillance, statistiques, connaissances, etc.) dont le traitement ne fait pas l’objet de cet article.

Ces banques contiennent des informations brutes de retour d’expérience, relatant l’événement ou la défaillance. Ces informations peuvent être structurées : elles sont codées ou narratives, faisant l’objet d’un texte libre écrit en langage naturel. Ces informations sont essentielles dans les perspectives de bonne gestion du cycle de vie, d’optimisation de la maintenance et d’évaluation probabiliste de la sûreté.

Les utilisateurs comme premiers bénéficiaires

Le retour d’expérience est tout d’abord un outil utile aux ingénieries locales des sites industriels (exploitation, conduite, maintenance, sûreté). Si le site est, bien évidemment, responsable de la rédaction des faits techniques, de leur vérification et donc de la qualité des informations (il est propriétaire des données), il est aussi le premier bénéficiaire d’un retour d’expérience qui l’aidera dans la maîtrise de ses propres enjeux.

Il bénéficie également aux ingénieries centrales, nationales, en particulier pour actualiser les politiques nationales de sûreté et de maintenance et anticiper les problèmes génériques liés aux installations et aux matériels.

Les concepteurs et les chercheurs sont également de grands bénéficiaires d’un retour d’expérience de qualité, dont l’analyse permet de prévoir les problèmes, de développer des actions afin d’y remédier et de les éviter dans le futur. Dans ce sens, le retour d’expérience est un outil d’anticipation et de prospective.

Enfin, le retour d’expérience permet aux décideurs de définir, calculer et suivre l’évolution d’indicateurs de management (production, coûts, taux d’accidents du travail, etc.).

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 décembre 2020 !

Retour d’expérience technique par André LANNOY

Apple pris en flagrant délit de mensonge sur la protection de la vie privée ?

Le discours d’Apple est clair : « Gatekeeper effectue des contrôles en ligne pour vérifier si une application contient des logiciels malveillants connus et si le certificat de signature du développeur est révoqué ».

Par défaut, MacOs Catalina et les versions ultérieures exigent en effet que les logiciels soient « notariés », afin que vous puissiez être sûr que les logiciels que vous exécutez sur votre Mac ne contiennent pas de logiciels malveillants connus. Avant d’ouvrir pour la première fois un logiciel téléchargé, macOS vous demande votre accord pour s’assurer que vous n’êtes pas induit en erreur en exécutant un logiciel auquel vous ne vous attendiez pas.

Or, selon le chercheur en sécurité Jeffrey Paul, Gatekeeper récupère votre adresse IP, vérifie les certificats développeurs (leur signature) et, en croisant tout cela, pouvait grosso modo savoir où vous étiez, quand et quelles applications vous lanciez à ce moment-là.

Ces affirmations ont été ensuite sérieusement tempérées par l’un de ses pairs, Jacopo Jannone. Apple a rapidement réagi en précisant : « Nous n’avons jamais combiné les données issues de ces contrôles avec des informations sur les utilisateurs d’Apple ou leurs appareils. Nous n’utilisons pas les données issues de ces contrôles pour savoir ce que les utilisateurs individuels lancent ou exécutent sur leurs appareils ».

Collecte des adresses IP

« Il semble en effet que les services notariaux d’Apple n’envoient pas d’informations sur l’application, mais envoient plutôt des informations sur le certificat de développeur utilisé pour les signer (ce qui est plus logique étant donné la façon dont son OSCP « Online Certificate Status Protocol » fonctionne). Cela signifie qu’Apple peut savoir, par exemple, que vous avez lancé une application de Mozilla, mais ne peut pas nécessairement dire si vous avez lancé Firefox ou Thunderbird. Si un développeur ne signe qu’une seule application, bien sûr, on peut établir une corrélation entre le certificat et l’application », explique Tristan Nitot, ancien Président de Mozilla Europe et ancien DG de Qwant et auteur du livre « surveillance:// ».

Par ailleurs, Apple collectait bien les adresses IP mais la marque a cessé de le faire et assure qu’elle va purger de ses bases celles déjà stockées. Elle a aussi actualisé une fiche d’explications sur Gatekeeper (sa version française n’a pas encore été complétée) et ajouté des précisions sur le volet « vie privée » de ce mécanisme de vérification.

« Dans cette affaire, c’est difficile de savoir si c’est intentionnel ou pas, mais je pense que c’était une erreur de la part d’une grosse entreprise comme Apple qui commence à multiplier les lignes de produits et qui, pour tenir les délais, va au plus simple. D’où des boulettes. Précisons qu’avec Android, c’est pire ; c’est une catastrophe pour la protection de la vie privée. De façon générale, renforcer la protection de la vie privée est parfois plus difficile techniquement, car il faut notamment retravailler les algorithmes pour qu’ils soient plus compliqués et mettre en place notamment une infrastructure particulière », précise Tristan Nitot.

L’affaire Cambridge Analytica

Cette affaire remet en lumière la problématique de l’exploitation des données personnelles par les entreprises et en particulier les GAFAM. Et Apple est également concerné puisque le 19 novembre, l’Autrichien Max Schrems (célèbre défenseur de la protection de la vie privée) et l’organisation Noyb (acronyme de « none of your business », un groupe de défense des droits numériques basé à Vienne), ont déposé une plainte contre Apple auprès des autorités espagnoles et berlinoises. Ils accusent la marque d’utiliser les données des utilisateurs d’iPhone sans leur consentement.

« L’exploitation des données personnelles n’est pas toujours bien perçue par le grand public. Il ne s’agit pas juste d’afficher des publicités ciblées. Ces informations peuvent être utilisées à des fins électorales, comme ce fut le cas aux États-Unis avec l’affaire Cambridge Analytica », rappelle Tristan Nitot.

À suivre…

« La maîtrise des risques passe par la connaissance des évènements et le partage des expériences »

Créée en 1953, Gesip est une organisation experte en sécurité industrielle, qui fédère plus de soixante entreprises collaborant pour améliorer la prévention et la sécurité des sites industriels et logistiques.

Aujourd’hui Gesip propose des formations, des audits, des guides techniques et des prestations de service aux professionnels de l’industrie et logistique visant à améliorer leurs performances en termes de sécurité.

Hélène Moumrikoff, déléguée générale de Gesip, a expliqué aux Techniques de l’Ingénieur comment s’articule cette démarche d’amélioration continue, notamment à la lumière des évolutions réglementaires actuelles.

Gesip partage d’ailleurs son expertise avec l’administration dans le cadre de ces nouvelles réglementations, qui seront progressivement mises en place à partir de janvier 2021.

Techniques de l’Ingénieur : Quels sont les services proposés par Gesip autour de la prévention du risque sur les sites industriels ?

Hélène Moumrikoff : Nous concentrons notre mission sur l’expertise en entreprise et la formation en situation réelle. Gesip accompagne aussi de nombreuses entreprises en missions d’audit et de conseil pour l’élaboration et l’évaluation de plans d’urgence, de systèmes de management de la sécurité et d’installations de défense incendie. Nous œuvrons dans le domaine de la maîtrise des risques toxiques, incendie, explosion et la gestion de crise. Notre vocation est de contribuer à améliorer les performances sécurité et de promouvoir une culture HSE forte.

Comment s’articule la demande de vos clients pour garantir la sécurité de leurs sites industriels ?

La maîtrise des risques passe par la connaissance des évènements et le partage des expériences. C’est ce que nous favorisons au sein de notre organisme. Gesip renforce la sécurité industrielle par la transmission des savoirs grâce à la formation et l’expertise. Dans le cadre de nos missions d’audit et de conseil, l’actualité, les mises à jour réglementaire, les innovations techniques guident les demandes de nos clients et adhérents.

Prenons l’exemple du POI (plan d’opération interne) : il est destiné à gérer et encadrer les situations de crise. Il définit l’organisation, les méthodes d’intervention, d’information des autorités et les moyens nécessaires, en cas d’accident, pour le maîtriser, protéger les personnes, les biens et l’environnement.

Les sites SEVESO seuil haut et bientôt seuil bas ainsi que ceux désignés par arrêté préfectoral doivent établir un POI avant la mise en service de leur site. Ainsi, chaque industriel concerné est dans l’obligation d’appliquer un POI adapté à sa structure. Une mise à jour doit être faite tous les 3 ans et des tests réalisés tous les ans pour les sites SEVESO seuil haut. Les industriels devront en particulier mettre à jour leur POI et GESIP les accompagne dans cette démarche.

Comment l’évolution des réglementations a-t-elle fait évoluer vos missions ces dernières années ?

Nous travaillons avec les industriels dans le cadre de groupes d’échange et d’étude, au sein desquels Gesip recueille les positions des meilleurs experts sur les sujets de sécurité industrielle au cœur de l’actualité.

Reconnue par les autorités, l’expertise et la neutralité de Gesip permettent de retrouver nos guides méthodologiques cités comme références dans des textes règlementaires. C’est par exemple le cas pour ceux concernant les POI ou les pipelines.

Dernièrement, Gesip a également été sollicité par plusieurs syndicats professionnels pour élaborer un guide technique, « Accès des véhicules ADR à motorisation GNL/GNC au poste de chargement/déchargement de marchandises dangereuses ».

Nous participons actuellement aux consultations, menées par le ministère de la transition écologique et solidaire, sur les projets de modification des six arrêtés des textes ministériels, qui encadrent l’utilisation et le stockage des liquides inflammables.

Pourriez-vous nous donner un exemple concernant une évolution réglementaire et la façon dont Gesip l’appréhende ?

Dans le domaine des émulseurs, Gesip dispose d’un protocole de test agréé suivant l’arrêté du 3 octobre 2010 modifié, qui est reconnu par l’administration pour sélectionner des émulseurs particulièrement performants.

L’équipement des installations incendies avec de tels émulseurs permet à la fois à l’industriel de s’assurer de l’efficacité de ses moyens de défenses contre l’incendie tout en diminuant substantiellement ses quantités d’émulseurs stockés.

La réglementation concernant des émulseurs va être modifiée en lien avec l’évolution des connaissances technologiques et environnementales. En effet les émulseurs à base de fluor contiennent des surfactants fluorés qui permettent l’insertion d’un film entre la mousse et le liquide enflammé. Celui-ci permet à la fois une meilleure couverture et une progression plus rapide de la mousse. Aujourd’hui, ils sont donc les plus performants en extinction. Néanmoins, il est devenu évident que les composés perfluorés tels que le PFOS et le PFOA sont extrêmement persistants dans l’environnement et des études toxicologiques ont établi un lien entre ces substances chimiques et la survenue d’effets néfastes graves sur la santé de l’être humain. Ces produits et substances associés ont été introduits dans la liste des polluants organiques persistants dont l’utilisation doit être progressivement abandonnée. Ces molécules ont été peu à peu remplacées par des composés perfluorés à chaîne plus courte, qui ne font pour l’instant l’objet d’aucune restriction, mais il est probable que cela finisse par être le cas.

Pour cette raison, les fabricants d’émulseurs anti-incendie investissent dans le développement de nouveaux émulseurs sans fluor améliorés. Il s’agit d’un grand défi, car les domaines à haut risque tels que l’industrie chimique et pétrochimique ont besoin de disposer d’émulseurs aux meilleures performances. À l’heure actuelle, les fabricants mettent au point de nouvelles générations d’émulseurs sans fluor hautement performants et adaptés pour diverses applications.

Avant d’être mis sur le marché, ces nouveaux émulseurs doivent être testés sur des feux réels dans des conditions les plus proches possibles de la réalité. Or, à ce jour, il n’existe pas dans le monde, d’infrastructure permettant de tester leur efficacité sur des feux réels de grande dimension. Dans le but de toujours améliorer la sécurité industrielle, Gesip a construit une cuvette de 300 m² destinée à tester l’efficacité de ces nouveaux émulseurs dans ses installations basées sur son site de Vernon.

Les dimensions hors norme de cette cuvette de 50 mètres de long sur 6 mètres de large permettront d’étudier la progression de ces nouvelles mousses sur de grandes distances en présence ou non d’obstacle afin de simuler des scénarios de feu de nappes représentatifs. Cette cuvette permettra aussi de tester de nouveaux matériels d’extinction sur de grands feux.

Vous parliez tout à l’heure des réglementations mises en place depuis Lubrizol. Gesip a apporté son expertise à l’administration dans la préparation de ces réglementations. Pouvez-vous nous en parler ?

Un retour d’expérience a été fait sur l’incendie survenu il y a plus d’un an : un travail important d’analyse a été réalisé par différentes sociétés, mais aussi à travers l’enquête de la commission sénatoriale. Ces événements, aussi regrettables soient-ils, constituent la source d’un apprentissage et de nouvelles connaissances. Les industriels s’approprient l’ensemble de ces connaissances et l’administration fait évoluer les textes réglementaires.

Gesip se positionne toujours sur un plan technique. Ces textes réglementaires sont rédigés par l’administration française, et comme cela se fait régulièrement sur des sujets techniques comme celui-ci, les syndicats professionnels sont sollicités pour la relecture de ces textes. Gesip peut également être sollicité, si le sujet du texte fait partie de notre champ d’expertise.

Il est important de noter que l’amélioration de la sécurité industrielle et les évolutions réglementaires se font de façon continues même si cela est mis plus en lumière lors d’incident fortement médiatisé.

Quelle est votre mission ?

Notre rôle est de participer à la relecture de ces textes et s’assurer de leur bonne compréhension par les industriels. Nous avons été associés pour ce travail, ce qui nous a permis de répondre aux interrogations des industriels que nous fédérons. La situation était particulière, il faut bien le reconnaître : l’administration française à souhaiter avancer le plus rapidement possible sur les évolutions réglementaires pertinentes, à la lumière de ces nouvelles connaissances. Ceci, afin de répondre aux attentes fortes de la population.

Concrètement, les syndicats professionnels – Gesip, le Medef, entre autres – se sont coordonnés de façon extrêmement rapide pour procéder à la lecture de ces textes et transmettre les questions à l’administration pour qu’elle puisse y répondre directement. Nous avons entre autres pour mission de faire remonter à l’administration des suggestions, qu’elle est libre de retenir, ou pas, puisqu’elle reste totalement maîtresse de décider ce qu’elle entend faire.

Quoi qu’il en soit un dialogue se met en place : nous avons eu beaucoup de réunions avec les différents représentants de la DGPR, pour travailler à la compréhension de ces textes, et actuellement nous sommes en cours de rédaction d’un guide méthodologique.

A l’issue de ce travail, qui n’est pas terminé, nous mettrons en place des formations à distance ou en présentiel, en fonction des conditions sanitaires, pour donner une compréhension et une explication orale des points les plus importants dans le cadre de ces changements.

L’accident de Lubrizol a également fait émerger un besoin d’accès à l’information plus important venant des riverains, et des populations alentour. Comment améliorer ce point ?

La communication avec les riverains existait déjà dans le cadre de la prévention des risques, mais les évolutions technologiques doivent nous conduire à repenser ces transferts d’informations. Je donne un exemple : il y a 20 ans, tout le monde n’était pas équipé d’un téléphone portable. Aujourd’hui on peut trouver plusieurs smartphones dans chaque foyer, on peut donc tout à fait imaginer des moyens de communications plus rapides – envois de SMS massifs, l’usage des réseaux sociaux. Ce sont toutes ces nouveautés qu’il nous faut pouvoir intégrer à la communication actuelle avec les riverains, en particulier l’aspect instantané.

Ensuite se pose la question : qui doit communiquer, quand ? Nous ne sommes plus dans une communication telle qu’on a pu connaître précédemment, ou finalement la première information à laquelle le grand public avait accès était le soir au journal télévisé.

Aujourd’hui, nous devons choisir les bons modes de communication, les bonnes cibles, et préparer, répertorier les informations, pour les utiliser efficacement.

Propos recueillis par Pierre Thouverez

Crédits image de une : Annie Gozard

Ransomwares : un business très rentable

« Alerte générale » criait le commissaire Gibert dans les films Taxi. C’est la situation dans laquelle se trouvent de nombreuses entreprises et groupes internationaux. En cause, les ransomwares (ou rançongiciels) qui paralysent plus ou moins totalement leurs activités pendant une quinzaine de jours en moyenne selon Coveware (une entreprise américaine, spécialisée dans la récupération de rançons).

Une fois installés dans le réseau informatique d’une entreprise, ces codes malveillants chiffrent toutes les données. À partir de ce moment-là, ce sont les pirates qui ont la main : ils exigent que la victime paie une rançon pour récupérer ses données. Une rançon qui devient de plus en plus élevée…

Au cours du deuxième trimestre de cette année, le montant moyen des paiements s’élevait à presque 178 000 dollars, soit plus de 60 % de plus que le montant indiqué par Coveware pour le premier trimestre 2020. Au troisième trimestre de 2019, la moyenne était de 40 000 dollars…

Cette technique d’attaque n’est pas récente. Mais elle a pris de l’ampleur depuis la pandémie. L’explosion du nombre de ces opérations malveillantes s’explique notamment par le fait qu’elles sont « extrêmement rentables ; la rentabilité peut atteindre les 500 % ! Résultat, il y a une aspiration vers cette pratique avec tout un écosystème », explique un expert qui préfère rester anonyme.

Une répartition des cibles

« Certains gangs se sont spécialisés dans les attaques contre les grands groupes, car l’attaque peut rapporter très gros, mais en contrepartie elle nécessite des compétences et plus de temps (quelques mois) pour percer la muraille de l’entreprise. D’autres groupes préfèrent s’attaquer à des entreprises un peu plus petites ; ça rapporte moins, mais plus souvent. D’autres groupes ont monté des plateformes pour vendre leurs services clés en main et prélever 30 % sur les rançons récupérées. Enfin, il y a des groupes spécialisés dans la revente d’accès (pour quelques dizaines de milliers d’euros) aux réseaux informatiques des entreprises », explique Gérôme Billois, Associé cybersécurité et confiance numérique chez Wavestone.

Les entreprises victimes sont de plus en plus nombreuses. Selon le site français LeMagIT, « les cyberdélinquants ont revendiqué près de 700 victimes à travers le monde depuis le début de l’année (dont) plusieurs dizaines de cas en France ». Rien qu’en octobre, il y a eu un peu plus de 200 cyberattaques de ransomware connues à travers le monde… Pour suivre, cette pandémie de ransomware, LeMagIT publie une chronologie (en bas de page) qui présente en temps réel la liste des victimes.

Au cours de l’année 2019, l’Anssi a traité 69 incidents relatifs à des attaques importantes par rançongiciels touchant Altran, Fleury-Michon, Ramsay Générale de Santé ou encore le CHU.

Contrairement à une idée reçue, ce ne sont donc pas nécessairement des petites entreprises qui sont touchées. Mais la mise à disposition par des gangs d’outils de piratage de type RaaS (ransomware-as-a-service) bon marché ou gratuits incite des pirates moins « chevronnés » à se lancer dans ce « business ». Ces attaquants demandent généralement des rançons moins élevées, car ils ciblent les petites entreprises qui n’ont pas les ressources nécessaires pour défendre leurs données de manière adéquate.

La disponibilité de kits RaaS gratuits « a fait tomber la barrière à l’entrée à un niveau extrêmement bas. Une expertise technique approfondie n’est plus nécessaire pour participer à l’économie de la cybercriminalité », note Coveware.

Pour être sûrs de récupérer facilement de l’argent, ces gangs ont mis en place la technique dite de « la double extorsion ». Une méthode très efficace : si les entreprises ne paient pas rapidement, les cyberdélinquants menacent de publier sur le dark web les données sensibles qu’ils ont pu récupérer.

Pas assez de cybersécurité

Il y a donc un terreau très fertile pour les pirates. « Premièrement, on souffre depuis 15-20 ans d’un sous-investissement en cybersécurité. Deuxièmement, la plupart des solutions métier et progiciels sont vendues en n’étant pas assez sécurisées par défaut. Heureusement, la situation s’améliore et la sécurité est de plus en plus prise en compte. Enfin, il y a encore trop d’entreprises qui ne déploient pas rapidement des correctifs de sécurité de Windows ou de leurs logiciels. Ce type d’opération devrait être automatisé pour limiter les risques », insiste Gérôme Billois.

Reste l’épineuse question : faut-il payer la rançon ? Difficile de savoir si les entreprises le font, car elles restent silencieuses sur ce sujet. Néanmoins, selon une étude d’Osterman Research, 58 % des victimes paient la rançon demandée en Grande-Bretagne. Un chiffre qui atteint même 78 % en Allemagne.

Selon un site spécialisé, Garmin aurait payé 10 millions de dollars. La marque n’est pas la seule à céder au chantage. Une enquête de Dark Reading, publiée début 2020, indique que la part des professionnels ayant déclaré avoir payé une rançon à un cyberattaquant a presque quadruplé. Elle est passée à 15 %, contre 4 % seulement en 2018.

« Payer la rançon ne règle pas la crise, car il faudra installer le décrypteur envoyé par le pirate sur toutes les machines et s’assurer ensuite qu’elles sont suffisamment stables et qu’elles fonctionnent correctement. Or ces décrypteurs ne sont pas optimisés et adaptés à tous les systèmes d’exploitation et logiciels », prévient Gérôme Billois.

Quelles évolutions réglementaires pour prévenir le risque sur les sites industriels ?

Si le site de Normandie Logistique est un entrepôt, il est important de rappeler que celui de Lubrizol est un établissement de production d’additifs pour les lubrifiants, classé Seveso haut.

Le retour d’expérience suite à l’accident a permis de récolter des informations émanant de tous les services compétents impliqués dans la gestion accidentelle et post-accidentelle, permettant une analyse approfondie et la formulation de recommandations. Ce rapport a été remis aux autorités en février 2020. Suivront d’autres travaux, comme la mission d’information réalisée par l’Assemblée nationale (rapport remis le 12 février 2020), la commission d’enquête du Sénat (rapport publié le 2 juin 2020), et enfin une seconde mission inter-inspections, sur la gestion de la crise, dont les résultats ont été publiés le 8 juillet 2020.

Le plan d’action présenté en février dernier et paru au journal officiel le 26 septembre 2020 contient une partie relative au renforcement de la réglementation en matière de prévention et de préparation à la gestion des accidents. Ces textes – 2 décrets et 5 arrêtés – dont nous allons énumérer les points les plus importants, renforcent significativement les obligations des sites Seveso et les prescriptions relatives à la prévention des risques d’incendie (et à la limitation de leurs conséquences). Ces prescriptions seront en vigueur dès le début de l’année prochaine, avec un échéancier de mise en conformité courant jusqu’en 2026.

Renforcement des obligations des sites Seveso

Un décret et un arrêté sont consacrés aux sites Seveso. L’idée directrice est de réévaluer périodiquement les mesures de sécurité et les évaluations du danger, comme l’a expliqué Anne-Laure Fauquet, membre de la Direction générale de la prévention des risques (DGPR) et principale rédactrice de cet arrêté et de ce décret, lors d’une conférence en ligne – par précaution, en raison de la pandémie de Covid-19 – organisée par la DGPR le 3 novembre dernier : « Lors du réexamen de l’étude de dangers, l’exploitant doit également recenser les technologies éprouvées et adaptées qui, à coût économique acceptable, pourraient permettre une amélioration significative de la maîtrise des risques, compte tenu de l’environnement du site. »

Par la suite, l’exploitant hiérarchise ces technologies, en fonction, entre autres, de la probabilité, de la gravité et de la cinétique des accidents potentiels qu’elles contribueraient à éviter, et du coût rapporté au gain en sécurité attendu. A la suite de cela, l’exploitant se prononce sur les technologies qu’il retient et précise le délai dans lequel il les met en œuvre.

Par ailleurs, le décret et l’arrêté obligent désormais les établissements Seveso seuil bas à établir un POI (plan d’opération interne), à compter du 1er janvier 2023.

En ce qui concerne l’information du public, obligation est faite à l’exploitant de mettre à disposition, en ligne, toute une liste d’informations relatives au site Seveso en question. Toutes les modifications, ayant par exemple pour conséquence un passage « seuil haut » à « seuil bas », doivent également être publiques. La coopération entre établissements Seveso voisins, pour permettre la prise en compte de la nature et de l’étendue du danger globale d’accident majeur, devient également une obligation.

Etat des matières stockées

Le volet concernant l’état des matières stockées du plan d’action introduit une section spécifique dans l’arrêté ministériel du 4 octobre 2010 relatif à la prévention des risques accidentels au sein des ICPE soumises à autorisation. L’objectif est double. Il s’agit «  d’imposer de manière générique et transverse à l’ensemble des installations soumises à autorisation les dispositions « de base » relatives à l’état des stocks, mais également de définir des dispositions spécifiques pour certaines catégories d’installations. »

Des dispositions spécifiques sur l’état des stocks – mise à jour hebdomadaire, mise à disposition des autorités sanitaires, des services d’inspection, des services de secours et du public – sont également mises en place.

Liquides inflammables et combustibles

Ce volet du plan d’action réorganise les textes existants, en créant un arrêté nouveau relatif au stockage des liquides inflammables en récipients mobiles pour tous les sites à autorisation.

Entrepôts de matières combustibles

En ce qui concerne les entrepôts, l’évolution de la réglementation vise à « éviter le saucissonnage des entrepôts et appréhender les risques à l’échelle d’un ensemble de bâtiments de stockage, relever les seuils d’autorisation au profit du régime d’enregistrement, et traiter en cohérence le sujet de l’évaluation environnementale relative à l’artificialisation ».

Enfin, une partie des textes réglementaires présentés vise à améliorer la sécurité des sites nouvellement soumis à la réglementation ICPE.

Retrouver la liste exhaustive des réglementations post Lubrizol ici.

Lubrizol : un retour d’expérience instructif

Parmi ses services, l’Ineris, via la Casu (cellule d’appui aux situations d’urgence), a été sollicité le 26 septembre, dès 6 heures du matin. La mission de la Casu ? Déployer les compétences de l’Ineris afin d’évaluer le plus rapidement possible les risques explosifs et chimiques liés à l’incendie et aux substances stockées sur le site. Pour dans un premier temps garantir la sécurité des services déployés pour lutter contre l’incendie. Ensuite la Casu est intervenue sur la phase post-accident : évaluer les risques pour les populations alentours et enfin modéliser le panache de fumée (composition, température, dispersion) afin d’en mesurer les impacts potentiels sur les populations et l’environnement.

L’intervention de la Casu a donné lieu à un retour d’expérience, sous la forme d’une note transmise au Sénat et à l’Assemblée nationale, afin d’évaluer l’efficacité de la mission, et les points d’amélioration de ce dispositif exceptionnel de gestion de crise.

La note réalisée transmise à l’assemblée nationale porte principalement sur les délais de mise en œuvre de l’action de la Casu, sur les phases accident et post-accident. L’accent a également été mis sur l’apport de la Casu sur la phase post-accidentelle : en effet, depuis une dizaine d’années est développée une doctrine post-accidentelle, traduite notamment dans la circulaire de 2012. Elle a connu son baptême du feu à l’occasion de l’incendie de Lubrizol.

Le timing d’intervention de la Casu

Sollicitée dès le jeudi 26 à 6h30, la Casu a d’abord traité la phase d’urgence de l’accident, c’est sa mission première : protéger les populations des risques létaux et irréversibles.

Dès lors, la Casu s’est mobilisée sur la réponse post-accident, très rapidement : « l’Ineris a recommandé dès le jour de l’incendie d’engager cette seconde phase post-accidentelle et de suivre les préconisations fournies par la circulaire du 20 février 2012 ».

Si cette seconde phase post-accidentelle a été activée très rapidement, « l’Ineris s’est mobilisé au-delà des missions de la Casu », constate la note. Cette mobilisation, pilote sur certains points, a également fait émerger des fragilités sur les capacités actuelles de l’Ineris en situation de crise. En particulier en ce qui concerne les prélèvements.

Améliorer les process de prélèvements

Lubrizol constitue pour l’Ineris une première, dans le sens où c’est la première fois dans le cas d’un incendie, en France, que des « prélèvements quasi-immédiats destinés à la préparation de la phase post-accidentelle sont réalisés ». Ce qui explique certaines difficultés quant aux méthodes de prélèvements employées par les intervenants locaux sur place, les matériels utilisés, qui ont compliqué le travail d’analyse de l’Ineris.

Pour y remédier, l’Ineris entrevoit plusieurs possibilités : « équiper les acteurs locaux (RIPA, industriels, DREAL, SDIS…) de moyens simples de prélèvement conservatoires permettant d’obtenir des échantillons rapidement pour analyses en laboratoire et proposer des outils d’autoformation à leur mise en œuvre ; mettre en place un réseau de camions/containers de mesures en temps réel projetable rapidement sur site. L’Ineris pourrait à la fois coordonner ce réseau et s’équiper pour être en mesure de couvrir une zone prédéfinie du territoire. »

Un besoin d’informations difficile à satisfaire, dans l’état actuel des connaissances

Sur la question des données, l’Ineris constate que sur un site comme celui de Lubrizol, qui stocke de nombreux produits en faible quantité, la complexité des phénomènes en jeu lors de l’incendie ne permet pas, même avec tous les prélèvements effectués, d’avoir une connaissance complète des risques à l’œuvre.

L’étude des FDS, entre autres, a par contre permis, comme prévu, d’identifier rapidement les pollutions mises en œuvre par l’incendie, et leur toxicité pour les populations.

Des axes d’amélioration existent cependant, comme le précise la note de l’Ineris : « S’il ne semble pas envisageable à court terme de lever toutes les inconnues dans ce type d’incendie, certaines améliorations sont envisageables, qui supposeraient une évolution de la réglementation française pour rendre disponible :
– un suivi « fin » du stock : quantité, risque associé et surtout formule chimique (…) ;
– une évaluation de la composition des fumées dégagées lors de la combustion des produits stockés (…) ;
– une évaluation de la quantité des éléments constitutifs des contenants (…) mais aussi constituants des bâtiments (…) et de tout matériau susceptible de produire des composés toxiques en cas d’agression thermique. »

La difficulté actuelle  pour lever toutes les zones d’ombre sur un incident spécifique comme celui de Lubrizol a été un objet de frustration pour les populations. S’y ajoute nombre d’incompréhensions, à plusieurs niveaux. C’est le cas par exemple en ce qui concerne les « valeurs seuils » : « La nécessaire focalisation dans les premières heures de l’accident sur la limitation de la mortalité ou de la morbidité sévère conduit à des incompréhensions : les « valeurs seuils » de toxicologie ont souvent été surinterprétées comme une frontière absolue entre l’innocuité et le danger. De nature parfois règlementaire, et souvent normative, ces valeurs ont été prises pour des seuils « zéro risque » ou « zéro effet ». »

Autre exemple, les effets cocktails : l’Ineris rappelle dans sa note qu’il existe encore beaucoup d’incertitudes sur les effets cocktails des substances présentes dans un panache de fumée, et que la recherche doit absolument se poursuivre sur ce sujet.

Pour revenir sur la thématique très importante de la récolte et du traitement des données, L’Ineris souligne que le volume très important d’informations échangées, les supports de diffusion utilisés ainsi que les formats de données, peuvent être optimisés : « Des architectures de portail d’échange de données en situation d’urgence pourraient être préconstruites ainsi que leurs protocoles de gestion afin qu’elles puissent être mises en ligne dès les premières phases de gestion d’un accident majeur. »

La note de l’Ineris transmise à l’Assemblée nationale et au Sénat est disponible ici dans son intégralité.

Par Pierre Thouverez

Lubrizol : retour sur la gestion de l’incendie et de ses conséquences

Lors d’un accident industriel comme celui de Lubrizol (26 et 27 septembre 2019), les services de l’Etat compétents sont mobilisés pour améliorer la gestion de crise et optimiser la réponse sur le terrain, en temps réel. Il s’agit également de prévenir au mieux les risques pouvant résulter de l’accident : risque sécuritaire, dispersion de substances toxiques, pollution atmosphérique… L’Ineris (Institut national de l’environnement industriel et des risques) a ainsi été mobilisé, dès le 26 septembre vers 6 heures du matin, pour apporter son expertise, à plusieurs niveaux.

Lubrizol est un accident industriel de type chimique.  En effet, le 26 septembre 2019, l’usine de produits chimiques appartenant à la société Lubrizol est victime d’un incendie, ravageant également l’entrepôt logistique appartenant à la société Normandie Logistique. L’Ineris a donc dû, très rapidement, fournir aux autorités une expertise technique pour gérer la crise sur le terrain, mais aussi une analyse à plus long terme sur les risques de pollution et de danger pour les populations et la biodiversité : c’est ce que l’on appelle la gestion post-accident.

La Casu immédiatement mobilisée

Concrètement, l’Ineris a mobilisé dès le 26 septembre au matin ses équipes, qui sont intervenues sur 4 thématiques :

Avec, comme on vient de le voir, une différence de temporalité entre la gestion de l’accident en lui-même et celle de ses conséquences potentielles.

La mise en action des compétences de l’Ineris s’est faite par le biais de la cellule d’appui aux situations d’urgence, la Casu, qui permet à l’Ineris de mettre à disposition ses capacités d’expertise 24h/24. Le 26 septembre, dès 6 heures, la Casu est sollicitée pour préciser les risques immédiats, thermiques, toxiques ou de suraccident. A ce moment-là les questions auxquelles doit répondre la Casu sont nombreuses : quels sont les risques immédiats les plus graves ? Quels effets irréversibles sur la santé ? Quels risques environnementaux

Thibaud Penelon, ingénieur d’astreinte au Casu, était en poste le 26 septembre au matin : « J’ai reçu vers six heures un appel d’un collègue qui m’a dit que la plateforme de Lubrizol était en feu. Une vingtaine de minutes plus tard, nous étions sollicités par la DREAL [Direction régionale et interdépartementale de l’environnement et de l’énergie, NDLR]. La première question à laquelle nous étions alors confrontés était celle du pentasulfure de phosphore présent sur le site. Si cette substance était prise dans l’incendie, quels seraient les risques, cela pourrait-il entraîner un risque explosif supplémentaire ? ».

Au-delà de cette question, la plus urgente, les problématiques à résoudre étaient nombreuses pour la Casu : « évaluation du risque toxique en mode aigu, chronique ou subchronique, taux de suies émises et retombées au sol et leur composition, distance de propagation du panache… Tout ceci afin d’évaluer les risques pour les personnes travaillant sur la circonscription de l’accident, mais aussi pour les populations avoisinantes, les écoles notamment. Dès la fin de la première journée, nous avons pu déterminer la quantité de polluants émise par unité de temps, à quelle température, de façon à servir de données d’entrée aux modélisations atmosphériques », précise Franck Prats, également ingénieur Casu.

Des résultats d’analyses obtenus très rapidement

L’Ineris a ainsi analysé, entre autres, plus de 120 lingettes et des canisters, qui sont des dispositifs sous vide, permettant d’aspirer l’air ambiant sur le site de l’incendie pour l’envoyer en analyse et ainsi évaluer les risques toxiques.

Les premiers résultats de ces analyses sont arrivés le vendredi midi, soit en moins de 24 heures, permettant une première modélisation des dangers. Le vendredi soir, la quasi totalité des résultats étaient connus. Avec l’ensemble de ces résultats, il a été possible d’effectuer une seconde modélisation, plus fine et permettant de visualiser plus précisément l’ensemble du panache de dispersion. Toujours dans le but de fournir aux autorités les informations les plus précises possible, pour une prise de décision optimisée.

La sécurité du site a également accaparé la Casu dans ces premières heures post explosion, car son évaluation constituait une information importante pour les équipes d’intervention sur place. Benjamin Truchot, responsable de l’unité DIEM (Dispersion incendie modélisation et expérimentation) à l’Ineris : « Tout s’est accéléré avec la prise de décision de se rendre sur site, pour comprendre comment avait pu se fracturer la toiture contenant de l’amiante, et quel était le risque d’effondrement et donc de dispersion d’amiante dans l’atmosphère. Je me suis rendu sur site le lundi matin et j’ai découvert une atmosphère un peu irréelle : des dizaines de milliers de mètres carrés noircis par les huiles, les suies, des barres d’acier tordues par la chaleur… J’ai pu me rendre compte de la quantité d’informations disponibles sur le terrain : j’ai pu ainsi confirmer que la rupture du toit était d’origine mécanique et pas thermique, constater la présence de traces d’amiante dans le panache de dispersion de l’incendie ». Ces informations complémentaires ont permis de produire une nouvelle modélisation du panache, sur une échelle faisant plusieurs centaines de kilomètres.

Enfin, l’Ineris a réalisé un travail important pour identifier les substances présentes à Lubrizol, afin d’identifier celles qui pourraient se révéler dangereuses, pour l’environnement ou la santé.

Au final, l’épisode de Lubrizol, pour la Casu et l’Ineris, aura été l’occasion de mettre en oeuvre les procédures d’urgence dont nous venons de parler. Et qui ont permis de fournir, dans un laps de temps très limité, les informations dont les autres services impliqués ce jour là et les autorités avaient besoin pour prendre des décisions. Une mission relevée avec succès, même si cet épisode est aussi l’occasion d’apprendre et de s’améliorerAinsi, Faustina Fuvel, technicienne à l’Ineris, regrette que l’Ineris n’ait pas pu prendre en charge les prélèvements : « Nous avons une frustration au niveau du laboratoire, par rapport aux préleveurs, parce que les prélèvements auraient pu être effectués par l’Ineris. Cela aurait permis d’avoir immédiatement des analyses plus efficaces et faciles à mettre en oeuvre ».

Retrouvez, sur le site de l’Ineris, une vidéo retraçant la mise en oeuvre de cette réponse de la Casu.

Par Pierre Thouverez

Un projet européen de recherche pour doper le rendement du tournesol

Après avoir travaillé sur l’optimisation des apports en nutriments et en eau des plantes ainsi que sur leurs besoins de protection, la recherche agronomique s’intéresse de plus en plus à la photosynthèse pour augmenter les rendements. La marge de progrès est considérable puisque seulement 2 % de l’énergie du soleil est utilisée pour produire de la biomasse. La Commission européenne vient de lancer un programme de recherche, doté d’un budget de huit millions d’euros et nommé Gain4crops, qui vise à améliorer l’efficacité photosynthétique en limitant la photorespiration.

À l’origine, il y a plus de trois milliards d’années, la photosynthèse se déroulait dans une atmosphère pauvre en oxygène. La rubisco, l’enzyme qui assimile le CO2 pour le transformer en sucre, captait le CO2 de l’air ainsi que l’oxygène de manière non sélective. Aujourd’hui, ce processus se poursuit chez les plantes sauf que l’atmosphère est beaucoup plus riche en oxygène. Conséquence : la fixation de l’oxygène provoque un mécanisme de photorespiration et entraîne une baisse de la fixation du carbone et donc des rendements. Ce phénomène est d’autant plus important que les températures de l’air grimpent.

Une absence de compétition entre l’oxygène et le CO2

Le programme de recherche européen va s’inspirer de certaines plantes tropicales, comme le maïs, qui ont naturellement développé des stratégies pour limiter l’assimilation de l’oxygène. On les appelle les plantes en C4, car chez elles, la photosynthèse produit des molécules constituées de quatre atomes de carbone. Ces plantes ont la particularité de réaliser la photosynthèse dans deux cellules distinctes alors que chez les plantes en C3, dont les rendements sont pénalisés par la photorespiration, elle est réalisée dans une seule. « Chez les plantes en C4, étant donné que la photosynthèse est réalisée dans deux endroits différents, il n’y a pas cette compétition entre l’oxygène et le CO2, explique Giovanni Finazzi, chercheur au CNRS. Elles ont une efficacité, d’un point de vue de la photosynthèse, beaucoup plus élevé, mais consomment également beaucoup plus d’eau pour faire face à leur croissance. »

Le projet Gain4crops a donc pour ambition de s’intéresser aux plantes en C3 pour les transformer en C4. Il se focalisera uniquement sur le tournesol. Cette plante est en effet bien implantée dans l’agriculture européenne, mais surtout, présente l’intérêt d’offrir, à l’intérieur de sa famille, des variétés en C3, C4 et certaines dans une situation intermédiaire et que l’on nomme des plantes C3-C4. En analysant l’ensemble de cette famille, les chercheurs vont tenter de comprendre quelle est la logique des mécanismes mis en place par la nature pour passer d’une plante C3 à C4. « Nous allons nous appuyer sur la physiologie naturelle du tournesol, qui a la capacité innée d’évoluer vers des métabolismes améliorés » ajoute Giovanni Finazzi. Les scientifiques souhaitent également sélectionner les plantes, dont les rendements sont les plus élevés, afin d’identifier certains gènes spécifiques responsables de ces performances. Le but étant ensuite de transférer ces gènes pour créer un nouveau tournesol plus productif.

La phase finale de ce travail de recherche consistera à construire de nouveaux métabolismes chez le tournesol. À l’aide de modèles mathématiques, les chercheurs vont calculer le passage de nouveaux flux à l’intérieur de la plante et analyser quelles sont les contraintes cinétiques et thermodynamiques auxquelles elle doit faire face.

Un tournesol C4 dans cinq ans

Depuis de nombreuses années, des scientifiques du monde entier tentent de diminuer l’assimilation de l’oxygène par la rubisco. Les États-Unis ont par exemple essayé de fabriquer un riz C4, mais pour l’instant sans succès. D’autres travaux de recherche sont en cours dans ce pays, dont de nombreux financés par la fondation de Bill Gates. Le projet Gain4crops se donne cinq ans pour fabriquer un tournesol C4. « Notre intention n’est pas de construire un monstre de laboratoire, prévient Giovanni Finazzi. Cette nouvelle plante doit être cultivable par les agriculteurs. Notre projet inclut un partenariat avec le semencier Corteva Agriscience afin de tester des variétés de tournesol d’intérêt agronomique ». A terme, l’expérience acquise avec ce projet pourrait servir de feuille de route pour doper les rendements sur d’autres plantes que le tournesol.

Hydrogène : une filière de l’électrolyse en construction

Les acteurs de la filière, réunis au sein de France Hydrogène (ex-Aphypac), sont désormais près de 200 à partager cet objectif, contre 120 en 2019. Et le lobby français de l’hydrogène a atteint son objectif à l’aune du plan de relance, puisque le plan hydrogène du gouvernement présenté le 8 septembre dernier est doté de quelque 7 milliards.

Comme l’a rappelé Philippe Boucly, président de France hydrogène lors d’une rencontre virtuelle avec les journalistes de l’énergie et de l’environnement (AJDE et AJE), dans « notre manifeste », le montant global d’investissement « doit atteindre 24 milliards d’euros sur 2020-2030, avec des technologies matures, mais pas encore compétitives ». Les 7 GW d’électrolyseurs sont désormais dans le pipe, pour produire quelque 570 000 tonnes d’hydrogène par an pour faire baisser les coûts, a insisté Alice Vieillefosse, la directrice de cabinet de Laurent Michel, le directeur général de l’énergie et du climat (DGEC) au ministère, lors de la conférence en ligne. Mais il faudra aussi doter les installations industrielles, qui produisent actuellement l’hydrogène à partir de vaporéformeurs de capture et de stockage ou d’utilisation du carbone (CCUS), pour quelque 130 000 t. « Cet objectif, insiste Philippe Boucly, représente un doublement de la capacité de production d’ici à 2030, pour passer de quelque 880 000 t d’hydrogène produites par an à entre 1,3 et 1,4 milliard de tonnes ».

Pour France Hydrogène, cela suppose un soutien à l’investissement de l’Etat à hauteur de 6,7 milliards d’euros et un soutien de 3,6 Mds € à la production d’hydrogène renouvelable et bas carbone.

L’aide de l’Europe

Le premier axe de la stratégie française énoncée par le gouvernement en septembre consiste à accélérer l’investissement pour une industrie de l’hydrogène décarbonée et compétitive. L’objectif de 6,5 GW d’électrolyseurs installés s’y inscrit. La stratégie française s’appuie sur le développement d’importants projets d’intérêt européen commun (IPCEI), le Programme d’investissements d’avenir (PIA) y mettant 1,5 Md €. La priorité est donc de réaliser des gigafactories, comme avec les batteries, afin de disposer de 40 GW d’électrolyseurs en Europe à l’horizon 2030, dont 6,5 GW en France donc. La feuille de route 2030 de l’Union européenne vise 6 GW sur 2020-2024, soit 1 Mt par an en électrolyse, puis à atteindre les 40 GW d’ici à 2030, pour produire 10 Mt, avec un investissement compris entre 24 et 42 Mds €. C’est bien là le composé clé pour le développement de l’hydrogène.

Pour ces IPCEI, d’ores et déjà plusieurs pays européens ont manifesté de l’intérêt, insiste le président de France Hydrogène, mais la France souhaite une alliance avec l’Allemagne. Ce qui a été confirmé lors d’une récente rencontre entre le Président français Emmanuel Macron et la Chancelière allemande, Angela Merkel, précise Philippe Boucly. Ces projets européens transnationaux dans des domaines stratégiques de la recherche accordent aussi un soutien dans les premières années de production et ils s’adressent aux nouvelles générations d’électrolyseurs.

La question demeure cependant pour le président de France Hydrogène de « promouvoir une vision française dans le cadre de la démarche IPCEI ». Une vision française qui passe notamment par le recours au nucléaire également, pour alimenter les électrolyseurs.

Sur toute la chaîne de valeur

La France dispose d’atouts majeurs, notamment une présence sur l’ensemble de la chaine de valeur de la filière hydrogène a insisté Philippe Boucly. Qu’il s’agisse de la production d’électricité pour alimenter les électrolyseurs (avec des acteurs majeurs, comme EDF, Engie, Total et CNR), ou de la production d’hydrogène, avec des acteurs tels Air Liquide, McPhy, Engie, voire CNR ou Hynamics, la filiale d’EDF dédiée, sans oublier les plus « petits », comme Lhyfe. Avec des fabricants, comme Areva H2Gen, ou McPhy. Et des distributeurs et des usagers.

Grâce au CEA-Liten, a insisté Florence Lambert, la directrice de l’organisme, qui regroupe plus d’un millier de personnes, mais aussi avec des start-up, spin-off comme Symbio, ou avec des collaborations avec les autres grands centres de recherche, comme le CNRS, les recherches se poursuivent, notamment en termes d’électrolyse haute température. Comme le souligne la responsable du CEA-Liten, l’objectif est, alors que l’industrie va démarrer avec les moyens existants, d’être capable de porter à maturation de telles technologies permettant de réaliser des gains de rendement de 20 % à 30 % à coût identique de l’électricité. Cela permettrait de faire chuter le coût de la molécule produite par les électrolyseurs à 2 euros par kg. Par ailleurs, sur les premières technologies, il n’y a plus de verrous à lever, mais il faut des premiers marchés avec des modèles économiques ad hoc et installer les premières usines, insiste-t-elle. Enfin, « il faut maintenir le cap sur la durée ». Côté électrolyse, de nouveaux matériaux (comme les céramiques), en alliant l’intelligence artificielle, doivent permettre d’aller vers de bons matériaux et les porter à maturité. Le CEA est, dans ces recherches, associé au CNRS ainsi qu’à d’autres organismes européens. Et de conclure que le « coût de l’hydrogène part dans le bon sens (à la baisse, ndlr), mais il faut que la recherche conserve cette synchronisation avec l’industrie ».

L’enjeu est en effet industriel, il s’agit clairement pour Philippe Boucly de ne pas reproduire ce qui s’est passé dans les énergies renouvelables, notamment le solaire.

Alumni for the planet : les étudiants de l’enseignement supérieur pour le climat

« Nous voulons constituer au cours des prochains mois un réseau d’Alumni engagé pour l’action sur le climat et l’environnement de plusieurs dizaines et on espère rapidement de plusieurs centaines de milliers de personnes », prévient Michel Salem-Sermanet, l’un des 21 bénévoles fondateurs du collectif Alumni for the planet et directeur général d’Efficacity, centre de recherche et développement dédié à la transition énergétique.

En lien avec la Conférence des Grandes Ecoles, la Conférence des Présidents d’Université, et Ingénieurs et scientifiques de France, Alumni for the planet compte sur l’implication de tous pour mobiliser au plus vite les diplômés de l’enseignement supérieur français, issus notamment des grandes écoles et des universités sur ces deux grands enjeux mondiaux.

S’engager au sein de son entreprise, sa ville et au quotidien

Au cours des six derniers mois, l’équipe de bénévoles a mené un travail de concertation auprès d’une quarantaine d’associations d’Alumni, des fédérations, des scientifiques et des dirigeants d’entreprises pour comprendre ce que ce nouveau réseau pourrait apporter. « Nous avons mis au point une plateforme d’information, de mise en relation, d’aide à l’action pour les Alumni pour les aider à agir concrètement soit dans leur entreprise, dans leur ville ou dans leur quotidien », partage Michel Salem-Sermanet.

Alumni for the Planet estime que les Alumni occupent ou occuperont des postes à responsabilité en France et à l’international, et que leur engagement, en particulier dans leur milieu professionnel, peut avoir un impact très significatif. Le collectif a déjà commencé à fédérer des dirigeants d’entreprise et d’organisations et les associations d’Alumni des écoles et universités. Pour souligner l’importance de la collaboration entre toutes les catégories d’acteurs, elle a demandé et obtenu le parrainage de Pascal Demurger, directeur général du groupe MAIF, de Yann Arthus-Bertrand, président de la fondation GoodPlanet, et de Valérie Masson-Delmotte, co-présidente du groupe n°1 du GIEC.

Concrètement, Alumni for the Planet met en réseau les Alumni souhaitant s’engager en donnant accès à des idées et des personnes ressources et en permettant de témoigner du résultat de ses actions pour donner aux autres l’envie de s’engager. Emery Jacquillat, président du Club des entreprises à mission, rappelle que tout un chacun peut agir. « Au sein des entreprises, nous avons tous un pouvoir. Le directeur financier peut s’intéresser à la finance verte, le directeur informatique au green IT, la direction de la RSE à l’entreprise à mission… ».

L’hydrogène, un vecteur énergétique alternatif à l’électricité pour la mobilité lourde

« La crise du Covid-19 joue un rôle d’accélérateur : après l’électricité, l’Europe s’attaque à la décarbonation des transports et l’on sait désormais quelles technologies seront déployées à grande échelle. Le véhicule électrique à batterie s’impose ainsi pour la mobilité individuelle, mais il y a aussi des niches en complément pour l’hydrogène propre et le bioGNV (bus, camionnettes, camions de ramassage, fret routier lourd) », constate dans un communiqué Marc-Antoine Eyl-Mazzega, directeur du Centre Énergie & Climat de l’Ifri, co-auteur d’une récente étude réalisée avec La Fabrique de la Cité.

Logiquement, la mobilité hydrogène est l’un des grands axes du plan hydrogène, détaillé par le gouvernement. Avec 20 % des rejets de CO2, les transports sont en effet en ligne de mire.

Reste que pour les véhicules particuliers, le marché est encore loin, beaucoup plus loin que le marché électrique, qui avance à grands pas. Même si, le véhicule hydrogène est en réalité un véhicule électrique fonctionnant avec une pile à combustible qui consomme l’hydrogène pour produire de l’électricité et alimenter un moteur électrique identique à celui des véhicules électriques.

Néanmoins, cela implique un réservoir qui, pour l’heure, occupe un volume certain, malgré les avancées de ces dernières années en la matière, et freine le développement de la voiture particulière. Même s’il suffit de 4 à 5 kg d’hydrogène compressé (à 700 bar) pour alimenter un véhicule léger sur 500 à 600 km, le volume du réservoir demeure suffisamment important. C’est en effet un peu plus d’une centaine de litres si le gaz est uniquement comprimé, mais s’il est liquide (à -252.87°C et à 1 013 bar), il est possible de parvenir à 75 litres… Reste que le réservoir lui-même occupe un certain volume, peu compatible avec les besoins d’un véhicule particulier. En attendant le stockage sous forme solide, mais là nous en sommes encore au stade de la recherche.

Ce qui réserve à court terme l’hydrogène pour les véhicules utilitaires et les véhicules lourds, comme les camions (une dizaine de kg d’hydrogène par 100 km) ou les bus. Pour ces deux types de véhicules, la masse à embarquer sera ainsi de 4 à 5 fois celle nécessaire pour un véhicule léger pour les mêmes performances… Sans oublier les trains et le navires, qui peuvent, eux-aussi basculer plus rapidement à l’hydrogène.

C’est d’ailleurs ce que le plan hydrogène du gouvernement veut mettre en œuvre, en ciblant les transports collectifs et de marchandises fonctionnant à l’hydrogène (trains, poids-lourds, véhicules utilitaires légers, bennes à ordures ménagères, etc.) et en soutenant les projets territoriaux d’envergure. Le développement des technologies et composants clés se poursuivra notamment au travers de projets pilotes pour des navettes fluviales et des navires fonctionnant à l’hydrogène, ainsi que l’accélération des efforts d’innovation en faveur d’un avion décarboné à hydrogène dont l’entrée en service pourrait avoir lieu au cours de la décennie 2030, explique le gouvernement.

Produire, acheminer et distribuer

En présentant devant la presse les désirs de la profession à l’aune de la relance annoncée en juillet dernier, Philippe Boucly, le président du lobby hydrogène français estimait qu’une trajectoire de déploiement des solutions hydrogènes à hauteur de 700 000 tonnes d’hydrogène renouvelable ou bas carbone pour un marché global estimé à cette date à environ 1,35 million de tonnes était atteignable à l’horizon 2030.

Ceci nécessite la mise en œuvre, sur la période 2020-2030, de 7 GW d’électrolyseurs (57 000 tonnes par an), ainsi que d’unités de CCUS (capture et stockage du carbone) associés aux vapo-réformeurs (qui produiraient à partir de dérivés pétroliers 130 000 tonnes par an). Pour la partie mobilité, cela se traduirait en 2030, selon l’Aphypac, par un parc de 300 000 véhicules utilitaires légers et taxis (chiffres PFA), environ 5 000 poids lourds, 250 trains et un millier de bateaux, pour une consommation de 342 500 tonnes d’hydrogène.

Le lobby de l’hydrogène, désormais renommé France Hydrogène, a gagné cette partie, puisque le gouvernement a inscrit un développement de 6,7 GW d’électrolyseurs dans son plan hydrogène présenté en septembre. Voilà pour la partie production, pour autant que ces électrolyseurs produisent du courant à partir de sources vertes (plus de 45 TWh par an quand même).

D’autres problématiques demeurent : l’acheminement sur les sites de distribution… Et le réseau de distribution lui-même. Reste en effet à distribuer ce gaz. Les grands experts des gaz industriels, Air liquide ou Linde savent parfaitement le faire… Par train et par camion ! D’où l’idée de réaliser des productions décentralisées. Ce que savent faire des entreprises comme McPhy par exemple, en utilisant les surplus d’énergies renouvelables produites localement elles-aussi. C’est ce que met en place par exemple la Zero Emission Valley en Auvergne Rhône-Alpes, avec pour objectif un millier de véhicules, 20 stations, 15 électrolyseurs à horizon 2023.

La question se pose alors de la distribution. Afin de permettre un remplissage rapide du réservoir des véhicules se présentant « à la pompe » – moins de 5 minutes pour un véhicule léger et moins de 30 minutes pour un bus –, les stations de remplissage doivent disposer d’unités de compression performantes et de réservoirs de stockage de grande capacité, explique France Hydrogène. Pour permettre cela, un stockage à pression intermédiaire, voire à plus haute pression, et des pompes de transfert sont nécessaires. Utiliser un gaz refroidi lors de son transfert permet d’y remédier. Dans ces conditions, le transfert de 5 kg d’hydrogène sous 700 bars, ne dure que 4 à 5 minutes. Des entreprises comme McPhy mettent déjà en œuvre ces « pompes H2 », de même les grands du secteur, comme Air Liquide.

Reste que, comme pour le véhicules électriques, il faut disposer d’un réseau. Mi-2019, une trentaine de stations délivrant de l’hydrogène, d’accès privé ou public, en comprenant les distributeurs pour vélos à assistance électrique via pile H2, étaient ouvertes en France, dont presque le tiers en région parisienne, selon le site H2-mobile.fr, parrainé notamment par le producteur Air Liquide. C’est également le défi que doit permettre de relever le plan hydrogène, via un appel à projets (AAP) « Hub territoriaux d’hydrogène » qui sera lancé par l’Ademe (doté de 275 M€ d’ici 2023) pour le déploiement – par des consortiums réunissant des collectivités et des industriels fournisseurs de solutions – d’écosystèmes territoriaux de grande envergure regroupant différents usages (industrie et mobilité), pour favoriser au maximum des économies d’échelle.

Dans le cadre de la précédente stratégie hydrogène de la France de 2018, le Sipperec, l’un des grands syndicats d’énergie francilien, avait présenté le projet H2 IDF, lauréat du premier appel à projets « écosystèmes territoriaux de mobilité hydrogène ». Ce projet vise à produire de l’hydrogène renouvelable à partir de la cogénération de l’Unité de Valorisation Énergétique de Créteil (94), exploitée par Suez. Un électrolyseur a été installé sur le site pour produire 500 Kg d’hydrogène par jour, ainsi qu’un espace de stockage et une station de distribution. Les usages envisagés sont des bus avec Île-de-France Mobilités et des bennes à ordures ménagères avec l’EPT Grand Paris Sud Est Avenir, compétent en collecte des déchets.

Les avantages de l’hydrogène

  • aucune pollution locale ;
  • grande autonomie de fonctionnement, de l’ordre de 600 km ;
  • performances routières équivalentes aux véhicules classiques, souplesse d’utilisation ;
  • pas de vitesse à passer (moteur électrique) ;
  • rapidité du « plein » d’hydrogène, en 3 à 5 minutes ;
  • haut rendement de la chaîne de propulsion : pile à combustible et moteur électrique ;
  • aucune pollution sonore

Une membrane biomimétique plus performante pour dessaler l’eau de mer

Confrontés à un manque de ressources en eau douce sur leur territoire, certains pays comme Israël doivent procéder au dessalement de l’eau de mer à grande échelle. D’autres, à l’image de Singapour, sont obligés d’utiliser cette technique, car ils manquent d’espace pour stocker l’eau. Le procédé de désalinisation le plus couramment utilisé par les industriels est celui de l’osmose inverse. Il consiste à séparer l’eau des sels dissous grâce à une membrane semi-perméable. Cette technique se révèle par contre coûteuse, surtout en énergie, car elle nécessite d’utiliser une forte pression, supérieure à la pression osmotique, autour de 50 bar. Une équipe internationale, coordonnée par des scientifiques de l’Institut Européen des Membranes (IEM) de Montpellier, a réussi à fabriquer une nouvelle membrane, qualifiée de biomimétique car inspirée du monde vivant, et dont les performances sont supérieures aux membranes actuellement utilisées. Ce travail de recherche vient d’être publié dans la revue Nature Nanotechnology.

Une protéine capable de transporter l’eau à très grande vitesse

Le procédé utilisé s’inspire directement d’une protéine présente dans le règne animal et végétal : l’aquaporine. Localisée dans les membranes cellulaires, elle possède un pore perméable uniquement aux molécules d’eau. Elle présente une perméabilité élevée puisque, lorsqu’une cellule se trouve déshydratée ou au contraire a besoin d’éliminer de l’eau, l’aquaporine est capable d’assurer le transport de l’eau à très grande vitesse, jusqu’à 109 molécules d’eau par seconde. Dans le passé, des scientifiques ont tenté d’utiliser cette molécule pour dessaler l’eau de mer, mais les applications sont limitées, car l’aquaporine a tendance à s’agréger et donc à perdre sa fonction lorsqu’elle est soumise à de fortes pressions et à des niveaux de salinités élevées. « Il y a une dizaine d’années, nous avons développé une technologie de rupture et réussi à fabriquer des canaux artificiels d’eau, à l’aide de molécules simples, et qui s’inspirent directement de l’aquaporine, explique Mihail Barboiu, directeur de recherche au CNRS. Ces canaux moléculaires ont l’avantage d’être capables d’assurer la même fonction que cette protéine, même lorsqu’ils sont soumis à de fortes pressions et en présence d’une eau de mer très salée. »

Depuis 10 ans, les scientifiques ne parvenaient pas à utiliser cette nouvelle technologie pour fabriquer des membranes utilisées par les industriels dans le procédé de dessalement par osmose inverse. Ces derniers utilisent généralement des matrices en polymères, constituées en polyamides. Le principal défi dans la construction d’un tel matériau hybride est l’interaction douce et adaptative requise entre les polyamides et les canaux artificiels d’eau. Ces derniers sont en effet perçus comme un corps étranger par la matrice en polymères, ce qui crée une interface entre les deux supports et donc des défauts. « Dans notre publication, nous démontrons que nous avons réussi à résoudre ce problème en créant une structure unique et hybride qui combine une matrice en polyamide et des canaux artificiels d’eau, révèle le chercheur. La membrane conçue ressemble à une superstructure en forme d’éponge. Pour prendre une image, lorsque l’on met des cailloux en travers d’une rivière, l’eau va continuer à couler en passant à côté de ces cailloux. Nous avons créé une sorte de dune de sable qui oblige l’eau à passer à travers les canaux artificiels d’eau. »

Membrane biomimétique – Crédit photo Mihail Barboiu CNRS

Le flux d’eau traversant la membrane multiplié par trois

Cette membrane biomimétique surpasse les performances des membranes classiques actuellement utilisées avec un flux d’eau pouvant la traverser trois fois supérieur. Jusqu’ici, les tentatives d’augmentation de la perméabilité des membranes s’étaient soldées par une perte de sélectivité. En clair, l’eau coulait plus rapidement à travers les membranes, mais laissait s’échapper une partie du chlorure de sodium. Ici, cette nouvelle membrane possède une perméabilité très élevée tout en laissant traverser uniquement les molécules d’eau. Les chercheurs ont calculé qu’à débit constant, il va être possible de construire des membranes au diamètre plus petit et d’économiser 12 % de l’énergie nécessaire au dessalement.

Cette innovation va être directement applicable à des procédés industriels puisque les canaux artificiels d’eau s’adaptent aux membranes en polyamides. Des discussions sont en cours avec de grandes entreprises assurant la gestion du service de l’eau. « Grâce à cette technologie, nous allons pouvoir fabriquer des m² de membranes à un coût compétitif, ajoute Mihail Barboiu. Notre innovation pourra aussi s’adapter à d’autres matrices que celles en polyamides. »

Départ imminent pour Taranis, le microsatellite observateur d’orages

[Mise à jour 17/11 : Le lanceur européen Vega qui devait mettre en orbite deux satellites dont Taranis pour le compte de l’Europe dans la nuit de lundi à mardi depuis Kourou a essuyé « une anomalie » dans sa « trajectoire » 8 minutes après le décollage, conduisant à l’échec de la mission, a annoncé Arianespace. ]

Mardi 17 novembre, le microsatellite Taranis sera envoyé en orbite depuis la base de lancement de Kourou (Guyane). Il est financé et opéré par le Centre national d’études spatiales (Cnes). Durant deux à quatre ans, il observera les phénomènes lumineux qui surviennent au-dessus des orages. « Les orages étaient considérés comme étant des phénomènes troposphériques. Or, nous nous sommes rendu compte qu’il se passait beaucoup de choses au-delà de la troposphère », explique Jean-Louis Pinçon, chercheur au Laboratoire de Physique et de Chimie de l’Environnement et de l’Espace (LPC2E) d’Orléans et responsable scientifique de la mission Taranis.

En règle générale, les épisodes météorologiques se produisent dans cette première couche de l’atmosphère, comprise entre 0 et 15 kilomètres d’altitude, et dans laquelle vit l’Homme. Mais au début des années 1990, la communauté scientifique a commencé à comprendre que les activités lumineuses liées aux orages ne s’y limitaient pas. « Ces phénomènes extrêmement fréquents – il y en a plusieurs dizaines voire centaines de milliers chaque année – ont lieu jusqu’à 100 kilomètres d’altitude, au plus près du proche environnement spatial de la Terre », explique Jean-Louis Pinçon. « L’objectif de Taranis est de récupérer le maximum d’informations à haute résolution sur ces phénomènes, pour comprendre leur fonctionnement, et la façon dont ils sont générés, puis étudier leur impact sur la physique et la chimie de la haute atmosphère », ajoute-t-il.

TLE et TGF au centre des observations

Les observations effectuées par Taranis permettront de définir jusqu’à quel point ces phénomènes ont un impact sur la physique de la haute atmosphère. « Peut-être qu’ils n’en ont aucun, peut-être que l’impact est négligeable. Dans tous les cas, il est nécessaire de le vérifier compte tenu de la fréquence de ces phénomènes », affirme Jean-Louis Pinçon. Ces derniers sont répartis en deux grandes catégories. Les premiers sont appelés « Transient Luminous Events », ou TLE. Les autres sont nommés « Terrestrial Gamma-ray Flash », ou TGF.

Parmi les TLE, ces phénomènes lumineux transitoires, se trouvent les « elfes », de larges anneaux qui ne durent qu’une milliseconde et se produisent dans la thermosphère, à 100 kilomètres d’altitude. À peine moins fugaces, les « sprites » (rouges) ont lieu entre 40 et 80 kilomètres au-dessus du sol terrestre et ressemblent à des feux d’artifice. Les jets (bleus ou géants), s’apparentent à des éclairs inversés. Tous ces phénomènes ne durent qu’une fraction de seconde à l’exception des jets géants qui eux peuvent durer jusqu’à une seconde. Bien que ces phénomènes soient identifiés depuis les années 1990, leurs mécanismes de génération, tous différents les uns des autres, ne sont toujours pas très bien connus. « Aujourd’hui, les elfes sont bien compris. Mais pour tous les autres, nous avons besoin d’informations supplémentaires », détaille le responsable scientifique de la mission.

De leur côté, les flashs de rayons gamma, les TGF, intriguent fortement la communauté scientifique. « Sous certaines conditions, les orages peuvent se comporter comme des accélérateurs de particules, et produire des rayons gamma », énonce Jean-Louis Pinçon. En laboratoire, l’accélération de particules à très haute énergie n’est possible que dans le vide. Mais dans le cas des TGF, cette puissante accélération a lieu dans un milieu dense. « Le fait que les orages puissent accélérer les électrons à très haute énergie malgré les très nombreuses collisions a beaucoup intrigué la communauté scientifique », affirme-t-il. Des théoriciens se sont intéressés à cette énigme et plusieurs théories concurrentes ont été proposées. Taranis apportera des éléments qui permettront d’en apprendre davantage sur ces phénomènes.

Un microsatellite à la pointe de la technologie

Selon Kader Amsif, responsable du programme Soleil, héliosphère et magnétosphère du CNES, Taranis est un « bijou technologique ». « À ma connaissance, c’est une première mondiale d’avoir autant d’instruments différents sur une aussi petite surface », se félicite Jean-Louis Pinçon. Il affirme même que ce microsatellite de 175 kilos n’a pas d’équivalent. Le microsatellite est composé de deux plateformes : Myriade, développée par le CNES, et une autre contenant les différents instruments de mesure. En tout, ils sont huit, et seront pilotés par un système intelligent embarqué. Pour les membres de la mission, réussir à les agencer sur une surface d’1 m² a été un véritable défi. Les ingénieurs ont dû faire en sorte que tous puissent fonctionner sans se perturber les uns les autres, et cela n’a pas été une mince affaire.

Les instruments de Taranis ont été développés spécialement pour la mission. C’est notamment le cas des détecteurs gamma, « extrêmement rapides » selon Jean-Louis Pinçon, et des instruments optiques. Des capteurs électriques, des capteurs magnétiques, et des détecteurs de particules énergétiques permettront d’observer avec précision tous les phénomènes liés aux orages. Le générateur solaire a aussi été développé spécialement pour la mission, car il ne fallait pas qu’il génère des courants parasites capables de perturber les mesures ultra-sensibles des capteurs électriques et magnétiques. « À chaque fois qu’un événement sera détecté à bord, les données haute résolution de tous les instruments seront conservées. Ainsi, nous pourrons avoir toutes les signatures physiques associées à ces phénomènes », conclut Jean-Louis Pinçon.

Comment rendre l’hydrogène vraiment écolo?

Aujourd’hui, en France, la production d’hydrogène avoisine les 900 000 tonnes par an. Et son usage est quasiment uniquement industriel, pour la désulfurisation de carburants pétroliers (60 %), la synthèse d’ammoniac principalement pour les engrais (25 %) et la chimie (10 %). A près de 95 %, la production est actuellement réalisée à partir d’énergies fossiles, avec un peu plus de 11 millions de tonnes de carbone produites et 3 % des émissions nationales.

Tout l’enjeu est à la fois de décarboner cette production, pour la rendre « verte » et de faire monter parallèlement en puissance des solutions de production « propres », grâce à l’électrolyse de l’eau à partir d’électricité en provenance d’énergies renouvelables et, en France, de nucléaire.

L’électrolyse de l’eau a néanmoins un coût aujourd’hui, estimé par l’IPFEN entre 8 et 9 euros par kg produit et distribué (hors taxe). L’objectif et de passer entre 2 et 3 euros le kg, tout en rendant le mix électrique bas-carbone.

Encore de la recherche

Florence Lambert, responsable du CEA-Liten*, souligne que deux axes sont mis en œuvre pour les électrolyseurs. D’une part des unités de 3 MW à 5 MW délocalisées, à proximité des parcs d’énergie renouvelable, afin d’en tirer les surplus de production, ou encore des parcs dédiés, mais tout en raccordant au réseau, afin de bénéficier du mix français bas-carbone. Ce type d’unités existe, avec des électrolyseurs « alcalin » classiques dans l’industrie, et des électrolyseurs PEM (Proton exchange membrane), et leur déploiement monte en puissance. Le coup de pouce du gouvernement devrait booster ce segment. Ces unités permettraient d’alimenter des flottes locales ou encore directement certains industriels.

D’autre part, au niveau national, il y a nécessité à déployer une production massive afin de répondre aux transports lourds (maritime, aérien) et aux besoins des gros industriels consommateurs d’hydrogène. Les électrolyseurs devraient avoir une capacité moyenne de 100 MW. Là, le CEA-Liten travaille sur un plus long terme, avec des travaux sur la technologie réversible d’électrolyse haute température (EHT) – l’électrolyse et la pile à combustible sont en effet deux technologies dont les fonctionnements sont réversibles – et son couplage possible avec des sources de production renouvelables. Avec son atelier pilote, le Liten développe et qualifie des démonstrateurs de taille significative, depuis le stack SOEC/SOFC (Solid Oxide Electrolysis Cell/ Solid Oxyde Fuel Cell) jusqu’au système complet. Les études technico-économiques que le Liten a réalisées avec ses partenaires industriels montrent qu’en optimisant les systèmes de production EHT, ceux-ci pourraient, d’ici 2030, fournir un hydrogène à moins de 2 € par kg. La feuille de route du Liten vise à disposer d’un prototype de 300 kW dès 2023, pour passer à un démonstrateur industriel de 2 MW en 2024, pour un système industriel de 300 MW prêt pour 2026. Objectif : pouvoir déployer à partir de 2030 cette technologie qui fera faire un bond à la filière.

Des industriels en pointe

La France dispose d’au moins deux acteurs dans les électrolyseurs, avec McPhy, spécialisé dans l’électrolyse alcaline sous pression. Historiquement soutenu par EDF Pulse croissance Holding et le Fonds Ecotechnologies, géré par Bpifrance Investissement, il vient donc de voir entrer à son capital Technip Energies et Chart International à la faveur d’une nouvelle levée de fonds de quelque 180 millions d’euros pour se déployer. La société développe un concept modulaire d’électrolyseurs lui permettant d’être sur l’ensemble des marchés actuels, indique McPhy.

Mais aussi avec Areva H2GEN, leader français de l’électrolyse PEM (Proton exchange membrane), qui vient d’être repris par le groupe GTT (Gaz transport & technigaz), spécialiste des confinements pour le stockage en conditions cryogéniques de gaz liquéfié (GNL), pour miser sur la production d’hydrogène vert.

De premiers appels à projets lancés

En application de la stratégie nationale du gouvernement pour le développement de l’hydrogène décarboné en France, annoncée le 8 septembre dernier, deux appels à projets visant au développement de la filière ont été lancés vendredi 23 octobre.

Un premier appel à projets concerne les « Briques technologiques et démonstrateurs ». Il est financé par le Programme d’investissements d’avenir (PIA) de l’Etat et opéré par l’Ademe (agence de la transition écologique) et s’adresse principalement aux entreprises.

Il vise à développer ou améliorer les composants et systèmes liés à la production et au transport d’hydrogène. Il pourra notamment soutenir des pilotes et démonstrateurs d’envergure (supérieur à 20 MW) sur le territoire national, permettant à la filière industrielle de l’hydrogène de développer de nouvelles solutions et de se structurer.

Il concerne également les usages de l’hydrogène tels que les applications de transport ou de fourniture d’énergie, ou encore la conception et le développement de nouveaux véhicules notamment pour le transport routier de marchandises et le ferroviaire.

Le deuxième appel à projets mise sur les « Ecosystèmes territoriaux hydrogène » de l’Ademe et soutient des investissements de production et de distribution d’hydrogène renouvelable ou décarboné, pour des usages industriels et en mobilité, en particulier dans le domaine des utilitaires et des transports lourds (collectifs ou de marchandise). Il a pour objectif de faire émerger des consortiums réunissant sur un même territoire collectivités et industriels pour porter des écosystèmes de grande envergure favorisant des économies d’échelle. C’est clairement un coup de pouce pour les « petites » unités alimentées par des énergies renouvelables à l’échelle locale.

*CEA-Liten : Laboratoire des innovations pour les technologies des énergies nouvelles du Commissariat à l’énergie atomique et aux énergies alternatives

Une cuisson rapide des céramiques grâce à la technologie des micro-ondes à haute température

Après son doctorat à l’École des Mines de Saint-Étienne dans le domaine des matériaux céramiques, Sébastien Saunier est recruté en 2006 comme enseignant-chercheur afin de développer un nouveau concept de cuisson des céramiques. Une dizaine d’années lui sera nécessaire pour maîtriser un procédé de fabrication des céramiques à l’aide de micro-ondes. C’est en rencontrant un prothésiste qu’il découvre que sa technologie pourrait intéresser le milieu de la dentisterie. Après une étude de marché, il crée en 2018 la start-up Opti’Waves, spécialisée dans la cuisson micro-ondes à haute température. Depuis septembre, la société commercialise un four spécialement adapté à la cuisson rapide des prothèses dentaires en zircone. Rencontre avec cet entrepreneur et enseignant à l’École des Mines de Saint-Étienne.

Techniques de l’Ingénieur : Quelle est l’origine de votre nouvelle technologie ?

Sébastien Saunier, fondateur d’Opti’Waves et enseignant à l’École des Mines de Saint-Étienne. Crédit photo : Opti’Waves

Sébastien Saunier : Face à l’augmentation du coût de l’énergie, nous avons décidé, avec l’École des Mines, de développer un procédé de cuisson des céramiques qui allie rapidité et économie d’énergie. Les techniques actuelles de cuissons sont très énergivores. À la base, les céramiques techniques sont couramment fabriquées à partir de l’alumine et de la zircone, deux oxydes qui se présentent sous la forme de poudre. Le compactage de cette poudre permet la mise en forme d’une pièce qui a alors la consistance d’une craie très friable et poreuse, de l’ordre de 50 %. Grâce à un processus de cuisson en dessous de la température de fusion, entre 1 500 à 1 600 degrés, également appelé densification, la pièce devient totalement dense. Les techniques conventionnelles de chauffage reposent sur l’utilisation de fours résistifs à l’aide de résistances chauffantes ou de fours à gaz. Les céramiques possédant une forte isolation thermique, la cuisson est longue car il est nécessaire de laisser le temps à la chaleur de pénétrer jusqu’au cœur du matériau. Nous avons décidé d’utiliser la technologie des ondes micro-ondes à haute température pour accélérer la vitesse de cuisson.

Comment fonctionne votre procédé de cuisson ?

Nous avons développé un four à micro-ondes qui fonctionne à une fréquence de 2,45 GHz, la même que celle des fours à micro-ondes ménagers. Par contre, les puissances utilisées sont plus élevées et sont comprises entre 1,5 à 6 KW en fonction du nombre et de la taille des pièces que l’on souhaite cuire. Contrairement aux aliments qui réagissent bien aux micro-ondes, car ils contiennent de l’eau, l’utilisation de cette technologie pour les céramiques est beaucoup plus difficile, car elles n’en contiennent pas. Les ondes électromagnétiques à haute fréquence entraînent un déphasage des défauts de structure de la céramique et vont provoquer des frottements et donc un échauffement. L’utilisation à la fois de la fréquence et de la puissance va produire une montée en température jusqu’à 1 600 degrés et permettre la cuisson. Alors qu’avec les chauffages conventionnels, la chaleur vient de l’extérieur puis doit pénétrer au cœur de la céramique, ici c’est le matériau lui-même qui est à l’origine de la montée en température grâce à sa réaction aux micro-ondes. La vitesse de cuisson est ainsi beaucoup plus rapide tout en obtenant une micro-structure du produit final homogène.

Depuis septembre, la start-up commercialise un four à micro-ondes spécialement adapté aux prothésistes, qui permet la cuisson de prothèses dentaires en zircone en 1 heure ou 1h30. Crédit photo : Opti’Waves

Quels sont les avantages de votre innovation ?

Le premier intérêt se situe au niveau du temps de chauffage. Nous avons développé un four à micro-ondes spécialement adapté aux prothésistes, qui permet la cuisson de prothèses dentaires en zircone en 1 heure ou 1h30 alors que les fours traditionnels nécessitent un temps de chauffage compris entre 8 et 15 heures. Ensuite, notre technologie permet de réaliser des économies d’énergie. Nous avons calculé que la facture énergétique pouvait être divisée par six, si l’on compare notre four avec ceux actuellement en service dans le milieu de la dentisterie. Notre procédé apportera également plus de flexibilité aux prothésistes, car actuellement ils regroupent les commandes et attendent parfois plusieurs jours avant de lancer un cycle de cuisson, ce qui rallonge les délais de fabrication des prothèses. Notre technologie permet également une cuisson plus homogène qu’avec un four traditionnel, ce qui permet de garantir des prothèses de haute qualité.

Quels sont les marchés potentiels ?

Nous sommes spécialisés dans la cuisson micro-ondes à haute température. Notre société Opti’Waves a été créée en 2018 et nous avons mis deux ans à concevoir un four de 45 kg spécialement adapté à la fabrication de prothèses dentaires en céramique, facile d’utilisation et qui répond pleinement aux attentes des prothésistes. Nous le commercialisons depuis septembre grâce à la mise en place d’un réseau de distribution national. Le dentaire représente notre premier marché applicatif, mais notre solution peut aussi intéresser d’autres domaines. Par exemple, celui de la mode et du luxe avec la fabrication de bijoux ou de pièces d’horlogerie comme des verres de montre en céramique. L’automobile représente un marché potentiel avec les bougies d’allumage, dont la partie blanche est en céramique. D’autres secteurs comme celui de l’aéronautique ou de la défense avec la balistique sont aussi des marchés cibles. Enfin, si l’on reste dans le domaine de la santé, certaines prothèses de hanche sont également fabriquées en céramique. Actuellement, nous nous intéressons aux céramiques, mais notre savoir-faire peut s’appliquer à d’autres matériaux qui nécessitent une cuisson à haute température comme le verre, le métal… Notre société compte dix salariés dont une grande proportion d’ingénieurs, car la recherche et le développement sont dans l’ADN de notre structure. Nous comptons développer notre technologie sur d’autres marchés applicatifs.

Un nouvel aimant moléculaire capable de rivaliser avec les aimants traditionnels

Moteurs, ordinateurs, smartphones, satellites, appareils électroniques, médicaux… les aimants sont partout autour de nous. Ces dernières années, la demande en nouveaux matériaux magnétiques n’a cessé d’augmenter. Traditionnellement, les aimants sont conçus à partir de matériaux inorganiques comme le néodyme et le samarium, mais leur processus de fabrication se révèle coûteux en énergie, car ils nécessitent d’être chauffés à très hautes températures, autour de 600­ degrés. De plus, ils sont fabriqués à partir de matériaux aux ressources limitées car présentes uniquement à certains endroits du monde comme la Chine et nécessitant d’importants procédés d’extraction. Des chercheurs du CNRS, de l’université de Bordeaux et de l’ESRF (European Synchrotron Radiation Facility) viennent de concevoir un nouvel aimant moléculaire, léger, facile à fabriquer et aux propriétés magnétiques quasi égales à celles des aimants traditionnels. Leurs travaux viennent d’être publiés dans la revue Science.

Qu’ils soient inorganiques ou conçus à partir de molécules organiques, les aimants possèdent tous des moments magnétiques, que l’on appelle également des spins au niveau atomique, et qui leur permettent d’acquérir des propriétés d’aimantation. Plus les spins sont proches les uns des autres, comme c’est le cas dans les aimants traditionnels, et plus les aimants possèdent un fort pouvoir d’aimantation. Par contre, dans le cas des aimants moléculaires, les spins étant séparés par des molécules organiques, leur densité magnétique est intrinsèquement moindre.

Une forte augmentation des interactions magnétiques entre spins

« En 2018, nous avons réalisé un premier travail de recherche et conçu un aimant organométallique à l’aide de la pyrazine, une molécule organique qui a la particularité de pouvoir se réduire et donc de posséder un spin. Nous l’avons associé à du chrome, un métal de transition, et réussi à fabriquer un matériau magnétique dont les spins communiquent entre eux de manière efficace », explique Rodolphe Clérac, directeur de recherche au CNRS, au Centre de Recherche Paul Pascal à Pessac. « Dans ce nouveau travail de recherche, grâce à un procédé chimique relativement simple à réaliser, nous avons réussi à partir du matériau synthétisé en 2018, à réduire toutes les pyrazines, déjà liées avec le chrome et ainsi augmenter de façon très importante les interactions magnétiques entre spins. »

Alors que jusqu’ici, la plupart des aimants moléculaires ne fonctionnent qu’à une température inférieure à -200 degrés Celsius (°C), ce nouvel aimant conserve ses propriétés à une température pouvant atteindre 242°C. Dans la littérature scientifique, il existe bien deux exemples d’aimants moléculaires capables de fonctionner à température ambiante mais qui ne possèdent pas d’effet mémoire. Cette propriété est reliée à ce qu’on appelle le champ coercitif et permet de quantifier la durée pendant laquelle l’aimant va conserver son aimantation, par exemple son état 1 ou 0. Elle est très importante, car elle permet le codage d’informations durant une durée déterminée et est à la base, par exemple, de la fabrication des disques durs traditionnels. « Nous avons réussi à augmenter l’effet mémoire de ce nouvel aimant moléculaire de 25 fois comparé aux précédents aimants de ce type conçus. Son champ coercitif est à présent au même niveau que celui des aimants traditionnels avec une valeur de l’ordre du tesla. »

Crédit photo Rodolphe Clérac CNRS

Seule différence entre ce nouvel aimant moléculaire et ceux traditionnels : l’amplitude de l’aimantation. Elle est en effet beaucoup plus grande chez les aimants inorganiques, car la densité des moments magnétiques (spins) est beaucoup plus élevée. Elle dépasse généralement les 5 g/cm³ et peut même atteindre 9 g/cm³ alors que la densité de ce nouvel aimant est comprise entre 1 à 2 g/cm³, ce qui en fait un aimant beaucoup plus léger.

Contrôler la propriété physique d’un matériau à partir de la chimie

Dans le futur, ce nouvel aimant pourrait donc servir à la fabrication d’objets technologiques dont le poids joue un rôle important, comme par exemple les satellites ou les smartphones. « Nos travaux se situent dans le domaine de la recherche fondamentale et consistent à contrôler la propriété physique finale d’un matériau à partir de la chimie. Je ne doute pas que ce nouvel aimant trouve des applications et viendra se positionner en complément des aimants traditionnels. »

Ce travail de recherche va se poursuivre, les chercheurs tentant à présent de cumuler d’autres propriétés à cet aimant moléculaire. Par exemple, en le rendant commutable c’est-à-dire en activant ou désactivant ses propriétés magnétiques à partir d’un stimulus extérieur comme la lumière, la température ou un champ électrique… Autre voie de recherche : lui faire conserver ses propriétés d’aimantation tout en le rendant capable d’être un bon conducteur électrique et ainsi être utilisé dans le champ de l’électronique moléculaire.

La Manche veut consolider l’écosystème hydrogène territorial

Le département de la Manche s’investit particulièrement dans la mobilité hydrogène depuis 2015. Il vient de lancer une « Charte H2 Manche » afin d’accompagner les entreprises de son territoire dans la découverte de ce vecteur énergétique. Le département veut ainsi susciter l’intérêt local en vue de fixer ses objectifs de déploiement d’infrastructures. « Si une entreprise s’intéresse à l’hydrogène, en signant la Charte H2 Manche, elle pourra être renseignée sur l’infrastructure prévue localement, l’autonomie et le coût d’un véhicule, les possibilités d’achat groupés et d’aides financières », prévient Matthieu Guesné, fondateur et PDG du producteur d’hydrogène Lhyfe.

Après avoir porté des projets sur les véhicules légers et les vélos, le département de la Manche porte désormais le projet ETHyR CoManche pour faire émerger une mobilité poids lourds dans le département. Dans le cadre de ce projet, Lhyfe a été retenu pour construire le site de production d’hydrogène qui alimentera trois nouvelles stations de distribution. « L’hydrogène doit être produit localement, selon des énergies locales adaptées au territoire, déclare Matthieu Guesné. En Vendée où nous construisons actuellement notre premier site de production d’hydrogène et pour notre site à venir dans la Manche, l’hydrogène est obtenu par électrolyse de l’eau à partir d’énergie éolienne. »

Construire un écosystème hydrogène dans le Grand Ouest

Le projet ETHyR CoManche n’est pas qu’un projet local. Il joue le rôle de pivot entre régions du Grand Ouest pour développer une cohérence territoriale de l’écosystème hydrogène sur l’ensemble du territoire. Il fait ainsi partie intégrante du projet « Vallée Hydrogène Grand Ouest », rassemblant les projets locaux des régions Bretagne, Pays-de-la-Loire et Normandie. Lhyfe, acteur clé du projet local ETHyR CoManche, fait également partie des coordinateurs de ce consortium.

Vallée Hydrogène Grand Ouest (VHyGO) joue un rôle structurant pour le développement de l’infrastructure nécessaire à la mobilité hydrogène. « Il faut désormais changer d’échelle, assure Matthieu Guesné. Les collectivités locales qui portent les projets doivent travailler ensemble pour construire des plans de déploiement de véhicules et de stations cohérents. »

L’ambition de VHyGO consiste à regrouper assez d’acteurs et d’initiatives locales pour commander ensemble un nombre important de véhicules à prix négocié, principalement dans la mobilité lourde. « L’objectif est d’arriver à des commandes autour d’une centaine d’unités par type de véhicules », partage Matthieu Guesné.

Cette mise en relation permettra aussi de mutualiser les infrastructures pour développer des sites de production locaux d’hydrogène par électrolyse de l’eau. Il sera enfin possible de mailler le territoire avec des stations-service délivrant cet hydrogène. « De Brest à Orléans et de Cherbourg à Bordeaux, les collectivités doivent se parler pour grouper les commandes de véhicules et planifier l’installation d’électrolyseurs », défend Matthieu Guesné.

L’hydrogène devient un pari politique

En 2018, le plan hydrogène du ministre de la transition Nicolas Hulot était doté de 100 millions d’euros. Le premier ministre Jean Castex a annoncé début septembre 2020 une nouvelle stratégie hydrogène consacrant 7 milliards d’euros au développement de la filière d’ici 2030, dont 2 milliards d’euros dès le plan de relance, pour les deux prochaines années. La Stratégie nationale pour le développement de l’hydrogène décarboné se fixe un objectif d’installation de 6,5 gigawatts d’électrolyseurs d’ici 2030 pour apporter une contribution significative à la décarbonation de l’économie et construire une filière industrielle française de l’électrolyse. Le développement d’une offre de mobilité lourde et des projets territoriaux d’envergure mutualisant les usages, comme le projet VHyGO, constitue une priorité.

Le plan de relance allemand consacre pour sa part 9 des 130 milliards d’euros de son plan de relance pour devenir le numéro un mondial de l’hydrogène d’ici 2030. Lhyfe se félicite du développement de l’intérêt national et international pour l’hydrogène. Alors que son premier site de production en Vendée devrait être mis en service en mai 2021, une quarantaine de sites utilisant sa technologie modulaire de production d’hydrogène grâce aux énergies renouvelables sont déjà en développement en France et en Europe.

Consigne pour réemploi : quelles perspectives ?

Les 4e rencontres techniques nationales de la consigne et du réemploi des emballages du Réseau Consigne organisées par l’association Réseau Consigne en ligne le 3 novembre dernier ont permis de faire le point sur le contexte politique et réglementaire autour de la consigne et du réemploi, ainsi que les perspectives pour les prochaines années. La loi relative à la lutte contre le gaspillage et à l’économie circulaire promulguée en février 2020 a notamment posé plusieurs objectifs pour le réemploi. Plus récemment, la Convention citoyenne pour le climat a proposé de développer le vrac et les consignes dans les lieux de distribution.

Le réemploi s’invite dans la loi française

La loi anti-gaspillage prévoit la fin de la mise sur le marché du plastique à usage unique d’ici 2040. Dans cette perspective, elle entrevoit des objectifs de réduction, de réemploi, de réutilisation et de recyclage par périodes consécutives de cinq ans. Un décret en cours d’élaboration devrait prochainement fixer les objectifs pour la période 2021–2025.

En plus, la loi établit un objectif de 5 % d’emballages réemployés mis sur le marché en 2023 et de 10 % en 2027. Elle prévoit également le réemploi et la réutilisation de 5 % du tonnage des déchets ménagers d’ici 2030. En accompagnement de ces objectifs, elle programme la création d’un observatoire du réemploi et de la réutilisation avant le 1er janvier 2021, dont le rôle exact et la gouvernance restent à définir.

Faire du réemploi une option du quotidien

« En plus de ces objectifs, quelques mesures pourraient favoriser l’essor des démarches de réemploi », partage Moïra Tourneur, responsable de plaidoyer chez Zerowaste France. La loi prévoit notamment que les grandes surfaces mettent à disposition des clients des contenants réemployables ou réutilisables lorsqu’il y a de la vente de produits sans emballage. Car comme le rappelle Sophie Nguyen, responsable réemploi et nouveaux services de collecte chez Citéo, l’usage unique peut aussi s’appliquer au vrac. « Lorsque je vais faire mes courses et que j’utilise un sachet kraft, que ce sachet kraft n’est pas rapporté en magasin, on est bien aussi dans de l’usage unique appliqué au vrac. »

« D’ici 2022, la restauration livrée devra se mettre au réemploi, puis en 2023 la restauration consommée sur place devra être obligatoirement servie dans des contenants réemployables, ajoute Moïra Tourneur. Cela peut éventuellement ouvrir une porte après pour la restauration à emporter. »

De nouveaux standards de réemploi et une interrogation sur la consigne

De nouvelles obligations voient le jour pour la REP emballage. D’ici janvier 2022, l’éco-organisme en charge des emballages ménagers Citeo devra définir des standards d’emballages réemployables pour la restauration, les traiteurs, les produits frais et les boissons. En plus, au minimum 2 % des écocontributions reçues par Citeo devront être consacrées au développement de solutions de réemploi et de réutilisation des emballages.

Malgré ces avancées, le lobbying des collectivités locales et des recycleurs contre le retour de la consigne pour les bouteilles en plastique a payé. Alors que la consigne fait partie des solutions pour atteindre l’objectif européen de collecter 90 % des bouteilles plastiques boissons d’ici 2029, l’arbitrage a été repoussé en 2023. « Tous les ans jusqu’en 2023, l’Ademe va évaluer la performance de collecte de bouteilles en plastique pour boissons et en fonction des résultats, l’Etat décidera en 2023 si l’on mettra en place des dispositifs de consigne pour recyclage et pour réemploi », partage Moïra Tourneur.

La Convention citoyenne pour le climat (CCC) propose en attendant de déployer progressivement un système de consigne pour réemploi pour les emballages en verre, avec une mise en place généralisée en 2025. Afin de limiter le suremballage et l’utilisation du plastique à usage unique, la CCC veut développer le vrac et les consignes dans les lieux de distribution. Elle suggère ainsi d’obliger progressivement tous les magasins à implanter du vrac et à imposer un pourcentage de vrac aux centrales d’achat. Ces propositions n’ont pas fait l’objet de jokers d’Emmanuel Macron ou d’autres ministres. À voir comment ils se retrouvent dans le projet de loi issu de la CCC qui devrait voir le jour d’ici la fin de l’année.

Un AMI en cours pour le réemploi des emballages en verre

Un appel à manifestation d’intérêt (AMI) a été lancé par Citéo et l’Ademe pour fournir un soutien technique et financier au développement de projets de réemploi d’emballages en verre. Cet AMI vise à améliorer la performance environnementale des dispositifs existants, à augmenter la part des emballages réemployables sur le marché français et à capitaliser sur ses propres résultats en formalisant des critères qui font qu’un dispositif de réemploi est performant par rapport à l’usage unique. La date limite de dépôt est fixée au 30 décembre 2020.

« Nous pensons qu’il y a toujours des marges de manœuvre pour améliorer la performance environnementale que cela soit à travers l’organisation territoriale de ces dispositifs ou à travers de nouvelles technologies de lavage, en adaptant l’emballage dès sa conception à cette vie de plusieurs rotations et plusieurs lavages », prévient Sophie Nguyen.

Enfin, le plan de relance voté en septembre prévoit de renforcer le fonds « Économie circulaire » de l’ADEME de 226 millions d’euros supplémentaires de 2020 à 2022. Une enveloppe de 40 millions d’euros sera dédiée en 2021 et 2022 au soutien au réemploi et aux activités de réduction ou de substitution des emballages plastiques notamment à usage unique. L’Ademe sera en charge de publier les différents cahiers des charges et de définir les axes prioritaires des projets.

Covid-19 : le plan de relance pour l’industrie est « à la hauteur des enjeux »

Après les forts ralentissements d’activités causés par le confinement du printemps dernier, les entreprises du secteur industriel français commençaient à voir leur situation s’améliorer. Avec cette nouvelle période de confinement, de nouvelles craintes surgissent au sujet des résultats de la fin de l’année. Mais pour Vincent Moulin-Wright, directeur général de France Industrie, organisation professionnelle représentative de l’industrie en France, plusieurs éléments permettent d’envisager l’avenir avec une relative sérénité. Selon lui, les mesures prévues par le plan de relance devraient permettre aux entreprises de résister durant cette nouvelle période troublée.

Techniques de l’Ingénieur : Comment l’industrie française accueille la nouvelle de ce nouveau confinement ?

Vincent Moulin-Wright : Face à la recrudescence de la circulation du virus, cette deuxième période de confinement est justifiée. Nous estimons que le gouvernement a trouvé un équilibre raisonnable entre enjeux sanitaires et enjeux économiques. C’est un changement positif dans l’approche, par rapport au premier confinement, qui permet de préserver l’activité industrielle tout en privilégiant le télétravail lorsque cela est possible.

Comment se comportent les entreprises face aux difficultés vécues cette année ?

Cette année, l’activité est en net recul par rapport à 2019. En mars, elle était réduite à 50 % par rapport à mars 2019, puis à 60 % en mai par rapport à mai 2019. Depuis le déconfinement, une lente reprise est en cours. Ainsi, le niveau d’activité du mois d’octobre représente 92 % de ce qu’il était un an auparavant. Nous commencions à peine à revenir vers une certaine normalité. La sous-activité commençait à se résorber, elle n’était plus que de 8 %. La sous-productivité induite par les contraintes sanitaires avait également diminué de 5 %. Ce nouveau confinement remet en cause ces timides progrès et nous replonge dans l’inquiétude et le manque de prévisibilité. Cela implique des risques importants tels que la désindustrialisation, ou encore un chômage de masse.

Quels sont les segments de l’industrie les plus touchés ?

Malgré les indices de reprise, trois secteurs sont encore sous surveillance : la sidérurgie, l’aéronautique et l’automobile. Les difficultés concernent également la sous-traitance industrielle qui fournit ces activités. Ce sont les entreprises qui travaillent dans les secteurs de la mécanique, ou encore de la métallurgie. D’autres secteurs souffrent également. Ce sont la santé, l’agroalimentaire, la construction, ou encore la chimie. Cette période doit être un moment charnière pendant lequel il est nécessaire de faire des choix cruciaux pour la survie et la transformation de notre économie et de notre pays.

Les entreprises sont-elles mieux armées aujourd’hui pour supporter un ralentissement de leurs activités ?

En mars, des mesures d’urgence ont permis de maintenir en partie l’activité économique et de préserver les emplois et les compétences notamment grâce à la mise en place des mesures de chômage partiel. Pour cette deuxième période, nous sommes dans une situation complexe car elle combine, pour certains, la mise en œuvre des mesures de relance pour le moyen terme, et pour d’autres, de nouvelles mesures d’urgence. Après ces confinements successifs, et peut-être d’autres à venir, les entreprises sont fragilisées. Difficultés de trésorerie, carnets de commandes à faible visibilité, exportations ralenties, fort absentéisme lié aux cas de Covid-19, font craindre aux entreprises un avenir morose.

Est-il possible de quantifier de manière chiffrée les pertes enregistrées par les entreprises industrielles depuis le début de l’année ?

Les perspectives annuelles restent sombres, avec une baisse significative de plusieurs indicateurs. Le chiffre d’affaires est en recul de 20 % dans certains secteurs. Il l’est bien plus pour l’aéronautique. La valeur ajoutée est également touchée, du fait de l’effondrement des marges. Mais c’est surtout la forte baisse de l’investissement qui est à craindre. Pour 2020-2021, nous craignons qu’elle s’élève à près de cinquante milliards d’euros. Le plan de relance compensera en partie, s’il n’impose pas de trop lourdes contraintes aux entreprises. Cela risquerait de décourager beaucoup de projets industriels.

Pensez-vous que le plan de relance est adapté aux attentes et aux besoins des industriels en difficulté ?

Le plan France Relance, annoncé le 3 septembre, est à la hauteur des enjeux. Sur les 100 milliards d’euros dont il dispose, 33 milliards sont dédiés à l’industrie. Nous considérons que ces mesures fortes vont permettre de rétablir durablement une industrie compétitive en France. Nous nous félicitions d’avoir réussi à faire entendre la voix des industriels exposés à la concurrence internationale en obtenant une baisse de dix milliards d’euros des impôts de production. Un souffle nouveau est donné à la politique industrielle de notre pays. C’est un vrai levier de transformation de nos entreprises industrielles, petites ou grandes, avec des outils et dispositifs dont nos chefs d’entreprise doivent se saisir sans plus attendre.

Observatoire des multinationales: le CAC40 loin d’être exemplaire

En septembre, EcoAct passait au crible la transparence des entreprises du CAC40 concernant leur reporting climat. Désormais, l’Observatoire des multinationales d’Attac passe au crible les données environnementales qu’elles publient dans le troisième chapitre de l’édition 2020 de « CAC40 : le véritable bilan annuel ». L’ensemble des groupes du CAC40 ont ainsi émis directement et indirectement environ 1,6 milliard de tonnes de CO2 dans l’atmosphère en 2019, soit environ 5 % des émissions mondiales de gaz à effet de serre. Les plus gros émetteurs déclarés sont Total (30 % des émissions du CAC40), suivi d’ArcelorMittal (12,2 %), Engie (11,4 %), Michelin (8,9 %), Crédit agricole (8,7 %), PSA (8,9 %) et Renault (6 %).

L’Observatoire relativise toutefois ce classement et les chiffres communiqués, biaisés par les différences de transparence et d’exhaustivité. « Parmi les banques, seul le Crédit agricole tient partiellement compte des émissions liées aux projets et firmes qu’il finance, ce qui explique qu’il figure dans cette liste et pas BNP Paribas ou la Société générale, notent les auteurs. D’autres gros émetteurs potentiels, comme Carrefour, ne publient pas de données complètes sur les émissions dans leur chaîne d’approvisionnement. »

Des émissions en hausse malgré des discours verts

Si l’on considère l’ensemble du CAC40, les émissions publiées ont baissé de 3,13 % depuis 2017. Cette baisse provient majoritairement du désinvestissement de plusieurs actifs liés au charbon d’Engie. Sans cela, les émissions déclarées du CAC40 sont en hausse de 2,6 % depuis 2017. Au total, vingt groupes ont vu leurs émissions augmenter entre 2017 et 2019. Les hausses sont particulièrement importantes pour Dassault Systèmes qui a multiplié ses émissions par 3,5 et Unibail qui a multiplié ses émissions par deux. Les hausses atteignent +60 % pour Essilor, +55 % pour Vivendi, +51 % pour PSA, +35 % pour Téléperformance, +26 % pour Danone et +21 % pour L’Oréal.

Plusieurs groupes communiquent leurs émissions de CO2 rapportées au chiffre d’affaires ou au nombre de salariés. « Cela suggère qu’elles [les entreprises, ndlr] restent guidées par un paradigme d’efficience ou de découplage, selon lequel il serait acceptable de continuer d’accroître ses activités et ses émissions de gaz à effet de serre, pourvu que celles-ci augmentent moins vite que les revenus », suggère le rapport. Les émissions baissent alors de 11 % et de 10,6 % respectivement entre 2017 et 2019. Sans Engie, les baisses s’élèvent respectivement à 6,5 % et 5,3 %. Douze groupes du CAC40 augmentent tout de même leurs émissions rapportées au chiffre d’affaires et quinze rapportées aux effectifs entre 2017 et 2019.

Le rapport aborde enfin les données liées aux consommations d’eau et aux quantités de déchets produits par les activités. Ces données sont là encore lacunaires et loin d’être standardisées, sans prise en compte des consommations indirectes. Selon les données partielles disponibles, 36 groupes déclarent la production de 707 millions de tonnes de déchets en 2019, en hausse de 12 % entre 2017 et 2019. Carrefour génère 98 % de ces déchets. 33 groupes annoncent la consommation de 750 millions de mètres cubes d’eau en 2019, en baisse de 2 % entre 2017 et 2019. C’est l’équivalent de 300 000 piscines olympiques. L’Oréal en consomme 16 %, Total 15 %, Air Liquide 13 %, Engie 12 % et Danone 10 %.

Sept pays menacent les objectifs climatiques de l’UE

L’Union européenne prévoit de relever son ambition de réduction des émissions de gaz à effet de serre pour 2030 de -40 % à au moins -55% par rapport à 1990. Dans son rapport Vision ou division ?, Ember a analysé les plans nationaux énergie-climat (PNEC) que doivent rendre les Etats membres et qui définissent les objectifs de mix électrique d’ici 2030, ainsi que les moyens alloués pour y parvenir.

Plus d’énergies renouvelables mais sept pays qui bloquent

La nouvelle analyse d’Ember montre que grâce aux bons élèves, la production d’électricité renouvelable est partie pour doubler dans l’UE d’ici 2030. Elle assurera alors près de 60 % de la consommation, contre 32 % en 2018. L’éolien et le solaire pourraient assurer 40 % de la consommation, contre 15 % en 2018. Le contenu carbone du kilowattheure serait divisé par deux sur la période, atteignant 150 grammes de CO2 équivalent (gCO2/kWh).

« Si notre analyse montre que de nombreux pays de l’UE ont déjà des plans ambitieux pour décarboner leur système électrique, nous avons également identifié sept pays clés qui bloquent les progrès de l’UE, partage Charles Moore, directeur du programme Europe de Ember et auteur principal du rapport. À moins qu’ils ne changent de cap, il sera extrêmement difficile d’atteindre une réduction des émissions de 55 %, sans parler de 60 %. »

Des énergies fossiles, toujours trop présentes, charbon en tête

Les sept pays pointés du doigt par Ember sont la Pologne, la République Tchèque, la Bulgarie, l’Allemagne, la Belgique, la Roumanie et l’Italie. Malgré des progrès, Ember estime qu’un quart de l’électricité européenne pourrait encore provenir de sources fossiles en 2030, contre 48 % en 2018. En Pologne et en Belgique, cette part tournerait même autour de 60 % en 2030. La Belgique est le seul pays où la part des combustibles fossiles augmente par rapport à 2018, suite à sa sortie du nucléaire.

En 2030, le charbon représentera encore au moins un tiers de la production totale d’électricité en Bulgarie, en République Tchèque et en Pologne. Les PNEC indiquent également des parts de charbon supérieures à 15 % en Allemagne, en Roumanie et en Slovénie. En Italie et en Belgique, la part élevée des combustibles fossiles en 2030 est presque entièrement constituée de gaz naturel.

Sept pays menacent les objectifs climatiques de l’UE

Divisée par deux, la production électrique à base de charbon serait alors concentrée à 90 % en Pologne, Allemagne et République Tchèque en 2030. L’intensité carbone du réseau électrique de ces pays serait ainsi respectivement de 566 gCO2/kWh, 248 gCO2/kWh et 425 gCO2/kWh. Ces pays pourraient alors concentrer ensemble environ 80  % des émissions liées au secteur électrique dans l’UE.

En 2030, la Pologne aura le réseau électrique le plus intense en carbone, devant la République Tchèque. Le pays sera le premier producteur de charbon, avec 40 % de la production électrique restante de l’UE à partir du charbon, l’Allemagne le second avec environ un tiers de la production. L’Allemagne sera pour sa part responsable d’environ 30 % des émissions du secteur électrique de l’UE, la République Tchèque de 22 %.