EPR de Flamanville : démarrage en vue

Le feuilleton de la construction de l’EPR de Flamanville semble toucher à sa fin. La nouvelle centrale nucléaire, dont les travaux ont démarré en décembre 2007 et ont été émaillés par plusieurs écarts et non-conformités, a vu le chargement de son combustible radioactif commencer en mai dernier. S’ensuivent plusieurs phases qui mèneront à l’exploitation des 1 630 MW du 57e réacteur du parc nucléaire français.

Initialement prévue pour 2012, la mise en service de l’EPR devrait être effective d’ici la fin de l’année. Mais on ne démarre pas une centrale nucléaire aussi facilement qu’un parc éolien. Plusieurs mois de montée en puissance et d’essais spécifiques sont prévus pour vérifier la bonne atteinte d’environ 1 500 critères de sûreté.

La première phase du démarrage a concerné le chargement du combustible dans la cuve du réacteur. 241 assemblages contenant l’uranium – chacun mesure 5 m de haut et pèse 800 kg – ont été ainsi placés dans la piscine du réacteur, depuis la piscine d’entreposage. Réalisée du 8 au 15 mai, cette étape a été contrôlée et validée par l’Autorité de sûreté nucléaire (ASN).

Fermeture de la cuve… éphémère

Cette première étape a été rendue possible grâce au feu vert de l’ASN le 7 mai. Avec sa décision de mise en service, le gendarme du nucléaire a entériné la capacité d’EDF à mener le démarrage de l’EPR, suite à plusieurs contrôles menés précédemment : inspections sur la préparation des essais, notamment ceux sur l’instrumentation du cœur du réacteur et sur ceux préalables au chargement du combustible, inspections sur la préparation des équipes d’exploitation, évaluations de conformité des équipements sous pression nucléaires, etc.

Après le chargement du combustible, la première phase du démarrage a été complétée par la mise en place, dans la cuve, des mécanismes de commandes de grappes et de l’instrumentation du cœur, équipements nécessaires à la maîtrise de la réaction nucléaire. Le couvercle de la cuve (145 tonnes) a ensuite été posé et fixé par le serrage de 52 goujons. On se rappelle néanmoins que ce couvercle, ayant subi des anomalies de fabrication, aurait dû être changé dès cet été, et que l’ASN a autorisé le report de ce remplacement au premier arrêt pour rechargement du réacteur, soit 15 à 18 mois après sa mise en service.

EDF a poursuivi avec la deuxième phase du démarrage : les essais précritiques à froid à 55 °C. Le circuit primaire a été mis sous vide, les tuyaux en épingle du générateur de vapeur ont été remplis par l’eau du circuit primaire, ainsi que la cuve et le pressuriseur. Le démarrage des quatre pompes primaires a permis l’éventage du circuit primaire, c’est-à-dire la suppression d’air résiduel dans le circuit. Les essais à froid sont complétés par des tests de l’instrumentation du cœur nécessaire aux mesures des températures, du niveau d’eau dans la cuve et du flux neutronique. Les 89 grappes de commande sont également testées, notamment leur temps de chute dans la cuve, dispositif crucial en cas d’urgence pour un arrêt automatique du réacteur.

Arriver à la divergence

La troisième phase du démarrage est celle des essais précritiques à chaud. Elle a pu démarrer le 20 juin, avec la montée en pression (155 bar) et en température (304 °C) du circuit primaire. Ce palier d’arrêt à chaud a conduit à faire passer le pressuriseur en état diphasique, ce qui permet de maintenir l’eau du circuit primaire à l’état liquide. Le passage de la température de 110 °C a fait l’objet d’une non-objection de l’ASN, nécessaire pour continuer, car c’est la température réglementaire pour déclarer la mise en service des circuits primaires et secondaires. La montée en température a d’ailleurs donné la possibilité de faire des essais sur les générateurs de vapeur.

Lors de tous ces essais, plusieurs événements significatifs pour la sûreté dont trois au niveau 1 de l’échelle INES ont été déclarés par EDF à l’ASN. Début juin, cela a conduit l’énergéticien national à suspendre momentanément les opérations de démarrage. La mise en place d’actions correctives montre qu’EDF est encore en phase d’apprentissage et que la vigilance reste de mise.

Par la suite, le flux neutronique va être augmenté en diluant le bore contenu dans le circuit primaire, induisant la divergence du réacteur, c’est-à-dire le lancement de la réaction en chaîne nucléaire. Celle-ci doit advenir courant juillet. Elle devra être approuvée par l’ASN, tout comme la poursuite des essais à une puissance supérieure à 25 % de la puissance nominale, ainsi que le passage à 80 %.

Après la divergence, EDF pourra coupler la turbine au réseau électrique cet été. Et délivrer enfin des électrons aux Français, presque 20 ans après la loi d’orientation du 13 juillet 2005 qui donna officiellement naissance au projet, et pour un coût total de 19 milliards d’euros, frais financiers inclus. Une augmentation des délais (+ 12 ans) et des coûts (+ 15,7 milliards d’euros) qui n’auraient été tolérés dans aucune autre industrie…

L’IA générative recherche sa « killer app »

En quelques mois, l’intelligence artificielle générative s’est imposée comme une technologie disruptive. Selon McKinsey, elle a le potentiel de générer une valeur annuelle supplémentaire de 200 à 340 milliards de dollars pour le secteur bancaire, et jusqu’à 660 milliards de dollars dans celui de la vente au détail et des biens de consommation.

Pour Sam Altman, PDG d’OpenAI (éditeur de ChatGPT), les outils alimentés par l’IA changeront notre façon d’aborder le travail et la vie sur des dizaines de fronts, y compris l’innovation d’entreprise. « Ce sera la plus grande technologie que l’humanité ait jamais développée », a-t-il affirmé lors d’une interview en 2023.

Peut-être. Pour l’instant, l’excitation suscitée par l’IA – et en particulier la GenAI – s’est transformée en hystérie. Toutes les entreprises de la tech et des startups ont multiplié à l’envi les annonces estampillées IA (et c’est encore plus vendeur avec « GenAI »…). Principal objectif : attirer des investisseurs. Mais le réveil commence à être douloureux.

Malgré ses avancées impressionnantes, cette technologie repose sur des bases fragiles. Alors que les acteurs en amont, notamment les géants du GPU comme Nvidia, profitent d’une manne financière grâce à l’explosion de la demande de calcul, les développeurs en aval qui utilisent des modèles d’IA peinent à traduire cette solution en gains de productivité tangibles ou en flux de revenus.

Défis majeurs

L’intérêt des entreprises pour l’IA et la GenAI n’est plus à démontrer. Cependant, si l’intérêt est grand, l’adoption réelle reste très faible, ce qui indique que ces technologies n’en sont qu’à leurs débuts. Différents défis seront à relever.

Pour les professionnels, le principal challenge est de comprendre « où et comment » intégrer efficacement la GenAI. Cela passera nécessairement par des analyses de rentabilité, en évaluant les risques et en effectuant des tests de validation avant d’intensifier les déploiements. Cette approche prudente permettra aux entreprises d’exploiter la GenAI de manière stratégique, en maximisant les avantages tout en atténuant les inconvénients potentiels.

La sécurité (et l’éthique) reste un second défi pour celles qui s’aventurent dans la GenAI. Il sera essentiel de sécuriser les données de formation, en veillant à ce qu’elles soient exemptes d’erreurs et de biais. Sans parler des risques de fuites de données lorsqu’on utilise ChatGPT. Récemment, le New York Times a révélé que le réseau informatique d’OpenAI avait été piraté… au premier trimestre 2023. L’éditeur semble plus bavard pour évoquer et teaser sur la puissance de son futur modèle GPT-5 que sur cette faille de sécurité…

Malgré ces deux défis majeurs, la GenAI devait initialement changer la donne en mettant une IA puissante à la portée de tous. Elle devrait favoriser des améliorations spectaculaires dans trois domaines.

  • Le support client : Des interactions plus intelligentes et plus rapides avec des services aux clients et aux employés alimentés par l’IA.
  • Le travail créatif : Génération de musique, d’images et de vidéos à partir de simples invites (ou prompts en anglais).
  • La productivité des développeurs : Accélération de l’écriture du code, des tests et de l’automatisation.

À mesure que les entreprises se familiariseront avec les capacités de l’IA, le taux d’adoption progressera, passant des applications de base à des processus plus transformateurs pilotés par l’IA qui pourraient avoir un impact significatif sur les pratiques de l’industrie et l’efficacité opérationnelle. C’est à ce moment qu’une killer app verra peut-être le jour.

L’Europe peine à s’entendre sur un niveau de réduction du gaspillage alimentaire

Chaque année dans l’Union Européenne (UE), plus de 58 millions de tonnes de déchets alimentaires sont produites, soit une perte estimée à 132 milliards d’euros. Ce gaspillage représente environ 16 % des émissions totales de gaz à effet de serre du système alimentaire européen. Face à cette situation, le Conseil de l’UE vient d’adopter sa position sur la révision de la directive-cadre sur les déchets, notamment alimentaires. Il propose de réduire le gaspillage de 10 % au niveau de la transformation et de la fabrication d’ici à 2030 et de 30 % (par habitant) dans le commerce de détail, les restaurants, les services de restauration et les ménages.

Ces objectifs sont le fruit d’un compromis adopté par les ministres européens de l’Environnement. Ils se révèlent moins ambitieux que ceux formulés en mars dernier par le Parlement européen qui souhaitait réduire les déchets d’au moins 20 % dans la transformation et la fabrication des aliments et d’au moins 40 % dans le commerce de détail, les restaurants, les services alimentaires et les ménages. Mais ils sont sensiblement les mêmes que les propositions de la Commission européenne formulées en juillet 2023.

Pour parvenir à cette position, le Conseil de l’UE a ajouté un certain nombre de flexibilités. Ainsi, l’année de référence qui sert de base de calcul à la réduction, a été fixée à 2020, mais les États membres sont autorisés à utiliser une année antérieure, à condition qu’une méthode adéquate de collecte des données soit validée. Des facteurs de correction ont également été introduits afin de tenir compte des fluctuations liées au tourisme et aux niveaux de la production dans la transformation et la fabrication des denrées alimentaires par rapport à l’année de référence.

Reste que ces objectifs de réduction du gaspillage alimentaire sont inférieurs à ceux fixés par le Pacte vert (Green Deal). Dans cette initiative, l’UE s’était en effet engagée à atteindre les objectifs de développement durable des Nations unies, à savoir, réduire de moitié le gaspillage alimentaire par habitant au niveau de la vente au détail et des consommateurs d’ici à 2030, ainsi qu’à réduire les pertes alimentaires le long des chaînes de production et d’approvisionnement. Des discussions doivent à nouveau être engagées avec le Parlement européen en vue d’adopter le texte final de révision de la directive-cadre sur les déchets.

Les quantités de déchets produits par habitant varient de 68 à 397 kg par an

Ces difficultés à s’entendre sur un niveau de réduction en Europe sont en partie liées à la grande hétérogénéité des quantités de déchets produits par les pays membres. Ainsi, avec 129 kg de déchets alimentaires produits par habitant et par an, la France se situe au niveau de la moyenne européenne, qui s’élève à 131 kg, tout comme l’Allemagne (131 kg). Avec respectivement 397 kg et 262 kg par habitant, Chypre et la Belgique sont les deux pays qui en produisent le plus, tandis que la Slovénie (68 kg) et la Croatie (71 kg) sont ceux qui en produisent le moins.

Mais surtout, certains pays ont depuis plusieurs années adopté un plan d’action pour réduire ces déchets et se sont déjà fixé des objectifs plus ambitieux. À l’image de la France, qui s’est engagée dès 2013 dans une lutte contre le gaspillage alimentaire et a aujourd’hui l’intention de réduire de 50 % le gaspillage (par rapport au niveau de 2015) d’ici à 2025 aux niveaux de la distribution alimentaire et de la restauration collective, et d’ici à 2030 aux stades de la consommation, de la production, de la transformation et de la restauration commerciale. De son côté, l’Allemagne souhaite diminuer de moitié le gaspillage alimentaire par habitant au niveau du commerce de détail et des consommateurs d’ici à 2030 et a débuté une stratégie nationale dès 2019.

Pour atteindre son objectif, la France a pris de nombreuses dispositions législatives, comme l’interdiction de rendre impropre à la consommation des denrées encore consommables qui s’applique aux industries agroalimentaires, aux grossistes, aux distributeurs et à la restauration collective. Au-delà d’un chiffre d’affaires annuel de 50 millions d’euros, ces acteurs ont l’obligation de proposer une convention de don à une association habilitée. Des sanctions ont parallèlement été renforcées. En cas de destruction d’invendus alimentaires encore consommables, les contrevenants s’exposent à une amende pouvant atteindre jusqu’à 0,1 % du chiffre d’affaires du dernier exercice clos.

NVIDIA : du petit fabricant de puces pour jeu vidéo au géant de l’IA

C’est une histoire comme les aiment les Américains. Cette fois, il ne s’agit pas du mythique garage (une histoire d’ailleurs un peu trop romancée comme l’a précisé Steve Wozniak cofondateur d’Apple), mais d’un restaurant. Trois ingénieurs – Jensen Huang, Chris Malachowsky et Curtis Priem – se sont réunis dans un restaurant qui est aujourd’hui au cœur de la Silicon Valley.

Objet de la discussion : développer une puce informatique qui rendrait les graphiques des jeux vidéo plus rapides et plus réalistes. C’est ainsi qu’est né Nvidia en 1993. 31 ans plus tard, l’entreprise est valorisée à plus de 3 200 milliards de dollars et elle est toujours dirigée par Jensen Huang.

Le PDG de Nvidia a su tirer profit de l’intelligence artificielle pour booster son activité. En 2006, des chercheurs de l’université de Stanford avaient en effet découvert que les GPU (Graphics Processing Unit) avaient une autre utilité : ils pouvaient accélérer les opérations mathématiques, ce que les puces de traitement ordinaires ne pouvaient pas faire.

Un pari risqué

Six ans plus tard, Alexnet, une IA capable de classer des images, avait été développée en utilisant seulement deux GPU programmables de Nvidia. Rapidement, des informaticiens ont intégré ces cartes graphiques non pas pour jouer, mais pour accélérer leurs outils.

Le pari était risqué pour Nvidia. Alors que les GPU traditionnels étaient principalement conçus pour le rendu des graphiques dans les jeux vidéo et les applications visuelles, les GPU programmables peuvent être personnalisés pour effectuer diverses tâches de calcul au-delà du simple traitement graphique.

La suite est connue : l’intelligence artificielle a commencé à être intégrée dans différents programmes et appareils. Et ChatGPT a permis de franchir une nouvelle étape avec l’intelligence artificielle générative.

Qualifié de « prochaine révolution industrielle », l’IA intéresse de plus en plus les entreprises et en particulier les big tech. Résultat, les puces Nvidia sont dans tous les datacenters faisant tourner des algorithmes. Selon un récent rapport de CB Insights, Nvidia détient environ 95 % du marché des GPU pour l’apprentissage automatique.

Par exemple, ChatGPT d’OpenAI s’appuie sur 10 000 unités de traitement graphique de Nvidia regroupées dans un superordinateur appartenant à Microsoft. Chaque puce IA coûte environ 10 000 dollars…

Actuellement, Nvidia est tellement en avance sur son temps qu’elle ne rencontre pas de véritables concurrents. Sa domination semble assurée pour l’instant. Cela va-t-il durer ? D’autres grandes sociétés de semi-conducteurs commencent à se montrer assez offensives. AMD et Intel fabriquent également des GPU dédiés aux applications d’IA.

Récemment, AMD a affirmé que ses nouvelles puces Instinct MI300X étaient plus rapides que la H100 de Nvidia et qu’elles avaient le potentiel d’offrir de meilleures performances de calcul.

Google a ses unités de traitement tensoriel (TPU), utilisées non seulement pour les résultats de recherche, mais aussi pour certaines tâches d’apprentissage automatique. Enfin, Amazon a une puce sur mesure pour l’entraînement des modèles d’IA.

Le principal risque pour Nvidia est que des entreprises pourraient fabriquer leurs propres puces IA. Cela s’est déjà produit par le passé. Par exemple, pendant des années, Intel a été le fournisseur de puces privilégié d’Apple. Mais, en 2020, le fabricant de l’iPhone a décidé d’utiliser ses propres puces dans ses appareils, mettant ainsi fin à un partenariat de 15 ans avec Intel.

La domination de Nvidia n’aiguise pas uniquement l’appétit des autres fondeurs. Les régulateurs aussi sont sur les rangs. L’Autorité française de la concurrence pourrait l’inculper pour pratiques anticoncurrentielles présumées.

La France, figure de proue du transport maritime à la voile

200 à 300 millions de tonnes. Telle est, selon les estimations, la masse de carburants consommée chaque année par un secteur central de notre économie mondialisée : le transport maritime. Une véritable clé de voûte des échanges commerciaux internationaux, qui se révèle ainsi, à elle seule, à l’origine de l’émission dans l’atmosphère de pas moins de 1 076 millions de tonnes d’eqCO2 par an, et pèse ainsi pour près de 3 % des émissions annuelles mondiales de gaz à effet de serre d’origine anthropique[1]. À l’heure où l’atteinte de la neutralité carbone d’ici à 2050 s’impose plus que jamais comme un impératif, décarboner le transport maritime mondial semble ainsi constituer un sacré défi…

C’est pourtant bel et bien ce que vise l’institution spécialisée des Nations Unies chargée, notamment, de prévenir la pollution des mers et de l’atmosphère par les navires : l’Organisation maritime internationale (OMI). Après avoir fixé, en 2018, l’objectif d’une réduction de 50 % des émissions du secteur à l’horizon 2050 par rapport à 2008, l’institution a en effet révisé sa stratégie en juillet 2023 et dévoilé alors de nouvelles ambitions, parmi lesquelles figure, notamment, celle de « parvenir à réduire à zéro les émissions nettes de GES [des transports maritimes internationaux] avant ou vers 2050 ». Reste donc désormais aux acteurs du secteur, à trouver – et à mettre en œuvre – les solutions techniques ad hoc. Parmi elles, les carburants dits « alternatifs », tels que les e-carburants ou l’hydrogène, sont sans doute celles qui suscitent le plus d’engouement. Autour de ces carburants de nouvelle génération flottent toutefois encore de nombreuses incertitudes et questions d’ordre technique, économique ou encore de sécurité – sans parler des risques de compétition entre usages terrestres et maritimes. « Le maritime est loin d’être le seul secteur restant à décarboner… », rappelle en effet à ce titre Lise Detrimont, déléguée générale d’une association française – Wind Ship – qui s’est justement construite depuis sa création en septembre 2019 autour d’une solution de décarbonation radicalement différente : la propulsion par le vent. Sous ses apparences a priori anachroniques, la voile s’annonce en effet comme une approche particulièrement prometteuse pour réduire les émissions de gaz à effet de serre liées au transport maritime mondial, comme le démontrent notamment de nombreux acteurs français.

TOWT : mise à flot imminente…

TOWT, maritime, vélique
Basée au Havre, TOWT s’est lancée en 2022 dans la construction de voiliers-cargos « uniques au monde ». © PIRIOU

Plutôt que de faire à nouveau voguer des galions sur les mers du globe, ce sont en effet bien souvent des navires à voiles d’un genre nouveau que les quelque 50 adhérents de la structure associative française entendent mettre à flot et s’attellent ainsi chacun à développer avec leur propre recette.

C’est notamment le cas de TOWT qui, après avoir misé dès 2010 sur des navires à voile traditionnels – les vieux gréements – s’est lancée en 2022 dans la construction de voiliers-cargos « uniques au monde », qu’elle qualifie volontiers de « véritables prouesses technologiques ». D’une longueur de 81 mètres, pour une capacité de chargement de 1 200 tonnes, ces voiliers 2.0 se destinent au transport de marchandises entre l’Europe et les Amériques, l’Asie ou encore l’Afrique. Le tout, en « propulsion principale vélique », c’est-à-dire avec des moteurs « la plupart du temps éteints ».

À la clé, selon les chiffres avancés par l’entreprise basée au Havre, une diminution de plus de 95 % des émissions de CO2 par rapport aux porte-conteneurs carburant à l’énergie fossile. Ceci, sans pour autant faire chuter drastiquement leur vitesse commerciale, estimée en effet à 11 nœuds[2] de moyenne par TOWT. « Nos voiliers-cargos vont permettre non seulement de décarboner radicalement [le secteur], mais également d’aller plus vite : c’est contre-intuitif, mais ils offriront un meilleur lead time qu’un transport fossile », assure en outre la compagnie havraise, qui vient d’ailleurs tout juste d’annoncer la première sortie en mer d’Anémos, qui sera bientôt rejoint par Artemis. Deux « sisterships » ou navires-jumeaux, auxquels s’ajouteront d’ici à 2027 six autres membres de cette famille navale en devenir, comme l’a en effet annoncé TOWT le 30 avril dernier. Une compagnie de transport maritime qui est ainsi loin d’être la seule en France à surfer sur la vague du transport vélique

Towt, voiliers
À terme, ce ne sont pas moins de huit voiliers-cargos que TOWT ambitionne de mettre à flot. © PIRIOU – TOWT

De nombreux autres acteurs hexagonaux, et un soutien manifeste de l’État

Créée en 2018, la start-up française Ayro développe par exemple les Oceanwings, des ailes semi-rigides destinées à équiper tant les yachts de plaisance que les cargos de transport de marchandises. Reposant sur une technologie brevetée, la solution se déploie, se replie et s’ajuste automatiquement grâce à l’action combinée de capteurs et d’un logiciel développé par la jeune pousse, comme elle l’explique sur son site internet : « Des capteurs sur le navire mesurent le vent en temps réel. [Notre] logiciel propriétaire analyse les données en temps réel et envoie des instructions aux actionneurs contrôlant les Oceanwings®. Des actionneurs ajustent enfin l’angle d’attaque et la courbure de chaque voile de manière indépendante ».

L’approche novatrice a ainsi notamment déjà séduit la compagnie maritime française EuroGreen Maritime. L’entreprise varoise a en effet annoncé en avril dernier la signature d’un contrat d’affrètement de sept ans avec la compagnie pétrolière Equinor, qui prévoit la construction de quatre tankers à propulsion hybride équipés d’une paire d’ailes Oceanwings®, en complément de moteurs dual-fuel alimentés au méthanol. Une combinaison de technologies propres qui permettra, selon EuroGreen Maritime, de diminuer de plus de 45 % les émissions de gaz à effet de serre des navires, mais également de réduire respectivement de 95 % et 50 % les rejets atmosphériques d’oxydes de soufre (SOx) et d’azote (NOx).

EuroGreen Maritime , Tanker
EuroGreen Maritime (EGM) a annoncé il y a peu la signature d’un contrat d’affrètement de sept ans avec la compagnie pétrolière Equinor, qui prévoit la construction de quatre tankers à propulsion hybride équipés d’une paire d’ailes Oceanwings®. © EGM-MR

Autres exemples : celui de Vela – qui conçoit à Bayonne un trimaran nouvelle génération destiné au transport de marchandises 100 % à la voile, dont un premier exemplaire devrait prendre la mer en 2025 –, ou encore celui de l’équipementier nazairien Computed Wing Sails (CWS), qui a en effet quant à lui annoncé en avril dernier avoir reçu une approbation de principe (ou AiP, Approval In Principle) pour sa « voile-aile » asymétrique rigide et pliable, baptisée Airfin350…

Des exemples parmi tant d’autres[3], qui témoignent ainsi de l’ébullition que connaît le secteur au niveau national. Une dynamique qui a d’ailleurs connu un point d’orgue en mars dernier, avec la signature par Roland Lescure, ministre délégué chargé de l’Industrie et de l’Énergie, et Hervé Berville, secrétaire d’État chargé de la Mer et la Biodiversité, d’un « Pacte vélique », visant à soutenir et à « mettre à l’honneur » les acteurs de la propulsion des navires par le vent.

« Le développement du secteur vélique français est une opportunité majeure de réindustrialisation verte », a ainsi déclaré Roland Lescure, qui entend d’ailleurs « positionner la France en leader mondial sur ces technologies ».

« Ce pacte constitue le signal déclencheur du changement d’échelle nécessaire à la consolidation d’un marché émergent et prometteur », a quant à elle ajouté la déléguée générale de l’association Wind Ship Lise Detrimont, avant de dévoiler les objectifs ambitieux de la filière vélique française : créer, d’ici à 2030, plusieurs milliers d’emplois dans ce secteur, tout en évitant l’émission dans l’atmosphère d’un million de tonnes de CO2.


[1] Chiffres pour 2018, publiés en 2020

[2] Contre 15 à 25 nœuds environ pour un porte-conteneurs conventionnel.

[3] Sans parler de Wisamo (Michelin), de Beyond the sea, de SolidSail (Chantiers de l’Atlantique), de Seawing (Airseas), de Grain de Sail, de Zéphyr & Borée, ou encore d’ACCWING et de son concept A.S.Cargo. (Liste non exhaustive.)

Soutien aux véhicules électriques : un leasing à développer ?

Pour une fois, la France fait mieux que la moyenne européenne. En 2023, la part de marché des véhicules électriques neufs a atteint 17 % en France en 2023, contre 15 % à l’échelon européen. Le marché commence à décoller, alors que les véhicules électriques neufs ne représentaient encore que 2 % des ventes en France en 2019. Mais le soutien au développement des véhicules électriques est-il adapté ? C’est la question à laquelle répondent deux économistes dans une nouvelle note d’analyse de France Stratégie.

Des subventions et un malus bienvenus

En France, le soutien public pour développer les ventes de motorisation électrique repose avant tout sur des subventions à l’achat. C’est notamment la prime à la conversion et le bonus écologique désormais réservés aux seuls véhicules entièrement électriques, et non plus hybrides même rechargeables, dont le prix d’achat n’excède pas 47 000 euros. Le dispositif de soutien prévoit aussi un malus progressif portant sur les émissions de CO2 (pour tout véhicule émettant plus de 117 gCO2/km) et un malus progressif au poids pour les véhicules thermiques (et hybrides rechargeables à partir du 1er janvier 2025) de plus de 1,6 tonne. En 2023, 37,7 % des immatriculations de véhicules neufs ont été soumis au malus.

« Le bonus-malus expliquerait 40 % de la progression de la part de marché des véhicules électriques de 2019 à 2021, et un tiers de la réduction des émissions des véhicules neufs, résume l’avis de France Stratégie. Le coût pour les finances publiques serait de 600 euros par tonne de CO2 évitée, voire 800 euros en tenant compte des pertes de recettes fiscales induites. »

Le surcoût à l’achat, un frein pour les ménages modestes

Le dispositif semble particulièrement séduire les particuliers. Les ménages représentent 47,5 % des ventes de véhicules neufs, mais 65 % des ventes de véhicules électriques. « Le surcoût à l’investissement entre des citadines électrique et thermique est rentabilisé par des gains à l’usage de trois à six ans pour un ménage modeste éligible au bonus et à la prime à conversion (contre dix ans pour un ménage “supérieur”) », calcule France  Stratégie.

Pour autant, le surcoût pour l’achat d’un véhicule neuf électrique par rapport à un thermique reste un frein pour les ménages modestes. Malgré un bonus de 7 000 euros contre 4 000 euros pour les revenus plus élevés, ils ne représentent que 15 à 20 % des bénéficiaires du bonus. Le marché de l’occasion qui concentre la plupart des transactions des ménages (85 %) ne permet pas encore de démocratiser le véhicule électrique pour cette tranche de la population. Les véhicules électriques y demeurent particulièrement rares, puisque seulement 1,5 % du parc y est électrique.

En ce sens, France Stratégie voit dans le leasing électrique « une voie à poursuivre » pour éviter aux ménages un lourd investissement. Avec 50 000 dossiers déposés par les ménages modestes début 2024, c’est déjà plus que les 30 000 bonus écologiques demandés par cette catégorie de la population en 2023. France Stratégie ajoute : « Pour les ménages intermédiaires et supérieurs, il s’agira de trouver l’équilibre entre hausse du malus pour les véhicules thermiques et baisse du bonus pour l’électrique. L’intervention publique gagnerait également à cibler des véhicules de taille raisonnable et produits avec de l’énergie décarbonée. Le score environnemental constitue une avancée importante en la matière. »

Marceau Coupechoux : « À propos de la 5G, l’efficacité énergétique n’est pas suffisante, elle doit être complétée par des mesures de sobriété »

La croissance reste soutenue, avec plus de 5 millions de cartes supplémentaires par an depuis un an selon l’Arcep¹. Les entreprises aussi utilisent de plus en plus la 5G pour la télémaintenance, l’utilisation d’outils connectés, les visioconférences en HD… Mais tous ces usages ont un coût qui ne cesse d’augmenter et ont des impacts sur l’environnement.

La Société informatique de France (SIF), une Association loi 1901, a entamé une série d’articles sur les enjeux de la 5G. Explications avec Joris Coudreau qui a participé au rapport du Shift Project sur les Mondes Virtuels et Marceau Coupechoux de Telecom Paris (ENST) qui a aussi participé au rapport du Shift Project sur les Réseaux.

Marceau Coupechoux
Crédit photo : DR

Marceau Coupechoux est Professeur à Telecom Paris et Professeur chargé de cours à l’École Polytechnique. Il enseigne et effectue ses recherches dans le domaine de l’évaluation des performances, l’optimisation, l’algorithmie des réseaux sans fil et leurs impacts environnementaux. Il a participé au rapport du Shift Project sur les Réseaux.  Il est membre du groupe de recherche CNRS EcoInfo qui cherche à réduire les impacts environnementaux et sociétaux négatifs des technologies du numérique et dont plusieurs membres sont co-auteurs de l’article sur la 5G de la revue 1024 de la SIF.

 

 

Joris COUDREAU-Shift Project
Joris COUDREAU est consultant indépendant et contributeur au Shift Project (Crédit photo : Gwenola LEMASSON)

Après une quinzaine d’années au service de grandes DSI sur des sujets d’architecture des systèmes d’information et d’optimisation des méthodes et outils, Joris Coudreau accompagne depuis trois ans les organisations et collectivités dans leur transition écologique (décarbonation, adaptation et résilience, sobriété numérique). Animateur de la fresque du climat et de la fresque du numérique, formateur aux enjeux du numérique responsable et à l’écoconception des services numériques, il contribue également aux travaux du programme « LeanICT » du Shift project (évaluation des impacts énergétiques et climatiques du numérique).

Techniques de l’Ingénieur : L’amélioration de l’efficacité énergétique est une condition nécessaire pour la viabilité économique de la 5G. Est-ce le seul point sur lequel il faut se focaliser ?

Marceau Coupechoux : L’efficacité énergétique et l’optimisation sont des problématiques qui ont toujours été traitées depuis l’apparition des réseaux. Il n’y a pas de rupture particulière avec la 5G, que ce soit au niveau du hardware, des composants électroniques ; il y a des améliorations continues. Au niveau du protocole 5G, lorsque pour la première fois l’Union internationale des télécommunications a fixé les exigences, elle a parlé d’efficacité énergétique et qu’il était nécessaire que tout soit optimisé lorsqu’il y a beaucoup de trafic. Il fallait que les protocoles puissent se mettre en mode veille assez facilement dès qu’il y a moins de connexions. Mais l’efficacité énergétique, c’est-à-dire le nombre de bits transmis par unité d’énergie, c’est seulement un élément de la problématique. Si le nombre de bits ne cesse d’augmenter, nous ne pouvons pas réduire la facture énergétique.

L’efficacité énergétique n’est pas suffisante. Elle doit être complétée par des mesures de sobriété, car pour l’instant la croissance des réseaux est tirée par la croissance du trafic et du nombre de terminaux, d’antennes… Collectivement, il faut fixer des limites en régulant notamment le trafic.

Joris Coudreau : On ne peut plus aborder la question de l’efficacité énergétique en occultant celle de ces potentiels effets rebonds.

Le problème est l’augmentation du trafic et du volume de données ?

Marceau Coupechoux : Oui. L’Agence internationale de l’énergie (AIE) a publié un rapport fin 2023 qui indiquait que les besoins énergétiques des datacenters pourraient devenir si élevés que leur besoin en électricité équivaudrait à celui de l’ensemble du Japon, soit plus de 1 000 TWh d’ici 2026. Cette augmentation s’explique notamment par le volume de données qui explose, mais les deux principales causes sont le recours massif à l’intelligence artificielle et le développement des cryptomonnaies. Il est essentiel de se focaliser sur les usages actuels et encore plus sur les futurs usages. Par exemple, les metavers sont-ils vraiment indispensables ou sont-ils une énième galerie commerciale virtuelle dans laquelle on incitera les usagers à acheter un t-shirt ?

Joris Coudreau : Nous ne voyons qu’un petit bout du problème.

Nous manquons de recul. Il ne faut pas en effet se focaliser sur un seul élément (l’efficacité énergétique des infrastructures). Il faut tenir compte du coût énergétique (et écologique!) complet de fabrication (extraction, assemblage, transport…) de tous ces composants nécessaires pour répondre à la demande. Sans oublier les pénuries de minerais qu’il contribue à accélérer, avec les problèmes géopolitiques d’approvisionnement déjà sous-tendus. L’IA peut être utile pour l’efficacité, mais combien coûte sa mise en place pour atteindre cet objectif ? La problématique est la même pour les capteurs industriels. Le sujet n’est pas tellement de savoir comment éco-concevoir. C’est plutôt comment s’en passer et comment arrêter d’en déployer dans des endroits où ils ne sont pas indispensables. Dans un second temps, nous pourrons nous focaliser sur la manière dont ils sont fabriqués.

Que ce soient les smartphones ou l’IoT, la priorité est de réfléchir aux besoins réels afin de ralentir cette dynamique du « toujours plus » ?

Marceau Coupechoux : Le marché des smartphones ralentit, même si nous restons à des niveaux élevés avec environ 1,4 milliard de téléphones fabriqués chaque année. Mais un rapport de l’équipementier américain Cisco note en effet que ce sont les terminaux IoT qui tirent la croissance du marché global des objets connectés. Le problème se situe bien au niveau de leur fabrication, pas au niveau de leur consommation. La phase d’utilisation est plus importante pour ceux qui nécessitent de gros débits, mais même dans ce cas, c’est la phase de fabrication qui domine largement.

Quelle est la position des opérateurs et des équipementiers concernant ces problématiques ?

Marceau Coupechoux : Ils essaient de faire leur possible dans un contexte de concurrence et de recherche de profits. Comme d’autres, ils sont pris dans une dynamique qui les dépasse. Les fournisseurs et les plateformes de services ont tendance à vouloir capter l’attention des usagers et de transmettre des flux vidéo de meilleure qualité. De leur côté, les opérateurs subissent cette dynamique, mais la provoquent aussi en augmentant la capacité des réseaux… Donc, ils vont tous dans la 5G et ils iront tous vers la 6G.

Joris Coudreau : Ils commencent néanmoins à comparer les surcoûts engendrés par le déploiement de toutes ces infrastructures. Ils constatent cette débauche de moyens. En termes de rentabilité, les telcos commencent à avoir du mal à suivre. L’idée d’arbitrer les usages et les types de flux commence à faire son chemin. Faire payer à l’usage pourrait être envisagé. Les abonnements illimités ne sont plus vraiment d’actualité, car les opérateurs commencent à prendre conscience des limites de ressources et des risques de pénuries.


¹ Autorité de régulation des communications électroniques, des postes et de la distribution de la presse

Crédit photo : Joris Coudreau

REALCAT : catalyseuse de toutes les catalyses depuis une décennie

« Un rêve de chercheur », mais un rêve « de grande ampleur »… C’est ainsi que Sébastien Paul, professeur à Centrale Lille et chercheur au sein de l’Unité de Catalyse et Chimie du Solide (UCCS[1]) revient sur le prélude d’un projet qu’il a contribué à faire naître, et dont il est aujourd’hui le coordinateur : REALCAT, pour plateforme intégREe AppLiquée au criblage haut-débit de CATalyseurs pour les bioraffineries. Un rêve aux accents utopiques, qui a pourtant bel et bien fini par devenir réalité il y a dix ans tout juste, en mai 2014, date du lancement officiel de cette plateforme véritablement pionnière.

Realcat
Le 31 mai dernier, l’amphithéâtre Cuccaroni de Centrale Lille a vu affluer un public nombreux, venu célébrer, avec ses initiateurs, les 10 ans de REALCAT. © Benoît Crépin

Unique au monde à plus d’un titre, elle est le fruit d’un parcours qui n’a pas été de tout repos pour ses initiateurs, comme l’a retracé le 31 mai dernier – aux côtés de Sébastien Paul et face à un public nombreux réuni dans l’amphithéâtre Cuccaroni de Centrale Lille – l’autre figure de proue de cette aventure scientifique, Franck Dumeignil[2], à l’occasion d’un évènement organisé pour fêter comme il se doit ce dixième anniversaire.

 

Une série de défis

« En 2010, nous avons répondu à l’appel à projets “EQUIPEX” lancé dans le cadre du Programme Investissements d’avenir. L’idée de créer une plateforme telle que REALCAT nous trottait en effet dans la tête depuis quelque temps, mais il nous fallait la financer… », explique Franck Dumeignil. Un espoir toutefois vite douché : le dossier est retoqué…

Franck Dumeignil-Realcat
Franck Dumeignil a retracé les grands moments de la genèse de REALCAT. © Benoît Crépin

Qu’à cela ne tienne, le chercheur retravaille le dossier au cours de l’été 2011 avec l’aide de Sébastien Paul et d’une poignée d’autres collègues, qui placent au cœur de cette nouvelle version du projet une approche alors encore quasiment inexplorée : la catalyse hybride. « Il s’agissait de rassembler deux mondes qui ne se parlaient à l’époque que très peu, et travaillaient au mieux en séquence, mais jamais en symbiose : le monde de la catalyse chimique et celui de la biocatalyse », éclaire Franck Dumeignil, qui le concède : « À l’époque, cela paraissait impossible aux yeux de beaucoup »

Motivés par ce défi, les chercheurs de l’UCCS mettent « les bouchés doubles » sur cet aspect, mais incluent également au projet un second volet majeur, centré quant à lui autour d’un champ disciplinaire qui ne faisait alors pas encore autant parler de lui qu’il ne le fait aujourd’hui : l’intelligence artificielle. « Cela pouvait faire peur, mais notre rêve était que la machine, associée à du traitement de données par des algorithmes d’IA, batte l’humain dans le développement de catalyseurs », se remémore Franck Dumeignil.

Ainsi ficelé, le dossier se voit finalement sélectionné lors de la seconde vague de l’appel à projets EQUIPEX. Une décision favorable qui permet ainsi à l’équipe de décrocher un financement de près de 9 M€[3], véritable cadeau de Noël pour les chercheurs de l’UCCS. « Nous avons appris la nouvelle le 21 décembre 2011… », glisse en effet Franck Dumeignil, qui le concède toutefois : « Ce fut l’aboutissement d’un gros travail, mais tout restait à faire »…

Des premiers coups de pioche à l’inauguration de la plateforme

S’ensuivirent en effet de longs mois de labeur, entre 2012 et 2015, pour mettre en place, au sein même des locaux de Centrale Lille, cette plateforme avant-gardiste. Au prix d’importants travaux, et d’un véritable « jeu de Tetris » tel que le décrit Sébastien Paul, le chercheur et ses collègues parviennent finalement à faire entrer dans un laboratoire de 120 m2 – entièrement reconverti pour l’occasion à coups de marteau-piqueur – quelque trente équipements[4] dédiés, de près ou de loin, au criblage haut-débit.

Le laboratoire qui accueille REALCAT
C’est à un véritable jeu de Tetris qu’a dû s’adonner l’équipe de REALCAT pour parvenir à faire entre la trentaine de machines qui équipent la plateforme au sein du laboratoire de 120 m2 qui l’accueille. © REALCAT

Des machines comme autant de maillons de cette plateforme couvrant l’intégralité des étapes de la recherche et du développement de catalyseurs et de procédés catalytiques, mais aussi tous les types de catalyse, chimique ou biologique, réunies sous la bannière de la catalyse hybride, cette nouvelle approche sur laquelle mise en grande partie l’équipe de REALCAT.

C’est donc finalement il y a une décennie tout juste, en mai 2014, que ces travaux aboutissent à l’inauguration de la plateforme lilloise, avant que ne soit lancée, quelques mois plus tard, en 2015, son exploitation par une équipe opérationnelle « de choc », telle que la décrit Sébastien Paul.

Sébastien Paul-REALCAT
Sébastien Paul a tenu à rendre hommage au travail d’une équipe opérationnelle « de choc ». © Benoît Crépin

« Seules, les machines ne servent à rien si l’on n’a pas une équipe complète – techniciens, ingénieurs, mais aussi secrétaire… – pour les faire tourner ou assurer les tâches administratives », souligne l’enseignant-chercheur derrière son pupitre de l’amphithéâtre Cuccaroni, avant de nous convier à une petite visite du laboratoire dans lequel s’incarne, très concrètement, cette plateforme REALCAT.

Une plongée au cœur de REALCAT

Après quelques pas sous le crachin nordiste en direction d’un bâtiment voisin accueillant la plateforme, nous entrons, en compagnie de son coordinateur, dans un long couloir où se succèdent les laboratoires de l’UCCS. Parmi eux, REALCAT se distingue ce jour-là par la décoration festive qu’arbore sa porte d’entrée – on n’a pas tous les jours 10 ans ! Laissant les ballons colorés derrière nous, nous franchissons le seuil de ce laboratoire hors du commun, avant de nous frayer un chemin entre les nombreux équipements qu’il accueille : 37 environ aujourd’hui. Au premier regard, le constat s’impose : ce sont bien des maîtres de Tetris qui se sont attelés à leur agencement.

Sébastien Paul nous conduit tout d’abord vers l’un des premiers maillons de cette chaîne d’équipements qui constituent REALCAT : un robot dédié à la synthèse de catalyseurs. « Il reproduit les gestes du chimiste – ouverture de flacons, pipetage, agitation… – avec une précision beaucoup plus grande, mais aussi une productivité démultipliée. Il dispose en effet de 24 réacteurs, capables de fonctionner en parallèle, mais aussi jour et nuit », décrit l’actuel coordinateur de REALCAT. De quoi tester quantité de combinaisons possibles pour donner vie à de nouveaux catalyseurs. « On effectuait auparavant entre 5 et 10 tests catalytiques par jour, on en fait aujourd’hui entre 200 et 500 grâce à cet outil… », chiffre Sébastien Paul. « L’accélération a été considérable », confie ainsi le chercheur, qui souligne au passage l’importance que revêt face à cela le système de gestion de données (TEEXMA for LIMS[5]) mis en place au sein de la plateforme.

Diffractomètre-REALCAT
Un diffractomètre à rayons X permet à l’équipe de REALCAT d’analyser la structure des catalyseurs produits au sein de la plateforme, comme l’explique Sébastien Paul. © Benoît Crépin

Produites sous forme de poudre, les substances catalytiques sont ensuite analysées sur le plan structural à quelques pas de là, grâce à un diffractomètre à rayons X. « Cet outil nous permet de visualiser l’agencement des atomes dans la matière, et de définir ainsi si, oui ou non, le catalyseur que l’on a synthétisé correspond à ce que l’on attendait », éclaire l’enseignant-chercheur.

Placés en phase liquide cette fois – sous l’action de micro-ondes –, les catalyseurs subissent ensuite une étape de caractérisation chimique par chromatographie en phase gazeuse, couplée à la spectrométrie de masse. « Nous établissons leur “carte d’identité” chimique, ce qui nous permet d’établir, en fonction de leur composition, des bibliothèques resserrées de catalyseurs qui fonctionnent bien », vulgarise le professeur de Centrale Lille.

Vient ensuite le moment de mettre en œuvre ces catalyseurs. Une étape que les membres de l’équipe REALCAT réalisent au sein de réacteurs miniatures parallélisés. Objectif : trouver le catalyseur le plus efficace pour une réaction donnée, en ajustant également, pour cela, des paramètres clés tels que la température et la pression du milieu réactionnel.

De la catalyse chimique à la biocatalyse

Notre parcours se poursuit dans une partie du laboratoire entièrement dédiée à la biocatalyse. Séparé par une cloison, cet espace reste toutefois ouvert sur la zone consacrée à la catalyse chimique, dans cet esprit d’hybridation qui caractérise la plateforme lilloise.

Quentin Haguet, ingénieur de recherche membre de l’équipe REALCAT, prend le relais de Sébastien Paul pour nous décrire quelques-unes des machines implantées dans cette zone du laboratoire. « On retrouve ici l’équivalent de bon nombre des équipements que vous venez de découvrir, en version adaptée à la biocatalyse, c’est-à-dire capables de travailler avec des microorganismes ou des enzymes », décrit Quentin Haguet.

Au centre de cette zone trône ainsi un robot de préparation polyvalent, « particulièrement flexible et très puissant », comme le souligne l’ingénieur de recherche. Non loin de cette pièce centrale, un autre robot se charge quant à lui de sélectionner les colonies de microorganismes cultivés en boîtes de Petri. « Il est pour cela doté d’une caméra. Des algorithmes d’analyse d’image lui permettent ensuite de sélectionner les colonies correspondant aux critères fixés par l’expérimentateur » éclaire Quentin Haguet. Grâce à sa tête robotisée dotée de 96 aiguilles métalliques, le robot se charge alors de récupérer dans la gélose une petite fraction de cette matière organique, qui lui permet ainsi d’ensemencer des plaques de culture. « Une plaque contient 96 nouvelles cultures pures, isolées depuis le mélange initialement présent sur la gélose des boîtes de Petri », explique le responsable de cette partie du laboratoire entièrement dédiée aux procédés biotechnologiques, avant de poursuivre la visite, si ce n’est par le clou du spectacle, en tout cas par un autre équipement clé de cette zone dédiée à la biocatalyse : un microbioréacteur, lui aussi caractérisé par sa polyvalence.

microbioréacteur, realcat
Un microbioréacteur couplé à une station de travail automatisée est installé dans la zone du laboratoire consacrée à la biocatalyse et constitue l’un des maillons clés de la plateforme, comme l’explique Quentin Haguet. © Benoît Crépin

« Il s’agit ni plus ni moins que de la combinaison entre un fermenteur à plaques et un lecteur de plaques ; l’un nous permet de faire pousser les microorganismes, et l’autre de mesurer au cours du temps divers paramètres au sein des puits de ces plaques : pH, biomasse, oxygène dissous… », décrit Quentin Haguet. Le tout, avec des plaques comportant pas moins de 48 puits – permettant ainsi de réaliser autant de cultures en parallèle – additionnés de microcanaux distribuant des substances au sein de ces puits – substrats, régulateurs de pH… – au rythme de quelques microlitres par minute.

Pour épauler ce microbioréacteur à haut débit, une station de travail automatisée dédiée à la manipulation de liquides a également été choisie par l’équipe de REALCAT dans le but d’effectuer des prélèvements réguliers au sein des puits. « C’est au sein de notre plateforme que ces deux équipements ont été couplés pour la première fois », souligne l’ingénieur de recherche, avant de se tourner vers les deux ultimes pièces de ce puzzle d’équipements : deux spectromètres de masse. Des outils de caractérisation permettant l’analyse d’échantillons tant solides que liquides, de petite ou grande taille moléculaire, du petit peptide au gros polymère. « Cette polyvalence nous permet de mener de très nombreux projets », souligne finalement Quentin Haguet. Un aspect qui transparaît effectivement dans deux des chiffres clés dévoilés à l’occasion de cette célébration des dix ans de la plateforme lilloise : 400, le nombre de projets réalisés au sein de la plateforme au cours de la décennie qui vient de s’écouler ; et 20, le nombre de pays dont des équipes scientifiques sont utilisatrices de REALCAT. Et ça n’est pas tout.

Un beau bilan, et de belles perspectives

La plateforme a en effet aussi permis, par ailleurs, la production d’environ 140 articles scientifiques depuis sa création, et le dépôt de pas moins de huit brevets – dont deux portant sur le fameux concept de « catalyse hybride » mis en avant depuis les origines du projet par ses initiateurs –, sans compter les quelque 200 ingénieurs, doctorants et post-doctorants, ou encore étudiants en master formés au sein de REALCAT tout au long de ses dix années d’existence.

« Nous avons déjà parcouru beaucoup de chemin au cours de ces dix ans ; un chemin sinueux parfois, qui nous a toutefois permis d’innover, de mettre au point de nouveaux concepts, grâce à ce formidable outil. J’ai cependant coutume de dire que l’on peut toujours faire mieux… », confie Sébastien Paul, avant d’évoquer, en conclusion à son intervention, quelques pistes de travail inscrites dans la droite ligne de cette maxime. Première d’entre elles : veiller à anticiper la concurrence internationale, qui commence en effet à poindre à l’horizon. « Il nous faut pour cela maintenir REALCAT au top de la technologie, pour garder la longueur d’avance que nous avons jusqu’à maintenant », prône son coordinateur, qui évoque ainsi, au passage, la réflexion que mène actuellement l’équipe de la plateforme autour d’un plan d’investissement baptisé « REALCAT 2030 »… Sébastien Paul qui appelle également à promouvoir un peu plus encore la plateforme auprès de ses utilisateurs potentiels, mais aussi à valoriser davantage le portefeuille de huit brevets que s’est constitué REALCAT depuis sa création au printemps 2014.

À l’aube de sa deuxième décennie d’existence, l’heure est aussi venue, pour la plateforme lilloise, de renforcer ses liens avec le pôle UPCAT, dédié à l’étude de la préparation de supports et de catalyseurs pour la catalyse hétérogène à l’échelle du pilote préindustriel. « Nous sommes hébergés dans le même bâtiment, et cette proximité va nous aider à renforcer nos liens », souligne Sébastien Paul, qui dévoile par la même occasion un prochain gros investissement dont bénéficieront les deux entités : un système multiréacteur financé dans le cadre du CPER CHEMACT à hauteur de 1,05 M€… « Cette très grosse machine sera comme un trait d’union entre REALCAT et UPCAT », illustre l’enseignant-chercheur avant de soulever un ultime point : « Le concept de catalyse digitale nous tient bien sûr lui aussi particulièrement à cœur. Il nous reste encore énormément de choses à faire pour renforcer ce volet “IA” de REALCAT ». Le lancement, à l’été 2022, de la chaire industrielle SmartDigiCat, dédiée à ce sujet, y contribuera sans nul doute très largement, au même titre que d’autres initiatives, en cours ou à venir, menées autour de cette notion de catalyse digitale.

Digitale, d’une part, hybride d’autre part… « Et pourquoi pas les deux ?! », glisse finalement Sébastien Paul. Une perspective dont on ne peut dire pour l’heure si elle se concrétisera, mais une chose est sûre : l’équipe de REALCAT y songe déjà, et pourrait, qui sait, nous annoncer à l’occasion d’un prochain anniversaire la réalisation de cet autre grand « rêve de chercheur ».


[1] UMR CNRS 8181.

[2] Par ailleurs vice-président Valorisation et Lien science-société de l’Université de Lille.

[3] Complété par des fonds FEDER à hauteur de 700 000 euros en 2014, puis par des financements de 400 et 730 k€ apportés en 2022 et 2023 dans le cadre des Contrats de plan État-Région (CPER) « BiHautEcoDeFrance » et « CHEMACT », ainsi que par les campagnes d’investissements menées entre 2012 et 2023 par Centrale Lille et l’Université de Lille, pour un montant de 290 k€. Soit un montant total d’investissements de près de 11 M€.

[4] 37 aujourd’hui.

[5] Laboratory Information Management System.

Martin Untersinger : « Il pourrait y avoir des attaques visant toutes les infrastructures des JO »

Martin Untersinger est journaliste au Monde. Spécialisé dans les nouvelles technologies depuis dix ans, il décortique les méthodes exploitées par les États pour espionner leurs rivaux, faire la guerre et déstabiliser leurs adversaires.

Techniques de l’Ingénieur : dans votre livre, vous détaillez minute par minute le tsunami NotPetya¹. Cette attaque, qui serait la plus destructrice de l’histoire, pourrait-elle se reproduire ?

Martin Untersinger, cyberattaque
Martin Untersinger. ©JF Paga.

Martin Untersinger : Oui tout à fait. Les cyberattaquants peuvent faire encore beaucoup de dégâts et la pandémie de rançongiciels (ransomware) le démontre régulièrement si l’on additionne tout ce qui a été bloqué, perturbé ou les rançons versées. J’ai l’impression qu’à chaque fois, une entreprise se dit qu’elle n’est pas concernée comme cible prioritaire jusqu’à ce qu’elle soit attaquée pour mettre en place des mesures préventives. Les mesures de sécurité sont coûteuses et pénibles – notamment en termes de praticité – mais les coûts engendrés par une attaque restent toujours plus élevés.

À quelques jours des législatives et ensuite des JO, une telle cyberattaque pourrait-elle se reproduire ?

Il y aura certainement de nombreuses attaques cybercriminelles et bassement crapuleuses dans un premier temps. Les malfrats profitent toujours de ces grands événements d’actualité pour monter des arnaques de bas niveau avec des e-mails de phishing. Il y aura peut-être des attaques visant des entreprises qui ne peuvent pas se permettre d’interrompre leurs activités durant les JO et qui auraient un déficit d’image. Enfin, il pourrait y avoir des attaques visant toutes les infrastructures des JO. Tous les yeux du monde vont être rivés sur la France durant 15 jours. Pour des pays comme la Russie et la Chine qui veulent affaiblir, démontrer ses incompétences ou diviser l’hexagone, les JO sont une opportunité. Les services de l’État spécialisés dans la cybersécurité se sont préparés depuis des mois. Le pire n’est pas certain.

Selon vous, la guerre en l’Ukraine est un laboratoire grandeur nature sur les méthodes d’espionnage, de désinformation et même de destruction.

Dès 2014, on a vu que la Russie utilisait différentes techniques d’espionnage, de manipulation et de destruction. Et ces opérations se poursuivent toujours. La guerre a une traduction dans le cyberespace. Il y a des attaques qui cherchent à capter de l’information pour savoir où se trouvent les troupes ukrainiennes et les alliées. L’Ukraine mène aussi des opérations pour s’assurer du soutien de ses alliés. Il y a également des attaques destructrices. En décembre dernier, les activités d’un des principaux opérateurs de télécom ukrainiens ont été arrêtées durant 48 heures. Cette attaque a entraîné de fortes perturbations au niveau des distributeurs bancaires et de la téléphonie. Ce genre d’attaque se reproduit régulièrement avec des impacts moindres et visant les opérateurs d’énergie, de transports et de télécommunications. Il y a aussi des opérations de désinformation comme celle affirmant que la France allait envoyer des troupes en Ukraine.

« La protection des entreprises françaises n’est pas un enjeu partisan : elle est une question d’intérêt national. Les États-Unis l’ont parfaitement compris dès 1996 » insiste Bernard Carayon. Ce député, qui a écrit de nombreux rapports sur l’intelligence économique, assure depuis 2010 que la France est très en retard sur les autres pays. La situation a-t-elle évolué favorablement ?

C’est difficile à répondre. Autant une cyberattaque ne passe pas inaperçue, autant une opération de cyberespionnage reste difficile à confirmer. Cela reste aussi un tabou pour les entreprises victimes. Elles n’en parlent pas. Mais lorsque l’on parle avec des experts de l’État ou des personnes connaissant très bien le sujet, ils disent que l’espionnage industriel contre les entreprises françaises est systématique, notamment avec la Chine qui mène de nombreuses opérations. La prise de conscience des entreprises françaises reste encore limitée, car les dégâts ne sont a priori pas immédiats. Quand un concurrent chinois par exemple reproduit le même modèle que le vôtre [et que vous avez passé des années à le développer], l’impact financier peut être important s’il décroche des contrats à votre place. Et lorsqu’il s’agit de l’espionnage d’entreprises stratégiques, c’est la souveraineté nationale de la France qui est en jeu.


¹ Ce logiciel malveillant de type wiper (il détruit les données) a contaminé des milliers d’ordinateurs, perturbant pendant plusieurs mois des multinationales et infrastructures critiques, comme les ordinateurs de contrôles du site nucléaire de Tchernobyl, les ports de Bombay et d’Amsterdam. Parmi les entreprises touchées, Saint-Gobain a estimé à 250 M€ l’impact de l’épisode sur son chiffre d’affaires 2017, et de 80 M€ sur son résultat d’exploitation.

Polystyrène : ce plastique qui ne veut pas se recycler

« À compter du 1er janvier 2025, les emballages constitués pour tout ou partie de polymères ou de copolymères styréniques, non recyclables et dans l’incapacité d’intégrer une filière de recyclage, sont interdits », promettait en 2021 la loi Climat & résilience. Ces emballages concernent notamment les produits laitiers frais et les barquettes pour viande et poisson.

Mais alors que l’heure devrait être à l’accélération des projets de recyclage, Le Monde et France Info ont publié le 17 juin une enquête confirmant le report à venir de cette échéance. « Nous sommes dans une impasse. Les industriels ne seront pas prêts à temps », se défend le ministère de la Transition écologique.

Un report annoncé devant le Sénat

Dominique Faure avait défendu cette position devant le Sénat. La ministre déléguée, chargée des Collectivités territoriales et de la Ruralité, justifie ce report par le fait que « l’interdiction française a été en partie reprise par la Commission européenne, puisque le futur règlement sur les emballages prévoit que l’ensemble des emballages doit être recyclable en 2030, et même recyclé à l’échelle industrielle d’ici 2035 », rapporte Actu-environnement. Comme cette disposition n’est pas encore entrée en vigueur, elle propose donc de s’aligner sur l’échéance européenne.

Les ONG de lutte contre le plastique montent au créneau. « Un tel report de l’interdiction, demandé par les lobbys industriels, serait inacceptable et en totale contradiction avec les objectifs de réduction et de recyclage des déchets plastiques », déplore Charlotte Soulary, responsable du plaidoyer de Zero Waste France.

Ne sait-on pas recycler le polystyrène ?

En 2021, le Consortium PS25 réunissant des entreprises des secteurs des produits laitiers, viande et volaille et Citeo signait une charte d’engagement ayant pour but de « Viser le recyclage de 100 % des emballages en polystyrène collectés et triés en 2025 ». Le projet visait un recyclage avec retour au contact alimentaire. La Charte indique que cet objectif est « sous réserve de faisabilité technique ». Et finalement, malgré l’annonce de pilotes et d’usines opérationnelles dès 2023, la filière n’a jamais vu le jour. Les projets alors annoncés en France par la filière, portés par Michelin, Ineos et TotalEnergies, ont depuis été abandonnés.

L’objectif d’atteindre 100 % de recyclage est donc très loin d’être atteint. Le polystyrène représente plus de 350 000 tonnes par an, soit 7 % des matériaux plastiques utilisés en France tous secteurs confondus. Sur son site Internet[1], l’éco-organisme Citeo estime que la France commercialise chaque année 100 000 tonnes d’emballages en polystyrène. L’organisme dit vouloir en recycler au moins 10 000 tonnes par an issues du geste de tri des Français. Citeo compte assurer ce recyclage à 80 % par pyrolyse dans la future usine Plastic2Chemicals de l’entreprise belge Indaver, basée à Anvers. 20 % seraient recyclés mécaniquement à Valence, en Espagne, par l’entreprise espagnole Eslava, en partenariat avec Valorplast.

Mais aucun suivi n’est fait aujourd’hui sur la valorisation globale des déchets en polystyrène en France. « Seul 3 à 4 % du gisement [total de polystyrène] est exporté hors de France pour être recyclé en boucle ouverte, c’est-à-dire en objets non aptes au contact alimentaire, tels que des cintres ou des pots de fleurs », assure Zero Waste France.

En 2021, le lobbying des industriels avait donné ses fruits, en remplaçant une interdiction stricte par une interdiction des seuls emballages sans filière de recyclage. Et trois ans plus tard, un nouveau report est annoncé. Jusqu’à 2030 ? « Le ministère de la Transition écologique assure désormais que ce sera au futur gouvernement de trancher », prévient l’enquête médiatique. D’ici là, l’association Zero Waste France appelle à mettre en place une commission d’enquête parlementaire après les élections législatives. Elle s’interroge : en 2024, 300 millions d’euros de soutiens publics ont été investis via France 2030 pour « renforcer l’investissement dans la chaîne de recyclage et d’incorporation de matières plastiques », sans succès.

Crédit visuel de une : Atoms Unsplash


[1] La filière de recyclage pour les emballages en polystyrène

HDF lance sa production de piles à combustible

Les annonces de nouveaux sites industriels en France sont encore assez rares pour s’y attarder. Fin mai, la société HDF Energy a inauguré sa première usine de fabrication de piles à combustible à Blanquefort (Gironde). Une étape clé pour l’entreprise bordelaise dont les initiales signifient Hydrogène de France et dont l’ambition est de décarboner la mobilité lourde maritime et ferroviaire, ainsi que la production d’électricité pour les réseaux électriques publics, trois vastes marchés mondiaux de solutions de production d’électricité à base d’hydrogène et d’énergies renouvelables.

L’usine a été installée sur l’ancien site de fabrication de boîtes de vitesse de Ford, là où se tenait le « terrain des circuits », dans la Métropole de Bordeaux. Sur 7 000 m2, HDF Energy va déployer sa capacité à produire des piles à combustible de forte puissance. « L’inauguration de l’usine a eu lieu fin mai, les process industriels sont en cours de finalisation et la production de présérie doit démarrer début 2025. Nous fabriquerons d’abord des piles de 1 MW puis nos programmes de R&D et d’industrialisation permettront d’élaborer une gamme de piles jusqu’à 10 MW. À partir de 2030, l’usine devrait atteindre une capacité annuelle de production de 1000 MW » explique Hanane El Hamraoui, directrice industrielle et directrice générale adjointe de HDF.

Un marché mondial

Créée en 2012 par Damien Havard, HDF Energy a marqué les esprits avec ses premières réalisations que sont ClearGen en Martinique et CEOG en Guyane. La première est une pile à combustible de 1 MW produisant 7 TWh d’électricité par an à partir d’hydrogène non valorisé provenant d’une raffinerie. Il s’agit d’un projet unique en son genre. La seconde est à l’image des centrales électriques à hydrogène que HDF veut développer : 55 MWc de solaire photovoltaïque sont couplés à un électrolyseur de 16 MW pouvant produire 600 tonnes d’hydrogène par an. Avec des batteries stationnaires en plus, la capacité de stockage est de 128 MWh. Enfin, deux piles à combustible de 1,5 MW chacune permettent d’injecter de l’électricité en permanence sur le réseau, même la nuit. Le projet de cette centrale électrique de l’Ouest guyanais, en cours de construction, pourra ainsi produire annuellement 50 GWh d’électricité, à tout moment, et 100 % renouvelable.

« Nous avons désormais plusieurs projets de ce type de centrales Renewstable® en développement, soit sur des sites isolés et des zones où il faut remplacer des centrales au fioul, soit dans des pays avec beaucoup d’énergies renouvelables. HDF Energy est ainsi présent sur les cinq continents, notamment au Mexique, dans les Philippines, en Indonésie, dans plusieurs pays d’Afrique, en Grèce et en Océanie » précise Hanane El Hamraoui.

La pile à combustible est au cœur de ces centrales. Celles de CEOG ont été fabriquées par Ballard Power System, une entreprise canadienne spécialisée dans les piles de forte puissance de type PEM, à forte maturité technologique et capables d’avoir une durée de vie de 25 ans. En vue d’avoir sa propre autonomie de production, HDF Energy a signé en 2019 un accord de partenariat avec Ballard, pour pouvoir fabriquer ses propres piles à combustible à Blanquefort.

En plus du marché des centrales électriques, HDF Energy vise également celui de la mobilité lourde maritime et ferroviaire. Dans le maritime, il est encore difficile de savoir vers quelles solutions décarbonées se tourneront les armateurs (hydrogène ou produits dérivés de l’hydrogène tels que l’ammoniac ou les e-fuels), mais HDF Energy peut proposer une solution innovante pour les auxiliaires de puissance et la propulsion de bateaux, ainsi que la fourniture d’électricité propre aux navires à quai. HDF Energy adresse ce marché au travers de partenariats stratégiques, comme avec ABB Marine and Ports, leader mondial de l’électrification des navires. Dans le ferroviaire, les options sont plus restreintes, ce qui va permettre à HDF d’annoncer bientôt la part de marché qu’elle visera sur les 100 000 locomotives au diesel existantes dans le monde, qui pourraient être remplacées par un système de propulsion à hydrogène.

Soutien public et perspectives de croissance

L’usine à Blanquefort verra donc 80 % de sa production partir à l’export pour alimenter ces différents marchés. Certifiée BREEAM « very good » pour son impact environnemental, elle représente un investissement de 20 millions d’euros pour HDF. Elle a été appuyée par la Région Nouvelle-Aquitaine dès 2018. Très récemment elle a aussi été soutenue par la Commission européenne qui a approuvé le financement du projet industriel de HDF Energy par l’État français dans la cadre de la vague Hy2move du financement PIIEC (Projet Important d’Intérêt Européen Commun) Hydrogène. Au niveau international, la Banque mondiale et le Green Climate Fund ont aidé au financement du projet de la centrale électrique Renewstable® d’HDF à la Barbade.

Ces soutiens publics sont nécessaires, car pour l’instant, dans sa phase de développement, HDF Energy est encore déficitaire, à hauteur de 7,8 M€ en 2023. Néanmoins, grâce à son introduction en Bourse sur Euronext en 2021, elle dispose de fonds suffisants pour continuer ses projets. Dès 2024, HDF espère d’ailleurs que leur concrétisation permettra de booster son chiffre d’affaires. Ce dernier pourrait à terme représenter 12 à 17 % des 5 milliards d’euros de projets en portefeuille actuellement.

Un nouveau système d’intelligence artificielle autoalimenté à l’énergie solaire

L’intelligence artificielle (IA) est aujourd’hui largement déployée dans diverses applications intégrées telles que la surveillance des patients, la sécurité des bâtiments et la sécurité industrielle. Cependant, leur forte consommation d’énergie fait obstacle à leur déploiement dans des environnements nécessitant leur autonomie. Une équipe de chercheurs1, dont ceux de l’IM2NP (Institut des Matériaux, de Microélectronique et des Nanosciences de Provence), est parvenue à surmonter cette difficulté grâce à des memristors, ces composants électroniques programmables et capables de stocker de l’information via une modulation de la valeur de leur résistance. Leurs travaux, publiés dans la revue Nature Communications, ouvrent la voie au déploiement de l’IA dans des systèmes embarqués autonomes en énergie.

Les memristors ont ici été utilisés, car ils présentent l’intérêt de consommer très peu d’énergie, ce qui offre la possibilité d’un fonctionnement autoalimenté lorsqu’ils sont associés à des récupérateurs d’énergie, de type cellules solaires miniatures. Sauf que la plupart des circuits d’IA basés sur ce type de composants électroniques reposent sur un calcul en mémoire analogique et exploitent les lois classiques de l’électricité (lois d’Ohm et de Kirchhoff) pour effectuer l’opération fondamentale des réseaux de neurones, à savoir la multiplication et l’accumulation (encore appelé MAC pour Multiply Accumulate). Ce concept nécessite alors une alimentation électrique stable et précise, ce qui le rend incompatible avec les récupérateurs d’énergie qui sont intrinsèquement instables et peu fiables.

Pour surmonter cette contrainte, les scientifiques ont conçu un réseau neuronal binarisé, fabriqué grâce à un processus hybride associant la technologie CMOS (Complementary Metal Oxide Semiconductor) à des memristors. Pour cela, un circuit intégré a été conçu et composé de quatre réseaux de 8 192 memristors chacun, soit un total de 32 768 memristors, et qui utilise une stratégie d’amplificateur, alliant deux transistors à deux memristors, pour une robustesse optimale. Cette approche alternative se révèle particulièrement résistante aux fluctuations d’alimentation électrique peu fiables, elle élimine également le besoin de compensation ou d’étalonnage et permet un fonctionnement efficace dans diverses conditions. Ce circuit a été alimenté par une cellule solaire miniature à large bande passante, qui est optimisée pour des applications de pointe.

Une précision de calcul même lorsque l’énergie devient rare

Des simulations de réseaux neuronaux de classification d’images ont été réalisées pour tester ce nouveau système. Les différents tests révèlent que sous un éclairage intense, le circuit atteint des performances d’inférence comparables à celles d’une alimentation classique en laboratoire. Tandis que dans des scénarios de faible éclairage, il apparaît que le circuit reste fonctionnel, ne subissant qu’une modeste baisse de la précision du réseau neuronal. Plus précisément, les images mal classées sont principalement des cas difficiles à classer et qu’il s’agit généralement de cas atypiques ou extrêmes.

Les chercheurs démontrent que pour des tâches plus simples telles que l’exploitation de bases de données MNIST (Modified ou Mixed National Institute of Standards and Technology), le circuit maintient sa précision même lorsque l’énergie est rare. Et en cas de coupure de l’alimentation électrique, les memristors conservent les données, contrairement aux mémoires RAM (Random Access Memory) statiques, qui perdent les informations stockées.

Ce circuit intégré peut fonctionner avec des alimentations basses de 0,7 volt, ce qui permet de l’alimenter avec une cellule solaire à large bande optimisée pour les applications intérieures et d’une surface de seulement quelques millimètres carrés. Même sous un faible éclairage équivalent à 0,08 fois le flux moyen solaire, il reste fonctionnel. « Notre approche jette les bases d’une IA autoalimentée et de la création de capteurs intelligents pour diverses applications en matière de surveillance de la santé, de la sécurité et de l’environnement », écrivent les auteurs de ces travaux de recherche.

1 Ces travaux de recherche ont été réalisés par des chercheurs de l’Institut des Matériaux, de Microélectronique et des Nanosciences de Provence (IM2NP, CNRS / Aix-Marseille Université), en collaboration avec des scientifiques du Centre de Nanosciences et de Nanotechnologies (C2N, CNRS / Université Paris-Saclay), du Commissariat à l’énergie atomique et aux énergies alternatives (CEA-Leti) et de l’Institut Photovoltaïque d’Ile-de-France (IPVF)

Puces électroniques : les États-Unis tentent d’assurer leur autonomie

Les semi-conducteurs constituent une technologie majeure pour la quasi-totalité des activités industrielles. Ils se trouvent dans de nombreux appareils modernes, ordinateurs, smartphones, voitures et même les lave-linge et climatiseurs.

Leur importance a augmenté avec le développement de l’intelligence artificielle (IA), dont le marché mondial devrait atteindre 71 milliards de dollars en 2024, soit une augmentation de 33 % par rapport à 2023 selon Gartner. La prochaine étape sera encore plus déterminante pour la souveraineté des États avec l’informatique quantique.

Or, dans ce domaine, il y a un acteur incontournable : Taiwan Semiconductor Manufacturing Company (TSMC). Créé en 1987 à Taiwan, ce géant domine le marché des semi-conducteurs, représentant plus de 50 % du chiffre d’affaires mondial. Avec des dizaines de milliards d’investissements par an, TSMC est donc le principal fournisseur pour des géants technologiques américains comme Apple, Nvidia, Qualcomm et AMD. Malgré la présence d’entreprises américaines majeures, les États-Unis restent donc dépendants de TSMC pour la fabrication de leurs puces.

La part du pays dans la capacité mondiale de fabrication de semi-conducteurs est passée d’environ 36 % en 1990 à environ 10 % en 2020. Intel a perdu sa position de leader au profit de TSMC, dont la supériorité technologique et la capacité de production sont incontestées, rendant les États-Unis vulnérables à cette dépendance.

Un fonds de 52 milliards de dollars

La descente d’Intel remonte à 2010. À cette époque, Apple décide de fabriquer ses propres puces (Apple Silicon), d’abord pour l’iPhone puis pour ses ordinateurs en 2020. La perte de ce client majeur a transformé Intel de leader du secteur en acteur secondaire.

Outre la perte de ce gros client, le fondeur américain a rencontré des difficultés industrielles avec ses procédés de gravure en 10 nanomètres (nm) puis en 7 nm. De quoi ravir ses deux principaux concurrents, l’américain AMD et TSMC. Résultat, Intel a même dû commander des processeurs à TSMC pendant qu’il résolvait ses problèmes techniques.

Étant donné les tensions géopolitiques entre les États-Unis et la Chine (ce qui concerne directement Taiwan), il est urgent pour le pays d’Intel de relocaliser la fabrication de puces sur ses terres. La prise de contrôle des usines de TSMC par les Chinois serait une catastrophe pour les États-Unis, mais aussi pour le reste du monde et notamment l’Europe.

Dès 2021, le « National Defense Authorization Act for Fiscal Year » a autorisé un programme d’incitation à la construction et à l’équipement d’usines de semi-conducteurs aux États-Unis. En juillet 2022, le Congrès a promulgué le CHIPS and Science Act. Le congrès a doté trois fonds(1) de 52 milliards de dollars pour soutenir les entreprises prêtes à relever les défis liés aux semi-conducteurs en particulier dans les domaines de la défense, de la sécurité et de l’innovation technologique.

Grâce à cette manne, Intel va donc investir dans deux usines de semi-conducteurs en Arizona. Le géant taïwanais aura aussi des usines sur le sol américain. Il bénéficie d’une subvention de 6,6 milliards de dollars et d’un prêt à taux réduit de 5 milliards. Le loup est dans la bergerie…


(1) « CHIPS for America Defense », « CHIPS for America International Technology Security and Innovation » et le « CHIPS for America Workforce and Education ».

Similar Tickets : quand l’IA facilite la résolution des problèmes dans l’industrie

Octave Lapeyronie, Fabriq
Octave Lapeyronie, co-fondateur de Fabriq (crédit : Fabriq)

Fabriq est un leader reconnu dans la digitalisation du Lean Manufacturing dans les usines.

L’application Fabriq permet aux sites de production d’atteindre leurs objectifs quotidiens de performance, de mener des actions d’amélioration continue et de viser l’excellence opérationnelle à grande échelle.

Similar Tickets est une fonctionnalité innovante, conçue pour simplifier la résolution des problèmes dans les environnements industriels.

Techniques de l’ingénieur : Pouvez-vous présenter l’application Fabriq ?

Octave Lapeyronie : Au départ, Fabriq est un outil qui remplace les tableaux blancs utilisés dans les rituels d’amélioration continue des usines (suivi des indicateurs de performance, audits de terrain, etc.).

Dans l’industrie, différentes équipes sont amenées à travailler ensemble au quotidien : maintenance, production, qualité, R&D. Or, ce besoin de collaboration dépasse le cadre de la présence à un instant t. Nous avons donc créé Fabriq pour permettre à ces équipes de collaborer de manière fluide, sur la base d’une source unique d’information.

Fabriq aide les industriels de tous les secteurs manufacturiers à digitaliser leurs process d’amélioration continue. La digitalisation de ces rituels permet ainsi aux équipes de gagner en excellence opérationnelle. Nous sommes présents dans plus de 400 sites de production et plus de 30 pays.

management visuel, Fabriq
Exemple de management visuel avec Fabriq (Crédit : Fabriq)

L’excellence opérationnelle des équipes est-elle un sujet nouveau ?

L’excellence opérationnelle a toujours été le sujet majeur pour les industriels et le contexte de ces dernières années (Covid, difficultés d’approvisionnement, hausse du prix de l’énergie) n’a fait qu’accentuer ce constat.

Durant les dernières décennies, l’innovation s’est surtout concentrée sur la productivité des machines, par l’automatisation. Néanmoins, s’il reste des choses à mettre en place, il est urgent de s’intéresser à des domaines qui ont été un peu délaissés, notamment la productivité des personnes et leur collaboration. En effet, dans ce domaine, les outils technologiques n’ont pas bougé depuis 40 ans ! Pourtant, on sait que le facteur humain restera encore longtemps un point essentiel de l’excellence opérationnelle.

À quoi sert Similar Tickets, votre nouvel outil basé sur l’IA ?

Chez Fabriq, nous sommes convaincus que l’intelligence artificielle est un ingrédient parfait pour améliorer la collaboration entre les équipes. Il y a notamment un potentiel énorme dans la capitalisation et la standardisation des informations. Comment faire en sorte qu’une nouvelle information collectée à un instant t et un endroit précis par une équipe maintenance devienne accessible à toutes les équipes du groupe, quand elles le souhaitent ?

C’est bien entendu impossible avec des tableaux blancs et des process papier, qui demeurent pourtant la norme dans beaucoup d’entreprises. Similar Tickets a été créée pour éviter aux équipes de continuellement résoudre les mêmes problèmes et de réinventer la roue en permanence.

Comment fonctionne cet outil ?

Similar Tickets récupère le contenu des tickets générés par les équipes et qui contiennent la description des problèmes, des actions qui ont été prises et des solutions trouvées. Les informations de ces tickets sont alors transformées en un vecteur contenant le sens sémantique du texte, à l’aide d’un modèle d’apprentissage LLM (Large Language Models), tout cela indépendamment de la langue !

Nous comparons ensuite ces tickets entre eux, ce qui permet de faire des rapprochements. Concrètement, lorsqu’un opérateur rencontre un problème et qu’il crée un ticket, il est immédiatement alerté de l’existence de tickets dont le sens est sémantiquement proche, au-dessus d’un seuil de détection fixé. La personne est alors incitée à consulter ces autres tickets et à contacter la personne qui a déjà rencontré le problème.

Même si deux problèmes sont rarement identiques, les différents sites des groupes industriels ont souvent de nombreux points communs : fournisseurs, machines, logiciels, etc. Avec Similar Tickets nous faisons le pari qu’un grand nombre de passerelles jusqu’ici non exploitées existent entre ces entités.

Comptez-vous ajouter d’autres fonctionnalités IA à Fabriq ?

Tout à fait ! L’outil Fabriq évolue en permanence et nous comptons intégrer une fonction de knowledge qui permettra d’héberger de la documentation pérenne. L’idée est de rendre cette information immédiatement accessible aux utilisateurs de terrain, par le biais d’une IA conversationnelle, sur le modèle de ChatGPT.

Car la plupart du temps, le savoir-faire existe, mais il est diffus. Trop souvent, quand une personne du terrain a besoin d’une information, elle perd un temps infini à échanger des messages, fouiller dans les archives, faire ses propres recherches. Pendant ce temps, les problèmes ne sont pas résolus, ce qui peut impacter la production.

Tout ce qui peut favoriser l’autonomie du terrain est donc à développer. C’est d’ailleurs l’un des piliers du Lean Management.

L’IA peut-elle aussi être utilisée pour créer des contenus à partir des informations de terrain ?

Pour les entreprises, il est vital de ne pas perdre le savoir acquis au quotidien, mais il est également difficile, dans un contexte de production, de consacrer du temps à la documentation de ce savoir. L’aide à la rédaction de rapports par IA, à partir des informations des tickets, est donc totalement envisageable. Il n’est pas impossible que cela devienne l’une des prochaines fonctionnalités de Fabriq.

Quels retours avez-vous de la part de vos clients ?

C’est un constat que nous avons fait en côtoyant nos clients industriels : avant Fabriq, une grande partie du temps passé en réunion par les employés était consacré à de la recherche ou à de la vérification d’informations factuelles. Au final, peu de temps était consacré à des raisonnements critiques.

Les clients qui ont implémenté Fabriq peuvent dorénavant se concentrer sur la résolution de vrais problèmes, de manière synchrone, en éliminant l’administration en direct, qui est épuisante pour les équipes et sans valeur ajoutée.

Béton de bois : Spurgin Leonhart inaugure une usine entièrement dédiée à ce matériau vertueux

Un véritable « changement de culture ». C’est ainsi que Pierre Bollard décrit le virage opéré en 2019 par l’entreprise qu’il dirige aujourd’hui depuis 20 ans : Spurgin Leonhart. Alors qu’elle misait exclusivement, depuis sa création en 1978 en Alsace, sur le développement de produits en interne, la société familiale spécialiste des produits préfabriqués en béton a en effet décidé cette année-là de se tourner, pour la première fois de son histoire, vers des acteurs de l’innovation situés hors de son giron. Une évolution à laquelle elle s’est résolue après avoir pris conscience de l’importance – et de l’urgence – de décarboner ses activités.

Pierre Bollard, Spurgin, béton-bois
Pierre Bollard est directeur général de Spurgin depuis 2004. © Benoît Crépin

« En 2019, la France a connu un épisode de sécheresse majeur, qui nous a mis face aux conséquences du changement climatique. Au retour des congés d’été, j’ai donc décidé de réunir les équipes de l’entreprise afin que nous trouvions des solutions pour “faire notre part” face à ces bouleversements en cours », se remémore Pierre Bollard.

C’est ainsi tout naturellement vers le ciment bas-carbone – un ciment pouzzolanique CEM IV – que se tourne en premier lieu Spurgin. Un choix qui ne se révèle toutefois pas sans conséquence… Très vite, l’entreprise se trouve en effet confrontée à une conséquence inattendue de l’utilisation de ce ciment sur son outil de production : les éléments de coffrage métalliques utilisés pour donner vie à ses murs en béton préfabriqués – ou « prémurs » – s’oxydent prématurément. Face à cet imprévu, l’entreprise se voit contrainte de mettre en place un roulement entre produits conventionnels et bas-carbone, et limite ainsi la part de sa production faiblement émettrice de CO2 à 12 % environ.

Pour poursuivre malgré tout son parcours de décarbonation, la société familiale se met donc en quête de solutions innovantes développées par d’autres qu’elle-même. Un travail qui aboutit ainsi à la signature d’un premier contrat de partenariat avec un spécialiste des solutions constructives innovantes – Techniwood – et à la création d’un produit bas-carbone baptisé ISO-WOOD, un prémur isolé hybride béton-bois. Séduisante techniquement, la solution pâtit toutefois d’un coût de production relativement élevé, qui amène finalement Spurgin à cesser sa production. « Le produit n’était économiquement pas viable », confie le directeur technique de la société Marc Lenges.

Qu’à cela ne tienne. Entretemps, l’entreprise familiale s’est en effet également rapprochée d’un autre acteur de l’innovation en matière de décarbonation des solutions constructives : Construction Composites Bois, devenue CCB Greentech[1]. Une entreprise née en 2006 en Isère, et qui est à l’origine d’une technologie bas-carbone exclusive et plusieurs fois brevetée : LignoRoc, devenue TimberROC.

Un béton plus « végétal » que minéral

Rebaptisée TimberROC en 2021, la solution permet de donner vie à des murs et des dalles préfabriqués bénéficiant – entre autres atouts techniques et écologiques – d’un bilan carbone particulièrement favorable. Comment ? Grâce à l’utilisation d’une matière première pour le moins inattendue dans le monde minéral du béton : des déchets de bois. Enrichi d’un additif à la composition tenue secrète, ce bois broyé originaire de forêts d’Auvergne-Rhône-Alpes se substitue en effet aux traditionnels granulats qui entrent dans la composition du béton conventionnel, pour donner ainsi naissance à un véritable « béton de bois ». Une formulation d’un nouveau genre, qui confère aux éléments préfabriqués l’avantage d’un bilan carbone négatif, mais aussi une très bonne stabilité dimensionnelle, principal défi qui restait à relever pour pouvoir faire entrer dans le monde du bâtiment ce matériau utilisé jusqu’alors uniquement pour la fabrication de murs antibruit, comme nous l’expliquait en avril 2024 la directrice marketing et du développement commercial de CCB Greentech, Caroline Gérard.

« Début 2020, nous avons donc signé un accord de licence avec CCB Greentech, et nous sommes ainsi devenus les deuxièmes licenciés de l’entreprise iséroise », retrace Pierre Bollard.

Fin 2021, Spurgin se lance alors dans une phase de production préindustrielle[2] au sein de l’une de ses huit usines – réparties sur cinq sites industriels implantés tout à travers l’Hexagone –, celle de La Roque-d’Anthéron, dans les Bouches-du-Rhône.

Une première étape suivie par l’inauguration, au mois de juin 2024, d’une toute nouvelle unité industrielle implantée à Mignières, à quelques kilomètres de Chartres, aux côtés d’une usine préexistante[3] dédiée à la préfabrication de produits en béton minéral conventionnel et bas-carbone.

Fruit d’un investissement de 13 M€, cette nouvelle unité entièrement tournée vers le béton de bois devrait à terme assurer une production annuelle de pas moins de 300 000 m2 de murs préfabriqués à partir de ce matériau vertueux. Ceci, grâce des outils de production automatisés installés sur une surface couverte de 5 000 m2, que Pierre Bollard et Marc Lenges, accompagnés de Fabien Panel, responsable de l’activité Béton de bois de Spurgin, nous invitent tous trois à découvrir au lendemain de son inauguration officielle.

spurgin, béton-bois
L’unité de production de murs préfabriqués en béton de bois inaugurée début juin par Spurgin bénéficie d’une surface couverte de 5 000 m². ©Spurgin

Un procédé de préfabrication largement automatisé

Quelques jours avant sa mise en service, l’usine est encore figée. On peut toutefois d’ores et déjà y découvrir l’intégralité des équipements qui entreront en action d’ici peu, sous la houlette d’une quinzaine de salariés, pour l’heure, et d’une quarantaine à terme, lorsque l’usine fonctionnera en « 3×8 ».

À l’extérieur, une centrale à béton assure tout d’abord la préparation du mélange eau-ciment-granulats de bois. Des granulats que CCB Greentech fournit à Spurgin déjà additivés. Le mélange est ensuite acheminé jusqu’au « carrousel » qui siège au sein du hall couvert de l’usine.

Là, le premier maillon de cette chaîne de fabrication largement automatisée est incarné par un robot de coffrage. « Les plans des pièces établis par l’architecte et notre bureau d’étude sont transférés à la machine, qui va alors disposer sur une table, de manière entièrement automatique, les éléments de coffrage périphériques en métal », décrit Pierre Bollard. Pour les murs comportant des ouvertures, un « mannequin » en bois est également ajouté à l’ensemble, manuellement cette fois. Une fois prête, cette table est alors déplacée vers un poste de bétonnage, où le mélange de béton de bois est réparti au sein du coffrage. « Ce béton est foisonné, il est donc nécessaire de le tasser », souligne Pierre Bollard. Après un arasage de la matière à deux centimètres au-dessus des bords du coffrage, une compacteuse se charge de l’opération, réalisée en deux passes, comme le précise Fabien Panel.

spurgin, bois-béton
Une fois préparé par un robot, le coffrage est rempli de béton de bois au niveau du poste de bétonnage aménagé dans l’usine. © Benoît Crépin

Une fois compacté, puis contrôlé, l’élément en béton de bois est immédiatement décoffré. « Ainsi tassé, le béton de bois tient en effet tout seul, comme un château de sable », illustre le DG de Spurgin. Pour qu’elle se solidifie définitivement, la pièce est toutefois acheminée vers une étuve, où elle est maintenue à une température de 30 °C pendant 24 heures.

spurgin, bois-béton
Des chaînages permettent de renforcer l’élément préfabriqué en béton de bois. © Benoît Crépin

À l’issue de ce séjour, les éléments achèvent leur parcours sur une deuxième partie de la ligne de production, où ils sont tout d’abord retournés, avant que ne soient réalisés des renforts en béton – conventionnel cette fois – au sein de réservations préalablement ferraillées. « Ces chaînages servent de renfort pour ces murs porteurs préfabriqués, comme cela serait le cas pour une maçonnerie traditionnelle », explique Pierre Bollard.

Le procédé permet ainsi de donner naissance à des murs porteurs[4] d’une dimension maximale d’un peu plus de 3,6 m de haut, pour 8 m de long et 24 ou 30 cm d’épaisseur. Des éléments préfabriqués que Spurgin est pour l’heure en mesure de livrer en l’espace de huit semaines à partir de l’envoi des plans par l’architecte.

L’espoir d’une montée en puissance

Cet outil industriel désormais prêt à produire en masse ces murs préfabriqués en béton de bois, reste désormais à Spurgin à faire connaître cette solution constructive vertueuse… « La prescription est quelque chose qui prend beaucoup, beaucoup de temps », confie le DG de Spurgin. Pierre Bollard qui compte toutefois, notamment, sur la mise en place de la RE2020 et de ses objectifs en matière de décarbonation, pour pousser l’adoption de cette solution constructive vertueuse auprès des architectes et autres maîtres d’œuvre. « Sortis d’usine, ces murs en béton de bois sont certes plus chers, mais présentent bien d’autres avantages : déphasage et résistance thermique, isolation phonique, mais aussi bien sûr, stockage de carbone », fait valoir le dirigeant.

Autant d’atouts qui ont d’ailleurs déjà séduit de premiers clients, comme en témoignent notamment les deux gros chantiers sur lesquels la solution constructive sera prochainement mise en œuvre : celui de la Cité Scolaire de Sartrouville, ainsi que celui du Nouvel Hôpital Psychiatrique de Tours (NHP). Deux projets pour lesquels un total de près de 15 000 m2 de murs préfabriqués en béton de bois sortiront ainsi, dans les semaines à venir, de cette toute jeune unité de production lancée par Spurgin sur son site de Mignières. Un frémissement qui augure peut-être, comme l’espère en tout cas Pierre Bollard, d’une croissance exponentielle de la demande.

En matière d’innovation bas-carbone, Spurgin a plus d’un tour dans son sac…

innovations, bois-béton
Outre ses murs préfabriqués en béton de bois, Spurgin mise également désormais sur des innovations externes telles que le mur bois-paille d’Activ Home, ou les blocs en pisé de la start-up Terrio. © Benoît Crépin

Signe que l’entreprise a résolument adopté la voie de l’innovation externe, Spurgin a profité de l’inauguration de sa toute nouvelle unité de production de murs porteurs en béton de bois pour en faire l’écrin d’autres principes constructifs vertueux sur lesquels elle mise désormais. Outre son prémur à galettes, nous avons en effet pu découvrir une série d’innovations développées par d’autres qu’elle, et notamment un mur préfabriqué en bois-paille distribué pour l’heure par l’entreprise bourbonnaise Activ Home. Un acteur de l’innovation que Spurgin compte d’ailleurs bientôt faire entrer dans son giron, comme nous l’a révélé Pierre Bollard.

Autre exemple de ce « changement de culture » qu’évoquait son dirigeant, l’entreprise a également investi il y a peu dans la start-up Terrio, séduite par ses blocs en pisé (terre crue) préfabriqués.

Spurgin n’en délaisse pour autant pas complètement l’innovation interne, et a pour cela décidé d’adosser à sa toute nouvelle unité de production de murs en béton de bois de Mignières un laboratoire de R&D qui sera animé par une équipe de trois personnes à plein temps[5] dès septembre prochain.


[1] CCB pour Carbon Capture Buildings.

[2] Avec une capacité de production annuelle d’éléments en béton de bois de l’ordre de 30 000 m2.

[3] Ouverte en 2011 par Spurgin.

[4] Jusqu’en R+3.

[5] Dont une ex-chercheuse du Centre d’études et de recherches de l’industrie du béton (Cerib).

Législatives : La fiscalité énergétique en question

Le Rassemblement national et le Nouveau Front populaire sortent leurs promesses sur la fiscalité énergétique. Les deux grands sujets qui se battent en duel : un taux de TVA réduit sur les différents produits énergétiques ou un blocage des prix. Matthieu Toret est un ancien fonctionnaire du ministère des Finances qui a travaillé sur la fiscalité énergétique française. Il est désormais associé-gérant du cabinet d’avocats ENERLEX dédié à la fiscalité écologique et énergétique auprès des industries intensives en énergie. Il décrypte pour Techniques de l’ingénieur la faisabilité de ces mesures.

Techniques de l’ingénieur : Le RN propose d’abaisser la TVA sur l’électricité, le gaz, les carburants et le fioul de 20 % à 5,5 % pour abaisser les dépenses des ménages liées à l’énergie. Cette mesure serait-elle facilement réalisable ?

Matthieu Toret, taxes
Matthieu Toret

Matthieu Toret : Pour le gaz, le fioul et l’électricité, il n’y a pas de problème juridique au fait de descendre la TVA au tarif réduit de 5,5 %. Pour le carburant, c’est plus compliqué. La TVA est encadrée au niveau européen par une directive qui date de 2006, avec une liste limitative de produits sur lesquels les États membres peuvent appliquer les tarifs réduits. Cette liste ne mentionne pas directement les carburants.

En France, on a un taux à 2,1 % pour les produits du type médicaments, un taux de 5,5 % pour les produits de première nécessité, un taux à 10 % pour certains travaux par exemple, et le taux plein s’élève à 20 %. Sur les carburants, tout ce que pourrait éventuellement faire le RN, c’est de descendre le taux de TVA de 20 % à 15 %. Il serait possible de descendre le taux de TVA applicable aux à 15 %, mais pas de manière définitive. Mais même là, il y aurait une difficulté, car en France ce taux n’existe pas. Cette proposition me paraît hasardeuse d’un point de vue européen.

Y aurait-il un autre moyen fiscal pour réduire le prix de l’énergie ?

Pour baisser le prix des carburants, on pourrait agir sur la principale taxe qui est la TICPE, la taxe intérieure de consommation sur les produits énergétiques. C’est une taxe décorrélée du prix de vente, une accise, qui s’applique au litre de carburant acheté. À chaque fois que vous faites le plein de votre voiture, elle s’élève à environ 60 centimes d’euros sur chaque litre de carburant. Le tarif de cette taxe n’a pas été modifié depuis la crise des gilets jaunes.

Sur le levier fiscal, il n’y a pas de problème juridique pour abaisser cette TICPE. Mais on entre alors dans les débats budgétaires. C’est la quatrième recette fiscale de l’État. Baisser significativement les tarifs de la TICPE aurait des conséquences budgétaires chiffrées en milliards d’euros.

La TICPE entre dans l’assiette de la TVA. Donc il y a de la taxe sur la taxe. Si on baisse la TICPE, mécaniquement, le montant de TVA à payer baissera également par ricochet. Et c’est encore de l’argent en moins pour les caisses de l’État.

Le Front populaire prévoit de bloquer les prix de l’énergie et des carburants. Cela reviendrait à faire un bouclier tarifaire, qui a engendré un coût net pour l’État de 36 milliards d’euros sur les années 2021 à 2024, selon la Cour des comptes. Est-ce possible à long terme ?

Le bouclier énergétique est possible, mais il y a une limite temporelle aux prix régulés ou bloqués. Cela a en plus un coût faramineux. Le gouvernement a baissé le prix de l’électricité et le tarif des taxes sur l’électricité au minimum autorisé par le droit européen C’est la TICFE, taxe intérieure sur la consommation finale d’électricité. C’est une taxe sur le mégawattheure d’électricité. Son tarif historique est de 22,5 euros par mégawattheure (€/MWh). Pendant la crise énergétique, le gouvernement l’a baissée au minimum autorisé par le droit européen. Soit 1 €/MWh pour l’électricité des particuliers et 0,5 €/MWh pour l’électricité des entreprises.

On est sorti le 1er février 2024 de ce bouclier et la TICFE est repassée à 20,5 €/MWh pour les entreprises et 21 €/MWh pour les ménages. Et il est prévu au 1er février 2025 de repasser au tarif historique, c’est-à-dire 22,5 €/MWh. La baisse de la TICFE pendant la période de la crise énergétique a coûté 9 milliards d’euros en manque à gagner aux caisses de l’État, d’après Bruno Le Maire.

Il y a également la TICGN, taxe intérieure de consommation sur le gaz naturel. Elle se calcule sur le mégawattheure de gaz et son tarif actuel est de 16,37 €/MWh. Elle a doublé il y a un an, dans le cadre du Green deal, car le gaz était moins taxé que l’électricité.

Mais il faut reconnaître que le droit européen est assez souple. Pour l’électricité par exemple, il stipule simplement l’obligation d’une TICFE avec un prix minimal pour les particuliers et les professionnels. Mais entre 0,5 €/MWh et 22,5 €/MWh, il y a des marges de manœuvre juridiques. Après, c’est encore une fois une question de financement.

Finalement, assiste-t-on à des propositions novatrices ou recyclées ?

Il n’y a rien de vraiment novateur dans ces propositions : le taux de TVA sur les produits énergétiques est régulièrement débattu. Les tarifs de la TICPE également. Et la TICFE est une variable d’ajustement dont a usé le Gouvernement récemment. Les annonces sont suffisamment vagues pour qu’il soit difficile de se prononcer. Mais dans l’ensemble, sauf exception, ce sont des mesures juridiquement faisables. Le sujet est cependant de savoir comment on les finance.

Quand on rentre dans le dur du financement, tout le monde sèche un peu, car ce sont des enjeux et conséquences à coups de milliards. C’est Bercy qui a en charge l’administration de toutes ces taxes. Si vous touchez à la fiscalité des énergies, il faut faire voter une nouvelle loi de finances ou une loi de finances rectificative. C’est ce qu’annonce Jordan Bardella pour août prochain s’il est nommé Premier ministre.

Écoutez notre podcast Cogitons Sciences : Remplacer le plastique pétrosourcé par du biosourcé [Plastique addict : comment s’en débarrasser ? #3]

De plus en plus d’entreprises et de chercheurs sont en quête de solutions non ou moins impactantes que les polymères pétrosourcés. Et ce, en essayant d’atteindre les mêmes performances. Nos invités Charlène Béal-Fernandes, responsable communication et Lyes Chiheb, responsable développement durable chez Lactips, une entreprise qui produit des polymères naturels, témoignent.

Ecoutez l’épisode ici

La caséine, un nouveau matériau bien connu [01:02 – 08:25]

Réaliser des matériaux à base de caséine, la protéine de lait, n’est pas nouveau. La société Lactips utilise cette protéine pour la conception de ses polymères naturels, en s’appuyant sur les travaux réalisés par Frédéric Prochazka, enseignant chercheur au laboratoire Ingénierie des matériaux polymères de l’Université Jean Monnet à Saint-Etienne. Une protéine bien connue de l’industrie qui trouve aujourd’hui son intérêt dans la production de plastique. « C’est un changement de paradigme, le basculement vers des matières plus vertueuses, qui nous fait revenir à cette matière laissée dans un tiroir pendant des années » commente Lyes Chiheb responsable développement durable chez Lactips.

Pour le comestible et les pièces outdoor [08:26 – 14:04]

Aujourd’hui Lactips produit ce granulé thermoplastique, hydrosoluble et biodégradable pour concevoir différents produits tels que « des films pour une utilisation de courte durée, des étiquettes hydrosolubles pour le marché du réemploi, le revêtement des packaging alimentaires qui est aujourd’hui en plastique, mais également des produits pour des applications outdoor, comme les petites pièces en plastiques utilisées par les agriculteurs et qui ne sont pas systématiquement récupérées en fin de saison » illustre Charlène Béal-Fernandes, responsable communication chez Lactips.

Peu de modifications pour les industriels [14:05 – 21:15]

Le matériau est vendu sous la forme de granulé et ne nécessite pas de grosses transformations de la ligne de production, ni de nouvel investissement dans les machines. « Notre matière ne va pas se transformer à des températures similaires des conventionnelles, nous sommes à des températures beaucoup plus basses, ajoute Lyes Chiheb. Ce qui est positif d’un point de vue environnemental. » Le matériau est quant à lui plus cher que le plastique conventionnel, comme les autres matières biosourcées. « Aujourd’hui, nous avons un producteur de matière première français, qui se fournit avec des ingrédients français… ce qui est également un avantage pour les industriels dans un contexte géopolitique compliqué » ajoute-t-il. Sans oublier la réglementation qui pousse vers la fin des plastiques jetables.

Retrouvez l’épisode ici.

Références citées :

– Frédéric Prochazka, co-fondateur et directeur scientifique de Lactips
– Alexis von Tschammer, directeur général de Lactips
– PHA ou polyhydroxyalcanoate
– Le blend : un mélange de bioplastiques
– Le produit CareTips®️ de Lactips
– PE : polyéthylène, PP : polypropylène
– PPWR : Proposal Packaging and Packaging Waste regulation
– Le test CEPI de recyclabilité du papier. PTS Papiertechnische Stiftung Recherche et développement en matière de fibres
– PLA : Polylactic Acid, matériau thermoplastique issu de sources biodégradables, qui n’est pas « home compost »

Ressources pour aller plus loin :

Expérimentation sur la biodégradation des emballages certifiés compostables en site de compostage

Chaire Copack

Microbial decomposition of biodegradable plastics on the deep-sea floor

« La cybersécurité sert trop souvent d’alibi pour freiner la digitalisation de l’industrie »

Jean-Philippe Lorinquer, OSS Ventures
Jean-Philippe Lorinquer est partner chez OSS Ventures (crédit OSS Ventures)

OSS Ventures est un start-up studio fondé en 2019 par Renan Devillières. Sa mission est d’accompagner l’industrie française dans une transition technologique, environnementale, sociale et sociétale.

OSS Ventures a aussi une volonté d’évangélisation du monde industriel sur les questions digitales et de cybersécurité.

Techniques de l’ingénieur : Selon vous, à quel niveau le risque cyber se situe-t-il ?

Jean-Philippe Lorinquer : Malheureusement, le véritable risque ne se situe pas où l’on croit. Des industriels me disent parfois que les solutions SAAS sont dangereuses et je leur réponds : « Montrez-moi des exemples de cyberattaques réussies sur des datacenters de Microsoft ou Amazon ». À l’inverse j’ai de nombreux exemples d’entreprises industrielles qui ont subi des piratages lourds de conséquences, dont la porte d’entrée était la boîte mail ou le logiciel RH et non des produits en SAAS.

Il y a aussi les nombreuses clés USB en circulation dans les entreprises ou introduites dans les machines par les maintenanciers pour les mises à jour des équipements.

Et il y a également tout un panel de risques low tech, notamment les arnaques au président qui deviennent de plus en plus élaborées, grâce aux deepfakes (imitation de l’image et de la voix), tout cela avec des outils du marché !

Mais j’ai une anecdote encore plus marquante : il y a quelque temps, nous avions travaillé sur un projet de start-up dans le cyber. Nous avions décidé d’effectuer des tests de pénétration¹ (Pen test) en envoyant un hacker dans une usine, muni des droits d’accès d’un stagiaire et d’une adresse mail. Les résultats étaient effrayants : à 12 heures il était capable d’éteindre la lumière dans l’usine, à 18 heures il était au niveau de l’active directory du groupe (LDAP) et à 20 heures il pouvait mettre HS tous les équipements de production du groupe. Douze heures à peine peuvent donc suffire pour mettre à genoux un groupe industriel.

D’où vient-il, ce manque de maîtrise du risque cyber ?

C’est un fait : du risque il y en a, il est énorme, il n’est pas maîtrisé et les causes sont multiples, la première étant le manque d’accès aux talents en cybersécurité. Ces profils préfèrent en effet gagner beaucoup d’argent en allant dans des secteurs très rémunérateurs, plutôt que d’aller dans des usines qui n’évaluent pas la cybersécurité comme une priorité et payent donc moins bien.

Que diriez-vous aux industriels qui seraient tentés de tout verrouiller par sécurité ?

Tout verrouiller par sécurité n’est pas une solution, pour deux raisons. D’une part, les usines sont un monde d’ingénieur, or il est dans l’ADN des ingénieurs de chercher obstinément à résoudre les problèmes. Si on les empêche de résoudre ces problèmes, en clôturant les accès, il est certain qu’ils vont chercher à contourner ces obstacles. Ce phénomène génère ce qu’on appelle le « Shadow IT », une pratique consistant à utiliser des systèmes et logiciels non autorisés par les responsables de la sécurité informatique de l’entreprise.

J’ai personnellement constaté, dans de grands groupes automobiles internationaux, la présence de serveurs achetés sous le nom d’automates. Le but ? Créer un mini-réseau interne afin de relier les équipements et résoudre des problèmes techniques. Le shadow IT peut donc aller très loin !

D’autre part, il est totalement aberrant, dans un monde où le digital permet d’accroître la performance de l’entreprise ou de développer de nouveaux produits, de « revenir à l’âge de pierre » de l’informatique en espérant survivre. Car c’est bien une question de survie : si tout est verrouillé, il n’y a plus rien à attaquer, mais en quelques années, sans digital, il n’y a tout simplement plus d’entreprise.

Les entreprises sont habituées à gérer des risques. Pourquoi est-ce différent avec le cyber ?

Les entreprises ont en effet une expertise forte de leurs risques opérationnels (chimique, sécurité, environnement, etc.). Cette connaissance à l’avantage d’être bien partagée au sein des organisations, contrairement au risque cyber. En général, le cyber est confié à une seule personne, l’expert DSI ou RSSI, avec souvent un pouvoir de « vie ou de mort » sur les projets. Il y a malheureusement eu des dérives, avec le sentiment, de la part du terrain, que le risque cyber est parfois un prétexte d’abandon, par manque de volonté.

Mais ce ressenti qu’ont les opérationnels vient aussi, en partie, d’un manque de communication et de compréhension des risques par le terrain, car il n’est pas non plus possible de laisser les ingénieurs faire ce qu’ils veulent.

Il faut donc développer une culture cyber au sein des entreprises !

Il y a bien un manque d’acculturation globale au risque cyber et donc de formation. Il est capital que la cybersécurité devienne l’affaire de tous. Au même titre que la qualité n’est pas le domaine réservé du directeur Qualité, les questions de cybersécurité ne concernent pas uniquement le DSI ou le RSSI !

Certaines organisations ont aussi décidé de mettre la cybersécurité sous la houlette du directeur de l’usine. Puisque même des États, des hôpitaux ou des services publics se font hacker, il n’y a bien évidemment pas d’obligation de résultat, mais une obligation de moyens. Cette responsabilisation au plus proche du terrain permet ainsi d’avancer.

En cybersécurité il y a un adage qui dit que « le problème se situe souvent entre le clavier et le dossier de la chaise ». L’erreur est humaine, elle est donc systémique. On sait que le risque existe et que tôt ou tard il y aura une attaque. Mais pour « faire tomber » une usine, il faut une conjonction de causes, l’important c’est de tout mettre en œuvre pour se protéger au mieux et éviter le pire.

Comment faire en sorte de sécuriser sans verrouiller ?

De même que la surqualité est synonyme de surcoût, trop de sécurité n’est pas une preuve de maîtrise du risque, au contraire. L’important c’est de protéger au bon niveau. Par exemple, qu’un individu arrive à envoyer des messages sur le réseau interne de l’entreprise est gênant, mais pas forcément grave s’il n’a pas accès à des informations sensibles.

Il y a une stratégie à adopter, que nous appelons « la stratégie de l’oignon ». Elle consiste à sécuriser fortement le noyau, mais à moins de protéger les couches externes. Au contraire, vouloir sécuriser tout le système de la même manière risque d’entraîner une rigidification insupportable pour les équipes de terrain.

Enfin, il est important de rappeler qu’il n’est pas possible de sécuriser une organisation sans effort ni ressources humaines ou budgétaires. Les entreprises doivent aussi mettre l’accent sur l’accompagnement au changement. Pour qu’un gros projet réussisse, 25 % du budget devrait être consacré à cet accompagnement (formation, communication, etc.). C’est rarement le cas, et bien souvent les entreprises le regrettent.


¹ Exercice de sécurité dans lequel un expert en cybersécurité tente de trouver et d’exploiter les vulnérabilités d’un système informatique

Crédit visuel de une : rawpixel.com

L’efficacité des vers de terre face à l’antibiorésistance des bactéries

La résistance des bactéries aux antibiotiques est devenue une inquiétude globale. Déjà en 2021, l’OMS (Organisation mondiale de la santé) la classait parmi les dix plus grandes menaces pour la santé publique mondiale auxquelles l’humanité était confrontée. Des gènes de résistance aux antibiotiques sont présents chez les bactéries naturellement résistantes ou produisant ces mêmes antibiotiques. Or, ces gènes peuvent passer d’une bactérie à une autre par leurs plasmides, ou mini-chromosomes circulaires, des éléments génétiques mobiles. Ces derniers peuvent également transférer les gènes de résistance directement au sol et aux parties internes des plantes. Aujourd’hui, les centrales de traitement des eaux usées reçoivent et concentrent ces gènes en provenance des usines et des installations d’élevage. Malheureusement, les processus de traitement ne parviennent pas à les supprimer, ce qui conduit à leur accroissement dans ces eaux et les boues qui en résultent. Dans l’optique d’une solution naturelle, des chercheurs des universités chinoises de Tongji à Shanghai et de Guilin se sont tournés vers des organismes discrets, mais qui grouillent pourtant sous nos pieds : les vers de terre…

L’action 2-en-1 des vers de terre

antibiorésistance, ver de terre
Un individu d’Eisenia fetida, plus connu sous le nom de ver rouge. Crédits : P. Gourdain/MNHN.

Les vers de terre sont connus pour jouer un rôle crucial en limitant la dissémination des gènes de résistance aux antibiotiques. Reste à savoir de quelle manière… Pour ce faire, les scientifiques ont mis en place une expérience de microcosme avec lombricompostage. Ce processus de décomposition biochimique des déchets organiques pourrait en effet offrir une voie durable dans la lutte contre l’antibiorésistance dans les déchets solides, notamment la boue tirée des eaux usées et le fumier. Pour leur étude, les universitaires chinois ont sélectionné la bactérie du sol Pseudomonas putida comme donneuse de gènes et l’ont associée à la bactérie intestinale Escherichia coli. Niveau vers de terre, le lombricompost abritait des spécimens de vers rouges (Eisenia fetida). Le suivi de l’évolution des gènes de résistance et des plasmides bactériens s’est fait à l’aide de la métagénomique (génomique environnementale) et de la PCR (polymerase chain reaction) quantitative.

Après 63 jours d’expérience, les résultats ont finalement été analysés et présentés en juin 2024 dans le journal Bioresource Technology. Au total, l’abondance relative des gènes de résistance aux antibiotiques a diminué de 74,5 % du fait du lombricompostage, et plus particulièrement de la disparition de 92 % des bactéries donneuses. L’action des vers rouges a également empêché 94 % des transmissions du plasmide RP4, qui était surveillé par fluorescence. Un effet qui s’explique par la chute de 25 % de l’abondance relative de l’ensemble des plasmides bactériens. Selon les chercheurs, par leurs différentes actions (ensevelissement, ingestion, excrétion), les vers de terre modifient profondément les caractéristiques physico-chimiques et les populations microbiennes de leur environnement. En cela, ils influencent fortement les altérations causées aux gènes de résistance et aux plasmides. Une invitation à généraliser encore davantage le lombricompostage !

Les thèses du mois : « La loi AGEC va-t-elle faire le tri dans la filière de traitement des VHU ? »

Pour notre dossier de janvier, « La loi AGEC va-t-elle faire le tri dans la filière de traitement des VHU ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Écoconception pour la circularité : développement d’un environnement d’aide à l’intégration des composants de 2e vie issus de désassemblage de produits en fin de vie
Hripsime Snkhchyan
Projet de thèse en informatique depuis le 01/11/2023
Institut de mécanique et d’ingénierie de Bordeaux

 Intégration des concepts de l’Économie Circulaire au processus de conception et production de prototypes automobile
Gabrielle GENTRIC
Projet de thèse en Génie industriel, depuis le 01/04/2022
Laboratoire Génie Industriel

La double relation entre Eco-innovation & Économie Circulaire : Une étude de cas de la Chaîne de Valeur du pneumatique
Ali NAZARINIA
Projet de thèse en Sciences économiques, depuis le 19/10/2023
Laboratoire : BSE – Bordeaux sciences économiques

Monétiser les externalités de la conduite automatisée – une évaluation de la durabilité du cycle de vie des systèmes de transport
Nicole Nicole van den Boom
Projet de thèse en Génie industriel, depuis le 27/04/2023
Laboratoire Génie Industriel

 Polyoléfines hybrides autoréparantes pour application automobile
Mariette Lafont de Sentenac
Thèse de doctorat en Physique et chimie des matériaux, soutenue le 01/03/2024
Chimie de la matière condensée de ParisSoutenance le 01/03/2024

Nouvelle méthode de désactivation de batteries Li-ion de véhicules électriques en vue de leur recyclage : étude des phénomènes mis en jeu
Julia LEVY
Thèse de doctorat en Matériaux, Mécanique, électrochimie, génie civil, soutenue le 01/03/2024
CEA-Liten

Optimisation des flux d’emballages réutilisables avec une application à la supply chain automobile
Najoua Lakhmi
Thèse de doctorat en génie industriel, soutenue le 22/12/2021
Laboratoire Génie Industriel

Business models circulaires ˸ vers des création et captation de valeur pérennes ? Processus et instrumentation : Les enseignements du recyclage et de la réutilisation automobiles
Rémi Beulque
Thèse de doctorat en Sciences de Gestion, soutenue le 19/04/2019
Centre de gestion scientifique

Piloter et catalyser la transition vers une économie circulaire : Outils et indicateurs de circularité appliqués à l’industrie des véhicules lourds
Michael Saidani
Thèse de doctorat en Sciences et technologies industrielles, soutenue le 11/10/2018
Laboratoire Génie Industriel

 Le navire de commerce et son recyclage
Anne-Christine Renard
Thèse de doctorat en droit privé, soutenue le 08/12/2022
Institut de recherche juridique de la Sorbonne

La dépollution des VHU, une activité à risque pour les hommes et l’environnement

Un extrait de « Maîtriser le risque chimique dans les activités de dépollution de VHU » par Nicolas KIEFER.

Une directive européenne impose à la filière automobile un taux de réutilisation et de valorisation correspondant à 95 % du poids moyen par véhicule. Le taux de recyclage, lui, doit atteindre les 85 % du poids moyen par véhicule.

Cependant, les centres agréés en charge de la dépollution des véhicules hors d’usage (VHU), couramment désignés sous le terme de « casses automobiles », sont tenus de respecter diverses procédures lors des différentes manipulations. En effet, pour aussi bénéfiques qu’elles soient pour l’environnement, ces opérations exposent les salariés chargés de les réaliser à des risques chimiques dont doivent tenir compte les exploitants des centres.

Identifier les agents chimiques et le degré de risque

Les différents composants retirés lors du démantèlement peuvent être des fluides tels que les huiles de vidange, les lubrifiants, les liquides de freins ou de refroidissement… Il peut également s’agir des équipements propres au véhicule, notamment les garnitures de frein, les airbags, les batteries, les pots catalytiques, les pneumatiques et bien d’autres.

L’ensemble des éléments composant un véhicule expose ainsi les salariés à des risques plus ou moins élevés en cas d’inhalation ou de contact, et parfois même à un risque d’explosion. Il est donc indispensable de repérer les agents chimiques présents dans le VHU ou susceptibles d’être émis lors du démantèlement.

Ainsi, lors de leur aspiration, les fluides peuvent entrer en contact avec la peau ou bien émettre des substances qui seront inhalées par le salarié. C’est le cas notamment avec l’essence qui contient un solvant aromatique cancérigène. Le GPL, pour sa part, expose le technicien au risque d’asphyxie, mais également d’explosion.

Les filtres et condensateurs, quant à eux, contiennent différentes substances telles que les PCB ou PCT reconnus comme probables cancérigènes pour l’homme, mais que le salarié n’est pas toujours en mesure d’identifier lors du retrait.

D’autres risques existent bien sûr, dont l’exposition aux fibres d’amiante et aux fibres céramiques réfractaires consécutive au démantèlement des garnitures de freins. Citons également le risque de projection d’acide sur la peau ou les yeux lors de l’enlèvement des batteries au plomb/acide.

Prévenir et limiter l’exposition

Afin de limiter autant que possible les risques auxquels sont exposés les salariés, il est utile de prévoir une aspiration et un stockage des carburants et fluides au plus près de la source de pollution. Ces éléments seront ensuite stockés directement dans des cuves prévues à cet effet, puis collectés par une société spécialisée.

La diminution du risque passe également par le port des équipements de protection individuelle (EPI). Les masques filtrants, par exemple, permettent ainsi aux salariés de se prémunir contre le risque d’inhalation.

Par ailleurs, certaines opérations telles que le déboulonnage à air comprimé, générateur d’un fort empoussièrement, devront être proscrites.

Enfin, une attention forte devra être apportée à la maintenance des matériels et cuves, ainsi qu’au respect des valeurs limites d’exposition professionnelle, lequel devra être confirmé par un organisme accrédité.

La formation, un enjeu d’importance

Le démantèlement des VHU est une activité fortement réglementée, d’une part en raison de ses impacts sur l’environnement, mais également en raison des risques auxquels elle soumet les salariés en charge des différentes étapes devant être suivies. La prévention est donc primordiale.

Toutes les mesures prises par le centre agréé seront cependant vaines si elles ne s’accompagnent pas d’une formation solide des salariés et du respect des procédures prévues par la réglementation.

Les techniciens intervenant sur les différents fluides, filtres, batteries et autres équipements, devront ainsi être informés des différentes étapes de démantèlement des VHU, et des risques auxquelles elles exposent. L’importance sera également donnée au port, à l’entretien et au stockage des EPI. Par ailleurs, certaines opérations ne pourront être effectuées que par des salariés titulaires d’une attestation d’aptitude délivrée par un organisme évaluateur certifié.

Enfin, une bonne connaissance et le respect de la réglementation – déchets, environnementale – sont des préalables à une évaluation exhaustive des risques chimiques, ainsi qu’à une protection efficace de l’environnement et des hommes.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 11 juillet 2024 !

Maîtriser le risque chimique dans les activités de dépollution de VHU, Nicolas KIEFER

Le label climatique SBTi dans la tourmente et accusé de greenwashing

Fondée en 2015, la SBTi (Science-based targets Initiative) est une organisation créée par le CDP (Carbon Disclosure Project), le Pacte mondial des Nations Unies (UN Global Compact), le World Resources Institute (WRI) et le World Wide Fund for Nature (WWF). Son travail est d’élaborer des normes et des outils pour permettre aux entreprises d’atteindre zéro émission nette de CO2 d’ici à 2050 au plus tard, mais aussi de valider leur trajectoire pour atteindre cet objectif. Elle est aujourd’hui l’un des principaux labels dans le domaine de la décarbonation des entreprises et revendique accompagner plus de 4 000 groupes du secteur privé, dont des multinationales. Cette organisation se retrouve aujourd’hui dans la tourmente et est même accusée de greenwashing.

En cause : un communiqué publié en avril dernier, dans lequel la SBTi annonce avoir démarré des travaux de révision de sa norme phare appelée Corporate Net-Zero. Elle précise qu’elle a l’intention d’autoriser l’utilisation de certificats d’attributs environnementaux (CAE) à des fins de réduction des émissions de scope 3, considérant dorénavant que les crédits carbone sont un outil supplémentaire pour lutter contre le changement climatique. Ce virage est le fruit de nombreuses consultations sur ce sujet et la SBTi écrit : « qu’un premier projet de règles de base, de seuils et de garde-fous pour l’utilisation potentielle des certificats d’attributs environnementaux à des fins de réduction des émissions de scope 3 sera publié par SBTi d’ici juillet 2024. »

Les scopes sont des catégories d’émissions de gaz à effet de serre utilisées lors de la réalisation de bilan carbone. Alors que les émissions des Scopes 1 et 2 sont liées aux opérations propres d’une entreprise, celles du Scope 3 englobent toutes les émissions indirectes se produisant sur la chaîne d’approvisionnement en amont et en aval de l’entreprise. Elles sont liées à l’achat de marchandises, de matières premières et de services, ainsi qu’à l’utilisation des produits ou services vendus. Or, dans certains secteurs, comme celui des fournisseurs de carburants, le scope 3 peut représenter la grande majorité des émissions d’une entreprise.

Ne pas contrevenir aux principes fondamentaux de la comptabilité carbone

L’annonce de la SBTi a provoqué de nombreuses réactions d’acteurs de l’action climatique, à commencer par les propres employés de cette organisation qui accusent son conseil d’administration d’avoir pris cette décision sans consulter son conseil technique, et qu’elle porte préjudice à la crédibilité du label.

De son côté, Carbone 4 se montre très critique et juge cette position contraire au consensus scientifique et qu’elle contrevient aux principes fondamentaux de la comptabilité carbone. Ce cabinet de conseil spécialisé sur les enjeux d’énergie et du climat considère que le recours aux crédits carbone entretiendrait l’illusion selon laquelle une entreprise peut seule, uniquement à coups d’euros, se débarrasser du problème. « Or, l’une des vertus principales du fameux scope 3 (sa principale difficulté aussi) réside précisément dans l’exigence de coopération qu’il implique : il permet ainsi de resituer l’entreprise dans son réseau d’attachements, d’embarquer, au-delà de soi, d’autres acteurs, par un jeu d’influences mutuelles. »

En réponse à ces critiques, dont celle émanant du magazine Bloomberg, la SBTi a publié une réponse dans laquelle elle informe qu’aucune norme n’a pour le moment été modifiée et aucun changement ne pourra ou ne sera apporté tant que la procédure opérationnelle standard approuvée pour l’élaboration de normes n’a pas été achevée. En clair, le Conseil technique de cette organisation recevra le projet de la nouvelle norme Corporate Net-Zero pour examen et approbation, puis il sera soumis au Conseil d’administration.

Au mois de juillet, la SBTi doit publier un document de discussion présentant un point de vue préliminaire sur l’évolution du cadre conceptuel de cette organisation pour la définition des objectifs du scope 3. Le projet de nouvelle norme sera soumis à une consultation publique qui devrait avoir lieu d’ici à la fin de l’année 2024.

« Notre filière n’est pas gérée comme les autres filières de produits ciblées par la loi AGEC »

Mobilians est une organisation professionnelle qui fédère les vingt-trois métiers de la distribution et des services de l’automobile et de la mobilité. Parmi ces métiers, ceux relatifs au traitement des véhicules hors d’usage (VHU) se préparent, depuis plusieurs années, à l’application de la loi AGEC, qui va les contraindre à contractualiser, soit avec des éco-organismes, soit avec des systèmes individuels mis en œuvre par les constructeurs, pour être en mesure de poursuivre leur activité.

Patrick Poincelet, Président de la branche des recycleurs au sein de Mobilians depuis 2001, a expliqué à Techniques de l’Ingénieur la situation très particulière du secteur automobile et du traitement des VHU depuis des décennies, au regard de l’application de la loi AGEC.

Techniques de l’Ingénieur : Expliquez-nous pourquoi la loi AGEC appliquée à l’automobile a accouché d’une situation très tendue chez les opérateurs.

Patrick Poincelet : Il est important de préciser un certain nombre de choses concernant la loi AGEC. Tout d’abord, il faut savoir que cette loi intègre pas moins de 22 produits. Parmi tous ces produits, deux présentent des particularités, à savoir les DEEE et l’automobile. En premier lieu, la loi impose aux opérateurs, pour ces deux produits, de contractualiser avec les éco-organismes ou les systèmes individuels pour pouvoir continuer à exploiter.

Patrick Poincelet, Président de la branche des recycleurs au sein de Mobilians.

La seconde particularité en ce qui concerne l’automobile, et les DEEE dans une moindre mesure, est que les filières de recyclage existent depuis longtemps. Pour ce qui est du traitement des VHU, la filière a éclos à la fin de la seconde guerre mondiale, pour deux raisons : A l’époque, les produits automobiles étaient composés à 75% de matériaux métalliques, ferreux et non ferreux, qui avaient une grande valeur. Aussi, les pièces détachées ayant été réquisitionnées massivement pour l’effort de guerre, ces dernières manquaient, d’où la nécessité de développer le réemploi pour réparer les véhicules, qui tombaient fréquemment en panne.

Dans ce contexte, la loi AGEC pour l’automobile n’avait pas pour rôle de mettre en place une filière mais plutôt de l’encadrer.

Ensuite, notre profession est réglementée par une loi européenne de 2000, transposée dans le droit français en 2003 et applicable depuis 2006. La loi AGEC n’apportait dès le départ strictement rien de supplémentaire à cette loi en termes de valorisation. Il faut savoir que l’automobile est un des produits de consommation les plus valorisés, puisqu’on atteint aujourd’hui en moyenne un taux de valorisation de près de 97% sur la masse d’un véhicule.

La profession répondait déjà aux besoins en termes de traitement des VHU. Notre filière est une des seules pour laquelle il n’y a pas d’écotaxe sur les produits, elle est économiquement viable.

Autre particularité, en France tous les déchets sont traités par les collectivités, c’est-à-dire que le détenteur du produit n’a pas à gérer le déchet final. Dans le cas de l’automobile, l’utilisateur a la responsabilité de diriger son produit hors d’usage vers la bonne filière de traitement.

Enfin, à l’inverse de tous les déchets concernés par la loi AGEC pour lesquels il est impossible d’identifier qui en est le dernier détenteur lorsqu’ils sont abandonnés, un véhicule peut être identifié grâce à deux éléments : la voiture elle-même, et sa carte grise. Avec la mise en place des filières REP, les constructeurs sont responsables du devenir d’un VHU, mais pas pour autant propriétaires du produit en question. C’est une autre particularité de l’automobile par rapport aux autres produits concernés par la loi AGEC.

Toutes ces particularités compliquent fortement notre fonctionnement, puisque notre filière n’est pas gérée comme les autres filières de produits ciblées par la loi AGEC.

Dans ce cas, pourquoi avoir intégré les produits automobiles dans la loi AGEC ?

C’est la première question que nous nous sommes posés, dès que la loi AGEC est entrée en phase de projet. Un problème majeur concerne les filières illégales. Aujourd’hui, on estime que 30% des véhicules hors d’usage sont traités via ces filières. Ce taux est d’ailleurs à peu près le même dans la plupart des pays européens.

Je dirai qu’à travers la loi AGEC, l’Etat s’est déchargé de ses responsabilités en ce qui concerne la traque des filières illégales. Je m’explique : pour exercer notre activité, nous sommes soumis à deux réglementations obligatoires. La première est immobilière, nous sommes des entreprises ICPE. Aussi, nous devons disposer d’un agrément préfectoral pour le traitement des VHU, qui nous autorise à détruire administrativement une carte grise. Ainsi, nous nous battons depuis des années pour exiger de l’Etat qu’il se porte garant de l’application de la loi en veillant au respect de ces deux réglementations. Ce qui permettrait de lutter efficacement contre les filières illégales.

De son côté, l’Etat argue du fait que nous sommes en filière REP depuis 2015, ce qui nous oblige à mettre en place les moyens nécessaires pour que les VHU entrent tous dans les filières de recyclage légal. C’est ainsi que les opérateurs et les pouvoirs publics se renvoient la responsabilité, depuis de nombreuses années.

Aujourd’hui, le législateur a tranché, en incluant l’automobile dans la loi AGEC. Ainsi l’Etat transfère la responsabilité de la lutte contre les filières illégales vers les producteurs et les opérateurs existants.

La loi AGEC est-elle dès lors uniquement vécue comme une contrainte ?

Que ce soient les producteurs ou les opérateurs de la filière automobile, personne n’avait demandé à être intégré à la loi AGEC. Pour nous tous, il s’agit d’une contrainte et pas d’une avancée. En ce qui concerne les opérateurs, ces derniers étaient jusqu’alors indépendants vis-à-vis des producteurs, qui ne fournissent que 10% des VHU à la filière de traitement. Étant donné que la filière est viable économiquement, ses acteurs évoluaient jusque-là avec une certaine forme de liberté.

Dès lors que cette loi AGEC va entrer en application, que faire ?

Aujourd’hui, les producteurs sont dans une situation de responsabilité, alors que les opérateurs, propriétaires des produits, veulent être en mesure de poursuivre leurs activités. Avec l’obligation de contractualiser avec un éco-organisme ou un système individuel.

Il faut savoir que la France est plus favorable aux éco-organismes qu’aux systèmes individuels. Cependant ces derniers ont été actés au niveau européen, donc l’Etat français ne peut pas s’opposer à leur mise en place sur son sol. Ajouté à cela, les producteurs automobiles ont beaucoup de mal, pour ne pas dire plus, à coopérer entre eux : ils ne sont donc pas du tout moteurs dans la création d’éco-organismes, via lesquels ils se trouveraient potentiellement dans l’obligation de travailler avec d’autres acteurs du secteur.

Quelle est la stratégie des constructeurs ?

Trois leaders du secteur ont affirmé dès le départ leur volonté de créer des systèmes individuels : Renault Group, Stellantis, et Volkswagen. Cela représente 80% des voitures pour les particuliers en circulation.

Ainsi, à l’inverse des autres produits concernés par la loi AGEC, en France l’automobile va être gérée par des systèmes individuels.

A l’heure actuelle, seul l’éco-organisme RMV (Recycler mon Véhicule) est officiellement agréé. Renault Group, Stellantis et Volkswagen ont chacun déposé leur dossier, qui est toujours en cours d’instruction.

L’arrêté d’agrément n’est sorti qu’en novembre 2023, donc les opérateurs, qui avaient besoin des textes finaux pour déposer leurs dossiers, n’étaient pas en mesure d’être prêts pour le début de l’année 2024. C’était matériellement impossible.

Et du côté des opérateurs ?

Notre chance est que nous avons beaucoup travaillé avec la CSIAM (Chambre Syndicale Internationale de l’Automobile et du Motocycle), pour la création d’un éco-organisme. En tant qu’opérateurs, nous avons tout intérêt à créer des éco-organismes. En effet, lorsqu’un opérateur contractualise avec un éco-organisme, il a le droit de traiter la totalité des véhicules réceptionnés. Aussi, à partir du moment où l’opérateur se conforme au cahier des charges, l’éco-organisme ne peut pas ne pas contractualiser avec lui.

Étant donné que Mobilians fédère la moitié des opérateurs en activité, il était primordial pour nous de créer un éco-organisme, seul moyen de garder une certaine indépendance et être un contre-pouvoir aux systèmes individuels et subir les contraintes de leurs cahiers des charges, sans autres alternatives.

Aujourd’hui les futurs systèmes individuels craignent de ne plus trouver d’opérateurs pour travailler. Dans les métiers du recyclage, l’approvisionnement en matière est capital. Or aujourd’hui, 50% de l’approvisionnement de nos centres sont des produits qui nous viennent directement des particuliers. Les producteurs n’en sont donc pas propriétaires.

Existe-t-il un risque que certains opérateurs ne puissent plus exercer ?

Les trois systèmes individuels en cours de création ont prévu de contractualiser avec environ 800 opérateurs, alors que ces derniers sont environ 1 700 sur le territoire. Ce qui veut dire que près de la moitié des acteurs actuels du secteur risquent de se retrouver hors circuit. In fine, ces derniers pourraient se retrouver à exercer dans l’illégalité, et comme je l’ai précisé, les filières illégales exercent depuis plus de cinquante ans sans que personne ne parvienne à les démanteler. Le risque est donc grand de voir ces filières illégales se multiplier.

Au final, quand je discute aujourd’hui avec les systèmes individuels, je leur pose la question : « Quel est l’intérêt pour nous, opérateurs, de contractualiser avec vous, étant donné que vous n’avez que peu de matière à nous fournir, et que vous allez nous imposer un cahier des charges extrêmement contraignant ? »

Quelle est leur réponse face à ces interrogations ?

Ils ont annoncé vouloir favoriser la vente de PIEC (pièces issues de l’économie circulaire) dans leurs réseaux. Ce qui n’est pas un problème pour les opérateurs, qui n’ont pas de difficultés pour vendre leurs pièces, puisqu’il y a beaucoup de demandes. Ils vont donc être dans l’obligation de se mettre autour de la table et de trouver avec les opérateurs des systèmes de fonctionnement qui conviennent à tout le monde. C’est ce qui est intéressant. D’ailleurs, nous avons toujours travaillé ensemble, et la recherche d’une solution qui permette à tous les acteurs de continuer à travailler est dans l’intérêt de tous. Le bon sens doit l’emporter.

Quand est-ce que la loi AGEC sera-t-elle effectivement appliquée, selon vous ?

Les différents agréments et contractualisations devraient se mettre en place d’ici 2025. Deux problématiques restent sur la table. D’un côté, la directive européenne est en train de devenir un règlement européen, ce qui pourrait remettre en cause un certain nombre de choses au niveau français. Enfin, il y a la problématique en devenir liée au traitement des batteries de véhicules électriques. Qui sera le propriétaire de la batterie ? La question pour nous est de dire que le produit est d’abord un VHU, et tous les déchets de ce VHU peuvent être gérés par d’autres filières REP, comme c’est le cas avec les huiles usagées ou les pneus. Nous voulons que ce soit la même chose avec la filière batterie. Sauf que la batterie représente une grande partie de la valeur d’un véhicule électrique, donc les producteurs veulent absolument que la batterie leur appartienne, alors qu’ils n’en sont pas les derniers détenteurs… C’est donc un autre combat qui s’annonce autour de ce sujet dans les mois à venir.

Propos recueillis par Pierre Thouverez

Décarbonation de la France : il y a « urgence » à publier les cadres législatifs

« La France a connu, pour la première fois en 2023 (hors crise Covid), un rythme de baisse de ses émissions de gaz à effet de serre dont l’ampleur – si elle se maintient dans les années à venir – est cohérente avec une trajectoire de décarbonation permettant d’atteindre ses objectifs pour 2030 », partage le Haut Conseil pour le climat (HCC), dans son nouveau rapport annuel. L’organisme indépendant voulu par Emmanuel Macron pour évaluer les politiques climatiques de la France calcule une baisse des émissions de 5,8 % sur l’année par rapport à 2022. Les émissions de la France atteignent ainsi 373 millions de tonnes de CO2 équivalent (MtCO2eq) en 2023. C’est 31 % de moins qu’en 1990.

L’évolution du cadre législatif, en retard

Concrètement, le budget carbone 2019-2023 permettrait d’atteindre l’objectif de baisse de 55 % des émissions d’ici 2030, « à condition de […] préserver les capacités d’absorption des puits de carbone forestiers », calcule le HCC. Car le secteur souffre face au changement climatique… Cela étant dit, l’organisation appelle à maintenir l’effort de décarbonation et de transformation de société. La planification écologique nécessite la publication des cadres législatifs, pointe le HCC. Tous les textes prévus, qu’ils concernent l’énergie, la décarbonation, l’adaptation au changement climatique, sont en effet en retard par rapport au planning initialement annoncé.

« Le renouvellement de ces documents-cadres est désormais urgent pour maintenir la structuration de la politique nationale de réduction des émissions et d’adaptation au changement climatique, et donner à chaque acteur la visibilité nécessaire pour agir en cohérence dans la durée », prévient le HCC. Après 2030, le cap manque encore plus de clarté et l’alignement des politiques en place avec l’objectif de neutralité carbone en 2050 reste « insuffisant » pour espérer l’atteindre.

Accélérer l’adaptation au changement climatique

Le HCC relève que « le décalage se creuse entre les mesures prises pour faire face aux impacts du changement climatique et les besoins d’adaptation ». Et pour cause, « les aléas climatiques induits par le réchauffement s’intensifient plus rapidement que les moyens mis en œuvre pour en limiter les impacts ».

Récemment, l’Institut de l’économie pour le climat (I4CE) dévoilait une première étude concernant les coûts de l’adaptation aux effets du réchauffement climatique de + 4 °C. Il soulignait l’importance de mettre en place des « options d’anticipation » déjà connues, prêtes à être déployées. Certaines options offrent même suffisamment de co-bénéfices économiques pour être intrinsèquement rentables. L’étude soulignait l’importance d’anticiper ces risques au plus vite.

Sans adaptation structurelle, « ces dépenses subies [liées aux dommages, aux coûts des réparations des infrastructures essentielles ou encore aux aides de crise] ne vont cesser d’augmenter et perdre leur caractère exceptionnel », souligne I4CE. Elles représentent déjà « plusieurs milliards d’euros par an ».

« Un centre VHU qui respecte la réglementation sera fortement courtisé »

L’Indra, Industrie Nationale de Déconstruction et de Recyclage Automobile, est une entreprise, créée en 1985, et aujourd’hui leader de la filière française du recyclage automobile. Depuis sa création l’Indra s’est attelée à regrouper un maximum de démolisseurs indépendants et s’efforce de classifier la provenance des véhicules qui sont traités.

Reprise en 2008 par Renault et Suez, l’entreprise possède aujourd’hui 3 centres de traitement VHU, sur les 330 qui sont regroupées dans le réseau Indra. 

Olivier Gaudeau, Directeur des affaires publiques de Indra Automobile Recycling, a expliqué aux Techniques de l’Ingénieur quelles évolutions ont, depuis la réglementation européenne en 2012, marqué la filière de traitement des VHU. Avant l’entrée en vigueur effective de la loi AGEC, dans environ 18 mois.

Techniques de l’Ingénieur : La loi AGEC pour l’automobile, prévue initialement pour entrer en vigueur début 2024, n’est toujours pas appliquée. Pourquoi ?

Olivier Gaudeau : Effectivement. C’est quelque chose sur lequel nous travaillons depuis des années, et qui met beaucoup de temps à sortir. Aujourd’hui, les textes sont quasiment tous finalisés, sauf en ce qui concerne un arrêté relatif aux données des filières à responsabilité élargie des producteurs. Ce dernier précise quels types de données les filières REP doivent reporter, et comment le faire. L’arrêté est sorti en 2022, alors que l’annexe relative aux VHU n’avait pas à ce moment été produite. Depuis, le ministère[1] et l’Ademe travaillent dessus, et cette annexe devrait être publiée avant la fin de l’année, ce qui entraînera peut-être une révision de l’arrêté.

Au-delà de cette incertitude, les principaux acteurs et parmi eux les metteurs en marché ont déjà décidé de la solution qu’ils souhaitent mettre en place, à savoir des éco-organismes – qui vont représenter moins de 10% des mises en marché – ou des systèmes individuels, via lesquels les producteurs confieront le traitement des VHU à des prestataires comme l’Indra par exemple.

Seul un éco-organisme a pour le moment reçu l’agrément. Les marques, de leur côté, développent des systèmes individuels. Quelle est la stratégie derrière ce choix ?

C’est exact. Le premier éco-organisme, Recycler Mon Véhicule, a été agrémenté il y a 2 mois environ. En consultant le site internet de RMV, on peut ainsi découvrir quels sont les metteurs en marché qui y adhèrent. On peut donc considérer que tous les metteurs en marché qui ne sont pas dans cette liste vont mettre en œuvre un système individuel.

Olivier Gaudeau, directeur des affaires publiques de Indra Automobile Recycling

En ce qui nous concerne, Renault a confié à l’Indra le soin de l’aider dans la mise en œuvre de son système individuel. In fine, l’Indra sera prestataire du système de Renault, pour accompagner la marque dans la lourde tâche qui consistera à atteindre les objectifs édictés par le dispositif réglementaire actuel. 

En tout état de cause, les metteurs en marché sont devant un choix : soit ils mutualisent, soit ils partent en système individuel.

Au vu de ce qui nous attend dans les mois à venir avec la mise en place du règlement européen, la vision de l’Indra est la suivante : il est logique que les metteurs en marché s’organisent pour essayer d’organiser notamment les flux de matière. En effet, les règlements européens vont les contraindre à incorporer des matières recyclées dans leurs véhicules, en commençant par les polymères. Il apparaît donc logique que les constructeurs aient la volonté de piloter le flux de matière, pour capter la matière et la faire passer par un certain nombre de process définis avec des partenaires, pour être certain de disposer d’une matière recyclée apte à être incorporée dans différents équipements automobiles, en tenant compte de leur cahier des charges.

Au-delà du système individuel que Renault développe avec la collaboration de l’Indra, allez-vous contractualiser avec d’autres systèmes individuels ?

Il est tout à fait possible pour un prestataire de contractualiser avec plusieurs systèmes individuels. Nous avons même le cas d’un acteur qui s’apprête à contractualiser à la fois avec un éco-organisme et avec un système individuel. 

De notre côté, nous sommes en contact avec une dizaine de metteurs en marché, que nous aidons à monter leur dossier pour l’obtention de leur agrément en système individuel.

Chaque metteur en marché a ses spécificités, que ce soit au niveau des types de véhicules mis en marché, de leur poids sur le marché, du lieu de production de leurs véhicules… Les problématiques ne sont pas du tout les mêmes selon les constructeurs, et la façon dont nous allons mettre en place le traitement et le recyclage de certaines matières peut donc varier.

Les centres VHU se préparent à l’entrée en vigueur de la loi AGEC depuis longtemps. Cela a-t-il un impact visible sur la filière ?

Pour le moment, pas vraiment. Après, cela pousse certains centres de traitements de véhicules hors d’usage à se poser des questions, notamment sur la place qu’ils occuperont dans la filière lorsque la loi entrera en application. Il y a de l’inquiétude, notamment chez les acteurs qui se sentent un peu juste en termes de respect de la réglementation. Concrètement, cela fait une quinzaine d’années que la filière s’est organisée et est soumise à la réglementation européenne. Elle s’est donc petit à petit mise en mouvement, avec des transformations colossales, sur les pièces issues de l’économie circulaire, sur l’informatisation des centres, les investissements en matière de stockage des véhicules, l’imperméabilisation des sols, les dispositifs de systèmes de dépollution, de démontage… C’est d’ailleurs en grande partie grâce à cela que la France dispose sur le traitement des VHU d’une des meilleures filières d’Europe, voire la meilleure, avec un reporting, qui même s’il est déclaratif, s’avère être un outil performant.

Dans quelle mesure l’entrée en vigueur va-t-elle aussi constituer un défi pour les constructeurs automobiles ?

Les constructeurs vont devoir structurer de véritables filières avec des partenaires et pour y parvenir, il vaut mieux que ces derniers soient moteurs, en tant que metteurs en marché, dans la mise en place de ces filières, plutôt que d’avoir un rôle d’acheteurs de matières, sans aucune certitude de trouver ce qu’ils cherchent sur le marché. C’est une des grandes manœuvres en cours, qui va consister pour les constructeurs à capter de la matière, sans en être réellement le propriétaire, puisque la matière appartient au dernier détenteur du véhicule hors d’usage, donc soit les centres VHU, soit les broyeurs… Qui n’auront aucune obligation de leur céder les matières en question.

Ensuite, à partir du moment où un acteur du secteur décide de se constituer en système individuel, en tant que metteur en marché, il sait qu’il va devoir reporter sur sa marque. Ainsi, tous les objectifs à atteindre – taux de collecte, de recyclage, de réutilisation, récupération des fluides frigorigènes… –  se mesureront au regard de la marque en question. Cette segmentation par marque constitue selon moi le plus grand défi de la filière. Cela veut dire qu’il faut mettre en place des outils de reporting pour chaque acteur, ce qui permettra de faire remonter les informations des centres VHU vers les marques. Cela va nécessiter une adaptation importante des systèmes d’informations des centres VHU.

De notre côté, nous avons demandé aux éditeurs de logiciels concernés de se regrouper en groupes de travail pour adresser cette problématique.

Comment l’Indra se positionne, à l’interface entre les constructeurs et les centres VHU ?

Depuis le départ nous défendons une position claire : nous sommes pour un marché qui reste libre. Nous sommes dans un rôle de courroie de transmission, entre d’un côté les constructeurs et de l’autre la filière VHU. 

Nous avons nous même un réseau des centres VHU, environ 330, dont trois qui nous appartiennent. Nous avons pour objectif d’ici la fin de l’année prochaine d’en acquérir 7 de plus, pour arriver à 10. L’objectif derrière cette stratégie est d’être plus présents dans la filière, pour mieux comprendre comment elle fonctionne, mais aussi pour faire face à l’arrivée massive d’acteurs étrangers, américains et d’Europe du Nord notamment.

Nous voulons donc être plus présents dans la chaîne de valeur pour être en mesure de défendre la profession. 

Comment évaluer le risque, pour certains centres VHU, de ne pas être en mesure de contractualiser avec un système individuel ou un éco-organisme ?

Un centre VHU qui respecte la réglementation sera fortement courtisé par les éco-organismes et les systèmes individuels. Ce qui ne sera pas le cas des 1700 centres actuellement en activité. A l’heure actuelle, je dirai qu’à peine un millier de centres VHU respectent la réglementation. 

Concrètement, que peut-on reprocher aux 700 centres que vous évoquez qui ne respectent pas la réglementation ?

Depuis 2012, les textes sont clairs et définissent un cadre réglementaire autour de l’activité des centres VHU. Douze ans plus tard, un certain nombre de centres n’ont pas fait le travail nécessaire pour s’adapter au cadre réglementaire. Dans le réseau Indra, nous avons incité les centres partenaires à entrer dans ce cadre réglementaire, tout en restant économiquement viable. Nous les avons accompagnés en développant des solutions aval de commercialisation de PIEC et de matières et des solutions visant à réduire la non-valeur ajoutée de leurs processus de prise en charge, stockage et traitement des VHU.

Je suis persuadé que les objectifs de demain sont toujours atteignables sans support financier des metteurs en marché. D’une part parce que nous sommes sur une filière, qui du point de vue des pièces issues de l’économie circulaire est en pleine croissance. Un centre VHU qui fait de la pièce issue de l’économie circulaire à l’heure actuelle connaît une croissance à au moins deux chiffres depuis quelques années. Tout cela vient largement compenser les coûts. On voit aujourd’hui que même si les volumes baissent, le chiffre d’affaires lié au marché des PIEC ne cesse d’augmenter. Cette dynamique positive permet de compenser les surcoûts liés à l’adaptation au cadre réglementaire qui est fixé depuis 2012 et aux objectifs de recyclage, du polypropylène ou du verre, par exemple, fixés pour les années à venir.

D’autre part, il y a aussi un potentiel de gain économique au niveau de l’organisation même des centres VHU. On va trouver deux types de centres VHU : ceux qui ont fait des efforts, depuis une dizaine d’années, pour se mettre au diapason des réglementations, gagner en productivité, rationaliser les flux… Chez Indra, nous avons une entité spécifique (ingénierie de déconstruction et recyclage automobile / re-source ingeneering solutions), que j’ai dirigée pendant plusieurs années, qui travaille sur ces sujets-là. 

A côté de cela, il y a des centres VHU qui n’ont pas mis ces ingrédients en place. Selon moi, dans ce contexte, il est fort peu probable que les metteurs en marché subventionnent les centres VHU pour les aider à faire les aménagements nécessaires pour être dans le cadre réglementaire fixé.

Cela veut dire que certains centres vont exercer dans l’illégalité ?

Cette problématique va effectivement se poser. La réglementation européenne mise en place il y a 12 ans aurait pu être l’occasion, pour l’Etat, de lutter contre la filière illégale. Force est de constater que cela n’a pas été fait. Il y a encore aujourd’hui des acteurs qui ne font pas leurs déclarations Ademe depuis plusieurs années, et qui sont toujours agréés. Certains acteurs à la tête de centres VHU ont bien conscience que leurs centres, dans le cadre de la nouvelle réglementation, ne valent plus grand chose. Ce sont souvent des personnes qui approchent l’âge de la retraite, et qui vont, dans les mois à venir, arrêter leur activité. Il ne pourront pas céder leurs centres VHU, car personne ne voudra leur racheter, ils vont donc simplement monter un dossier de cessation de leur activité. C’est un cas de figure. 

Pour les acteurs plus jeunes, pour qui la cessation n’est pas une option, il y a le risque de se retrouver aux portes de l’illégalité. S’il n’est pas impossible que certains metteurs en marché soient moins exigeants et acceptent de travailler avec des centres qui sont à la limite en termes de réglementation, cela constituera tout de même un gros risque pour le système individuel, et il apparaît peu probable que ce genre de pratique se développe.

Enfin, la profession a encore 18 mois devant elle pour se mettre à jour en termes de réglementation. Il existe donc encore à ce jour des solutions pour les centres VHU qui n’ont pas encore effectué les transformations nécessaires, mais il va leur falloir faire vite.

Quel est, aujourd’hui, le taux de VHU qui sont traités par la filière illégale ?

Personne n’est en mesure aujourd’hui de dire exactement combien de véhicules sont traités via des filières illégales en France. Ce chiffre est de toute façon probablement surestimé, car de nombreux vieux véhicules d’occasion sont exportés, en Afrique de l’Ouest notamment, et ne sont donc pas recyclés en France. Les chiffres concernant les taux de collecte, ou les VHU traités illégalement doivent donc être considérés avec prudence, puisque le gisement accessible réel de VHU est très compliqué à évaluer.

Aujourd’hui, le taux de collecte est calculé par l’administration en divisant le nombre de véhicules traités d’une marque pendant trois ans par le nombre de mises sur le marché pour ces mêmes années. Ce qui, on le comprend bien, ne reflète en rien le taux de collecte réel.

Propos recueillis par Pierre Thouverez


[1] Ministère de la Transition écologique et de la Cohésion des territoires

Techniques de l’Ingénieur en anglais : 3 questions à Sylvie Darly, directrice éditoriale

Presque 7000 articles disponibles en anglais ;  comment avez-vous pu traduire un tel volume tout en assurant la qualité des traductions ?

L’équipe éditoriale, les services informatique, web et fabrication se sont mobilisés afin d’identifier le bon prestataire, le bon format de fichier à fournir, les solutions techniques adaptées. L’objectif de ce travail en amont était de permettre à l’intelligence artificielle de traduire tous les éléments constitutifs de nos articles (images, légendes,…).

Mon équipe et moi avons travaillé avec les autres services de manière itérative. Chaque échantillon d’article a été traduit afin de tester des process de traduction différents. Les échantillons d’articles ont été sélectionnés pour leur complexité (des schémas, des figures, des équations…).

Une grille d’évaluation de lecture a été établie, pouvant s’accompagner d’une note et d’une observation. Cette même grille a été utilisée par les auteurs évaluateurs que nous avons sollicités pour la relecture de lots d’articles tests, afin qu’ils les apprécient, selon nos critères. 

Ce mode opératoire itératif a permis de travailler dans un process d’amélioration continue, à savoir les points de correction identifiés, l’application de correctif, et une réévaluation des auteurs.

Les articles à venir seront en anglais ou en français ?

Nos auteurs vont continuer à écrire en français ou en anglais puisque certains le faisaient déjà. Mais la mise à disposition de nos articles en anglais nous ouvre de nouvelles perspectives. Nous pouvons dorénavant aller recruter de plus en plus d’auteurs à l’international.

Vous travaillez actuellement à la suite ; la traduction des fiches pratiques, des quiz, des Parcours Pratiques, autant d’outils pratiques à disposition des 300 000 utilisateurs de Techniques de l’Ingénieur, comment opérez-vous les choix éditoriaux ?

L’ensemble de notre travail est sous-tendu par notre stratégie éditoriale en trois dimensions.

La première dimension est l’innovation. Pour générer des nouveautés, nous effectuons une veille de marché en nous documentant, en allant sur le terrain (salons, congrès, colloques…), nous travaillons également avec nos conseillers et des experts scientifiques issus du monde industriel et académique. Il est à noter que chez Techniques de l’Ingénieur, l’innovation passe par la création de contenu, qui fait partie de notre ADN, la création de nouveaux formats (les Parcours Pratiques, les vidéos) mais c’est aussi s’approprier de nouvelles technologies telles que l’IA.
Cet ensemble vise à ajouter de nouveaux services autour de nos contenus. Je n’en dirai pas plus car les projets sont en cours. Nous reviendrons très prochainement vers vous afin de vous faire part de nos dernières innovations.

La seconde est la fraîcheur de notre base. Le client est placé au cœur de notre process, les articles les plus plébiscités sont traités prioritairement en termes de mise à jour et de publications de nouveaux articles sur des sujets connexes. 

La troisième dimension est la mise à disposition de l’ensemble des articles archivés, cette mémoire technique est précieuse pour nos clients.

Pour consulter un article de référence en anglais, cliquez sur le drapeau anglais depuis sa version française.

Techniques de l’Ingénieur en anglais : une stratégie appuyée par une prouesse technique

Marie Lesavre, en tant que directrice ebusiness et responsable du site Techniques-ingenieur.fr, vous avez piloté la refonte de l’interface. Les pages de consultation des articles ont visiblement évolué. Quels sont les principaux avantages du nouveau design du site ?

La refonte de l’ergonomie des pages a effectivement été réalisée en parallèle de la publication de ces nouvelles versions d’articles en anglais.

Si vous connaissez les contenus de Techniques de l’Ingénieur, vous savez que, lorsque l’on parle des articles de référence, on parle de contenus extrêmement riches et complets, et de fait, techniquement complexes. 

Pour vous donner une idée, un seul article c’est l’équivalent d’une vingtaine de pages imprimées très condensées, il est donc impératif d’avoir un découpage et un affichage digeste à l’écran. Les modes de consommation des contenus ont changé et notre mission est de rendre ces contenus facilement exploitables et utilisables par les utilisateurs finaux, notamment sur tous types d’appareil, du PC au mobile.

Par exemple, l’existence d’un sommaire permet de se déplacer dans l’article sans perdre le fil. Ce sommaire, dans sa version complète, vous permet d’accéder directement aux médias et tableaux. Il est également rétractable pour un confort de lecture plein écran.

La barre d’outils (recherche dans l’article, annotation, préférences de police) vous suit désormais partout en haut de l’écran.

Et donc la grande nouveauté est que désormais, dans cette barre d’outil, vous aurez la possibilité de choisir votre langue de lecture : français ou anglais.

L’amélioration du parcours et de l’expérience “utilisateur” passe également par une exploitation plus aisée des équations. Sébastien Avalle, vous êtes à la manœuvre pour cette conversion des équations en MathML. Concrètement, qu’est ce que cela signifie et quel bénéfice pour les abonnés ?

Les équations publiées dans Technique de l’Ingénieur étaient jusqu’à présent affichées sous forme d’images. Nous avons adopté le format MathML, une norme de balisage mathématique, pour offrir une meilleure expérience utilisateur et répondre aux exigences modernes de l’édition scientifique.

La transition vers MathML n’est pas une simple formalité, le déploiement est en cours. Chaque équation a été soigneusement ressaisie grâce à une combinaison de saisie manuelle et de reconnaissance optique des caractères (OCR). Chaque formule a ensuite fait l’objet d’un contrôle qualité visuel rigoureux pour garantir une fidélité et une précision optimale.

Cette évolution ne se limite pas à une amélioration esthétique. En adoptant MathML, nous allons offrir à nos lecteurs la possibilité de copier et coller les équations directement depuis nos publications, dans leurs outils de travail. Les utilisateurs vont ainsi pouvoir réutiliser ou modifier ces équations aisément, optimisant ainsi leur travail et leur productivité.

Le MathML présente également des avantages significatifs en termes d’accessibilité et de référencement.
Étant un langage informatique, il permet aux moteurs de recherche et aux intelligences artificielles de lire et indexer les équations. Cela se traduit par une meilleure visibilité et accessibilité, facilitant la recherche et l’interprétation par des systèmes automatisés sur lesquels nous travaillons actuellement.

Techniques de l’Ingénieur s’est appuyé sur l’intelligence artificielle, pourquoi et avec quelles solutions et experts ?

Ce projet de traduction massive, qui a mobilisé toutes les compétences de notre entreprise, n’aurait jamais vu le jour sans l’intelligence artificielle. Grâce à ces technologies de pointe, nous avons pu surmonter les défis de volume et de qualité, rendant notre contenu accessible en anglais.

Pour traduire automatiquement plus de 7000 articles tout en maintenant une qualité conforme aux exigences de Techniques de l’Ingénieur, nous avons développé une application révolutionnaire : « Trad Factory ». Cet outil intègre des briques d’intelligence artificielle (IA) pour automatiser et optimiser la qualité des traductions.

Afin de garantir une précision et une cohérence irréprochables, nous avons collaboré avec DeepL, une entreprise spécialisée dans la traduction de documents techniques utilisant elle aussi des technologies d’IA avancées. Cette alliance nous a permis de bénéficier d’expertises pointues et des dernières innovations technologiques.

En cette période florissante pour l’IA, nous savons néanmoins qu’il reste essentiel de combiner technologie et expertise humaine. Ainsi, après une traduction automatique réalisée grâce à ces technologies, nous avons prévu une étape supplémentaire où, selon les besoins, un expert peut vérifier et ajuster les traductions pour garantir une qualité optimale.

Quelles sont les prochaines étapes ?

[S.A.] Déjà, d’ici quelques semaines, vous aurez donc toutes les équations en MathML.

Et bien entendu, nous allons finir de mettre en anglais les si nombreuses ressources disponibles sur le site : après les articles de référence déjà traduits vont arriver les fiches pratiques et les Parcours Pratiques. 

Notre objectif est de faciliter la tâche à nos clients, dont les équipes ou partenaires sont bien souvent répartis à l’international. Nous savons que leurs besoins en matière de communication et de collaboration transcendent les frontières linguistiques, et nous sommes impatients de leur offrir cet atout supplémentaire.

[M.L.] Nous avons également à cœur de répondre aux nombreuses sollicitations que nous recevons régulièrement de toutes les zones du globe ! L’anglais est un début mais notre solution multilingue permettra de répondre à cette demande croissante et de basculer aisément dans d’autres langues. Nous sommes maintenant prêts à prendre ce virage.

En termes d’ergonomie, la prochaine étape consistera à déployer notre nouveau design sur l’ensemble des pages du site : une refonte visuelle qui facilitera la navigation. 

Mais ce n’est pas tout ! Nous n’avons pas fini de vous surprendre avec l’intelligence artificielle. 

Nous sommes heureux et fiers de vous annoncer le lancement imminent de Chat-AI, une solution de chatbot en langage naturel augmentée par l’intelligence artificielle générative. Cette innovation permettra d’explorer les ressources documentaires de manière encore plus efficace et intuitive, offrant ainsi une nouvelle dimension à l’accès à l’information.

Restez à l’écoute, car nous avons encore beaucoup à dévoiler. L’avenir s’annonce prometteur et riche en surprises !

Techniques de l’Ingénieur en anglais, le complément indispensable à vos ressources en français !

Les articles de référence sont maintenant disponibles en anglais, offrant un accès privilégié à une bibliothèque de référence désormais complétée et mise à jour dans les deux langues : français et anglais.

Comment consulter un article en anglais ? Très simplement : sur chaque article traduit, vous verrez au niveau du titre deux drapeaux, vous permettant, au clic, de naviguer sur la version française ou la version anglaise. A vous de choisir !

Don’t have access to the English articles yet? Request a free trial directly from any article on techniques-ingenieur.fr !

Demandez un essai gratuit en utilisant le formulaire disponible depuis les versions anglaises des articles.

Et pour en savoir plus, lisez l’interview de Sylvie Darly, directrice éditoriale ou consultez les explications de Marie Lesavre et Sébastien Avalle qui décrivent les arcanes de ce projet !

Enjoy !

Des composites cimentaires construits selon l’arrangement brique-et-mortier de la nacre

Le béton a beau être un matériau de construction solide, il reste cassant. Les recherches s’orientent donc sur l’amélioration de sa résistance à la fracture et de sa ductilité, c’est-à-dire sa capacité à se déformer sans se rompre. Dans la nature, certaines coquilles de mollusques, comme l’huître, présentent un revêtement intérieur irisé et hautement résistant : la nacre. Celle-ci est constituée de plaques polygonales de cristaux d’aragonite (CaCO3) arrangées en larges feuilles et liées les unes aux autres en un motif 3D de type brique-et-mortier par un biopolymère hyper-élastique. Quand elle se retrouve soumise à une forte tension, deux mécanismes principaux viennent renforcer la nacre : le glissement des plaques d’aragonite les unes par rapport aux autres, lui-même permis par la capacité de déformation viscoélastique du biopolymère. Une équipe de recherche du laboratoire du professeur assistant Reza Moini, au sein du Département d’ingénierie civile et environnementale de l’Université de Princeton (États-Unis), a voulu s’inspirer de cette nacre naturelle pour réaliser son propre composite cimentaire, à la base d’un tout nouveau type de béton…

ciment, nacre, matériau haute performance
Des chercheurs de Princeton se sont inspirés de la nacre pour créer un matériau à la résistance et à la ductilité exceptionnelles. Crédits : Sameer A. Khan/Fotobuddy/Princeton University.

La résistance du ciment associée à la déformabilité du PVS

Les différentes étapes de fabrication du nouveau matériau sont détaillées dans l’article paru en juin 2024 dans le journal Advanced Functional Materials. Tout d’abord, les chercheurs ont soumis la pâte de ciment à un rayonnement laser afin d’y tailler des plaques individuelles et d’y graver des contours hexagonaux. Les couches ainsi formées ont ensuite été laminées – amincies par déformation plastique – et additionnées d’un élastomère adapté. Reza Moini et ses collègues ont opté pour du polyvinylsolixane (PVS), un liquide visqueux qui durcit rapidement en un solide caoutchouteux prenant la forme de la surface où il a été déposé. Les différentes couches de ciment ont alors pu être apposées en décalé les unes sur les autres, avec l’élastomère toujours bien intercalé entre elles.

Par la suite, les scientifiques en sont venus à la phase des multiples tests. Comme espéré, le matériau composite a montré des capacités prometteuses. Déjà, ses valeurs de résistance à la fracture étaient particulièrement élevées (73,68 MPa/mm2), équivalant à celles relevées pour un béton à ultra-haute performance. L’association du glissement des plaques hexagonales et de l’élasticité du PVS a montré une résistance finale à la fracture 17,1 fois supérieure à celle d’une pâte de ciment conventionnelle, ainsi qu’une ductilité 19 fois supérieure. Une fois mêlé à du sable et du gravier, ce nouveau matériau ciment-élastomère devrait donner vie à un béton sensiblement renforcé par rapport à ses versions précédentes.

Que devient un véhicule hors d’usage ?

Alors que la France est bonne élève, au vu des ambitions européennes, en termes de collecte et de recyclage des VHU, ce dernier doit, dans les années à venir, être un des moteurs de l’avènement d’une économie circulaire qui doit permettre au secteur automobile de boucler sa chaîne de production. 

L’Europe pousse en ce sens, avec des objectifs de collecte – 70% en 2030 -, et de pièces de véhicules récupérées – passant de 8,5% à 16% -, qui doivent faire du VHU le véritable pourvoyeur de matière et de pièces détachées pour réparer les véhicules ou en produire de nouveaux.

Quelle est la composition d’un véhicule hors d’usage ?

Evidemment, les taux des différents matériaux composant un véhicule changent selon la marque et le modèle. Prenons l’exemple d’un véhicule particulier, de taille standard.

Il contient très majoritairement des métaux, environ 75% de la masse du véhicule : des métaux comme l’acier, très majoritairement, mais aussi de l’aluminium et du cuivre, entre autres.

Ensuite, environ 15% de la masse du véhicule est composée de polymères plastiques, comme le polypropylène ou le polyéthylène. 

Viennent ensuite les élastomères – 4% de la masse -, les verres – 2% de la masse – et les matériaux naturels – moins de 1% de la masse-.

Lorsqu’un véhicule hors d’usage est pris en charge par un centre VHU, il va successivement être traité par un centre de déconstruction, puis un centre de broyage. Dans le centre de déconstruction, le véhicule va suivre un parcours très réglementé, de la mise en sécurité, en passant par la dépollution et le prélèvement des pièces détachées en mesure d’être réutilisées.

L’activité de dépollution du véhicule entraîne la production de déchets spécifiques, comme par exemple les pneus ou les huiles usagées, qui sont aujourd’hui traités via des filières spécifiques de recyclage. 

Ensuite, les pièces détachées destinées au réemploi, et la matière potentiellement valorisable sont prélevées. La carcasse du véhicule est envoyée en centre de broyage où les métaux ferreux et non ferreux vont être séparés.

Si la réglementation européenne oblige à l’heure actuelle le recyclage d’au minimum 95% de la masse d’un véhicule hors d’usage, la France s’approche aujourd’hui des 98% de masse valorisée.

Techniquement parlant, atteindre 100% ne pose pas de problèmes techniques particuliers. Cependant, recycler 100% de la masse d’un véhicule diminuerait de beaucoup la rentabilité de cette activité. Car si le recyclage des véhicules hors d’usage est aujourd’hui une activité rentable, les coûts de recyclage liés à la masse aujourd’hui non recyclée sont très importants, et pour tout dire rédhibitoires. 

Ensuite, les années qui viennent vont voir se développer la nécessité de recycler des véhicules électriques, qui vont remplacer peu à peu les voitures thermiques actuelles. Leur spécificité est la présence d’une batterie, volumineuse, et composée de matériaux complexes : cuivre, cobalt, lithium, nickel… qu’il va falloir recycler en grandes quantités, afin d’être en mesure de développer une mobilité électrique, pilier du transport de demain.

On sait déjà que pour certains métaux, il sera nécessaire de mélanger la matière recyclée avec de la matière pure, pour des questions de qualité et de performance.

A l’heure actuelle, la filière de recyclage des batteries électriques est encore balbutiante, et la quantité de batteries électriques à recycler est aujourd’hui très faible.