Une filière de protéines d’insectes à destination de l’alimentation animale

Tout a commencé en 2016 par la lecture d’un article du journal Le Monde. Sébastien Crépieux, ingénieur agronome de formation, découvre qu’entre 35 à 40 % de la pêche industrielle mondiale n’est pas destinée à l’alimentation humaine, mais sert à nourrir des animaux d’élevage, notamment des poissons (saumons, truites, crevettes). Il apprend également que la Commission européenne va autoriser à partir de 2017 l’utilisation des insectes pour nourrir les poissons d’élevage. Il identifie ce changement réglementaire comme l’opportunité de répondre à la problématique environnementale de la surpêche. Il décide de créer une filière de production de protéines d’insectes en 2018. Entretien avec le cofondateur et président de l’entreprise Invers.

Techniques de l’Ingénieur : Quelle a été la première étape de création de cette filière de production d’insectes ?

Sébastien Crépieux, cofondateur et président de l'entreprise Invers. Crédit : Invers
Sébastien Crépieux, cofondateur et président de l’entreprise Invers. Crédit : Invers

Sébastien Crépieux : Nous avons dû construire toutes les briques pour bâtir cette filière, à commencer par le choix de l’insecte. Dès le début, il n’était pas question de les nourrir avec des produits qui entrent en compétition avec l’alimentation humaine. Nous sommes installés dans le Puy-de-Dôme et j’ai contacté la coopérative Limagrain chez qui j’ai démarré ma carrière et ils disposaient de coproduits céréaliers, principalement du son de blé issu de meunerie. Nous avons testé plusieurs insectes, et nous avons observé que celui qui paraissait le plus simple à élever lors de la phase d’engraissement était le Tenebrio molitor. Il s’agit d’un insecte de la famille des coléoptères qui raffole de farines de céréales. Ce ver de farine est capable de multiplier son poids par 20 en un mois, c’est-à-dire de passer de 5 mg à 100 mg, ce qui correspond à la durée de l’engraissement.

Qui se charge d’engraisser vos insectes ?

Un bâtiment agricole dans lequel les insectes sont engraissés. Crédit : Invers
Un bâtiment agricole dans lequel les insectes sont engraissés. Crédit : Invers

Ce sont des agriculteurs, et dès le départ, nous avons décidé de les placer au cœur de la chaîne de valeur. Les insectes sont placés dans des bacs, que nous avons désignés, avec à l’intérieur toute la quantité d’aliments nécessaire pour les nourrir pendant un mois. Au début, toutes les opérations étaient réalisées manuellement, et nous avons développé un robot afin d’éviter au maximum les tâches répétitives, pour que les éleveurs se concentrent sur le suivi zootechnique des animaux. Un bâtiment type pour l’engraissement fait 1 000 m², à l’intérieur duquel 10 000 bacs sont empilés, les uns sur les autres, sur 15 niveaux, et cette unité produit au total 20 tonnes d’insectes par mois. Le robot manipule tous les bacs, et à la fin de l’engraissement, il verse leur contenu dans une trémie, pour faire le tri entre les insectes, les déjections, et l’aliment restant. Il y a très peu de pertes d’aliments, et le taux de conversion est très bon, puisque nous parvenons à amener quasiment tous les insectes à maturité, avec très peu de relance en élevage. Les déjections sont riches en matières organiques et sont épandues dans les champs pour fertiliser les sols et nourrir les plantes. Le bâtiment ne consomme pas d’énergie pour le chauffage, car nous avons développé un système climatique pour utiliser la chaleur dégagée par les insectes pour chauffer l’enceinte.

Quel est le rôle d’Invers ?

Nous intervenons en amont et aval de la filière. Nous avons des reproducteurs du Tenebrio molitor que nous faisons pondre, puis vient l’étape d’éclosion des œufs, et ensuite nous procédons à un premier stade de grossissement pour amener chaque insecte à un poids de 5 mg. Une fois cette phase de production des adultes réalisée, nous les livrons aux agriculteurs, puis un mois plus tard, nous venons les chercher pour les transporter dans notre abattoir. Sur place, nous procédons à la déshydratation qui permet d’obtenir un insecte entier et sec. Il contient environ 60 % de protéines, ce qui correspond au taux d’une farine de poisson. Notre produit est aussi très riche en gras, avec la présence d’acides gras insaturés qui représentent 4 % du poids de l’insecte. Cette protéine d’insecte entre dans la composition de plusieurs formulations et permet de fabriquer des aliments pour les chiens, les chats, les poissons et les poulets.

Quelles sont les perspectives de votre entreprise ?

Nous avons actuellement trois agriculteurs qui possèdent chacun un bâtiment et qui engraissent nos insectes. Ils sont tous situés dans le Puy-de-Dôme pour faciliter la logistique. L’an dernier, nous avons réalisé une levée de fonds de 15 millions d’euros pour financer le déploiement de notre outil industriel afin de construire un couvoir de 4 000 m² ainsi qu’une usine d’abattage et de transformation. Ces investissements nous permettront d’alimenter une filière de 25 bâtiments agricoles dans un premier temps, avec l’objectif de produire 2 500 tonnes de vers déshydratés par an. Pour l’instant, nos marchés sont très orientés vers la nutrition des chiens, des chats et des animaux de basse-cour. Pour nourrir des poissons d’élevage, nous devons attendre la signature d’accords internationaux et des changements réglementaires pour nous diriger vers ce marché, car actuellement la ressource en poissons est prélevée gratuitement dans les océans et notre produit est entre 2 à 3 fois plus cher qu’une farine de poisson.

A ne pas manquer : le congrès C’Nano 2023 !

Le Centre national de compétences en nanosciences du CNRS, C’Nano, organise la 5e édition de son congrès interdisciplinaire dans les nanosciences “C’Nano 2023 : The Nanoscience Meeting”. Il se déroulera au Centre de Congrès du Futuroscope à Poitiers du 15 au 17 mars 2023.

Cet événement national vise à réunir les communautés scientifiques de chercheurs et d’ingénieurs en nanosciences et nanotechnologies qui répondent à l’appel pour présenter leurs travaux d’innovation. Il s’adresse également aux industriels intéressés par les ruptures technologiques et les acteurs de l’écosystème d’innovation.

Près de 300 participants, dont Techniques de l’Ingénieur, sont attendues autour d’un programme de conférences plénières et de sessions parallèles pour aborder des thématiques à l’interface avec plusieurs champs de recherche :

  • Nanophotonique & Nano-optique
  • Nanochimie
  • Nanoparticules & Nanocatalyse
  • Nanobiosciences
  • Transfert de chaleur à l’échelle nanométrique
  • Nanomatériaux pour l’énergie
  • Nanotechnologies pour la dépollution
  • Matériaux 2D…

A cette occasion, vous trouverez ci-après une liste d’articles en accès libre de l’offre « Nanosciences et nanotechnologies » jusqu’au 25 mars :

Smart cities : un modèle européen plus respectueux et transparent

Le marché́ mondial des investissements liés aux villes intelligentes devrait dépasser les 2 000 milliards de dollars dans le monde en 2026, selon le rapport « Marché des villes intelligentes : croissance, tendances, impact du Covid-19 et prévisions (2023- 2028) » du cabinet d’analystes indien Mordor Intelligence.

« La prise de conscience croissante et l’importance accordée à un environnement sain avec une consommation d’énergie minimale stimulent rapidement la croissance du marché.  L’exploitation de nouvelles technologies telles que les nanotechnologies, l’IA, l’Internet des objets (IoT), le cloud et les données ouvertes sont les moteurs de la croissance du marché mondial », peut-on lire dans le rapport « Smart City Market Size, Share, Growth Report 2030 » de Zion Market Research.

L’Amérique du Nord est la région qui génère le plus de revenus au niveau mondial. L’Asie-Pacifique est le second marché à forte croissance. Entre les deux, l’Europe tente de trouver sa voie sans se référer à ces deux imposants marchés souvent décriés pour leur excès.

À l’ouest, les smart cities créées dans de nombreuses villes (Los Angeles, San Francisco, Santa Cruz, Seattle, Austin, Toronto…) allient modélisation algorithmique, optimisation de la gestion des grandes fonctions urbaines, mais aussi police prédictive…

Big Brother

Ce modèle est décrié́ pour son usage massif de données personnelles, récoltées et exploitées par des acteurs privés. « Le projet de ville de futur de Google à Toronto est bluffant d‘un point de vue technologique, mais c’est l’archétype du quartier entièrement automatisé et aseptisé », souligne Jacques Priol (président fondateur du cabinet CIVITEO) qui a travaillé pour la ville de Toronto.

À l’est, la Chine et ses smart cities sont autant de zones hypersurveillées. À titre d’exemple, 45 000  caméras d’Hikvision (l’un des principaux fournisseurs de solutions IoT au monde, mais surtout un poids lourd de la surveillance, version Big Brother) ont été déployées en 2018 dans la ville de Xi’an. Ces investissements d’environ 125 millions de dollars visent à concrétiser les projets de surveillance Skynet et Sharp Eyes.

L’Europe ne veut pas de ces excès (ne parlons pas non plus des projets gigantesques du Moyen-Orient…). D’où des projets diamétralement opposés à ceux des villes américaines. Par exemple, la France compte un peu plus de 300 projets de smart city. Ils ont été créés aussi bien dans des métropoles que dans de petites et moyennes villes, y compris en territoire rural.

Leur point commun ? Selon le scoring du cabinet Xerfi concernant les programmes initiés par les 100 premières villes françaises, « les élus se tournent vers les projets aux effets les plus tangibles pour les populations. Ils privilégient des solutions innovantes pour améliorer par petites touches les services publics du quotidien au détriment des mégaprojets tout connectés ».

Des POC et encore des POC

Car le soufflé est un peu retombé malgré un foisonnement de technologies plus ou moins matures et la volonté des gros industriels de disposer de « terrains de jeu » pour mener des expérimentations dont certaines sont financées à hauteur de 80 à 90 % par l’Europe ou les régions. Mais beaucoup de projets ne dépassent pas le stade du POC (proof of concept).

« Il y a un écart énorme entre ce qu’on nous avait annoncé il y a 4-5 ans (la smart city serait la diffusion extrêmement rapide de projets pilotés par la data) et ce qui se passe aujourd’hui. Des milliards d’euros avaient été annoncés. Nous en sommes très loin, car décider de passer d’un mode de gestion traditionnelle des services urbains – ce qui n’a rien de péjoratif – à un mode géré par les outils numériques, c’est d’abord une décision politique », souligne Jacques Priol.

 « Forte de sa législation sur la protection des données personnelles et d’une stratégie de régulation du numérique, l’Europe veut croire, avec quelques autres pays du globe, à l’émergence d’un modèle de ville dans lequel intelligence rime avec intérêt général, bien-être des habitants, souveraineté technologique et production de biens communs », peut-on lire dans le rapport de l’Ifri, principal centre indépendant de recherche, d’information et de débat sur les grandes questions internationales.

Rédigé par Jacques Priol, cité plus haut, et Joé Vincent-Galtié consultant au sein du même cabinet, ce rapport rappelle qu’en Europe, « les projets de territoire intelligent se déploient obligatoirement en conformité avec le RGPD. L’un des principes fondateurs du règlement est celui du consentement à la collecte des données personnelles ».

Réaliser un antibiogramme en seulement deux heures grâce à une pince optique

Lorsqu’une personne est victime d’une grave infection, les médecins doivent identifier rapidement l’antibiotique capable de lutter contre la bactérie responsable de la maladie. Les techniques actuellement utilisées pour réaliser un antibiogramme nécessitent de grandes quantités de cellules à tester, qui excèdent celles prélevées sur le patient. Il convient alors de les cultiver à l’aide d’une boîte de Petri, une étape longue, qui demande au minimum 24 heures. Des chercheurs du CEA, avec la collaboration du LTM (Laboratoire des technologies de la microélectronique), ont développé une nouvelle approche, basée sur une pince optique, avec l’ambition de raccourcir ce délai à deux heures. Ils viennent de démarrer un projet de recherche, baptisé Supply, en partenariat avec l’EPFL (École polytechnique fédérale de Lausanne) et le CHUV (Centre hospitalier universitaire vaudois) de Lausanne, dans le but de valider ce nouveau concept scientifique.

Cette technologie en cours de développement est issue d’un travail de recherche fondamentale mené dans le domaine de la photonique sur puce. Elle peut être désignée par l’intitulé : cristaux photoniques. Elle consiste à attraper et à manipuler de la lumière à l’aide d’une pince optique, constituée d’une micro ou nanostructure fabriquée dans du silicium et contenant deux micromiroirs entre lesquels un faisceau laser rebondit des milliers de fois. Le dispositif permet à la fois de guider la lumière sur la puce, mais aussi de l’accumuler dans un résonateur – que l’on appelle également une boîte à lumière -, afin qu’elle devienne très intense. Il est alors possible de faire interagir la lumière avec des petits objets.

« Lorsqu’un objet de taille micrométrique se trouve à proximité du champ de lumière, il est attiré dans la direction où elle est la plus intense, et l’on parvient ainsi à l’attraper et à l’immobiliser, déclare Emmanuel Hadji, chercheur à l’institut Irig du CEA. Nous travaillons sur cette technologie depuis plus d’une dizaine d’années, et récemment, nous avons démontré que l’on peut aussi manipuler des objets vivants comme des bactéries. Une fois attrapées, elles continuent à vivre et à interagir avec la pince, et l’on peut lire leurs interactions avec le résonateur pour connaître leur état de santé ».

Observer le stress oxydatif des bactéries grâce à la pince optique

Les scientifiques sont parvenus à piéger des bactéries dans une pince optique, puis les ont soumises à un stress thermique. Ils ont alors pu observer une évolution de l’indice de réfraction de ces bactéries avec le résonateur. À ce stade de ce travail de recherche, ils interprètent ce résultat comme étant lié à un stress oxydatif des bactéries, c’est-à-dire que leurs membranes se sont chargées rapidement en fonctions oxygénées. « La littérature scientifique a déjà établi que tous les stress auxquels sont soumises les bactéries, qu’ils soient thermiques ou liés à la présence d’un antibiotique, conduisent à leur oxydation, ajoute Pierre Marcoux, ingénieur-chercheur à l’institut Leti du CEA. Nous pensons que cette oxydation provoque une augmentation de l’indice de réfraction dans la pince optique, mais cela reste encore à démontrer ».

L’une des étapes du projet Supply va consister à piéger des bactéries avec une pince optique, puis à les confronter à un phage, c’est-à-dire à un antimicrobien, pour observer s’il parvient à les détruire. Si tel est le cas, une oxydation des bactéries se produira et devrait provoquer une évolution de l’indice de réfraction. L’avantage de cette technique est qu’elle ne nécessite pas un grand nombre de bactéries à tester, et donc nul besoin de passer par l’étape de la boîte de Petri pour en cultiver. Et surtout, la lecture de la résonance est quasi instantanée. « Nous sommes prudents et nous annonçons que cette méthode prendrait deux heures, car il faut compter le temps d’injecter le liquide contenant les bactéries dans le système photonique, puis tester différents antibiotiques, à différentes concentrations, et enfin prendre les mesures de chaque essai », précise Emmanuel Hadji.

Ce projet a pour objectif d’aboutir dans quatre ans à un prototype utilisable dans un laboratoire de biologie, avec un niveau de maturité technologique compris entre 4 et 5 sur l’échelle TRL (Technology readiness level), qui en compte 9. Si cette nouvelle méthode fait ses preuves, elle pourrait constituer un véritable pas en avant dans le traitement des maladies infectieuses, surtout celles qui évoluent très rapidement, notamment les infections sanguines ou les méningites. « Le besoin d’un antibiotique efficace est tellement urgent que généralement, les médecins donnent un traitement à large spectre avant d’avoir réalisé le moindre test, complète Pierre Marcoux. Ils administrent des molécules de toutes dernières générations, alors qu’il est recommandé d’en utiliser le moins longtemps possible, afin d’éviter la survenue de phénomènes d’antibiorésistance. »

Qu’est-ce que le métavers ?

Un extrait de « De la réalité virtuelle aux métavers » par Philippe FUCHS

Alexandre Bouchet, directeur de Laval Virtual[1], donne cette définition technique du concept de métavers : « C’est un vaste réseau de mondes et de simulations 3D, persistants et calculés en temps réel, qui par interopérabilité prennent en charge entre eux la continuité de l’identité, des objets, des données et des droits, et qui peuvent être expérimentés de manière synchrone par un nombre très important d’utilisateurs, chacun ayant un sentiment individuel de présence et d’incarnation ». Il est difficile pour les spécialistes du domaine de faire des prévisions à deux ou trois ans sur un seul type d’usage. Rappelons les fameuses prévisions erronées pour la télévision 3D stéréoscopique (3Ds). Entre autres, en 2010, le site displaysearch.com a publié une étude dont les résultats prévoyaient des centaines de millions de téléviseurs 3Ds dans les années suivantes… De même, plus étonnant, les écrans d’ordinateur allaient être stéréoscopiques !  Pour Philippe Fuchs : « Toutes les prévisions sur les nouvelles technologies ont autant de chance d’être fausses qu’exactes ».

Un métavers conceptuel pour quatre métavers appliqués

Il est possible de classifier les métavers en tant que créations en quatre types.

    • Avec blockchain, ou décentralisé. Il s’agit d’une pratique de stockage et de transmission de données sous forme de blocs liés les uns aux autres et protégés contre toute modification. Elle peut être comparée à un grand livre infalsifiable et traçable. Basée sur un protocole de gestion numérique de données décentralisées, en libre accès, elle enregistre les transactions sur une base de données distribuée, sécurisée et transparente.
    • Sans blockchain, ou centralisé.
    • Avec usage de visiocasque, c’est-à-dire avec immersion corporelle. On parle ici de proprioception. Celle-ci renseigne la position et les mouvements du corps et de ses membres par rapport à l’environnement extérieur. Les récepteurs proprioceptifs sont les mécanorécepteurs des muscles, des tendons et des articulations, ainsi que les vestibules des oreilles internes. Les deux systèmes vestibulaires informent le cerveau du mouvement et de l’orientation de la tête. Les organes tendineux de Golgi, eux, déterminent les forces exercées sur le muscle à la différence des fuseaux neuromusculaires qui déterminent la longueur et les changements de longueur du muscle.
    • Sans usage de visiocasque, c’est-à-dire sans immersion corporelle. On parle alors d’extéroception. Une notion qui regroupe tous les stimuli sensoriels provenant du monde extérieur au corps, et qui vont permettre d’observer le monde environnant l’individu. Certains extérocepteurs discernent à distance l’environnement (vision, ouïe et odorat), tandis que d’autres sont des récepteurs de contact. Cette distinction n’est pas anodine et a un impact sur la technologie des interfaces. Pour réaliser des stimulations tactiles sur les mains ou autres parties du corps, il faut obligatoirement s’équiper de dispositifs. Une contrainte ergonomique dont on souhaiterait être dispensé.

Pour certains, le métavers optimal ne peut s’envisager que décentralisé et avec tous les usagers en immersion proprioceptive, via visiocasques, ce qui est discutable.

En effet, le critère d’immersion corporelle/proprioceptive dépend aussi de considérations technico-économiques. Le grand public ne pourra s’équiper que progressivement de visiocasques, tout en sachant qu’il n’est pas certain que tout le monde souhaite acquérir une telle interface visuelle. Rappelons qu’il a fallu une quarantaine d’années à l’ensemble des Français pour s’équiper d’ordinateurs, proposant de nombreux services et usages essentiels. Au début des années 1980, on a vu l’apparition des premiers micro-ordinateurs[2], jusqu’aux alentours de 2020, où la grande majorité de la population française était équipée d’un ordinateur. En conséquence, l’immersion visuelle dans les métavers se fera via les ordinateurs, tablettes, smartphones, consoles de jeux et, pour ceux qui peuvent s’en procurer, grâce aux visiocasques ou aux lunettes de réalité augmentée.


[1] Laval Virtual est un salon annuel dédié aux innovations et aux technologies Immersives. L’édition 2023 a lieu du 12 au 16 avril.

[2] Des micro-ordinateurs IBM, surtout, mais aussi Apple.

Yeasty : des levures de brasserie aux protéines durables

Initiée sous forme de projet étudiant mi-2020, Yeasty est le fruit de la rencontre de deux passionnés de bière et des procédés qui permettent de donner naissance au breuvage : Mathieu Durand et Nikola Stefanovic. Rejoints fin 2021 – date du lancement officiel de la jeune pousse – par un troisième associé au profil commercial, Juan Londoño, Yeasty poursuit le développement d’une technologie au cœur de laquelle se trouve un procédé de désamérisation. L’amertume des levures de brasserie constitue en effet l’un des principaux freins à leur valorisation pour l’alimentation humaine.

Son innovation a ainsi valu à Yeasty de décrocher en janvier dernier le label « Protein Connect », décerné par Protéines France, association dont l’ambition est de catalyser le développement en France des protéines végétales et des nouvelles ressources protéiques. Yeasty va ainsi bénéficier, grâce à cette distinction, d’une mise en relation avec les figures de proue du secteur, ainsi que d’un programme de coaching personnalisé assuré par les membres de Protéines France et ses partenaires.

Déjà mise en œuvre à petite échelle, la technologie se dirige en effet désormais vers une montée en échelle. Un scale up qui devrait aboutir à un premier pilote industriel en 2024 et à une production annuelle d’une centaine de tonnes, avant la sortie de terre d’un premier site industriel à l’horizon 2025-2026, comme l’espère Mathieu Durand, directeur technique et cofondateur de Yeasty.

Techniques de l’Ingénieur : Pouvez-vous, en quelques points clés, nous résumer l’historique de l’entreprise que vous avez co-fondée ?

Mathieu Durand, Yeasty
Mathieu Durand, directeur technique et cofondateur de Yeasty. © Yeasty

Mathieu Durand : Yeasty a débuté sous la forme d’un projet étudiant, que nous avons entamé avec l’un de mes associés, Nikola Stefanovic, en milieu d’année 2020, en sortie du premier confinement. Il s’est poursuivi jusqu’à la fin de nos études, fin 2021. Le problème auquel nous avons décidé de nous attaquer est celui de la valorisation des levures de brasserie, notamment, dans un premier temps, des brasseries artisanales. Nous sommes en effet partis d’un constat : un grand nombre de brasseries artisanales que nous connaissions n’avaient pas de véritables débouchés pour ce coproduit généré lors de la fermentation brassicole. Nous avons alors cherché à en comprendre les raisons. La première d’entre elles, qui nous est rapidement apparue, est celle de l’amertume de ces levures. Elle est intrinsèquement liée au procédé brassicole, puisque les molécules responsables de l’amertume de la bière rendent naturellement les levures amères elles aussi. C’est donc ce problème de base que nous avons cherché à résoudre.

Nous avons travaillé dans le cadre de ce projet étudiant au sein de différents incubateurs technologiques tel que le programme Shaker du Genopole et le Food Inn’ Lab d’AgroParisTech, l’école dont nous sommes issus. Nous avons passé environ trois trimestres à tâtonner, à explorer différentes pistes avant de trouver la bonne méthode nous permettant de désamériser ces levures.

À l’issue de cela, nous avons réalisé notre stage de fin d’études sur ce projet, en ayant par ailleurs officiellement créé la société fin 2021. Nous n’étions alors que deux, Nikola et moi-même, l’un comme l’autre avec un profil ingénieur AgroParisTech : une spécialité agroalimentaire et génie des procédés pour moi et plutôt économie et gestion d’entreprise pour Nikola. Fin 2021, un troisième associé, Juan Londoño, nous a rejoints afin d’assurer le développement commercial de la société.

Toujours à la même période, nous nous sommes rendu compte que pour continuer à développer notre technologie, nous allions avoir besoin de financements. C’est pour cette raison que nous avons réalisé une levée de fonds entre la mi-2022 et la fin de cette même année. Nous sommes ainsi parvenus à lever 1,5 M€. Cela nous permet de continuer à financer nos travaux de R&D sur le procédé de désamérisation, mais aussi d’entamer la phase de montée en échelle. Nous visons en effet la création d’un pilote en 2024.

D’où cet intérêt particulier pour les levures de brasserie vous est-il venu ?

Nikola et moi-même sommes passionnés par le milieu de la brasserie, et en particulier de la brasserie artisanale. Nous nous sommes d’ailleurs rencontrés dans l’association zythologique[1] de notre école. Nous avons tous les deux effectué des stages en brasseries. C’est donc par ce biais que nous avons été sensibilisés à cette problématique liée aux coproduits. Nous en avons encore davantage pris conscience au fil de la poursuite de nos études. Nous avons en effet tous les deux réalisé un parcours « bio-raffinerie et chimie verte », axé sur la valorisation de tous les coproduits. Cela nous a d’autant plus ouvert les yeux sur leur importance dans l’ensemble de l’industrie agroalimentaire. C’est ainsi qu’a germé l’idée de travailler sur un coproduit en relation avec le milieu pour lequel nous avions le plus d’affinités, celui de la bière.

Outre la drêche[2] de brasserie, dont les débouchés nous paraissaient limités ou déjà exploités, nous avons donc identifié les levures de brasseries, sur lesquelles nous nous sommes focalisés.

Avez-vous pu quantifier le gisement constitué par ces résidus de levures brassicoles ? Que deviennent-ils habituellement ?

C’est une question complexe, mais ce que l’on peut retenir est que, pour un litre de bière consommée, entre deux et quatre grammes de matière sèche de levures sont générés. La fabrication de la bière implique en effet une phase de fermentation alcoolique, qui est initiée par un apport de levures. Or, au cours de cette fermentation, les levures se multiplient. On a donc une croissance de la biomasse, qui génère un surplus. Il est retiré des cuves de fermentation au fur et à mesure de l’opération. Ces résidus sont utilisés soit pour l’alimentation animale, soit pour la production d’extraits de levure soit, dans le pire des cas, envoyés à l’égout. Une partie est aussi réutilisée pour les besoins du brassin suivant. Cela ne permet pas, en tout cas, de valoriser l’intégralité de la biomasse.

Sans en dévoiler tous les secrets, pouvez-vous nous donner quelques éléments sur le principe de base de votre procédé de désamérisation ?

La désamérisation n’est finalement qu’une brique au sein du process complet. Il débute en effet par la récupération des levures auprès des brasseurs et ce sous forme humide. Ensuite, nous réalisons cette étape de désamérisation, en voie humide, que je ne peux effectivement pas décrire plus en détail pour des raisons de protection de propriété intellectuelle. À l’issue de cela, nous re-concentrons et séchons les levures, afin d’obtenir un ingrédient brut, peu transformé.

Quel peut être le devenir de cet ingrédient désamérisé ?

Il existe plein d’applications différentes ! Nous nous focalisons pour l’heure sur le développement d’alternatives à la viande. Produire une source de protéines alternative colle en effet avec les valeurs que nous prônons au sein de Yeasty.

Nous envisageons aussi d’investir le marché de la nutrition : nutrition sportive, lutte contre la dénutrition…

Nous nous penchons également sur d’autres marchés, tels que l’alimentation animale, et à plus long terme, celui de la nutri-cosmétique.

Nous nous positionnons en tant « qu’ingrédientistes ». Nous visons la production d’un ingrédient que d’autres pourront, ensuite, transformer en produit fini. Nous réalisons toutefois également un peu de développement : galettes végétariennes, imitations de viande, biscuits apéritifs… afin de bien comprendre comment notre ingrédient peut s’intégrer à ces préparations.

En matière de coûts, où votre ingrédient et les produits qu’il permettrait de fabriquer pourraient-ils se situer ?

Aujourd’hui, sur le marché des protéines alternatives, les principales solutions existantes sont de nature végétale. Au sein des protéines végétales, on trouve la forme brute : lentilles, pois chiches… mais aussi des protéines isolées ou concentrées. Au niveau du prix, notre produit devrait se situer entre ces ingrédients bruts et les isolats ou concentrats de protéines végétales. Nous espérons atteindre, à l’échelle industrielle, un prix proche de certaines protéines végétales comme les protéines de pois, avec de nombreuses autres valeurs ajoutées.

Sur le plan nutritionnel, quels sont les intérêts de votre ingrédient ?

D’un point de vue protéique, l’un des indicateurs importants est le PDCAAS[3]. Sur ce plan, nous savons que nous sommes très bien situés avec la note maximale de 1,0 : notre procédé fournit une protéine très complète sur le plan des acides aminés, là où les protéines végétales sont généralement déficitaires sur certains d’entre eux.

À l’inverse des isolats et concentrats de protéines végétales, notre ingrédient certes un peu moins concentré – de 40 à 50 % de protéines – a aussi pour avantage d’être brut, moins transformé.

Cela permet également d’obtenir un produit plus complet, avec en sus un apport intéressant en fibres, éléments minéraux ou encore en vitamines, notamment les vitamines B.

Quel est le niveau de maturité de votre procédé ? Quelles sont les prochaines étapes de votre calendrier en matière de R&D  ?

Notre procédé se situe actuellement à un niveau 3 à 4 sur l’échelle TRL[4].

Notre principal objectif pour cette année est de finaliser l’optimisation à petite échelle et de commencer à mettre en œuvre le procédé de désamérisation sur de plus gros volumes.

En parallèle, nous allons avancer sur les procédés de concentration et de séchage, dans une optique d’économies d’énergie, notamment.

En 2024, nous visons le stade pilote, et une production annuelle d’une centaine de tonnes. À plus long terme, nous espérons lancer un premier site industriel aux alentours de 2025-2026, implanté au plus près d’une ou plusieurs grandes brasseries, afin de minimiser les impacts environnementaux de la logistique.

À plus long terme encore, nous n’excluons pas la possibilité de développer un modèle de licence technologique, afin d’étendre notre déploiement au niveau international… Mais nous avons encore bien d’autres étapes à franchir avant d’en arriver là !


[1] Synonyme de biérologie, du grec ancien zŷthos : « bière »

[2] Résidus de céréales

[3] Protein Digestibility Corrected Amnio Acid Score ou Score en acides aminés essentiels corrigé par la digestibilité : échelle permettant de mesurer la qualité des protéines en fonction de leur digestibilité et de leur capacité à couvrir les besoins en acides aminés de l’être humain.

[4] Technology readiness level

Comment mettre en place une chaîne logistique à même d’anticiper les aléas ?

La crise du COVID 19, la guerre en Ukraine, la pénurie des semi-conducteurs… la conjoncture actuelle a mis à rude épreuve la gestion des performances de la chaîne logistique. Face à ces constats, le moment est sans doute propice pour repenser les modèles de gestion de la chaîne logistique. En réponse à cette problématique, les stratégies d’amélioration fournissent une solution pour garantir la résilience de la chaîne logistique et la réponse aux besoins des clients quels que soient les aléas du marché.

La reconfiguration des chaînes logistiques : une nouvelle solution pour gérer les imprévus du marché

L’implémentation d’une chaîne logistique reconfigurable se présente comme une solution pertinente pour subvenir aux demandes du marché. Cette nouvelle tendance désigne « la capacité de la chaîne logistique à modifier sa structure et ses fonctions pour faire face aux perturbations et aux changements du marché »[1]. Autrement dit, une chaîne logistique capable d’adapter sa structure, par les flux physiques, les entrepôts ou les lignes de production, et ses fonctions, par exemple sa capacité de production ou ses délais de livraisons,  aux nouveaux besoins.

Cette solution pourrait se présenter aux industriels comme un moyen de mieux gérer la chaîne logistique en s’appuyant sur les six piliers du concept de la reconfigurabilité : la modularité, l’intégrabilité, la convertibilité, la diagnosticabilité, l’évolutivité et la personnalisation. En priorité, il apparaît important de déterminer la capacité de la chaîne logistique de faire face aux imprévus. Pour les preneurs de décisions, cette approche leur permet d’évaluer l’aptitude de leurs chaînes logistiques à reconfigurer leurs structures et leurs fonctions.

Evaluer la capacité de la chaîne logistique à faire face aux imprévus

Les indicateurs de performances jouent un rôle clé dans la recherche de l’amélioration de la reconfigurabilité puisqu’ils fournissent des informations précises et en temps réel. Ces indicateurs permettent aussi de mesurer l’évolution de la performance notamment avec les conditions sous-jacentes qui changent pratiquement tous les jours. Les caractéristiques de reconfiguration jouent un rôle crucial dans l’évaluation de la capacité de la chaîne logistique à faire face aux imprévus. Voici des pistes d’amélioration de cette capacité :

  • La modularité consiste à concevoir une chaîne logistique modulaire en regroupant ses activités sous un ensemble de modules indépendants afin de réduire les délais ;
  • L’intégrabilité vise à introduire rapidement et de manière rentable de nouvelles entités, comme des ressources matérielles ou immatérielles, des activités, ou encore des produits, dans la chaîne logistique ;
  • La convertibilité facilite la conversion de ses entités, comme une ligne de production ou un entrepôt, pour répondre aux nouveaux besoins des clients ;
  • La diagnosticabilité désigne le fait de diagnostiquer afin de détecter rapidement les défaillances et ainsi de garantir la réactivité de la chaîne ;
  • L’évolutivité a pour effet de modifier rapidement son débit de traitement de commande et à réduire le lead time ;
  • La personnalisation a pour action de personnaliser ses produits et services dans un temps de réponse très court et avec une grande variété de fonctionnalités.

Mesurer la reconfigurabilité de la chaîne logistique est un moyen pour les preneurs de décisions d’évaluer la capacité de leurs chaînes logistiques à faire face aux imprévus et d’améliorer ainsi leurs structures et leurs fonctions. Les indicateurs proposés présentent un avantage significatif pour améliorer la performance de leur chaîne logistique dans les stratégies de changement et d’adaptation aux nouvelles exigences du marché.

Par Slim Zidi


[1] Thèse Slim Zidi sur la gestion des chaînes logistiques reconfigurables

Eranova : des algues vertes aux biopolymères

Basée à Port-Saint-Louis-du-Rhône, au sud d’Arles, en région Sud-PACA, Eranova a été fondée par deux spécialistes des matières plastiques – Philippe Lavoisier et Philippe Michon – et compte aujourd’hui une dizaine de salariés.

Travaillant en étroite collaboration avec plusieurs figures de proue de l’écosystème scientifique français – CEA Tech de Cadarache, École des Mines d’Alès, Centre d’étude et de valorisation des algues – la start-up compte par ailleurs parmi ses actionnaires le créateur de Greentech et Biovitis Jean-Yves Berthon, un « visionnaire des algues », tel que le décrit le cofondateur d’Eranova Philippe Michon.

Grâce à ses travaux de R&D démarrés avec Jean-François Sassi – expert de la biomasse végétale et algale dans les domaines de la chimie et des applications –, Eranova a développé un procédé permettant d’accroître les taux d’amidon présent naturellement dans les macroalgues vertes. Assurant également la reproduction des algues dans des bassins, Eranova a par ailleurs développé un autre procédé permettant d’éliminer leurs pigments chlorophylliens, et donc d’obtenir un amidon blanchi et sans odeur. Un amidon ensuite transformé pour donner vie à des biopolymères capables de se substituer aux emballages plastiques pétrosourcés en polyéthylène et polypropylène, ainsi qu’à certains élastomères. Un ensemble de débouchés qui pourraient à terme être rejoints par d’autres applications, comme nous l’explique Philippe Michon, co-fondateur et directeur général d’Eranova.

Techniques de l’Ingénieur : Quelles sont les étapes clés de l’histoire d’Eranova ?

Philippe Michon-Eranova
Philippe Michon, co-fondateur et directeur général d’Eranova. © Flo Rida – Eranova

Philippe Michon : Nous avions, dès les premières étapes qui nous ont conduits à la création d’Eranova, la volonté de créer une nouvelle génération de biopolymères. Nous sommes deux associés, Philippe Lavoisier et moi-même. Nous travaillons dans le domaine du plastique depuis une quinzaine d’années. Nous avons ainsi pu constater une évolution dans les demandes des clients, mais aussi dans les propositions des fournisseurs, notamment avec l’avènement, il y a une quinzaine d’années, des produits biosourcés. Ces produits utilisaient alors principalement des ressources agricoles : maïs, pomme de terre, canne à sucre… Philippe Lavoisier étant plutôt tourné vers le milieu marin, et ayant des relations avec le CEVA[1], en Bretagne, l’idée nous est venue d’évaluer la possibilité d’utiliser les algues comme ressource végétale pour créer cette nouvelle génération de biopolymères que j’évoquais. En plus de valoriser un produit qui pollue les littoraux, cette approche permet d’éviter l’utilisation de terres agricoles.

C’est ainsi que l’idée a commencé à prendre forme, aux alentours de 2012-2013. Nous avons ensuite réalisé des pré-travaux de recherche, et nous avons présenté un dossier à l’Ademe en 2017. Nous avons alors obtenu le label « Programme d’investissement d’avenir PIA 3 ». Cela nous a tracé une ligne à suivre pour être en accord avec les objectifs environnementaux de l’agence.

Quel est le principe de base de la technologie que vous avez développée ?

Les biopolymères présents jusqu’à présent sur le marché se basent sur l’extraction d’amidon de végétaux terrestres. Nous avons, de notre côté, identifié la présence d’amidon dans certaines algues. Nous avons donc travaillé sur un procédé permettant d’enrichir ces algues en amidon. Notre process breveté permet d’atteindre une productivité quatorze fois plus grande, à surface de production égale, que les ressources végétales conventionnelles.

Nous extrayons ensuite cet amidon par un process enzymatique qui nous permet d’obtenir, d’une part, l’amidon, mais aussi, d’autre part, les fibres. On peut donc valoriser la totalité de la biomasse. Mais cela n’est pas suffisant… Une algue est en effet verte et odorante. Nous avons donc mis au point un procédé breveté permettant d’éliminer le pigment, la chlorophylle. Cela nous permet d’obtenir un amidon blanchi, mais aussi sans odeur.

Vous parlez de surface de production. Très concrètement, comment ces algues sont-elles cultivées ?

algues blanchies-Eranova
Eranova a mis au point un procédé breveté d’élimination de la chlorophylle des algues. Une brique technologique qui permet d’obtenir un amidon blanchi et inodore. © Eranova

Nous avons construit, à Port-Saint-Louis-du-Rhône, un ensemble de bassins. Nous en avons aujourd’hui neuf, qui représentent une surface de 1,3 ha. Dans ces bassins, nous assurons l’enrichissement en amidon des algues collectées sur les littoraux et amenées par les municipalités. Nous effectuons aussi leur reproduction. Nous cochons ainsi plusieurs cases sur le plan environnemental. La première consiste à donner un débouché à un polluant qui génère sulfure d’hydrogène et méthane en se décomposant. En éliminant ces algues, nous agissons aussi en faveur de la biodiversité en freinant les symptômes de l’eutrophisation[2]. En favorisant la reproduction des algues dans nos bassins – la biomasse algale double chaque semaine –, nous arrivons à des rendements de 800 à 1 000 tonnes de masse humide à l’hectare, ce qui nous permet d’extraire de grandes quantités d’amidon et de fibres sur une surface relativement restreinte. La réaction de photosynthèse associée à la croissance de ces algues permet également de capturer du CO₂.

Quel est justement le bilan écologique du procédé que vous avez développé ?

Nous n’avons pas encore réalisé de mesures, mais la littérature scientifique donne des chiffres en matière de capture de CO₂ à l’hectare 7 à 10 fois plus importants pour les algues que pour une forêt.

Sur le plan de la fin de vie des matériaux, nous avons pris le parti de permettre leur intégration au sein de la filière de recyclage des plastiques conventionnels, d’origine fossile. Nous plastifions nos amidons afin de les rendre compatibles avec les filières de recyclages existantes. C’est en effet sur cette voie que mise principalement l’Europe, plutôt que sur d’autres approches comme la biodégradation en milieu naturel ou la compostabilité.

Quels types de polymères parvenez-vous à obtenir ?

Nos produits déjà sur le marché sont des alternatives aux emballages plastiques en polyéthylène et polypropylène, ainsi qu’à certains élastomères. Nous n’avons en revanche pas encore de produits sur le marché utilisant nos fibres. Les process de validation des produits sont plus longs… Mais nous avons des matériaux en cours d’évaluation.

En valorisant à la fois les amidons et les fibres, nous parviendrons à valoriser près de 95 % de la biomasse algale.

Comme vous l’évoquiez, vous disposez actuellement d’une installation pilote à Port-Saint-Louis-du-Rhône. Pouvez-vous nous la décrire plus en détail ? Quelle production permet-elle de réaliser ?

site-perspective-Eranova
Eranova a fait sortir de terre un site pilote constitué de neuf bassins, implanté à Port-Saint-Louis-du-Rhône. © Eranova

Ce pilote permet de traiter annuellement 500 à 600 tonnes d’algues sèches et de créer environ 300 tonnes de biomatériaux. Cela a nécessité un investissement d’un peu plus de 6 millions d’euros. En plus des bassins de culture et d’enrichissement que je décrivais, ce pilote dispose d’une unité de compounding, qui nous permet de fabriquer la résine que nous vendons à des transformateurs. Nous avons aussi un laboratoire de recherche. L’installation a été construite en 2021, et nous l’avons inaugurée en mars 2022.

Nous sommes aujourd’hui au stade industriel sur certains produits. Nous avons des produits commercialisés chez des acteurs de la grande distribution tels que Carrefour et Intermarché. Nous avons aussi des contacts avec Le Slip Français, ainsi que des entreprises de flaconnage pour la cosmétique.

Notre seule limite reste celle du volume. 300 tonnes, dans le monde du plastique, cela reste assez peu.

Quelles sont donc vos ambitions en matière de développement ?

Nous sommes en phase de passage à l’échelle, avec l’ambition de nous installer sur une surface de cent hectares, grâce à un investissement de plus de 60 M€. Nous avons été lauréats du plan France 2030, avec à la clé une participation de 17 M€. Nous sommes aussi aidés par la Banque européenne d’investissement, qui nous accorde un prêt de 30 M€. Nous avons également lancé un financement participatif avec la plateforme Wiseed, afin d’assurer notre fonctionnement et de financer nos études. Cela va aussi nous permettre d’impliquer des citoyens dans ce projet à la fois environnemental et sociétal, de par la réindustrialisation qu’il permet.

Notre objectif à terme est celui de produire les résines de base et ce au plus près des lieux de consommation. La problématique algale est mondiale. Nous envisageons donc d’octroyer des licences de notre technologie, afin de répliquer notre modèle dans de nombreux pays. Nous sommes notamment en cours de négociations en Indonésie et au Maroc.

Sur notre région d’attache actuelle de l’Étang de Berre, nous pouvons récolter en un an entre 3 et 5 000 tonnes, ce qui nous permettrait de produire, sur nos bassins, à peu près 65 000 tonnes d’algues et de capter par la même occasion environ 7 000 tonnes de CO₂. Cela avec le dimensionnement d’une unité de cent hectares.

Nous sommes aujourd’hui, à ma connaissance, les seuls au monde à faire cela. Nous pensons véritablement avoir de l’avance sur le sujet. Et outre les biopolymères, il y a très certainement de nombreuses autres applications possibles, la clé étant la production de biomasse : papier à base d’algues, production d’hydrogène… L’Europe incite d’ailleurs les pays de la communauté à s’orienter vers la production d’algues. Nous sommes, je pense, pour une fois en avance !


[1] Centre d’étude et de valorisation des algues

[2] Phénomène causé par un déséquilibre ou une augmentation des apports en phosphore et en azote, d’origine humaine, et qui a pour conséquence une production végétale accrue qui réduit progressivement la pénétration de la lumière dans l’eau. (Source : Inrae)

Nucléaire : mieux comprendre le vieillissement des cuves

Avec la fermeture des deux réacteurs de la centrale de Fessenheim, la communauté scientifique de la filière nucléaire dispose d’une opportunité grandiose : mener des investigations poussées lors du démantèlement, afin d’analyser l’état du réacteur. Les données recueillies permettraient de savoir si on peut réellement exploiter les centrales plus longtemps sans risque.

Parmi les premières puissances nucléaires civiles du monde, la France affronte en effet un passage délicat. Son parc de production arrive progressivement à 40 ans, qui est la durée de vie pour laquelle les centrales nucléaires ont été théoriquement dimensionnées. En anticipation de cet anniversaire, l’exploitant EDF a prévu un « grand carénage » qui doit permettre de poursuivre jusqu’à 50 ans si l’Autorité de sûreté nucléaire (ASN) donne son feu vert. Le tropisme actuel du gouvernement et d’EDF pour l’atome leur fait même rêver qu’on puisse aller à 60, voire 70 ou 80 ans…

Mais une centrale nucléaire n’est pas une voiture dont on change simplement le moteur. Une pièce essentielle dans chaque réacteur pose une limite au prolongement de l’exploitation : la cuve contenant le combustible fissile. Elle ne peut pas être modifiée et encore moins remplacée, à cause de la radioactivité qui l’imprègne, de son emplacement central enfermé dans le puits de cuve en béton au-dessus du radier, et de ses connexions aux composants essentiels du circuit primaire. Comme elle est difficilement accessible et examinable, il est compliqué de connaître l’état réel de l’acier composant la cuve. Pourtant, toute sa structure est soumise au bombardement permanent des rayonnements issus de la réaction nucléaire en chaîne, aux variations thermiques, aux contraintes mécaniques, ce qui accélère son vieillissement et sa fragilisation mécanique. Parier que les cuves de tous les réacteurs seront en assez bon état pour fonctionner plus de 40 ou 50 ans est donc un pari très risqué.

Mener de véritables tests sur la cuve

En tout cas, il est essentiel d’approfondir les connaissances sur l’état réel des cuves. « La fermeture de la centrale de Fessenheim et son démantèlement fournissent l’occasion de réaliser un découpage scientifique de la cuve et des internes de cuve du plus irradié de ses deux réacteurs. Je propose ainsi depuis 2019 une planification rapide de ce découpage à des fins de recherche internationale sur le vieillissement thermique sous contrainte et irradiation de ces aciers. Grâce à ce réacteur commercial de 900 MW, le plus âgé du parc nucléaire, on pourrait comparer son état structurel et sa résistance mécanique réels après plus de 40 années de fonctionnement aux simulations numériques et aux prévisions de risque de rupture de cuve par choc froid sous pression » défend Thierry de Larochelambert, chercheur émérite au département Énergie de l’Institut FEMTO-ST. Sa position a été suivie d’un avis similaire par l’Institut de radioprotection et de sûreté nucléaire (IRSN) fin décembre 2022, demandant à EDF un programme complémentaire d’investigations et de prélèvements afin de « vérifier l’absence de phénomènes de dégradation ou de vieillissement non prévus pouvant affecter des éléments importants pour la protection ». À l’heure où, dans son empressement à relancer la filière nucléaire, le Gouvernement voudrait noyer l’IRSN dans l’ASN, cet avis de l’IRSN montre bien toute l’importance de maintenir son expertise indépendante.

Le programme de démantèlement scientifique de Fessenheim permettra d’examiner notamment :

  • Les vis d’enveloppe du cloisonnement de cœur des internes de cuve : EDF ne prévoit qu’une inspection visuelle. Mais une expertise métallurgique en laboratoire serait bien plus utile pour ces pièces qui risquent d’être très fragilisées par la corrosion sous contrainte assistée par irradiation. En effet, après 40 ans de bombardement neutronique, il faut vérifier en quelle proportion la ténacité et la résilience de leur acier se sont abaissées.
  • La bride de cuve du réacteur n°2 dont un examen par ultrasons fait soupçonner la présence de défauts microscopiques mais pénalisants dus à l’hydrogène  : une expertise métallurgique permettrait de lever le doute et relancerait la proposition de Thierry de Larochelambert de faire le même examen sur la cuve et le couvercle du réacteur n°1.
  • Le joint soudé entre le fond et la virole inférieure sur la paroi externe du pressuriseur du réacteur n°2 : l’étude de son vieillissement thermique sous contrainte et irradiation permettrait de valider ou compléter les connaissances actuelles d’EDF.
  • La cuve elle-même en prélevant des éprouvettes pour effectuer des tests de ténacité, de métallurgie, et des analyses physico-chimiques, radiologiques et cristallographiques : tests et analyses qu’EDF se refuse à faire pour l’instant, alors qu’ils donneraient pour la première fois au monde des éléments concrets sur le processus de vieillissement sous irradiation par fatigue thermique et mécanique cyclique. Cela permettrait de renforcer les modèles physiques et les simulations numériques en s’appuyant sur la réalité industrielle.
Schéma de la cuve d'un réacteur
À la différence des cuves des centrales de 1300 MWe (comme sur le schéma) et de 900 MWe qui comportent deux viroles de cœur, celle du réacteur n°1 de Fessenheim en a trois. Source IRSN

« L’impératif prioritaire de sûreté doit guider toute décision en matière nucléaire, en particulier pour prolonger la durée de vie des centrales au-delà de 40 ans. Or le vieillissement des aciers sous irradiation engendre un risque de rupture des cuves des réacteurs. Mes calculs montrent que les facteurs de marges de tenue mécanique des cuves des réacteurs les plus âgés et les plus fissurés pourraient devenir inférieurs à 1 en cas de choc froid sous pression, comme lors d’un accident par perte de réfrigérant primaire ou de rupture de tuyauterie de vapeur. Les chercheurs de plusieurs pays concernés soulignent régulièrement le manque de données, car les mesures expérimentales des programmes de surveillance de l’irradiation, des fluences neutroniques, des modifications cristallines, des compositions des aciers, des températures de transition ductile-fragile, restent encore entachées d’incertitudes importantes. Les recherches les plus récentes montrent une accélération du vieillissement et de la fragilisation au-delà d’une fluence neutronique atteinte par les cuves 900 MW fissurées entre 40 et 50 ans de fonctionnement. Ajoutée aux incertitudes sur l’impact des transitoires thermiques subis pendant des décennies, cette accélération doit être impérativement prise en compte dans les modèles. Pour rendre ces derniers les plus réalistes possibles, il est indispensable de détecter et de caractériser précisément les fissures (millimétriques et centimétriques) existantes, les défauts microscopiques dus à l’hydrogène, les défauts de ségrégation chimique (veines sombres), car ils sont des facteurs déterminants dans l’évaluation des risques de rupture pouvant conduire à des accidents nucléaires graves ou majeurs », ajoute Thierry de Larochelambert dans un document détaillé. Le spécialiste estime que l’IRSN devrait aller plus loin dans sa demande en exigeant qu’EDF étende les investigations à l’ensemble de la virole de cœur de la cuve la plus irradiée de Fessenheim (celle du réacteur n°1), de la bride de cuve, du couvercle, des internes de cuve, du fond de cuve, et aussi d’une virole d’un générateur de vapeur¹ dans le réacteur n°2.

La connaissance scientifique s’en trouverait grandie, et la décision de prolonger ou non le service des réacteurs nucléaires les plus vieux et fissurés pourrait être prise en toute connaissance de cause.


¹ Générateur de vapeur GV335 dont la virole basse a fait l’objet d’une erreur grave de fabrication conduisant à sa fragilisation (ce qui avait d’ailleurs conduit à la mise à l’arrêt du réacteur n°2 du 18 juillet 2016 au 12 mars 2018).

Écoresponsabilité numérique : les mauvaises pratiques perdurent

Les incitations à la sobriété numérique se multiplient. L’Ademe en a même réalisé un guide pratique, « En route vers la sobriété numérique », pour passer à l’action. De son côté, Veritas Technologies, entreprise spécialisée dans la gestion de données, a confié à Opinionway la réalisation d’une étude sur les habitudes des employés en matière de gestion des données numériques. L’étude réalisée auprès de 1 120 salariés de bureau, de 18 ans et plus, travaillant en France dans le secteur public ou privé, explore aussi le rôle et l’impact des considérations écoresponsables dans ces habitudes.

Presque trois salariés de bureau sur quatre (74 %) se déclarent conscients de l’impact écologique qu’ont leurs activités numériques professionnelles. Ils déclarent ainsi adopter de bonnes habitudes au quotidien. Par exemple, plus de 8 salariés sur 10 se désabonnent systématiquement des newsletters ou des mails publicitaires qu’ils ne jugent pas utiles. Ils sont autant à vouloir mieux gérer leurs fichiers numériques en les triant, les archivant ou les supprimant régulièrement. Également, 48% favorisent les liens de téléchargement plutôt que l’envoi des pièces jointes par e-mail.

La productivité et la courtoisie priment sur l’écologie

Malgré des progrès, les mauvaises habitudes perdurent dans le quotidien des salariés de bureau. « Les comportements numériques non vertueux des salariés de bureau s’expliquent majoritairement par la force de l’habitude », conclut l’étude réalisée en ligne du 30 novembre au 5 décembre 2022. En effet, un salarié français sur deux (51 %) a conscience qu’il adopte des pratiques numériques peu vertueuses, mais ne parvient pas à changer ses habitudes. 45 % admettent même faire l’impasse volontairement sur certains gestes écologiques pour être plus efficaces au travail. En particulier, par précaution, la plupart (56 %) font en sorte d’avoir plusieurs copies d’un même fichier à différents emplacements sur leur ordinateur, au « cas où » ils feraient face à un problème.

Parmi ces mauvaises habitudes, l’étude se focalise sur la mauvaise gestion des mails par les salariés. 71 % d’entre eux reconnaissent envoyer des e-mails uniquement pour remercier leur expéditeur ou accuser réception d’une information. Et lorsqu’ils répondent à un e-mail, 43 % utilisent la fonction « répondre à tous » sans vérifier la pertinence de la liste de destinataires. « Des comportements voulus comme courtois et inclusifs, mais dont l’impact négatif réel pourrait être contenu », souligne l’étude.

Sensibiliser les salariés à la bonne gestion des e-mails reste une nécessité en entreprise. En effet, 58 % des salariés de bureau pensent encore, à tort, que les e-mails, dès lors qu’ils sont supprimés, n’ont plus d’impact sur leur consommation d’énergie. 28 % d’entre eux ont encore des milliers d’e-mails non lus dans leur boîte de réception.

Des bactéries permettant la biodégradation favoriseraient le largage des PFAS contenus dans les fertilisants

Les substances per- et polyfluoroalkylées, ou PFAS, forment une famille de plus de 4 000 composés chimiques utilisés depuis les années 50. Leurs propriétés uniques d’antiadhérence, imperméabilisation et résistance aux fortes chaleurs, en font des molécules très populaires, très prisées par les industriels. Elles entrent ainsi dans la composition de produits très divers : poêles antiadhésives, textiles, emballages alimentaires, produits cosmétiques, etc.

Malheureusement, ces composés sont également toxiques et, de par leur composition chimique, très persistants[1] dans l’environnement. Trop longtemps ignorée par les autorités, cette pollution sournoise, car invisible, fait néanmoins de plus en plus de bruit. Fin 2021, les États-Unis ont ainsi annoncé s’attaquer sérieusement au problème des PFAS[2], alors que 80 % des voies navigables américaines seraient contaminées !

Des microbes favoriseraient le largage des PFAS

Si la pratique de l’épandage des boues issues des stations d’épuration est considérée comme vertueuse, elle est malheureusement responsable d’une accumulation involontaire de polluants dans les sols agricoles et notamment de PFAS (et aussi de microplastiques), malgré les traitements de dépollution effectués en amont.

Des chercheurs du Drexel University’s College of Engineering ont ainsi voulu en comprendre les raisons. Dans une étude publiée dans le journal Environmental Science Processes & Impacts[3], ils expliquent comment les PFAS sont capables de « s’échapper » des engrais fabriqués à partir de déchets recyclés, grâce à la décomposition microbienne.

Dans un communiqué de presse, l’un des coauteurs, le docteur Asa Lewis l’affirme : « Comme il n’est actuellement pas possible d’éliminer les PFAS de l’environnement, il est important de comprendre tout ce que nous pouvons sur la façon dont ils sont capables de persister et de s’accumuler si largement dans le monde naturel. »

L’accumulation de PFAS dans l’environnement : un problème mondial !

Bien que cette étude concerne les États-Unis, l’Europe et la France sont également largement concernées par la pollution aux PFAS et par la question du traitement des boues.

Fin février 2023, une enquête du journal Le Monde révélait d’ailleurs l’ampleur de la contamination au PFAS sur le territoire européen. L’Europe compte ainsi plus de 20 usines chimiques productrices, 232 utilisateurs de PFAS et une contamination a été détectée sur plus de 17 000 sites.

Depuis quelques années, le problème des PFAS commence néanmoins à être pris au sérieux par les pouvoirs publics. Au regard des préoccupations grandissantes, les autorités françaises ont d’ailleurs récemment lancé un plan d’action ministériel porté par le ministère de la Transition écologique et de la Cohésion des territoires. Ce plan d’action contient 6 axes.

Les 6 axes du plan d’action PFAS 2023-2027

Quelques jours après l’annonce de ce plan d’action, c’était au tour de l’Europe de prendre à bras le corps le problème des PFAS, cinq États membres ayant proposé l’interdiction pure et simple des PFAS. Une évaluation qui débouchera prochainement sur une recommandation à la Commission européenne, en vue d’une réglementation à horizon 2025.


[1] Selon l’ANSES, plus elles contiennent d’atomes de carbone et plus elles sont persistantes dans l’environnement

[2] Alors que les risques posés par les PFAS étaient connus depuis 1998 !

[3] Royal Society of Chemistry

Teqoya : des technologies de pointe pour purifier l’air intérieur

Teqoya a débuté ses activités en 2015 en redonnant vie à une technologie d’ionisation de l’air sans ozone, un temps laissée de côté après avoir été développée aux côtés d’une PME bordelaise par le professeur à l’Université de Bordeaux Jacques-Breton.

L’entreprise a ainsi lancé sur le marché plusieurs purificateurs d’air par ionisation à la fois performants et compacts, mais aussi silencieux, économes en énergie et ne nécessitant aucun consommable.

Pour élargir la palette des applications possibles de ses solutions, Teqoya a combiné cette première brique technologique avec un procédé d’électrofiltration. Une union qui a permis de donner naissance à une technologie dite « d’e-filtration », lancée en 2022. Pierre Guitton, co-fondateur de Teqoya, nous dévoile les secrets de cette technologie et nous présente plus en détail les produits dans lesquels elle est intégrée.

Techniques de l’Ingénieur : Quelles sont les origines de Teqoya ?

Pierre Guitton : J’ai été sensibilisé à l’importance de la qualité de l’air de par mon histoire personnelle. Ma fille aînée est en effet très asthmatique. Je me suis donc intéressé aux facteurs déclencheurs des crises et donc à la qualité de l’air. Chemin faisant, j’ai entendu parler d’une technologie d’ionisation de l’air… Je m’y suis donc penché et j’ai fini par prendre la décision de me lancer dans ce domaine.

Teqoya est ainsi basée sur un socle technique préexistant, qui a été développé par l’Université de Bordeaux en partenariat avec une PME bordelaise spécialisée en ingénierie électronique. Un long travail de mise au point a été effectué, mais le projet a finalement été mis de côté pendant un temps. Après avoir testé en laboratoire la technologie, je me suis aperçu de son potentiel, et j’ai donc décidé de redonner vie à ce projet avec l’aide de mes deux associés. C’est ce qui a permis de donner vie à Teqoya en janvier 2015.

Sur la base de cette technologie que vous évoquez, quelles ont été les principales étapes de R&D que vous avez poursuivies ?

Ionisation de l'air-TEQOYA
Teqoya a commencé par commercialiser des purificateurs basés sur sa technologie d’ionisation sans ozone. En 1 : étape d’ionisation des particules, en 2 : purification naturelle de l’air. © TEQOYA

Nous réalisons de la R&D en continu depuis la création de Teqoya. On peut scinder ce travail en deux grandes phases. La première a consisté à faire mûrir la technologie qui consiste, en substance, à porter une pointe à haute tension. C’est ce que l’on appelle l’effet de pointe, ou effet couronne. Cela génère un champ électrique très fort au voisinage de cette pointe, qui accélère les électrons libres dans l’air et génère une réaction en cascade. On assiste donc à des réactions chimiques complexes, typiques des plasmas froids.

Hors de cette zone de plasma, il existe une zone de dérive, à quelques micromètres autour de la pointe. Les ions au même potentiel électrique que la pointe sont repoussés, alors que ceux dont le potentiel est opposé sont attirés. Cela va donc entraîner la diffusion dans l’air de charges monopolarisées, sous la forme d’ions.

Tout cela est très classique. Mais notre technologie comporte des particularités. En travaillant, d’une part, sur l’alimentation de la haute tension et, d’autre part, sur l’environnement électrostatique de la pointe – en jouant sur des matières diélectriques ou au contraire conductrices – nous sommes en effet parvenus à un procédé générant beaucoup d’ions tout en diffusant très peu de substances oxydantes, en particulier l’ozone. C’est pourtant le risque numéro un des ioniseurs conventionnels…

À partir de cela, nous avons observé le marché de la purification de l’air. Nous avons alors constaté qu’il était occupé par des appareils à filtration mécanique conventionnelle. Ils sont, certes, très performants, mais aussi gros et puissants, donc bruyants et consommateurs d’énergie. À cela s’ajoute la nécessité de remplacer régulièrement les filtres.

Les gens ont donc tendance à ne les utiliser que ponctuellement. Or, pour les protéger des petites doses de polluants qu’ils inhalent continuellement à l’intérieur des bâtiments – dont on sait qu’elles sont néfastes –, il fallait développer un appareil capable de fonctionner en continu.

C’est justement ce que permet l’ionisation : les appareils consomment peu, sont compacts et silencieux. Le tout sans consommables.

Nous avons donc lancé Teqoya avec cette volonté de produire des purificateurs faciles à vivre, en visant, d’emblée, les marchés les plus significatifs, notamment la Chine. Et nous avons bien fait : l’Asie représente en moyenne 70 à 80 % de nos ventes…

À partir de 2017-2018, nous avons toutefois fait un autre constat : même si elle fonctionne très bien, la technologie d’ionisation n’est pas faite pour obtenir une diminution drastique des polluants en un temps très réduit. Elle est là pour réaliser un travail de fond. Cette technologie conserve aussi un côté « mystérieux », dérangeant pour certaines personnes, qui se demandent comme un appareil complètement inerte peut réussir à dépolluer l’air…

Ces deux facteurs combinés nous privaient d’une partie des applications et débouchés possibles en matière de purification de l’air. Nous en avons donc conclu que nous avions besoin de développer un autre procédé, utilisant la convection de l’air pour piéger les particules dans un filtre.

Nous nous sommes alors posé une question : ne pourrait-on pas exploiter notre technologie d’ionisation dans un appareil de filtration plus conventionnel, utilisant un courant d’air ? C’est ce qui nous a conduits à développer une autre technologie, que l’on appelle la « e-filtration ».

Ce procédé consiste à charger électrostatiquement les particules, puis, dans un second temps, à piéger ces particules dans un système de plaques polarisées. Les particules chargées électrostatiquement sont ainsi déviées par les forces électrostatiques vers l’une des deux plaques, celle qui a un potentiel opposé à leur charge.

Ce procédé est notamment utilisé au niveau industriel dans des applications telles que le traitement de fumées. Il bénéficie en effet de capacités de stockage de particules très importantes, contrairement aux filtres traditionnels. Il n’est toutefois pas transposable directement auprès du grand public. Nous avons donc décidé de tirer parti de nos savoir-faire pour créer un filtre disposant de toutes les qualités d’un électrofiltre conventionnel, mais en étant plus sûr à utiliser : sans ozone et sans risque de décharges électrostatiques, dangereuses ou du moins désagréables. C’est ainsi que nous avons donné naissance à notre technologie d’e-filtration.

À quelles solutions concrètes avez-vous donné naissance à partir de cette technologie d’e-filtration ?

E-filtration-TEQOYA
Développée par Teqoya et intégrée notamment au purificateur Alana, la technologie d’e-filtration agit en deux étapes. En 1 : ionisation des particules, en 2 : purification de l’air par électrofiltration. © TEQOYA

Nous avons, d’une part, développé un purificateur d’air destiné tant au grand public qu’aux professionnels. Nous l’avons lancé commercialement il y a peu, sous le nom d’Alana.

Nous le fabriquons en France dans notre atelier en Aquitaine. Les volumes augmentant, nous avons aussi sous-traité une partie de notre fabrication auprès de partenaires basés en France ou dans le Pays basque espagnol.

D’autre part, nous avons aussi présenté ce procédé d’e-filtration à des industriels de la qualité de l’air des bâtiments. Nous avons alors commencé à travailler avec Aldes, qui a perçu le potentiel de notre technologie. Ils nous ont ainsi proposé de développer une première application : l’entrée d’air filtrante, destinée aux systèmes de VMC simple flux des bâtiments résidentiels. Nous venons de lancer cette deuxième solution, commercialisée par Aldes.

Quelles performances ces solutions de purification atteignent-elles ?

L’entrée d’air filtrante est adaptée à des débits d’environ 35 m³/h, avec une performance de filtration de l’ordre de 80 % pour les PM1[1]. C’est mieux que les meilleurs filtres installés dans le tertiaire… !

Pour le purificateur d’air Alana, les performances sont encore plus élevées. Il dispose de quatre débits. Sur les deux débits inférieurs, l’appareil dépasse les 99 % de filtration et sur les deux débits supérieurs, il se situe un peu en deçà, mais toujours au-dessus de 90 %.

Sur quels types de polluants de l’air ces dispositifs agissent-ils ?

Nos solutions agissent sur toutes les natures de particules : suies et particules minérales, biocontaminants tels que les bactéries et les spores, ainsi que les microgouttelettes potentiellement chargées en virus, notamment celui qui est responsable de la Covid-19. Le procédé ne fonctionne cependant pas sur les gaz, les COV, ou alors très peu.

Nous avons en revanche constaté une bonne efficacité sur les odeurs. Nous devons encore réaliser des tests en laboratoire pour bien comprendre cet effet.

Avez-vous éventuellement d’autres produits en préparation ?

Nous sommes effectivement impliqués dans un projet européen de recherche qui vise à évaluer tous les impacts sur la santé des enfants de la pollution de l’air ainsi que les solutions de remédiation. Nous travaillons donc sur une évolution d’Alana, sur laquelle je ne peux pas encore tout dire, si ce n’est qu’elle utilisera notre technologie d’e-filtration complétée par plusieurs briques technologiques supplémentaires.

Nous sommes aussi engagés dans un projet de recherche qui vise, lui, plutôt des applications dans le tertiaire. Il s’agit d’utiliser l’e-filtration en lieu et place ou en complément de la filtration conventionnelle des systèmes de VMC double flux. Ceci afin d’améliorer nettement les performances de filtration sans augmenter la consommation d’énergie.

Ces différents projets devraient aboutir à des solutions concrètes aux alentours de 2024-2025.

Image de une : Pierre Guitton, co-fondateur et président de Teqoya – Crédit Laurent Sacco


[1] Particules de taille inférieure à 1 micron.

Écoutez notre podcast Cogitons Sciences : L’importance de l’analyse de cycle de vie dans l’écoconception [Sobriété des industries #2]

Nous nous interrogeons sur l’écoconception et sur l’un de ses outils les plus utilisés : l’analyse de cycle de vie. Cette méthode permet d’obtenir une photographie environnementale d’un produit ou d’un service, de façon à améliorer les impacts liés aux flux entrants et sortants d’énergie et de matière durant toute les étapes de sa vie.

Pour écouter l’épisode, c’est ici

L’écoconception et l’analyse de cycle de vie [00:58 – 5:04]

L’écoconception est un processus de conception permettant de concevoir un produit (ou un service), le fabriquer et l’industrialiser en prenant en compte la dimension environnementale dans le but de réduire son empreinte carbone. Pour écoconcevoir, différents outils sont utilisés comme les normes. Mais le plus utilisé est l’analyse de cycle de vie (ACV). Celle-ci est plus précisément une technique de modélisation d’impacts environnementaux du cycle de vie d’un produit, depuis l’extraction jusqu’à la fin de vie en passant par la fabrication, la logistique, et toutes les autres étapes. afin d’améliorer le produit. L’approche est multicritères et comprend une dizaine d’indicateurs environnementaux, de même que la santé humaine, ou encore les ressources.

Les différentes ACV [05:11 – 7:25]

Il existe plusieurs types d’analyse de cycle de vie, dont la plus courante est celle qui porte sur le produit : l’ACV attributionnelle. Une seconde, baptisée conséquentielle, consiste à analyser les conséquences d’une décision sur l’ensemble de l’économie, par exemple les scénarios énergétiques à horizon 2050. Et une troisième, organisationnelle, sur l’activité de production d’une entreprise en intégrant les gammes de produits. “Il existe également une extension qui est l’analyse de cycle de vie sociale, ajoute Stéphane Le Pochat. Elle consiste à évaluer les impacts sociaux et sociétaux d’un produit mis sur le marché. C’est une méthode qui plaît beaucoup à l’industrie car elle s’intègre bien dans sa politique RSE.

Une photographie environnementale [07:28 – 10:53]

L’analyse de cycle de vie est un outil d’aide à la décision. Il permet d’obtenir une photographie environnementale d’un produit pouvant être utilisé dans un processus d’écoconception. Cette photographie permet d’identifier les facteurs et les origines des impacts environnementaux. “Est-ce une problématique matériaux ? Si oui, de quels matériaux s’agit-il ?” illustre Stéphane Le Pochat. “A partir de cela, on peut penser des pistes d’amélioration.

Promue par des directives [10:52 – 13:29]

C’est une technologie assez récente, qui date des années 1990. L’ACV a été poussée par des directives françaises et européennes d’écoconception. Puis vers 2007, un processus d’affichage environnemental a embarqué tous les secteurs industriels dans le calcul de l’empreinte environnementale. Dans des projets de recherche ANR par exemple, “il est obligatoire de réaliser une ACV pour les évaluer” ajoute Stéphane Le Pochat.

Quelques faiblesses encore [13:32 – 22:28]

De la simple feuille de papier au satellite, tout est en théorie modélisable. Même un modèle économique, comme celui de la fonctionnalité. “Après… on est rapidement confronté à la réalité du monde industriel, déplore Stéphane Le Pochat. La modélisation repose sur l’acquisition de données” souvent confidentielles ou coûteuses à obtenir. “Une ACV de qualité peut s’élever à une dizaine de milliers d’euros, détaille Stéphane le Pochat. Ce qui peut paraître cher pour des entreprises, mais en comparaison, le budget communication est bien plus élevé.”

Pour Stéphane Le Pochat, l’ACV est fiable s’il s’agit de comparer deux produits entre eux dans le cadre d’une prise de décision pour la re-conception. S’il est question de déterminer les vrais impacts environnementaux, alors elle ne l’est pas. “Et ce n’est pas l’objectif de l’ACV” précise l’expert. “Elle traite d’impacts environnementaux potentiels. Ce sont des indicateurs, qui ne reflètent pas la réalité.” Et la recherche continue d’avancer afin de rendre toujours plus robustes les méthodes de calcul. Deux axes font particulièrement l’objet de R&D : la prise en compte du temps et de l’espace dans le calcul d’impacts environnementaux. Par exemple le niveau de pollution qui évolue dans le temps et qui diffère en fonction de la zone géographiquement.

Largement utilisé par l’industrie [22:31 – 24:58]

Que ce soit dans les industries, dans les ETI ou les PME innovantes, l’ACV est largement utilisé. Mais cette utilisation se fait de différentes façons : soit en interne avec des petites équipes d’une à cinq personnes dédiées, soit externalisée dans des cabinets de conseil, soit un mélange des deux.

Ecoutez l’épisode par ici.

Références citées :

Bilan carbone Scope 3
– Les précurseurs de l’ACV : Philips et Peugeot Citroën

Ressources pour aller plus loin :

– « Il y aura l’âge des choses légères« , sous la direction de Thierry Kazazian
– « Small is beautiful« , d’Ernst Friedrich Schumacher
– « Cradle to cradle » (“du berceau au berceau”) de Michael Braungart et William McDonough

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Les émissions de CO2 de l’énergie toujours en hausse

Les émissions mondiales de CO2 liées à l’énergie ont à nouveau augmenté de 321 millions de tonnes (Mt) en 2022, soit +0,9 %, annonce l’Agence internationale de l’énergie (AIE). Elles atteignent ainsi plus de 36,8 milliards de tonnes, « un nouveau record de plus », indique l’AIE. Les analystes scrutent avec intérêt ces émissions qui représentent plus des trois quarts du total des émissions mondiales de gaz à effet de serre et servent d’indicateur à la réussite de la transition énergétique. Cette année, la hausse des émissions est décorrélée de la croissance économique mondiale (+3,2 %), précise l’AIE.

Une hausse plus faible que prévu

Le dernier rapport du GIEC souligne l’importance d’inverser la courbe mondiale des émissions de gaz à effet de serre d’ici 2025 pour limiter la hausse des températures à 1,5°C à la fin du siècle. Si l’inversion n’est pas là, l’AIE se satisfait tout de même d’une hausse des émissions moins forte que prévu, dans un contexte de crise énergétique. « Le risque d’une croissance débridée des émissions en raison du recours accru au charbon dans le contexte de crise énergétique ne s’est pas matérialisé, l’essor des énergies solaire et éolienne, des voitures électriques, de l’efficacité énergétique et d’autres facteurs ayant freiné la montée du CO2 », avance l’AIE dans cette analyse basée sur des données nationales publiques.

L’an dernier, les phénomènes météorologiques extrêmes et la mise à l’arrêt d’un nombre inhabituellement élevé de centrales nucléaires ont contribué à l’augmentation des émissions. Toutefois, 550 Mt d’émissions supplémentaires ont été évitées grâce au déploiement accru de technologies bas carbone, notamment l’éolien et le solaire photovoltaïque, estime l’agence. La réduction de la production industrielle, en particulier en Chine et en Europe, a également évité des émissions supplémentaires. « Sans énergie propre, la croissance des émissions de CO2 aurait été presque trois fois plus élevée », calcule Fatih Birol, directeur exécutif de l’AIE.

Une hausse toujours trop importante

En 2021, les émissions avaient bondi de plus de 6 % suite à un recul inédit de 5,8 % en 2020. Mais il ne faudrait pas se contenter de ces résultats 2022. Les émissions restent sur « une trajectoire de croissance insoutenable », appelant à des « actions plus fortes pour accélérer la transition vers une énergie propre et mettre le monde sur la voie de la réalisation de ses objectifs énergétiques et climatiques », prévient l’AIE.

Alors qu’il faudrait fortement réduire le recours aux énergies fossiles, les émissions liées au pétrole et au charbon ont respectivement augmenté de 268 Mt (+2,5 %) et de 243 Mt (+1,6 %), contrebalançant largement la baisse de 118 Mt (-1,6 %) des émissions liées au gaz. Environ la moitié de l’augmentation des émissions dues au pétrole provient du rebond de l’aviation qui revient à 80 % de son niveau de 2019, après le creux pandémique. « Les compagnies internationales et nationales du secteur des énergies fossiles engrangent des revenus records et doivent prendre leur part de responsabilité, en cohérence avec leurs engagements publics à l’égard du climat, souligne Fatih Birol. Elles doivent revoir leurs stratégies dans le sens d’une réduction réelle de leurs émissions. »

En Asie, hors Chine, les émissions ont augmenté de 4,2 %, reflétant la croissance rapide de leur économie et de leur demande énergétique. Avec les restrictions anti-Covid, la Chine reste sensiblement au même niveau d’émissions (-0,2 %) qu’en 2021. Dans l’Union européenne, les émissions ont diminué de 2,5 % grâce au déploiement record d’énergies renouvelables, à un démarrage en douceur de l’hiver et aux mesures de sobriété énergétique. Aux États-Unis, les émissions ont augmenté de 0,8 %, avec une forte hausse de la demande énergétique des bâtiments en raison de températures extrêmement basses.

La science décentralisée pourrait accélérer la recherche pharmaceutique

Mouvement disruptif ou buzz word ? La DeSci ambitionne de révolutionner la recherche scientifique en créant un écosystème dans lequel les scientifiques sont incités à partager ouvertement leurs recherches et à recevoir des crédits pour leurs travaux, tout en permettant à quiconque d’accéder et de contribuer facilement à ces recherches.

Apparue il y a quelques années, la DeSci pourrait profiter du Web3 et de la blockchain pour passer du stade de concept au mouvement disruptif. Comme nous l’avions évoqué dans un précédent article, le terme Web3 a été utilisé pour la première fois en 2014 par le Britannique Gavin Wood, le cofondateur de la cryptomonnaie Ethereum et popularisé dans un article publié dans Wired en novembre 2021 : « The Father of Web3 Wants You to Trust Less ». Pour simplifier, le Web3 serait un réseau décentralisé.

Avec un tel réseau et la blockchain, les différents défis auxquels est confrontée la recherche (le financement, la publication et la propriété des droits d’auteur) seraient résolus. Actuellement, les scientifiques dépendent des subventions ou des donateurs privés pour financer leurs recherches. D’où une forte concurrence entre laboratoires.

Smart contrat et réputation

C’est le cas en particulier dans la recherche biomédicale. La plupart des financements proviennent de deux sources principales : le gouvernement (par l’intermédiaire des universités et d’organismes spécialisés) et les sociétés biomédicales (par l’intermédiaire de leurs départements de recherche).

Concernant le partage de l’information, la recherche a toujours été un domaine monopolistique, contrôlé par une poignée de revues d’édition. Or, la publication d’un article est un processus long et fastidieux.

L’utilisation d’une infrastructure d’examen par les pairs, basée sur la blockchain, peut éliminer ces obstacles. La blockchain possède une technologie unique appelée « contrats intelligents » (ou « smart contrat »), qui sont des morceaux de code programmables. Lorsqu’ils sont utilisés en conjonction avec une communauté décentralisée de chercheurs scientifiques, ils peuvent être programmés pour exécuter de manière autonome des sections du processus de publication des revues, telles que les examens par les pairs.

Les systèmes de réputation sont un autre élément clé de la recherche scientifique bien adapté à la blockchain, car toute information détenue est vérifiable et immuable. Chaque fois qu’un scientifique publie ou révise avec succès un article, les contrats intelligents mettent automatiquement à jour leurs mesures sur la blockchain, augmentant ainsi leur crédibilité au sein de la communauté. C’est ce que propose une plateforme comme VitaDAO, qui a levé en janvier dernier 4,1 millions de dollars auprès de différents investisseurs, dont Pfizer Ventures.

La technologie blockchain se prête aussi directement au crowdfunding, ce qui est une autre façon de contribuer à la recherche. Par exemple, Molecule, une place de marché de subventions fondée en 2019 et basée sur la blockchain, permet aux utilisateurs de financer par crowdfunding le développement de médicaments.

Le protocole connecte directement les patients, les entreprises de biotechnologie ou les investisseurs aux scientifiques, alimentant ainsi des marchés ouverts pour la recherche. Les personnes qui ont un intérêt direct peuvent financer des projets spécifiques par le biais du VitaDAO de Molecule.

À la clé, une mise sur le marché plus rapide. Selon GenomicDAO, une plateforme basée à San Francisco et lancée le 19 février 2022 par la société de biotechnologie Genetica spécialisée dans l’intelligence artificielle, le délai pourrait passer de 12-18 mois à 4-6 mois.

Publication en libre accès

Ainsi, les parties intéressées peuvent détenir une participation dans le projet au lieu de passer par les voies traditionnelles telles que les éditeurs ou les grandes entreprises pharmaceutiques. Grâce à cet accès, elles peuvent accéder directement à des données cruciales et contribuer à leur développement par leur investissement.

Autre exemple à suivre, celui de Research Hub qui peut être comparé à GitHub. Lancé en 2008 (et racheté par Microsoft en 2018 pour 7,5 milliards de dollars), GitHub est un site web conçu pour fédérer et partager le code source d’un projet de développement d’application imaginé par plusieurs programmeurs. Il compte plus de 90 millions d’utilisateurs.

À l’instar de GitHub, la plateforme de recherche en libre accès Research Hub pourrait fournir une incitation sérieuse à la publication en libre accès et favoriser des financements dans des sujets que la National Science Foundation ne finance pas, comme la biologie quantique.

L’utilisation de la technologie blockchain présente donc de nombreux avantages. Mais il reste encore du chemin avant que la DeSci ne fasse bouger réellement les lignes dans le secteur pharmaceutique. Dans le secteur bancaire, la Fintech n’a commencé à s’imposer que lorsqu’elle a commencé à prendre des parts de marché aux établissements bancaires.

Maladies émergentes : l’Anses rappelle les liens entre santé humaine et animale

La pandémie de Covid l’a encore récemment souligné : santé animale et santé humaine sont étroitement liées. Mais quelle est la responsabilité des espèces sauvages et des animaux d’élevage dans les maladies infectieuses émergentes ? À l’occasion du salon international de l’agriculture, l’Anses fait le point.

Gilles Salvat, directeur général délégué du pôle recherche et référence, rappelle ainsi que l’Homme partage près de 60 % des maladies infectieuses avec les animaux. Alors que l’on observe des émergences quasi continuelles au cours des dernières décennies, 75 % des maladies infectieuses émergentes ont une origine animale, qu’elles proviennent de la faune sauvage ou des animaux domestiques.

Une plus forte proximité avec les animaux sauvages

L’étude de référence sur le rôle de la faune sauvage dans les maladies émergentes est celle de Jones et al., parue dans Nature en 2008. Élodie Monchâtre-Leroy, directrice du laboratoire Anses de la rage et de la faune sauvage de Nancy, la résume : « En étudiant l’ensemble des émergences de 1940 à 2004, il montre que 43 % d’entre elles ont une origine dans la faune sauvage ».

Et pour cause : l’homme est particulièrement sensible aux pathogènes qu’il n’a pas l’habitude de côtoyer. « Or la faune sauvage est porteuse de très nombreux micro-organismes qui sont étrangers à l’homme et contre lesquels il n’a pas l’habitude de se défendre », rappelle le docteur vétérinaire.

Dès lors que les humains s’introduisent dans des milieux préservés d’une grande biodiversité, comme les forêts primaires, pour exploiter le bois, des métaux ou installer de grandes cultures, il entraîne des déplacements d’espèces sauvages vers des milieux anthropisés. « Cette perturbation des écosystèmes et ce rapprochement favorisent le risque de transfert de virus de l’animal à l’homme », résume Gilles Salvat.

Des échanges entre animaux sauvages et domestiques

L’intensification de l’élevage joue aussi un rôle d’amplificateur. En effet, la concentration d’animaux sensibles rend plus facile l’échange de pathogènes avec la faune sauvage, dans le cas d’élevages extensifs, et la transmission de maladies au sein d’élevages intensifs. Le virus H5N1 qui circule actuellement entre les oiseaux sauvages et domestiques en Europe, et dans le monde entier, en est un bon exemple. « Dès qu’il va y avoir des contacts de plus en plus importants entre la faune sauvage et l’homme ou la faune sauvage et les animaux domestiques, on augmente la probabilité que des pathogènes puissent passer à l’homme ou à l’animal domestique et qu’il y ait une émergence », explique Élodie Monchâtre-Leroy.

Certaines espèces de la faune sauvage profitent également de la perturbation des écosystèmes pour proliférer. C’est le cas par exemple du sanglier en Europe, ou d’espèces exotiques envahissantes, comme le raton laveur en France. Ces espèces se développent sur de nouveaux territoires, amenant avec eux les micro-organismes qu’elles hébergent.

Enfin, des implantations d’espèces domestiques en bordure de forêts primaires peuvent favoriser les contacts avec les sauvages. Gilles Servat rappelle que le virus Nipah en Malaisie trouve son origine dans la contamination d’élevages de porcs en bordure de forêt primaire en 1999. Ce virus transmis au porc via la consommation de fruits contaminés par des chauves-souris frugivores est responsable d’une fièvre hémorragique. « Il y a probablement eu une modification de ce virus et actuellement au Bangladesh, on a une contamination par ce virus Nipah à partir de jus de dattes contaminées, probablement par des chauves-souris, et une transmission d’homme à homme », partage l’expert.

Le changement climatique comme catalyseur

Pour ne pas faciliter les choses, le changement climatique entraîne en plus un changement de répartition des vecteurs de maladies. Dans les pays du nord, il devrait ainsi entraîner l’émergence de maladies anciennement cantonnées aux pays en développement, que cela soit dans la faune sauvage ou domestique. « Le changement climatique va avoir un impact sur les espèces migratrices, notamment les oiseaux migrateurs, ce qui pourra modifier la carte de répartition d’un certain nombre de maladies et la répartition d’un certain nombre de vecteurs [de maladies, ndlr] », explique Gilles Servat.

Le moustique tigre, désormais présent dans toute la France, est un bon exemple de ce phénomène. Ce pionnier n’est certainement pas le dernier. « Certaines espèces de tiques comme Hyalomma, plutôt des pays du sud à l’origine, se retrouvent sur le pourtour méditerranéen, assure Gilles Servat. Hyalomma est la tique responsable de la transmission de la fièvre hémorragique de Crimée-Congo. Cette tique est présente en Corse, sur le littoral français méditerranéen et on a eu en Espagne les premiers cas autochtones de fièvre de Crimée-Congo. »

Découverte d’une fonte à deux vitesses du glacier Thwaites en Antarctique

Le glacier Thwaites est l’un des glaciers qui évolue le plus rapidement en Antarctique. Il couvre 192 000 kilomètres carrés, soit un territoire grand comme la Grande-Bretagne, et est particulièrement sensible aux changements climatiques et océaniques. Sa ligne d’échouage, qui représente le point de rencontre avec le fond marin, a reculé de 14 km depuis la fin des années 1990. La glace qui s’écoule dans la mer d’Amundsen contribue à environ 4 % de l’élévation mondiale du niveau de la mer. Son effondrement brutal pourrait faire grimper ce niveau de plus d’un demi-mètre au cours des siècles à venir. Des scientifiques britanniques et américains ont publié deux articles1 dans la revue Nature, dans laquelle ils fournissent une image plus claire des changements qui se produisent sous ce glacier.

Pour mener à bien leurs travaux, ils ont réalisé un forage de 600 mètres de profondeur à environ 1,6 kilomètre de la ligne d’échouage, à l’aide d’une foreuse à eau chaude. Un robot sous-marin télécommandé, appelé Icefin, a ensuite été déployé dans ce trou de forage. L’engin se présente sous la forme d’un crayon, mesurant 25 cm de diamètre et plus de 3 mètres de long, et est équipé de caméras, d’instruments de cartographie et de capteurs mesurant la vitesse des courants océaniques, la température, la salinité et les niveaux d’oxygène. Toutes ces informations étant nécessaires pour estimer les vitesses de fonte de ce glacier, exposé à des eaux océaniques relativement chaudes.

Les premières vues rapprochées du point critique près de la ligne d’échouage ont été comparées aux observations de vitesse de fonte prises sur cinq autres sites sous la banquise. Les chercheurs ont observé que Thwaites s’était retiré en douceur et régulièrement sur le fond de l’océan depuis au moins 2011. Ils ont constaté que les sections plates couvrant une grande partie de la base de la plate-forme de glace s’amincissaient, mais pas aussi rapidement que les modèles numériques l’avaient jusqu’ici suggérés. En revanche, la fonte dans les fissures et les crevasses est beaucoup plus rapide que prévu, avec la formation d’un relief en forme d’escalier qui apparaît dans la glace.

La fonte latérale peut dépasser une vitesse de 40 mètres par an

Ce taux de fonte variable serait lié à des différences de stratification de la glace et à des mélanges des eaux. En clair, le long des sections plates de glace, une fine couche d’eau douce fondue agit comme une barrière contre les courants océaniques plus chauds, et limite la fonte ; celle-ci étant estimée en moyenne entre 2 et 5 mètres par an. En revanche, l’eau qui s’écoule à travers les crevasses en pente et les terrasses a pour effet d’entraîner une fonte latérale plus rapide, à une vitesse pouvant dépasser 40 mètres par an. C’est ainsi que des failles majeures progressent à travers la plate-forme de glace et pourraient devenir le principal déclencheur de l’effondrement de ce glacier.

« Ces nouvelles façons d’observer le glacier nous permettent de comprendre que ce n’est pas seulement la quantité de fonte qui se produit qui compte, mais comment et où cela se produit dans ces régions très chaudes de l’Antarctique, déclare Britney Schmidt, professeur à Cornell University. Nous voyons des crevasses, et probablement des terrasses, à travers des glaciers qui se réchauffent comme Thwaites. L’eau chaude pénètre dans les fissures, contribuant à l’usure du glacier à ses points les plus faibles. Peter Washam, ingénieur de recherche dans cette même université, ajoute : « Icefin collecte des données aussi près que possible de la glace dans des endroits qu’aucun autre outil ne peut actuellement atteindre. Cela nous montre que ce système est très complexe et nécessite de repenser la façon dont l’océan fait fondre la glace, en particulier dans un endroit comme Thwaites. »

1 Le premier article est intitulé Suppressed basal melting in the eastern Thwaites Glacier grounding zone et le second : Heterogeneous melting near the Thwaites Glacier grounding line

Sécheresse : un plan de sobriété sur l’eau en préparation

Le 22 février, Météo-France alertait dans un communiqué : « la pluie n’est pas tombée en France depuis le 21 janvier, soit une série de 32 jours consécutifs (21 février inclus), du jamais vu durant un hiver météorologique ». Cela n’était pas arrivé depuis le début des mesures en 1959, devançant le record de 2020. La pluie tant attendue a fini par tomber le 22 février.

Mais les précipitations restent rares. « Le mois de février 2023 devrait se terminer avec un déficit pluviométrique de plus de 50 %, devenant ainsi l’un des mois de février les plus secs, jamais enregistrés depuis le début des mesures en 1959 », prévient Météo-France. Les sols connaissent un assèchement remarquable pour la saison hivernale, avec « un état qu’on rencontre habituellement mi-avril, soit deux mois d’avance », partage l’organisme. La pluviométrie de mars sera déterminante pour le rechargement des nappes phréatiques, celle d’avril et mai également dans une moindre mesure.

Planifier et anticiper un manque d’eau cet été

Après le plan de sobriété énergétique, le gouvernement devrait prochainement présenter un plan de sobriété sur l’eau. En déplacement au salon international de l’agriculture le 25 février, le président de la République Emmanuel Macron a appelé à « faire attention à cette ressource qui devient rare » et à adopter « des comportements de sobriété dans nos pratiques ».

Il est fort probable que l’eau manque cet été, donc autant anticiper. « Plutôt que de s’organiser sous la contrainte au dernier moment avec des conflits d’usage, on doit planifier tout ça », a prévenu le chef de l’État. Il a ainsi appelé à « mieux récolter l’eau de pluie », « avoir moins de fuites dans les réseaux d’eau » et « mieux répartir l’utilisation de l’eau potable selon les usagers », notamment en « continuant de produire et d’investir sur des rétentions (sic) collinaires ».

La France devrait rapidement se doter d’une planification sur le sujet. « On a, ces derniers jours, transmis au Conseil d’État un décret pour mieux réutiliser les eaux usées », a notamment annoncé Emmanue Macron. Invité la veille sur France 2, Marc Fesneau, ministre de l’Agriculture et de la Souveraineté alimentaire, expliquait que ce texte vise la réutilisation des « eaux grises », soit les eaux usées domestiques faiblement polluées. « Nous sommes à 1,8 % d’utilisation de ces eaux en France, quand en Italie on est à 15 ou 17 %. […] La législation va changer pour assouplir et clarifier un certain nombre de choses, c’était des freins », a-t-il précisé.

« Tous les clignotants sont au rouge »

Dans une interview accordée au Journal Du Dimanche, le ministre de la Transition écologique Christophe Béchu appelle pour sa part à des mesures « extraordinairement précoces », estimant que « tous les clignotants sont au rouge ». Le ministre a ainsi reçu le lundi 27 février les préfets « qui coordonnent les sept grands bassins du territoire ». En substance, il leur adresse ce message : « Anticipez ! Prenez les mesures qui permettent dès à présent de faire des économies d’eau. S’il faut dès maintenant prendre des arrêtés de restrictions pour s’assurer que la ressource en eau soit préservée pour cet été, prenez-les. »

Début mars, la Première ministre, Élisabeth Borne doit mettre en place une cellule interministérielle « chargée d’anticiper les risques et mesures à prendre en cas de sécheresse, mobilisant l’ensemble des services de l’État concernés ». À ce jour, le 27 février 2023, cinq départements sont placés en alerte renforcée sur au moins une partie de leur territoire : Ain, Bouches-du-Rhône, Isère, Pyrénées-Orientales, Var, et un département est au niveau de vigilance : la Savoie.

La Commission européenne autorise la France à soutenir un projet d’éolien en mer flottant

Afin de ne pas fausser la concurrence au sein du marché unique, les règles de l’UE prévoient que les aides d’État soient soumises à autorisation de la Commission européenne.

Ces règles sont néanmoins plus souples lorsqu’elles visent à aider les États membres à atteindre les objectifs de l’UE en matière d’énergies renouvelables (au moins 32 % d’ici à 2030).

La Commission a ainsi constaté que cette mesure de la France a un effet incitatif sur le développement des ENR et a une incidence limitée sur la concurrence.

L’éolien flottant : une technologie qui arrive à maturité

Il existe deux types d’éoliennes en mer : les éoliennes posées au fond de l’eau et les éoliennes flottant à la surface. Bien que ces deux technologies aient la même fonction, c’est-à-dire transformer l’énergie du vent en énergie électrique, les éoliennes flottantes ont plusieurs avantages.

  • Leur mât n’est pas ancré dans le sol marin, ce qui permet de les utiliser dans des zones plus profondes (50 m à 200 m), loin des côtes, là où le vent est puissant et régulier.
  • L’installation et la maintenance des équipements sont facilitées.
  • Cette technologie semble avoir un impact très faible sur l’environnement, car son implantation ne nécessite pas de travaux de forage lourds.

En 2015, l’ADEME a ainsi lancé un appel à projets, qui a abouti à la construction de plusieurs fermes pilotes d’éoliennes flottantes en méditerranée (le projet pilote Groix/Belle-Île ayant été abandonné[1]).

Ces pilotes ont permis d’acquérir des données environnementales et de premiers enseignements sur les technologies de flotteurs d’éoliennes.

Des projets de parcs éoliens flottants, en Bretagne Sud et en Méditerranée

La programmation pluriannuelle de l’énergie (PPE) fixe, pour la période 2019-2023, la poursuite du développement de l’éolien en mer avec un objectif d’atteindre 2,4 GW de capacité installée en mer (posé et flottant) en 2023 et 5 GW en 2028.

Pour atteindre cet objectif, différents appels d’offres[2] ont ainsi été lancés, en majorité pour des projets d’éolien posé, mais aussi d’installations éoliennes flottantes.

projets d'installation éolien flottant
Projets éoliens en mer, actuellement en développement sur les façades maritimes françaises (Crédit : DGEC)

La décision de la Commission européenne au sujet de la mesure de soutien prise par la France, concerne ainsi l’appel d’offres concurrentiel national AO5, qui devrait aboutir à la réalisation d’un premier parc éolien flottant de 250 MW et dont la construction débutera en 2025.

Ce projet sera implanté en Bretagne Sud, au large de Lorient, Groix et Belle-Île, à proximité du pilote abandonné par les porteurs du projet en 2022, en partie pour des raisons économiques.

En finançant ce nouveau projet à hauteur de 2,08 milliards d’euros, sur une période de 20 ans à compter de sa mise en service en 2028, la France espère ainsi rattraper une partie de son retard et accélérer le développement d’une filière émergente, mais prometteuse.

implantation du parc éolien flottant
Zone d’implantation du parc relatif à la procédure de mise en concurrence avec dialogue concurrentiel n°1/2021 (Septembre 2022, crédit : CEREMA)

[1] Projet porté par le consortium Eolfi-Shell-CGN, Caisse des dépôts.

[2] Pour avoir une vue détaillée de l’ensemble des projets, n’hésitez pas à consulter la page consacrée.

Nucléaire : un projet controversé de fusion de l’IRSN avec l’ASN

En 2002, naissait l’Institut de Radioprotection et de Sûreté Nucléaire (IRSN) sur décision du ministre de l’Aménagement du Territoire et de l’Environnement. Il résultait de la fusion entre l’Institut de protection et de sûreté nucléaire (IPSN), créé en 1976, et l’Office de protection contre les rayonnements ionisants (OPRI) créé en 1994. L’objectif était alors de renforcer les liens entre la sûreté nucléaire et la radioprotection, en rendant l’évaluation des risques indépendante des décideurs et des promoteurs des technologies nucléaires.

En séparant l’IPSN du Commissariat à l’énergie atomique (CEA), le ministre cherchait également davantage d’indépendance et de transparence. Depuis, l’IRSN et ses 1 500 collaborateurs ont deux missions : l’expertise et la recherche. L’institut fournit ainsi des avis techniques sur les questions liées aux risques nucléaires et radiologiques, constitue le socle de l’expertise sur les sujets les plus complexes et fait progresser les connaissances. L’IRSN est un établissement public à caractère industriel et commercial fonctionnant sous un régime de droit privé via la tutelle conjointe de cinq ministères (Défense, Environnement, Industrie, Recherche et Santé).

Fusionner l’IRSN et l’ASN ?

L’annonce a été faite par le ministère de la Transition écologique et de la Cohésion des territoires via communiqué le 8 février 2023. Le gouvernement souhaite fusionner l’IRSN avec l’Autorité de sûreté nucléaire (ASN). Depuis 2006, l’ASN est une autorité administrative indépendante chargée de contribuer à l’élaboration de la réglementation, de contrôler son bon respect par les installations et de participer à l’information du public.

Par cette décision, le gouvernement annonce vouloir « fluidifier les processus d’examen technique et de prise de décision de l’ASN » pour faciliter la relance de la filière nucléaire et « augmenter les synergies en matière de recherche et développement ». Il assure que cela permettra de « renforcer l’indépendance du contrôle en matière de sûreté nucléaire, au sein d’un pôle unique et indépendant de sûreté ».

Le risque de rapprocher l’IRSN de la prise de décision

Dans un communiqué daté du 15 février, la commission d’éthique et de déontologie de l’IRSN exprime son profond désaccord avec le projet de démantèlement de l’IRSN. La confiance accordée dans l’institut et sa reconnaissance internationale est due au fait « qu’il n’est pas l’entité décisionnelle en matière de sûreté nucléaire », explique-t-il. La commission estime que « la confusion entre expertise et prise de décision au sein d’une même entité constituerait un recul considérable puisqu’il priverait d’indépendance cette expertise ».

« Ne pas avoir à prendre la décision, donne une liberté extraordinaire d’analyser l’ensemble des risques et de les mettre sur la table », confirme Maryse Arditi, physicienne nucléaire, ex-membre du comité d’orientation de la recherche en sûreté et en radioprotection de l’IRSN, pour le compte de France Nature Environnement. Elle souligne l’importance « d’avoir des gens dont le métier unique est de vérifier au maximum tous les risques et de tout faire pour les éviter ». Elle qualifie cette réforme à venir de « catastrophe », estimant que « c’est 30 ans en arrière pour la sécurité nucléaire ».

Accélérer et fluidifier sans réduire la confiance ?

Le projet de fusion est bien inscrit dans le projet de loi relatif à l’accélération du nucléaire via l’amendement n°CE602 du 25 février. La ministre de la Transition énergétique Agnès Pannier-Runacher a demandé au président de l’ASN et au directeur général de l’IRSN de lui rendre leurs propositions sur la mise en œuvre détaillée de la réforme d’ici juin.

Dans un nouveau communiqué daté du 23 février, le ministère de la Transition écologique et de la Cohésion des territoires veut rassurer. Il rappelle que « les compétences en matière de recherche et d’expertise en sûreté nucléaire en radioprotection, en protection et surveillance de l’environnement, seront maintenues ensemble au sein de la future autorité de sûreté ». La nouvelle organisation devra continuer à assurer la séparation entre « le contrôle et l’expertise » qui étaient assurés par l’IRSN et le « rôle de décision et de pilotage stratégique porté par le collège de l’ASN ».

La commission d’éthique et de déontologie de l’IRSN s’interroge toutefois sur la méthode et le calendrier. « Les enjeux liés au renouvellement du parc électronucléaire français et à la prolongation de la durée de vie des centres d’exploitation électronucléaires auraient dû conduire à renforcer les moyens alloués à l’indépendance et à la compétence du dispositif en charge de la radioprotection, l’Institut actuellement. » La réforme risque au contraire de déstabiliser un système qui a pourtant montré son efficacité.

Ne manquez pas la 10ème édition de Paris Space Week !

Paris Space Week est un écosystème d’envergure mondiale autour de l’industrie spatiale qui réunit 1 500 acteurs clés et décideurs tels que des fournisseurs, des start-ups, des agences spatiales, des laboratoires… C’est le lieu où vous aurez la possibilité de trouver des solutions adaptées aux applications spatiales, aux véhicules de lancement, aux satellites et aux technologies spatiales. 

Cette manifestation, dont Techniques de l’Ingénieur est partenaire, a pour but de faciliter les rencontres, les échanges, et favoriser la création de nouvelles collaborations pour réaliser vos projets en assurant un retour sur investissement élevé. Pour cette 10ème édition, les rendez-vous d’affaires sont organisés autour de 4 grands thèmes :

  • Les satellites, qui sont une partie cruciale et la priorité absolue de l’industrie spatiale. Identifiez les nouvelles technologies et concepts pour les charges utiles par satellite, systèmes de mission et équipements, la propulsion satellite et systèmes d’alimentation mais également les matériaux et composants satellites.
  • Les lanceurs, qui sont le deuxième plus grand domaine d’activité de fabrication d’espace en Europe après les satellites commerciaux. Découvrez les programmes de lanceurs des agences spatiales nationales et rencontrez des comptes clés (investisseurs, R&D, achats, chefs de projet, décideurs, etc.).
  • Les systèmes au sol comprennent des systèmes informatiques, des logiciels, des réseaux de télécommunications et d’autres ressources. Venez échanger avec les experts qui élaborent des systèmes de contrôle et équipements de contrôle au sol.
  • Les applications spatiales liées à l’observation de la Terre, aux télécommunications et à la navigation mondiale. Les présentations permettent de déceler les nouvelles perspectives et nouveaux concepts pour améliorer la précision et le calendrier des informations fournies par les applications spatiales

Vous trouverez également au programme :

  • des conférences et des expositions avec 300 stands et points de rencontre, 
  • des ateliers organisés par les plus grandes sociétés spatiales,
  • les Paris Space Week Challenge et ESA Space Solutions Challenge pour récompenser les prochains lauréats des défis de l’innovation,
  • des déjeuners et un dîner de gala.

Si vous êtes à la recherche de solutions pour relever les défis du secteur spatial que ce soit en termes d’innovation, de technologie spatiale ou de durabilité dans l’espace. Prenez rendez-vous avec les principaux acteurs de ce marché en plein essor en cliquant ici.

Plus d’informations sur PSW.

La défense et l’aéronautique vont massivement recruter en 2023

Les filières aéronautiques et de défense ont annoncé il y a quelques jours une vague d’embauches pour l’année en cours. Une bonne nouvelle, pour des filières industrielles en plein marasme depuis 2020, mais qui voient d’un bon œil la reprise du trafic aérien observée depuis l’année dernière.

Alors que la pandémie, toujours en cours, mais qui n’impacte plus aussi durement les échanges commerciaux et la fourniture de matériaux pour les industriels a tendance à disparaître de l’actualité, le grand plan d’investissement France 2030 a permis de redonner de l’élan à l’industrie tricolore.

Il est vrai que le gouvernement a mis le paquet sur la filière aéronautique : 1,2 milliards d’euros de nouveaux crédits, en plus des sommes colossales déjà engagées pendant la crise sanitaire pour soutenir un secteur alors à l’agonie. L’objectif fixé par le Président de la République est ambitieux, avec le développement d’ici 2030 d’un avion bas carbone. Par avion bas carbone, il faut entendre le développement de technologies qui vont permettre de faire baisser les émissions liées au transport aérien : moteurs à basse consommation, avion à hydrogène, motorisations hybrides et électriques, carburants durables, optimisation des vols… Le plan d’investissement France 2030 va permettre de financer ces innovations en y intégrant des start-ups tricolores qui travaillent déjà sur ces problématiques.

Ainsi, ce sont près de 400 millions d’euros qui vont alimenter les projets développés par des acteurs émergents de l’industrie aéronautique pour financer des projets à court termes, qui viendront soutenir les baisses d’émissions du secteur dans les prochains mois. 

Ainsi, Airbus a annoncé se projeter sur pas moins de 13 000 embauches au niveau mondial pour l’année de 2023, avec plus de 3 500 recrutements prévus dans l’hexagone. Un quart de ces embauches sont destinées à alimenter les activités spatiales et de défense de l’avionneur, alors que le reste des recrutements permettra à Airbus d’opérer une montée en cadence de sa production. En effet, l’avionneur doit livrer dans les années à venir pas moins de 7 000 appareils, tout en préparant des modèles innovants décarbonés… tout un programme.

Un autre acteur majeur de la filière aéronautique française, Thales, a récemment annoncé le recrutement de près de 12 000 collaborateurs pour 2023, dont 5 500 en France. L’entreprise française, qui embauche depuis près de 10 ans pas moins de 5 000 collaborateurs par an à travers le monde, poursuit sur sa lancée de l’année dernière, qui avait vu Thales recruter près de 11 000 salariés.

Safran, autre acteur majeur de l’industrie aéronautique, compte embaucher 12 000 nouveaux collaborateurs cette année, après une année record en 2022 en termes de recrutements (près de 17 000).

Les autres acteurs de la filière aéronautique misent eux aussi sur l’embauche de nombreux collaborateurs cette année : 1 000 pour Dassault, 1 100 pour Daher… La problématique qui se pose désormais est l’adéquation entre les profils recherchés par ces grandes entreprises et la main d’œuvre disponible sur le marché du travail. En effet, les activités développées – hydrogène, carburants, électrification… – par les avionneurs recoupent celles développées dans d’autres secteurs industriels, et créent un goulot d’étranglement. Ainsi, la tendance actuelle projette un plus grand nombre de postes ouverts par les grandes entreprises de l’aéronautique que de diplômés sortant des écoles d’ingénieurs concernées par ces spécialités. 

Comme pour d’autres secteurs de l’industrie, l’aéronautique et la défense vont devoir jongler entre l’offre et la demande, au niveau de l’emploi, pour mener à bien les ambitions tricolores d’ici à 2030.

Des incertitudes sur le développement de la filière hydrogène

La stratégie nationale a pour ambition de faire de la France le leader de l’hydrogène décarboné. Cette stratégie s’accompagne d’un fort soutien de l’État et des régions ainsi que d’un engouement certain de la part des acteurs de l’innovation et de l’industrie.

Les chantiers à venir sont néanmoins colossaux, en particulier au niveau législatif et des incertitudes perdurent sur le plan réglementaire comme sur l’évolution du coût des équipements. Par ailleurs, les perspectives d’évolution concernant les prix de l’électricité demeurent incertaines, ce qui est problématique quand on sait que l’électricité représente au moins 75 % du coût de production de l’hydrogène par électrolyse !

Une multiplication des projets, mais peu de réalisations effectives actuellement

Selon le rapport de l’IGEDD, « les conditions d’un développement large des usages de l’hydrogène ne sont pas vraiment réunies ». En effet, si les projets en lien avec l’hydrogène foisonnent, ils ne sont pas toujours réalistes et il existe actuellement « un écart très important entre la grande ambition des nombreux projets portés par les acteurs de la filière et l’état des réalisations effectives, qui sont encore très modestes. »

Les problématiques économiques

Qu’il s’agisse de projets industriels, de mobilité Hydrogène, ou du transport, de la distribution et du stockage de l’hydrogène, les interrogations concernant l’équilibre économique restent grandes.

Le rapport met en avant plusieurs facteurs pour atteindre cet équilibre :

  • le renoncement progressif à l’usage des combustibles fossiles ;
  • la baisse des coûts de production du fait de l’industrialisation des composants (qui est au cœur de la stratégie française) ;
  • le développement de la production d’électricité renouvelable et peu chère ;
  • les percées technologiques voire, à terme, la possibilité de transporter de l’hydrogène produit à bon marché dans des zones propices en Europe.

La question de la gestion des risques

C’est bien connu, l’hydrogène est un gaz dangereux, car hautement explosif et très volatile. Jusqu’à très récemment, il n’était utilisé que par un nombre restreint d’industriels, pour des usages spécifiques et par des acteurs ayant une bonne maîtrise de la gestion des risques et des questions de prévention.

C’est l’un des enjeux majeurs de la démocratisation de l’hydrogène : il est impératif de « rapidement améliorer la prise de conscience et la prise en compte des enjeux de sécurité par tous les nouveaux entrants au sein de la filière. »

Cela suppose également de renforcer les formations à la sécurité, de poursuivre les travaux de recherche à ce sujet, mais surtout de « trouver les voies pour une évolution de la réglementation qui soit à la fois bien dosée par rapport aux risques et aux enjeux, et aux cadres de sécurité fixés dans les pays voisins. »

De quel hydrogène parle-t-on ?

On qualifie l’hydrogène par une couleur selon son mode de fabrication, afin de distinguer l’hydrogène renouvelable ou décarboné de l’hydrogène produit par vaporeformage du gaz naturel (donc fossile).

Néanmoins, la notion « d’hydrogène vert » elle-même fait actuellement l’objet de débats en Europe et la législation européenne est en cours de négociation.

Ainsi, si jusqu’à présent la définition d’hydrogène vert concernait uniquement l’hydrogène fabriqué à partir de sources d’électricité renouvelable « nouvelles » (afin de favoriser le déploiement des ENR), l’hydrogène produit à partir d’un mix électrique comportant du nucléaire pourrait bientôt, sous conditions, être considéré lui aussi comme vert, selon l’avis de la Commission européenne, ce qui serait une excellente nouvelle pour le développement de la filière Hydrogène en France.

Vers une redéfinition de la seconde grâce aux horloges optiques

La seconde est l’unité de temps du système international. Elle a d’abord été définie grâce à l’astronomie, à partir de la rotation de la terre sur elle-même, puis par la rotation de la terre autour du soleil. Depuis 1967, elle est mesurée grâce à des horloges atomiques fonctionnant au césium 133. Cette mesure physique est très précise puisque son incertitude relative est de l’ordre de 10-16. Sauf que depuis une quinzaine d’années, une nouvelle génération d’horloges atomiques, cent fois plus précises, est en cours de développement : les horloges optiques. Lors de la dernière Conférence générale des poids et mesures (CGPM), l’organe décisionnel de la Convention du Mètre, chargé de prendre les décisions en matière de métrologie, une résolution a été adoptée pour qu’elles soient amenées à devenir, à terme, les nouveaux étalons de temps.

« Les horloges optiques commencent déjà à être utilisées dans le domaine spatio-temporel, par exemple pour le positionnement des satellites, explique Sébastien Bize, directeur du LNE-SYRTE (Laboratoire national de métrologie et d’essais – Système de références temps-espace). Elles sont amenées à se développer, mais il ne faut pas que cela se fasse en dehors du cadre de référence du système d’unités. À l’avenir, il est donc important de redéfinir comment est mesurée cette unité de temps, et que cela fasse l’objet d’un accord international. »

Les horloges au césium établissent la mesure à partir de la fréquence d’une radiation située dans la partie micro-onde du spectre électromagnétique. Grâce à elles, le temps atomique ne dévie pas de plus d’une seconde par tranche de 100 millions d’années. Les horloges optiques consistent quant à elles à confiner des atomes dans un piège de lumière, appelé « réseau optique », et à étudier leur transition à des fréquences beaucoup plus élevées. Résultat : elles permettent d’atteindre une exactitude de fréquence relative de l’ordre de 10-18, qui correspondrait à une dérive d’une seconde sur une durée équivalente à l’âge de l’univers.

Plusieurs laboratoires ont déjà démontré que des échelles de temps élaborées à partir d’un ou de plusieurs étalons de fréquence optiques ont le potentiel de présenter une exactitude plus élevée que l’échelle de temps fondée sur l’actuelle définition de la seconde. Malgré tout, le chemin est encore long avant qu’une infrastructure métrologique mondiale robuste et pérenne, ne soit capable de supplanter le césium.

Des propositions doivent être formulées en 2026

Le Comité international des poids et mesures (CIPM), qui a pour mission de promouvoir l’uniformisation mondiale des unités de mesure, est chargé de formuler des propositions lors de la prochaine CGPM, qui se tiendra en 2026. Et à l’intérieur de cette instance, c’est le Comité consultatif du temps et des fréquences (CCTF) qui a pour rôle d’identifier la meilleure espèce candidate ou le meilleur ensemble d’espèces candidates qui pourraient servir de fondement à une nouvelle définition. Charge à lui également de préparer une feuille de route décrivant les actions et le calendrier nécessaires pour pouvoir adopter une nouvelle définition de la seconde.

Deux options ont d’ores et déjà été retenues. La première consiste à sélectionner une transition particulière, dans le domaine optique, d’un atome ou d’un ion, de la même manière que la définition actuelle est liée au seul césium. Actuellement, une dizaine de transitions atomiques sont dites prometteuses, parmi lesquels le strontium et l’ytterbium neutre, ainsi que les ions ytterbium et aluminium. La seconde option sur la table, repose non pas sur une seule transition, mais intrinsèquement sur un ensemble de transitions, chacune permettant séparément de réaliser la définition.

En France, le LNE est l’organisme qui pilote du réseau national de métrologie, et en matière de temps-fréquence, ce pilotage est réalisé avec le SYRTE et l’Observatoire de Paris. Ils assurent 40 % des étalonnages primaires du Temps atomique international (TAI) au niveau mondial et ont développé plusieurs horloges optiques. « Nous nous intéressons à trois atomes : le strontium, le mercure, et très récemment l’ytterbium, pour lequel on vise à développer une horloge transportable, pour des applications purement métrologiques. Elle nous permettra aussi de réaliser de la géodésie chronométrique, afin de la déplacer sur des sites d’intérêt, et avoir une connaissance du potentiel de gravitation de la terre », révèle Sébastien Bize.

Venez nous rencontrer, nous vous ferons décoller !

Gagnez un voyage en montgolfière

Objectif : vous aider à faire décoller vos projets.
Moyen : oxygéner vos idées grâce à un voyage en montgolfière !

Vous êtes professionnel, en poste dans une entreprise, un établissement ou une organisation basée en France ?
Ce challenge est fait pour vous. Vous n’aurez aucune difficulté à le relever : venez nous rendre visite sur notre stand 2A85. Enregistrez-vous par un simple scan de votre badge visiteur ou exposant. Cela entrainera votre inscription et votre participation au tirage au sort* !

Où participer ?

  • Sur le salon Global Industrie, à Lyon du 7 au 10 mars : nous vous attendons sur le stand 2A85.
  • Retrouvez-nous aussi sur S.O.C, le  salon des systèmes & objets connectés, à Paris les 19 et 20 avril.
  • Vous pouvez également nous rencontrer à l’occasion de JEC Composites, à Paris, du 25 au 27 avril.

Des articles ouverts pour bien profiter du vol

En attendant la promenade en montgolfière, nous avons une sélection d’articles à vous faire découvrir. Profitez-en, ils sont en accès libre et ouverts jusqu’au 10 mai !

Icare est le héros de votre enfance, vous avez grandi avec Tintin sur la lune et maintenant vous suivez les aventures de Thomas Pesquet, avec votre regard d’ingénieur ou scientifique ?
Voici l’article qu’il vous faut : NewSpace : fonctionnement des laboratoires en micropesanteur.

Mais vous le savez, les transports sont aussi le terrain de jeu des géants du digital, à bien comprendre en lisant l’article sur les GAFA dans le secteur des transports.

En attendant votre vol intergalactique, et plus surement dans la montgolfière, préparez vous à croiser des objets volants identifiés à travers l’article Résilience des drones – Capacité à dépasser les aléas en sécurité.

En vol, vous trouverez surement de belles idées d’innovation, comme par exemple ce robot en tenségrité inspiré du cou de l’oiseau. Vous réfléchirez en suivant les courants d’air chauds et en observant les sites survolés. Vous pourrez apprendre comment valoriser les chaleurs fatales ou produire de l’hydrogène solaire par photosynthèse artificielle. Vous croiserez des centaines d’insectes et découvrirez en quoi les insectes dans l’alimentation animale sont une voie prometteuse pour un élevage plus durable.

Bonne lecture et au plaisir de vous rencontrer sur les salons !

*Règlement complet à disposition sur les stands

 

De nouvelles usines de production de carburant bas carbone seront mises en service à l’horizon 2026

Ces carburants d’un nouveau genre seront obtenus par un procédé innovant combinant valorisation de la biomasse et production d’hydrogène par électrolyse.

Décarboner le transport maritime : un défi mis en exergue par la COP27

Lors de la conférence mondiale pour le climat, qui s’est tenue en novembre 2022 à Charm-El-Cheikh, les gouvernements américain et norvégien ont rappelé que « Si le transport maritime était un pays, il se classerait parmi les dix plus grands émetteurs mondiaux ».

Si la phrase a de quoi interpeller, elle reflète malheureusement une triste réalité. Alors que l’Organisation maritime internationale (OMI) prévoit un doublement du fret maritime d’ici à 2050, si aucune mesure ambitieuse n’est prise quant à la réduction de son empreinte carbone, le fret pourrait représenter à lui seul 17 % des émissions mondiales de GES d’ici 2050 !

Le transport aérien

De son côté, le transport aérien fait partie des secteurs régulièrement pointés du doigt, en raison de son impact sur le réchauffement climatique (émissions de GES et traînées de condensation).

En France notamment, le transport aérien représente 5,3 % des émissions globales et on estime qu’un trajet en avion a un impact 45 à 200 fois supérieur à un trajet en train, selon les sources[1].

Cinq leviers de décarbonation des systèmes de transport

La stratégie nationale bas carbone (SNBC) inclut cinq leviers d’action pour réduire l’impact des systèmes de transport :

  • amélioration de l’efficacité énergétique ;
  • baisse de l’intensité carbone de l’énergie consommée ;
  • augmentation du remplissage des véhicules ;
  • report modal (choix d’un autre moyen de transport) ;
  • réduction du niveau de trafic.

Si les mesures les plus efficaces reposent sur une modération du trafic (c’est valable pour tous les modes de transport, car la meilleure source d’énergie est celle que l’on ne consomme pas !), l’utilisation de carburants moins émetteurs de GES et la recherche d’une efficacité énergétique maximale font néanmoins partie des leviers « techniques » exploitables.

Dans le secteur aérien, l’utilisation de Carburants d’Aviation Durables (CAD), ou Sustainable Aviation Fuel (SAF) en anglais, prend ainsi de l’ampleur et intègre les scénarios de décarbonation étudiés par l’ADEME.

Bâtir une filière dédiée aux carburants d’aviation durable est donc un enjeu de premier ordre pour une industrie aéronautique qui peine à trouver des solutions concrètes pour sortir du kérosène, alors que les propositions du secteur sont attendues en juin prochain, à l’occasion du salon du Bourget !

Des carburants produits à partir d’hydrogène bas carbone

Pionnière de la production de carburant bas carbone, la PME industrielle française Elyse Energy s’est tournée vers ERAS (une entité de la société Equans, Groupe Bouygues), pour l’ingénierie et la construction de deux usines de carburants « durables ».

Contrairement à d’autres CAD, dont la durabilité est parfois remise en cause, car intégrant des ressources issues de cultures arables, ces carburants alternatifs sont synthétisés à partir d’hydrogène « vert » (obtenu par électrolyse, en utilisant des sources d’énergies non fossiles) et de résidus de sylviculture locale ou de déchets de bois en fin de vie.

Le partenariat annoncé lors du salon HyVolution, qui a eu lieu le 1er février 2023 à Paris, devrait ainsi aboutir, en 2026, à la construction de deux unités de production industrielle distinctes, l’une dédiée au bio/e-kérosène pour le transport aérien et l’autre dédiée à la production de méthanol pour le transport maritime.


[1] Les critères à prendre en compte pour établir une comparaison sont nombreux et les incertitudes sont grandes. Si l’Ademe évoque un facteur 200, le site Greenly donne des chiffres moins alarmants.

Bienvenue dans un LowCal performant

La commune rurale de Pont-de-Barret, dans la Drôme, non loin de Montélimar, était réputée pour un site d’escalade. Désormais, depuis 2016, elle l’est aussi pour accueillir le premier bâtiment tertiaire à énergie positive. Le projet a été porté par le bureau d’études Enertech afin de satisfaire ses propres besoins. « Lors de la transmission d’Enertech par son fondateur, Olivier Sidler, à ses salariés sous la forme d’une Scop[1], il a fallu changer de locaux. Après avoir envisagé une rénovation, nous avons décidé de construire un bâtiment neuf où nous pourrions mettre en œuvre tout ce qu’on n’aurait pas osé faire pour un autre maître d’ouvrage. La conception a duré un peu moins de deux ans pour relever tous les défis (construction bois-paille, simulations thermiques, tenue au séisme, etc.) et le chantier environ neuf mois », raconte Thierry Rieser, gérant d’Enertech. Au-delà de la satisfaction du bureau d’études d’avoir accompli ce projet et du confort vécu au quotidien, une campagne de mesures a été menée sur deux ans pour vérifier objectivement le niveau de performance de ce « LowCal ». Publiques, ces données montrent le bien-fondé de la démarche et fixent des repères pour la réalisation d’autres bâtiments du même type.

Brique-terre-crue-Enertech
Des briques en terre crue contribuent à l’amélioration de l’isolation thermique. Crédits : Mathias Vernet

L’objectif du LowCal est de satisfaire trois ambitions : avoir un bâtiment à faible impact, à faible coût et low-tech. Une démarche de sobriété constructive a d’abord été appliquée pour minimiser l’impact environnemental des matériaux utilisés. Ils ont été choisis locaux, ainsi que bio et géosourcés : du bois pour l’isolation, de la paille et de la fibre de bois pour l’isolation des murs, de la terre crue pour l’inertie thermique des planchers, du papier recyclé (ouate de cellulose) pour l’isolation des combles. Les entreprises réalisant les travaux se situaient principalement dans un rayon de 40 km. Par rapport à une construction traditionnelle (murs béton, isolation en polystyrène, etc.), le choix de ces matériaux « rustiques » permet une division par 1,33 à 3,7 de l’impact carbone de la construction, selon la méthodologie utilisée (E+C- ou outil basé sur ecoinvent). Cette performance permet au LowCal d’être classifié Bâtiment Bas Carbone au niveau excellence (label Certivéa) et E4C2 par le label E+C- (soit le plus bas niveau de consommation énergétique et le deuxième plus bas niveau carbone).

Conception bioclimatique et performante

Conçu avec l’architecte Pierre Traversier, l’allure du bâtiment est très classique : un grand parallélépipède sur trois niveaux, d’une surface totale utile de 614 m² pouvant accueillir jusqu’à 35 personnes. L’originalité vient des stratégies déployées pour réduire énormément les déperditions thermiques et valoriser les apports du soleil : épaisseur d’isolants importante, conception compacte, traitement des ponts thermiques inévitables, forte étanchéité à l’air de l’enveloppe et ventilation double-flux à haut rendement. Ainsi, les déperditions sont seulement de 182 W/K pour les parois, 22 W/K pour la ventilation double flux (soit 8 fois moins qu’une simple flux) et de 18 W/K pour les infiltrations.

Malgré un triple vitrage, ce sont les fenêtres qui créent le plus de déperditions (la moitié du total). Mais leur disposition – surtout au sud, à l’est et à l’ouest – les rend très utiles comme principale source de chauffage et de lumière. D’autres apports caloriques viennent des humains (3,2 kWh/m²/an) et des outils informatiques. Conséquence : les faibles appoints nécessaires l’hiver montent à peine à 3,3 kWh électriques par an et par m² de surface utile, soit 10 fois moins qu’un bâtiment neuf respectant la réglementation thermique 2012. « Selon nos estimations, les apports solaires naturels assurent 61 % du chauffage en période hivernale. Vu le faible besoin de complément – environ 50 à 70 W par bureau –, nous avons remplacé les quelques convecteurs électriques mobiles initiaux par des ampoules de couveuses », complète Thierry Rieser.

Inversement, l’été, où le risque de surchauffe existe lorsque les bâtiments sont très isolés, la campagne de mesure a montré que la température intérieure ne franchissait pas 28°C alors que l’extérieur dépassait les 36°C. Ce résultat vient de l’occultation extérieure des ouvrants, de la maîtrise des apports internes par une sobriété d’usage (appareils électriques économes, serveur basse consommation, veilles et extinction totale hors utilisation), et de l’aération nocturne et matinale. Ce dernier point est crucial afin que l’inertie thermique du bâtiment apportée par la terre crue joue bien son rôle de temporisation (constante de temps de 10 jours) et non pas d’accumulation de chaleur lors d’une canicule.

Coût global 15 à 45 % moins élevé

La réduction des besoins fait que la consommation d’énergie annuelle – uniquement de l’électricité – est très faible, à hauteur de 7 kWh/m² (SHON). Les deux principaux postes sont le chauffage (2,7 kWh) et la bureautique (2,45 kWh), suivi de l’éclairage (0,65 kWh), de la cuisine-réfectoire (0,45 kWh), de l’eau chaude sanitaire (0,37 kWh) et de la ventilation (0,27 kWh).

La toiture sud a été entièrement couverte avec 153 m² de panneaux solaires photovoltaïques intégrés de marque PhotoWatt, soit 24 kWc. Le taux d’autoproduction est de 65 %, c’est-à-dire que les deux tiers de la consommation d’électricité du bâtiment sont assurés par ces panneaux. Surtout, les deux premières années, 32 MWh/an ont été produits en moyenne, soit 6 fois plus que la consommation du bâtiment, tous usages confondus ! Ce surplus de production photovoltaïque permettra de compenser l’énergie grise due à la construction et l’entretien du bâtiment au bout de 37 ans. « Vu que la durée de vie conventionnelle d’un bâtiment est de 50 ans, nous avons donc bien réussi à construire un bâtiment à énergie grise positive », se félicite Thierry Rieser.

Enfin, le panorama sur le LowCal serait incomplet sans les dimensions sanitaires et économiques. Des mesures sur le taux de CO2 et les composés organiques volatils ont montré que les niveaux sont corrects, dès lors que la ventilation est bien utilisée et l’aération régulière. De plus, le confort hygrothermique et visuel des occupants a été questionné avec des retours très majoritairement positifs (à plus de 75 %).

Côté financier, le coût de construction du bâtiment affiche 1 120 € HT/m² (SHON), soit un surcoût estimé à 17 % par rapport à un équivalent en béton respectant la RT2012. Mais en coût global sur 50 ans, les économies d’énergie, de maintenance et la production photovoltaïque font que le rapport est inversé : le LowCal coûte 15 % à 45 % moins cher qu’un bâtiment classique. Ce modèle de bureaux gagnerait donc à être reproduit en améliorant certains aspects (acoustique par exemple) et en l’adaptant aux contraintes climatiques d’autres régions, voire en imaginant une version résidentielle. Thierry Rieser confirme cette approche : « Enertech travaille sur toutes ces options. Un bâtiment sans chauffage ne se fait pas sans bureau d’études ! C’est par la simulation thermique dynamique et un travail de co-conception en équipe que chaque nouveau projet arrivera à la performance ».


[1] Société coopérative de production

Microlight3D : des pièces imprimées en 3D avec une résolution inférieure au micromètre

Issue de quinze années de travaux de recherche fondamentale à l’UGA (Université Grenoble-Alpes), au sein du LIPhy (Laboratoire Interdisciplinaire de Physique), la start-up Microlight3D développe une technologie capable d’imprimer des pièces complexes en 3D avec une résolution inférieure au micromètre. Seule une autre entreprise dans le monde maîtrise ce savoir-faire. Créée en 2016, elle vend ses imprimantes aux quatre coins du monde et poursuit son travail de R&D. Rencontre avec Denis Barbier, le cofondateur et CEO de Microlight3D.

Techniques de l’Ingénieur : Comment parvenez-vous à imprimer des pièces avec une résolution inférieure au micron ?

Denis Barbier, cofondateur et CEO de Microlight3D
Denis Barbier, cofondateur et CEO de Microlight3D – Crédit : Microlight3D

Denis Barbier : Nous utilisons la technologie de la polymérisation à deux photons pour transformer un plastique liquide, qui se présente sous la forme d’un monomère, en un plastique solide. Ce procédé repose sur une interaction non-linéaire entre un faisceau laser et la matière. Concrètement, on focalise très fortement le faisceau laser, et au point de focalisation, il se passe un effet non-linéaire, qui provoque une polymérisation dans un volume ultra-concentré. Cette technologie permet d’obtenir des résolutions extrêmement basses, puisque le voxel, c’est-à-dire le plus petit volume que l’on peut imprimer, mesure seulement 200 nanomètres de diamètre (0,2 micron). Soit une résolution 20 à 50 fois plus petite que les meilleures imprimantes 3D classiques. Nous pouvons ainsi fabriquer des pièces de dimension micronique, qui ne font que quelques dizaines à quelques centaines de microns de dimensions.

Quelles sont les applications de votre procédé ?

Ces pièces imprimées peuvent être utilisées dans de nombreux domaines, comme celui de la microfluidique, la microrobotique, les dispositifs médicaux, la biologie cellulaire, ainsi que la microoptique. Dans ce dernier domaine, nous sommes capables d’imprimer puis de coller une lentille ou un miroir au bout d’une fibre optique qui ne fait que 125 microns de diamètre. Ce procédé, qui est impossible à réaliser à l’aide de techniques classiques, permet d’améliorer les performances d’injection ou de récupération de signaux pour des applications dans les domaines de la télécommunication et de la micro-endoscopie.

Notre technologie permet aussi de fabriquer des métamatériaux, afin d’apporter de nouvelles propriétés à des matériaux classiques. Nous venons modifier la structure de la surface d’un plastique, pour créer un nouveau relief qui ne fait que quelques microns. Ce procédé permet par exemple de rendre étanche le plastique à l’eau, au gaz, et à l’huile, ou de le rendre capable de réfléchir avec plus ou moins d’intensité des ultrasons. En fonction de la nouvelle forme du relief créé, il est également possible de changer le comportement du matériau à la polarisation de la lumière.

Quel est le modèle économique de votre entreprise et à quelle concurrence faites-vous face ?

Nous fabriquons nos machines et les vendons à des chercheurs travaillant dans des laboratoires universitaires ou privés. Il s’agit d’un outil de laboratoire et ces chercheurs mènent ensuite des travaux de recherche pour transférer notre technologie vers des applications industrielles. Par exemple, certains d’entre eux ont un savoir dans le domaine de la microfluidique et tentent de créer des dispositifs pour mettre au point de nouveaux médicaments ou pour traiter des maladies. Une fois que leur recherche aura abouti, nous les accompagnerons vers cette industrialisation en leur fournissant des machines spécifiques à leur segment de marché.

Un ingénieur d'application de Microlight3D utilise l'imprimante µFAB-3D
Un ingénieur d’application de Microlight3D utilise l’imprimante µFAB-3D – Crédit : Microlight3D

Pour l’instant, nous ne sommes que deux entreprises dans le monde à maîtriser la technique de micro-impression 3D, l’autre société est située en Allemagne et s’appelle Nanoscribe. D’autres concurrents apparaissent, mais nous ne les voyons pas encore chez nos clients, et nous ne savons pas exactement où ils en sont dans le développement de leur produit.

À quel stade de développement se trouve votre projet ?

Notre entreprise compte une vingtaine de salariés, et toutes nos machines sont assemblées à la main, à la manière d’un artisanat high-tech. Elles font ensuite l’objet d’une calibration, puis nous expédions nos produits chez nos clients, et nous les aidons à régler la machine et les formons à son utilisation. Nous vendons nos imprimantes partout dans le monde, c’est-à-dire en Chine, en Inde, à Taïwan, à Singapour, en Corée du Sud, dans toute l’Europe et l’Amérique de nord, et même en Jordanie. Aujourd’hui, 75% de notre chiffre d’affaires est réalisé à l’export.

Étant donné que le champ d’application de notre technologie est très vaste, nous poursuivons notre travail de R&D en adaptant notre machine à chaque segment de marché, à la fois sur la partie hardware et software. Nous préparons également une nouvelle génération de machines en vue d’imprimer des pièces à l’échelle industrielle. L’un de nos axes de travail concerne la vitesse d’impression. En fonction de la taille et de la complexité de la pièce à fabriquer, la durée d’impression varie pour l’instant de quelques minutes à une journée. Si pour un chercheur, ce temps de fabrication est acceptable, pour un industriel, il ne l’est pas.

Les thèses du mois : Comment intégrer les matériaux plastiques dans une économie circulaire ?

Pour notre dossier de février, « Comment intégrer les matériaux plastiques dans une économie circulaire ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Économie circulaire pour les composites à fibres de carbone : du déchet aéronautique vers les composites carbone+ thermoplastiques recyclés
Yang Shi
Thèse de doctorat en Mécanique, soutenue le 21-04-2022
Institut de mécanique et d’ingénierie de Bordeaux

 

Étude et ingénierie d’enzymes de dépolymérisation de plastiques pour le développement de procédés de biodégradation et de biorecyclage
Maher Ben khaled
Thèse de doctorat en Ingénieries microbienne et enzymatique, soutenue le 06-01-2022
TBI – Toulouse Biotechnology Institute, Bio & Chemical Engineering

 

Recyclage des pièces en composite polyester en fibre de verre de grandes dimensions par laminage
Arbia Nouigues
Thèse de doctorat en Energétique, thermique, combustion, soutenue le 31-03-2021
Laboratoire de Thermique et Energie de Nantes

 

Méthodes catalytiques innovantes de réduction de liaisons carbone-oxygène appliquées à la dépolymérisation réductrice des plastiques oxygéné
Marie Kobylarski
Thèse de doctorat en Chimie, soutenue le 06-12-2022
Nanosciences et innovation pour les matériaux, la biomédecine et l’énergie

 

Contribution au recyclage et à la valorisation des matières plastiques issues des déchets d’équipements électriques et électroniques contenant des retardateurs de flamme bromés
Layla Gripon
Thèse de doctorat en Chimie, Polymères, Matériaux, Science des Matériaux, soutenue le 15-12-2020
CERI Matériaux & Procédés

 

Valorisation en circuit court de déchets thermoplastiques pour la conception par impression 3D de structures composites
Pavlo Javier Alejandro Santander Tapia
Thèse de doctorat en Génie des systèmes industriels, soutenue le 11-12-2020
Équipe de recherche sur les processus innovatifs

 

Recyclage des plastiques par modification chimique de thermoplastiques
Violette Mohring
Projet de thèse en Physique et chimie des matériaux depuis 01-09-2020
ESPCI École supérieure de physique et de chimie industrielles de la Ville de Paris

 

Extension et mise à niveau d’un pilote de production de carburants alternatifs à partir de déchets plastiques
Shawki Mazloum
Thèse de doctorat en Energétique, Thermique, Combustion, soutenue le 22-10-2021
Laboratoire de Génie des procédés – environnement – agro-alimentaire

 

Méthanisation des plastiques biodégradables : performances et diversité microbienne
Guillaume Cazaudeh
Thèse de doctorat en Physiologie et biologie des organismes – populations – interactions,
soutenue le 11-03-2022
Institut des sciences analytiques et de physico-chimie pour l’environnement et les matériaux

 

A novel pathway to recover hydrocarbons from polyethylene residues through the combustion-driven pyrolysis process
Joao Ferreira duque
Thèse de doctorat en Sciences de la Terre et des Planètes Solides, soutenue le 24-02-2021
Institut de Mécanique des Fluides de Toulouse