Agir sur la planification des usines pour réduire la facture énergétique

Vivien Robert et Flore de Lasteyrie sont tous les deux diplômés d’un master en Data Science à CentraleSupélec. Dans un contexte de marché de l’électricité en pleine mutation, ils ont identifié que certains secteurs industriels n’exploitaient pas toutes les données de leurs usines pour réduire leurs factures énergétiques, qui ne cessent de grimper ces derniers mois, ainsi que pour limiter leur impact sur l’environnement. Ils ont développé un logiciel qui analyse les données des usines et qui calcule le coût énergétique de chaque décision prise sur la manière de piloter les systèmes de production. Il y a deux ans, ils ont créé la société Highcast, qui a notamment été sélectionnée pour être membre du Club Start-Up de la FIM (Fédération des Industries mécaniques). Entretien avec les deux fondateurs de Highcast, respectivement CEO et CTO de cette entreprise.

Techniques de l’Ingénieur : Quel est le nouveau contexte auquel sont confrontés les industriels, en matière d’électricité ?

Vivien Robert, cofondateur et CEO de Highcast. Crédit : Highcast
Vivien Robert, cofondateur et CEO de Highcast. Crédit : Highcast

Vivien Robert : Leur facture a beaucoup augmenté ces derniers mois, et ceux qui consomment beaucoup d’électricité, que l’on appelle des électro-intensifs, doivent trouver des solutions pour la réduire. Les industriels sont confrontés à un marché de l’énergie en pleine évolution et doivent faire face à une grande fluctuation du prix de l’électricité. Ces fluctuations sont liées à l’arrivée des énergies renouvelables (solaires et éoliennes), qui sont par nature intermittentes, et qui rendent le réseau plus difficile à équilibrer. Étant donné que les fournisseurs d’électricité ont des difficultés à proposer des contrats à un prix fixe et abordable aux industriels, ils leur proposent souvent un contrat à prix variable, afin qu’ils supportent une partie du risque. Le prix de l’électricité varie alors heure par heure, et peut même devenir négatif, lorsqu’il y a peu de demande et beaucoup de production d’électricité. Dans ce cas, les industriels sont payés pour consommer de l’énergie. À l’inverse, lorsqu’il y a beaucoup de demande et peu de production, le prix de l’électricité devient très élevé.

Face à ce nouveau contexte, quelles solutions proposez-vous aux industriels ?

Flore de Lasteyrie, cofondatrice et CTO de Highcast. Crédit : Highcast
Flore de Lasteyrie, cofondatrice et CTO de Highcast. Crédit : Highcast

Flore de Lasteyrie : Aujourd’hui, il existe de nombreux logiciels d’efficacité énergétique, qui permettent d’analyser les données des machines pour essayer d’optimiser leur consommation. Nous nous situons à un niveau au-dessus, en nous intéressant à la planification des usines, notamment lors des périodes de production et de maintenance, qui influencent directement la consommation électrique. Face à la forte fluctuation du prix de l’électricité, les industriels ont intérêt à changer leur manière de conduire leurs systèmes de production, en incluant également la consommation d’énergie, et non plus uniquement des variables comme le taux de rendement.

Nous avons développé un logiciel qui récolte les données de production des usines et les analyse grâce à des algorithmes d’apprentissage automatiques, afin de comprendre quelles sont les conséquences des choix de planification sur la consommation électrique. En parallèle, notre logiciel modélise les données spécifiques du contrat du fournisseur d’énergie et fait également des prévisions de prix de l’électricité grâce à des informations sur le marché. Au final, nous sommes capables de calculer le coût électrique des choix de planification de l’usine. Ces prévisions de consommation sont très fiables et réalisées heure par heure, sur un horizon allant d’un jour à plusieurs semaines à l’avance. Ainsi, lorsqu’une usine réalise des scénarios de planning de production, elle peut savoir quel sera le profil de consommation et le coût énergétique de ses décisions.

Pouvez-vous nous donner des exemples d’applications ?

Flore de Lasteyrie : Lorsque nous intervenons dans une usine, notre objectif dans un premier temps est d’aller chercher les victoires rapides, c’est-à-dire de procéder à des changements qui ne vont pas bouleverser l’ordre établi, mais qui auront un impact fort en termes de réduction de la facture. Cela nous permet de construire la confiance en notre solution avec les industriels et de leur prouver sa pertinence pour intégrer le coût énergétique dans les choix de planification.

Par exemple, une fonderie lance chaque jour une quarantaine de fusions pour chauffer du métal, et chacune d’entre elles dure une vingtaine de minutes. Le moment où elles sont déclenchées provoque des pics d’appels de puissance importants, et cela va déterminer le profil de consommation de l’usine. Grâce aux données analysées par notre logiciel, nous pouvons décaler de quelques minutes à quelques dizaines de minutes ces lancements de fusions, sans que cela ne change quoi que ce soit à la planification de la production, mais tout en permettant de réduire la facture énergétique.

Autre exemple avec le secteur de papeterie qui utilise des machines très énergivores. Une seule d’entre elles peut consommer l’équivalent du quart d’une ville comme Metz. Quand ces machines s’arrêtent, comme c’est le cas lors d’opérations de maintenance, cela a un impact considérable sur le réseau. En analysant les données d’une usine, nous avons remarqué qu’il y avait une certaine flexibilité sur l’horaire de ces maintenances, et qu’elles pouvaient être décalées facilement de quelques heures, sans grandes conséquences sur l’organisation interne de l’entreprise, mais tout en ayant un fort impact sur le coût énergétique.

Quelles sont les gains réalisés à la suite de votre intervention ?

Vivien Robert : En moyenne, la facture énergétique diminue de 5 à 10 %, voire plus dans des secteurs soumis à de fortes fluctuations de consommation d’énergie, comme c’est le cas des fonderies. Dans des usines très consommatrices, notre solution peut représenter plusieurs millions d’économies chaque année.

Ensuite, nous aidons également les usines à consommer une énergie plus verte, en favorisant la consommation lorsque l’énergie est principalement solaire, éolienne ou nucléaire, car c’est à ce moment-là qu’elle est la moins chère.

Notre intervention permet aussi de réduire la pression sur le réseau géré par RTE (Réseau de Transport d’Électricité) et au final de favoriser le mix énergétique français le plus vert possible. Il faut en effet savoir qu’en cas de tension en France, des centrales polluantes au gaz ou au charbon sont allumées.

Enfin, nous pouvons aider les fournisseurs d’électricité à ajuster leurs offres et leurs demandes, en leur envoyant tous les jours les prévisions de consommation électrique des usines à la maille horaire. Ils sont très intéressés par ces prévisions, car cela leur permet d’anticiper la consommation future de leur portefeuille de clients. L’industriel y trouve également son compte, puisque cela lui donne accès à des conditions préférentielles du prix de l’électricité.

Où en êtes-vous dans le développement de votre entreprise ?

Vivien Robert : Nous travaillons avec des premiers clients dans le secteur de la fonderie et de la papeterie, chez qui nous testons notre logiciel. Le marché est en évolution importante, ce qui fait que nous avons beaucoup de demandes en ce moment. Nous nous adressons à toutes les entreprises qui ont un coût de l’électricité significatif dans leurs charges, et où il est pertinent d’intervenir sur la planification. Cela concerne entre autres les secteurs de la métallurgie au sens large, de la papeterie et de la cartonnerie, de la cimenterie et de la verrerie. L’avantage de notre solution est qu’elle représente un investissement limité pour les entreprises et qu’elle est rapide à mettre en œuvre, avec des résultats qui peuvent être conséquents en termes de réduction de la facture électrique.

Le plan du gouvernement pour transformer le secteur de la santé

Le volet santé du plan France 2030, doté de 7,5 milliards d’euros, sur les 54 milliards budgétés au total, a pour ambition de mettre la France au premier rang des pays européens sur la thématique santé et innovation.

Les sept axes du plan santé visent d’abord à tirer les leçons de la crise sanitaire, à savoir retrouver une souveraineté sur la production de certains médicaments par exemple. Aussi, à travers ce plan, le gouvernement veut favoriser l’émergence de startups capables de développer des technologies de rupture, pour être en position de forces sur les domaines émergents du secteur de la santé. 

Le premier axe du plan santé vise à renforcer les capacités de recherches biomédicales. Doté d’un milliard d’euros, il doit permettre de garder sur le territoire nos meilleurs chercheurs, et de développer des formations pour accompagner les mutations actuelles du secteur. Aussi le soutien à la création de clusters et de centres d’excellence de dimension mondiale participe à la volonté, affichée, de favoriser au maximum l’innovation technologique dans le domaine de la santé.

Le second axe voit se mettre en œuvre des investissements dans trois domaines identifiés comme porteurs : biothérapie et bioproduction de thérapies innovantes, santé numérique, maladies infectieuses émergentes et menaces NRBC. Avec près de 2,4 milliards d’euros d’investissements, le gouvernement veut donner les moyens au secteur tricolore d’être compétitif sur ces technologies innovantes et encore émergentes pour certaines d’entre elles. Il est à noter que près de 650 millions d’euros sont consacrés à mettre au point des stratégies efficaces de gestion d’éventuelles pandémies.

7 axes de travail, avec deux mots clés : souveraineté et innovation

Ensuite, le troisième axe du plan traduit la volonté de faire de la France le leader européen sur les essais cliniques, principalement en simplifiant et en accélérant le système d’autorisation de ces derniers.

Le quatrième axe a pour ambition de permettre une équité d’accès aux soins pour les patients et offrir aux innovations un cadre d’accès au marché accéléré et simplifié. Cela passe notamment par la réduction des délais d’accès sur les marchés, mais aussi, plus concrètement, par un accès simplifié aux actes innovants, et une généralisation de la télésurveillance.

Le cinquième axe reprend les éléments constatés lors de la crise COVID, notamment en termes de souveraineté du secteur : d’où la nécessité d’offrir un cadre économique prévisible et cohérent avec l’objectif de souveraineté sanitaire et industrielle. Pour en arriver là, le gouvernement veut, notamment, renforcer la prise en compte de l’empreinte industrielle dans la fixation du prix du médicament et des investissements sur notre territoire avec l’augmentation des crédits CSIS médicaux et l’élargissement aux dispositifs médicaux.

L’avant-dernier axe du plan vise à soutenir l’industrialisation des produits de santé sur le territoire français et accompagner la croissance des entreprises du secteur. Doté de 2,1 milliards d’euros, sur 5 ans, il permettra à Bpifrance de soutenir l’émergence de pépites tricolores autour des technologies de santé innovantes.

Enfin, la création d’une structure d’impulsion et de pilotage stratégique de l’innovation en santé, l’agence de l’innovation en santé, validera une stratégie cohérente pour l’ensemble du secteur santé de l’hexagone, avec l’ambition de clarifier et de simplifier les processus existants.

Pour conclure, le volet santé du plan France 2030 ambitionne, comme pour d’autres secteurs industriels français, une modernisation en même temps qu’une montée en compétitivité et en attractivité. 

Bientôt une méthode de dessalement de l’eau de mer économique et peu énergivore ?

Les Nations unies estiment qu’en 2025, les deux tiers de la population mondiale seront concernés par les problématiques de stress hydrique. Cette industrie, en plein essor sur tous les continents, représente un immense défi pour le climat, car si les techniques actuelles consomment énormément d’énergie, la plupart des pays qui emploient ces procédés sont ceux qui ont un mix électrique très intensif en CO2[1]

Quel est le problème avec les techniques de dessalement actuelles ?

Comme nous venons de le dire, les techniques de dessalement actuelles sont très énergivores. Un rapport de l’IFRI concernant la Géopolitique du dessalement de l’eau de mer donne même des chiffres détaillés de la consommation par m³ d’eau dessalée.

Les méthodes de dessalement sont regroupées en deux familles. Il y a d’un côté les méthodes thermiques, qui représentent 25 % des usines installées dans le monde, et de l’autre les méthodes par membranes.

Consommation énergétique des différentes méthodes de dessalement de l’eau de mer (en kWh/m³ d’eau dessalée)

Avec ce tableau, on constate donc que les méthodes thermiques sont bien plus énergivores que les méthodes à membrane.

L’électrodialyse : une méthode efficace, mais encore trop coûteuse en énergie

L’électrodialyse est un procédé de séparation électrochimique. Celui-ci utilise un courant continu pour déplacer les ions à travers des membranes échangeuses d’ions sélectives.

L’électrodialyse permet d’éliminer les sels et les matières organiques des eaux usées et ainsi produire une eau potable.

Bien que ce procédé membranaire soit beaucoup plus économe en énergie que les procédés thermiques, il reste néanmoins énergivore et également coûteux en termes d’entretien.

En effet, si on regarde le procédé en détail, on s’aperçoit que le coût énergétique vient en grande partie de la séparation de la molécule d’eau en deux composants : un proton chargé positivement et un hydroxyde chargé négativement.

Par ailleurs, les membranes utilisées pour la séparation demandent un remplacement fréquent et sont également coûteuses.

Une nouvelle approche de l’électrodialyse

L’équipe de chercheurs du Beckman Institute for Advanced Science and Technology propose une nouvelle approche de l’électrodialyse, avec deux améliorations significatives.

D’une part, pour économiser de l’énergie, ils ont rationalisé le processus de séparation des sels en utilisant une réaction d’oxydoréduction et l’ajout d’un copolymère soluble.

D’autre part, les chercheurs ont remplacé les membranes d’échange d’ions conventionnelles par des membranes de nanofiltration, plus robustes et moins coûteuses[2].

D’un point de vue chimique, cette méthode est assez différente de l’électrodialyse classique.

Au lieu de diviser les molécules d’eau en parties chargées positivement et négativement pour extraire le sel, la réaction d’oxydoréduction modifie la charge de l’ensemble de la molécule d’eau d’un seul coup.

Cela permet d’obtenir le même degré de séparation saline, en consommant au moins dix fois moins d’énergie qu’avec les techniques traditionnelles. En effet, d’après les calculs disponibles en annexe de l’étude, avec cette méthode, la consommation énergétique (en théorie) nécessaire au dessalement serait comprise entre 0,13 et 0,25 kWh/m³.

Une méthode de purification testée avec succès sur des eaux usées

Si cette technique est destinée au dessalement de l’eau de mer, elle a pour le moment été testée avec succès sur des eaux issues d’une station d’épuration, sur des échantillons de plusieurs litres.

Les chercheurs prévoient d’étendre prochainement ce procédé aux sources d’eau salée et saumâtre, notamment les eaux souterraines et les rivières et ils sont confiants pour la suite.

Dans un communiqué de presse, Xiao Su, Professeur adjoint d’ingénierie chimique et biomoléculaire à l’université de l’Illinois Urbana-Champaign et auteur correspondant de cette étude, déclarait ainsi : « Nous avons le bon polymère, la bonne membrane et les bonnes conditions. La science est là, la prochaine étape consiste donc à ouvrir la voie au déploiement de ces dispositifs pour le traitement de l’eau dans le monde réel. Je pense que le moment est venu de le faire et je suis impatient de voir cela se produire. »


[1] Arabie Saoudite, Chine, Koweït, etc.

[2] Plus de détails sont disponibles dans l’étude publiée dans la revue ACS Energy Letters.

Les entreprises de l’eau face à la gestion de crise (climatique)

Quand il fait chaud, l’eau se raréfie et peut manquer. 1 052 communes ont ainsi connu une rupture complète d’approvisionnement en eau potable en 2022 et environ 2 000 communes ont été en tension et sur le point d’être totalement en rupture. Actuellement, 16 départements sont en situation de crise. La vigilance est de mise dans ces départements où sévit le risque de manque d’eau potable et d’assainissement.

La Fédération professionnelle des entreprises de l’eau (FP2E) regroupe Veolia, Suez et Saur, ainsi que deux ETI : Sogedo et SEFO. Ces cinq entreprises assurent environ 60 % de la distribution et de la production d’eau potable française et gèrent les eaux usées pour la moitié de la population. Aurélie Colas est la nouvelle déléguée générale de la FP2E. Elle nous explique comment ces entreprises se sont préparées à la gestion de crise cet été et comment elles accompagnent l’adaptation au changement climatique.

Techniques de l’ingénieur : Quels sont vos dispositifs de gestion de crise pour maintenir l’alimentation en eau et le bon état des cours d’eau ?

Aurélie Colas : Nos entreprises sont en première ligne pour gérer les crises et assurer la continuité de service en eau potable et assainissement grâce à leur expertise en France et à l’international. Elles savent réagir face aux crises climatiques liées à la sécheresse, aux inondations, aux ouragans ou encore aux incendies. Elles peuvent réagir aussi face à une crise liée à une pollution, une épidémie, une cyberattaque, un conflit ou encore un acte de terrorisme.

Avec la crise climatique, nos entreprises vont être confrontées à des crises plus longues, qui vont se dérouler simultanément sur plusieurs points du territoire national. Cela exige d’intervenir en temps réel sur plusieurs sites avec le risque de « sur-crise ».

Nos entreprises anticipent grâce à la mise en œuvre de leurs cellules de crise. L’objectif est de prévenir la crise. La chaleur a par exemple des effets directs sur les équipements. Nos entreprises anticipent et préparent donc les services d’eau et d’assainissement, aux côtés des collectivités locales, en programmant en amont les opérations de maintenance et le renouvellement d’équipements pour éviter que les casses et les pannes interviennent à un moment où il pourrait y avoir une tension sur la ressource. Les réseaux font l’objet d’une surveillance permanente grâce à la digitalisation. Si une crise survient néanmoins, la cellule de crise intervient en soutien aux équipes locales et aux collectivités locales et réagit en temps réel.

Avec le changement climatique, quels sont les types de crises rencontrées par vos entreprises ?

D’ici 2050, un été sur deux sera aussi chaud que 2022. Nous avons le retour d’expérience de l’été dernier. Par exemple, chez Saur, six centres de pilotage opérationnels permettent de télésurveiller les réseaux qu’ils gèrent dans toute la France. En situation de crise sécheresse, il y a une « sur-mobilisation » des équipes, via des astreintes, pour pouvoir gérer en temps réel plusieurs crises simultanées et assurer la continuité de service.

L’été dernier, il y a eu des incendies records en Gironde. Dans la communauté d’agglomération d’Arcachon-sud, l’opérateur Veolia a mis en place une cellule de crise avec pour objectif de garantir la continuité de production d’eau potable et du service d’assainissement au niveau du bassin. En particulier, il a fallu mettre en sécurité des réservoirs et des stations de traitement des eaux usées exposés au risque d’incendie.

En Nouvelle-Aquitaine, dans une collectivité de 1 500 personnes dont Suez est délégataire, on a pu identifier un risque de crise à cause du remplissage insuffisant du réservoir principal grâce au centre de télécontrôle. En collaboration avec le syndicat intercommunal et les syndicats voisins, une interconnexion a été mise en place en moins de 24 heures pour réalimenter le réservoir sans aucune rupture de service.

Quelles solutions prônez-vous pour faire face au changement climatique et baisser la tension sur la ressource en eau ?

Il y a des solutions technologiques que les collectivités peuvent mettre en œuvre avec les entreprises de l’eau pour prévenir durablement les risques de tension sur la ressource. C’est par exemple le développement de la réutilisation des eaux usées traitées. Le fait de pouvoir retraiter l’eau pour des usages agricoles, pour l’irrigation d’espaces verts, pour le nettoyage de la voirie ou de mobilier urbain, est un moyen de diminuer la pression sur la ressource en eau. C’est aussi la recharge de nappes phréatiques, le déploiement d’interconnexions entre les différents réseaux, ou encore la lutte contre les fuites dans les réseaux d’eau.

Ces solutions technologiques ont pour corollaire le fait de déployer la sobriété des usages de tous : agriculteurs, industries, particuliers… Cela nécessite d’encourager une connaissance plus fine de l’ensemble des usagers de leur consommation, par exemple avec des compteurs intelligents.

Il y a aussi les solutions fondées sur la nature. Elles ont vocation à favoriser la préservation des milieux et la qualité de la ressource. C’est par exemple le déploiement des zones de rejet végétalisées, soit une zone humide en sortie de station d’épuration. Nous préconisons aussi la désimperméabilisation des sols et l’utilisation de revêtements qui permettent la perméabilité des eaux de pluie.

Combien coûtera l’adaptation des réseaux d’eau potable et d’assainissement au changement climatique ?

Environ 6 milliards d’euros en France sont investis chaque année en France dans les services publics d’eau et d’assainissement. La filière française de l’eau estime aujourd’hui à 3 milliards d’euros pendant 5 ans, soit 15 milliards d’euros, le besoin d’investissement supplémentaire pour adapter l’ensemble des services publics d’eau et d’assainissement à ce changement climatique.

Les 3 milliards d’euros annuels supplémentaires permettront l’adaptation des stations d’épuration, leur mise aux normes, le déploiement de la réutilisation des eaux usées traitées, la digitalisation des réseaux, la lutte contre les micropolluants et la lutte contre les réseaux fuyards. Ce sont des solutions qui permettent de répondre aux enjeux qui viennent télescoper le fonctionnement des services publics d’eau et d’assainissement du fait du changement climatique.

Réduire la consommation de carburant des fusées grâce à une tuyère adaptative

Toutes les fusées sont équipées d’une tuyère dont la fonction est d’accélérer et d’éjecter les gaz brûlés dans la chambre de combustion du moteur. La force ainsi générée permet de propulser la fusée vers le haut à très grande vitesse. Jusqu’ici, les tuyères utilisées n’ont pas la capacité de s’adapter à la modification de la pression atmosphérique lors de l’ascension vers l’espace. Cette difficulté a pour effet de dégrader leurs performances et impacte négativement la consommation de carburant. Un projet baptisé Aladdin a pour objectif de développer une tuyère adaptative pour surmonter cet obstacle.

« Une tuyère conventionnelle ressemble à une cloche, mais sa géométrie actuelle ne lui permet pas de s’adapter à la diminution de la pression atmosphérique lors de la montée en altitude, ce qui limite grandement ses performances, explique Brian Legros, doctorant au laboratoire ICARE1 et PRISME2. La perte de performance de cette tuyère peut atteindre jusqu’à 15 %. Nous développons un système en forme de double cloche qui s’adapte aux deux modes de fonctionnement. À basse altitude, l’éjection des gaz épouse la forme de la première cloche, et à haute altitude, la détente des gaz va faire en sorte qu’ils vont épouser la forme de la seconde cloche, plus large que la première. »

Le principe de cette nouvelle tuyère n’est pas nouveau, puisque des chercheurs japonais, russes, allemands et même français ont déjà tenté de développer un tel système. Sauf qu’ils ne sont jamais parvenus à faire en sorte que la transition entre la basse et la haute altitude se déroule au bon moment, celle-ci se produisant trop précocement. Les scientifiques de ce projet ont réussi à lever cette difficulté en injectant du gaz à un endroit bien précis, situé au point d’inflexion, qui correspond à la jonction entre la première et seconde cloche. Pour l’instant, cette injection est réalisée avec du gaz froid, notamment de l’air ou de l’hélium, mais leur objectif à terme est de déterminer les paramètres pour une injection la plus optimisée possible.

Un brevet protège cette technologie en Europe, aux États-Unis et au Japon

« Grâce à cette solution, nous parvenons non seulement à optimiser les performances de la tuyère en retardant la transition entre la basse et la haute altitude, mais nous réussissons également à agir sur les charges latérales, qui représentent le second problème des tuyères en double cloche, complète Étienne Michaux, doctorant au laboratoire ICARE. Ces charges latérales ont pour effet de pousser la tuyère sur le côté, et peuvent même aller jusqu’à la casser. Grâce à l’injection des gaz, nous parvenons à réduire ce phénomène qui intervient lors du changement de mode entre la basse et la haute altitude. »

Cette nouvelle tuyère est actuellement au stade de la preuve de concept, mais a d’ores et déjà fait l’objet d’un brevet3 valable en Europe, aux États-Unis et au Japon. Tous les essais ont été réalisés sur des modèles réduits en laboratoire et doivent se poursuivre pour optimiser les performances de ce système, notamment en testant différentes méthodes de contrôle. L’étape suivante de la maturation de cette technologie doit consister à réaliser des tests sur des modèles de plus grande taille. « D’ici environ 3 ans, nous souhaitons réaliser des essais sur des lanceurs de micro ou nanosatellites, comme ceux des start-up Opus Aerospace et Latitude, qui pèsent quelques centaines de kilogrammes », ajoute Étienne Michaux.

À terme, l’objectif de ce projet est d’industrialiser cette tuyère et d’équiper des fusées de type Ariane 5. Théoriquement, ce nouvel équipement devrait permettre un gain de consommation en carburant compris entre 490 kg à 1 500 kg à chaque lancement. « L’écart très important entre ces deux estimations est lié aux différentes méthodes de calcul sur lesquelles nous nous basons et disponibles dans des publications scientifiques, déclare Brian Legros. Il faut savoir qu’Ariane 5 consomme 650 tonnes de carburant, sous la forme d’ergol, à chaque lancement. Grâce à notre nouveau système, nous pourrions potentiellement faire économiser quelques millions voire quelques dizaines de millions d’euros à chaque tir, tout en réduisant l’impact environnemental de ces lancements. »


1 ICARE : Institut de Combustion, Aérothermique, Réactivité et Environnement (CNRS)

2 PRISME : Laboratoire Pluridisciplinaire de Recherche Ingénierie des Systèmes, Mécanique, Energétique (Université d’Orléans)

3 Les détenteurs du brevet sont : le CNRS Laboratoire ICARE, l’Université d’Orléans, l’Université d’Evry, ainsi que Luc Léger, Mohamed Sellam, Amer Chpoun et Vladeta Zmijanovic

Les connaissances tacites : une source de savoir sous-estimée par les entreprises !

Jérôme Laforcade - Florian Guely - Meetsys
Jérôme Laforcade (à gauche) et Florian Guely (à droite), respectivement directeur scientifique et directeur commercial de Meetsys (Crédit : Meetsys)

Le groupe Bassetti est leader dans le management de l’expertise technique.

Meetsys est spécialisée dans la capitalisation des connaissances tacites.

La solution de Knowledge Management i2Kn développée par Meetsys repose sur une méthodologie de capitalisation des raisonnements d’experts.

Techniques de l’ingénieur : En quoi consiste la gestion des connaissances, ou Knowledge Management ?

Jérôme Laforcade : Le Knowledge Management est une notion qui regroupe énormément de domaines liés à la gestion des connaissances au sein d’une organisation. Il y a deux types de connaissances : les connaissances explicites et les connaissances tacites.

Le fait de capitaliser sur de l’information écrite dans un objectif de résoudre des problèmes ou de partager des informations rentre dans le champ des connaissances explicites. Ce sont les outils que tout le monde utilise au quotidien : les wikis, les moteurs de recherche, les PLM[1], etc. Bref, ce sont tous les documents formulés et stockés. Cette connaissance explicite représente la majorité des initiatives dans le domaine du Knowledge Management aujourd’hui.

Les connaissances tacites, détenues par les experts humains et qui ne sont écrites nulle part, ne sont que peu exploitées par les entreprises. Aujourd’hui, quand quelqu’un a besoin d’une information, son premier réflexe est d’aller taper quelques mots clés sur un moteur de recherche. Dans la majorité des cas, la personne obtient rapidement l’information dont elle a besoin via ces bases de connaissances explicites.

Mais que se passe-t-il lorsqu’elle n’obtient pas la réponse souhaitée ? Naturellement, la personne se tourne vers des collègues qui répondent à sa question ou l’orientent vers un expert du domaine. Lorsque les réponses données par un moteur de recherche ne permettent pas de résoudre le problème, seul un expert du domaine est alors en mesure de guider le demandeur vers les réponses pertinentes. Ces réponses, il les puise dans son expérience et ses compétences, pas seulement dans des documents formalisés.

Le rôle de Meetsys est d’arriver à capter, structurer et partager les connaissances tacites détenues par ces experts, d’une manière efficace et la plus automatisée possible.

Pour une entreprise, quelle est la valeur de ces connaissances tacites ?

Jérôme Laforcade : L’explosion du nombre de moteurs de recherche sémantiques et des IA est révélatrice d’un problème plus profond. Le nombre de documents auxquels nous avons accès est en croissance exponentielle et c’est dorénavant le nombre qui fait l’illusion de la connaissance.

Comment innover lorsque toutes les informations proviennent des mêmes sources ? L’expert, lui, arrive à se démarquer, grâce à son raisonnement. Il a la capacité de lier des signaux faibles, de formuler des raisonnements, ce dont est incapable un moteur de recherche.

Contrairement aux moteurs de recherche, qui apportent un ensemble de documents classés selon des algorithmes de plus en plus obscurs, les bases de connaissance tacites permettent d’aller beaucoup plus loin en disant : « Voilà la solution, pourquoi elle s’applique et comment elle s’applique », comme le ferait un expert.

Comment faites-vous pour recueillir ces connaissances tacites ?

Jérôme Laforcade : Pour recueillir ces connaissances tacites, nous cherchons tout d’abord à comprendre la manière de raisonner de chaque expert, sur la base d’interviews. Nous travaillons alors avec eux pour décortiquer les processus qu’ils utilisent et qui ne sont pas formalisés.

Nous intégrons ensuite ces processus dans une base de connaissances, ce qui se rapproche de la constitution d’un livre de connaissances. Ce n’est cependant que la première étape. L’enjeu est ensuite d’établir des liens automatiques entre des processus appartenant à des expertises différentes, car il faut bien comprendre que la valeur des connaissances tacites n’est pas dans la quantité d’informations récoltées, mais dans la combinaison de ces connaissances.

Nous avons donc développé une approche qui permet de rendre compte de cette communauté de connaissances, ainsi qu’un outil spécifique : i2Kn.

Une fois que la base de connaissance tacite collaborative est établie, l’outil est mis à disposition des équipes. Il y a par ailleurs une forte dimension pédagogique, car l’utilisation de cet outil contribue fortement à la montée en compétence des équipes.

plateforme collaborative i2Kn
La plateforme collaborative i2Kn utilise une méthode de capitalisation basée sur la construction de cartes de raisonnement d’experts (Crédit : Meetsys)

Le recueil des connaissances tacites est-il suffisamment pris en compte par les entreprises ?

Florian Guely : Dans les entreprises, on se focalise essentiellement sur les connaissances explicites et l’exploitation de solutions automatisées qui prennent peu de temps aux gens. Il y a un certain nombre de fantasmes actuellement autour de l’utilisation d’IA génératives permettant d’exploiter l’ensemble d’une base documentaire et de retrouver toutes les informations nécessaires. Ce serait faire l’impasse sur l’ensemble des connaissances tacites, qui représentent au moins 80 % du savoir d’une entreprise.

La gestion des connaissances tacites est pour le moment le parent pauvre du Knowledge Management. Les entreprises en prennent la mesure et réalisent le besoin de répondre à cette problématique dans les situations de départ à la retraite d’experts, lorsqu’elles font venir des prestataires pour interviewer les personnes.

En général, dans ce cas de figure, les informations recueillies servent à établir un livre de connaissances qui n’est au final qu’un document de plus. Toutefois, cela va rarement plus loin. Notre vision est qu’il est possible d’apporter bien plus de valeur pérenne pour l’entreprise à travers des démarches continues visant à capitaliser et consolider les connaissances tacites d’une entreprise au sein de bases partagées et interconnectées.

Ces démarches doivent être perçues comme un avantage concurrentiel ; elles permettent de pérenniser l’expertise, mais aussi de gagner en réactivité, ce qui peut se traduire par une capacité à gagner plus de marchés et sortir plus de produits dans le même temps.

Les Knowledge Managers ont pour habitude de manipuler essentiellement des connaissances explicites, et nous sommes là pour les aider à appréhender durablement les connaissances tacites parcellaires, non consolidées.

La consolidation générale de l’expertise et de la connaissance tacite est au cœur du métier de Meetsys. C’est d’ailleurs pour cette raison que nous avons intégré le groupe Bassetti, spécialisé dans la gestion des connaissances explicites. Nos axes de développement vont vers une intégration de ces connaissances complémentaires, ce qui permettra à nos clients de bénéficier d’une offre plus complète.


[1] Système de gestion du cycle de vie des produits

Biomimétisme : une méthode de séparation des terres rares qui exploite des protéines bactériennes

La famille des terres rares comprend 17 éléments du tableau périodique. Elle inclut les lanthanides ainsi que deux autres éléments aux propriétés similaires qui sont souvent regroupés avec eux : le Scandium (Sc) et l’Yttrium (Y). Les terres rares ont une importance technologique et stratégique capitale, car elles sont utilisées dans de nombreuses applications, aussi bien en électronique que dans les domaines des énergies renouvelables, de la défense ou de l’aérospatiale.

La difficile séparation des éléments de terres rares

À l’état naturel, on les trouve généralement ensemble, car les métaux de cette famille ont la particularité d’avoir un comportement chimique et une taille similaires, ce qui rend leur séparation difficile.

Pour ne rien arranger, les techniques de séparation et de purification conventionnelles comportent des dizaines, voire des centaines d’étapes et utilisent de grandes quantités de produits chimiques aussi toxiques que polluants.

Un processus de sélection innovant et bioinspiré

Cela fait des millénaires que les terres rares sont utilisées dans les processus biologiques. Joseph Cotruvo Jr, professeur associé de chimie de l’Université de Penn State, et son équipe de chercheurs se sont ainsi tournés vers la nature pour explorer de nouvelles solutions.

Il existe une classe de bactéries appelées « méthylotrophes ». Souvent présentes sur les feuilles des plantes ainsi que dans l’eau et dans les sols, ces bactéries jouent notamment un rôle important dans la circulation du carbone dans l’environnement.

En 2017, les chercheurs ont réussi à isoler une protéine produite par ces bactéries. Or, cette protéine appelée « Ianmoduline » possède une particularité : elle présente une aptitude inégalée à se lier aux lanthanides[1] ! Des travaux ultérieurs ont ensuite démontré qu’il était possible, grâce à cette protéine, de séparer les terres rares en tant que famille des autres métaux, même lorsqu’il s’agit de mélanges trop complexes pour les méthodes d’extraction traditionnelle.

L’étude publiée le 31 mai 2023 dans Nature donne une dimension encore plus intéressante à ces travaux. Parmi des centaines d’autres protéines naturelles semblables à la « Ianmoduline » initialement étudiée, l’équipe en a sélectionné une qui présentait suffisamment de différences, pour qu’il soit raisonnable d’envisager des propriétés singulières.

La molécule candidate, issue d’une bactérie isolée sur des bourgeons de chêne anglais, possède la capacité de se lier aux lanthanides, par un processus de dimérisation dont les effets varient suivant que l’on soit en présence d’éléments légers ou lourds. En présence de lanthanides légers comme le néodyme, les liaisons sont fortes, alors qu’elles sont bien plus faibles dans le cas de lanthanides plus lourds, comme le dysprosium. Ce comportement sensiblement différent ouvre ainsi la voie vers de nouvelles méthodes de séparation !

Dans un communiqué de presse daté du 31 mai, le professeur Cotruvo Jr, premier auteur de l’étude, déclarait : « Bien que nous ne soyons pas les premiers scientifiques à reconnaître que la dimérisation sensible aux métaux pourrait être un moyen de séparer des métaux très similaires, principalement avec des molécules synthétiques, c’est la première fois que ce phénomène a été observé dans la nature avec les lanthanides. »

Le chercheur pense même qu’en optimisant encore le phénomène, ils seront un jour capables de résoudre le plus difficile problème de séparation qui soit, c’est-à-dire séparer les lanthanides adjacents sur le tableau périodique.

Sur la base de ces travaux, une demande de brevet a ainsi été déposée par l’État de Pennsylvanie. L’équipe travaille actuellement sur cette optimisation et envisage un passage à l’échelle dans le but de commercialiser le processus.


[1] Plus de 100 millions de fois supérieure, par rapport au calcium !

BGene Genetics œuvre pour une cosmétique plus vertueuse

Née sous sa forme actuelle en 2014 à partir d’un embryon formé deux ans plus tôt, BGene Genetics est le fruit de la rencontre de trois docteures : Marie-Gabrielle Jouan, Caroline Ranquet et Alexia Chandor-Proust. Après plusieurs levées de fonds et un virage stratégique opéré en 2017, la jeune entreprise innovante spécialiste de la biologie synthétique propose aujourd’hui aux industriels de la cosmétique de développer pour leur compte des procédés de production de rupture, plus efficaces et plus vertueux. Objectif : leur permettre de remplacer des ingrédients naturels à fort impact environnemental ou issus de la pétrochimie par des molécules produites en laboratoire à partir de matières premières renouvelables. Alors qu’elle espère produire ses premiers lots d’ingrédients cette année, BGene ambitionne d’atteindre l’échelle industrielle d’ici à trois ans.

Dans la droite ligne de la démarche vertueuse initiée depuis ses débuts, BGene a par ailleurs annoncé en mai dernier l’adoption du statut d’entreprise à mission. En accord avec ses 28 salariés, l’entreprise a ainsi défini trois grands axes statutaires : limiter l’impact de l’activité sur les ressources, garantir un procédé plus respectueux de l’environnement, mais aussi transmettre et partager ses connaissances scientifiques. Une démarche dont Marie-Gabrielle Jouan, présidente et cofondatrice de BGene, nous retrace les origines.

Techniques de l’Ingénieur : Comment BGene a-t-elle vu le jour ?

Marie-Gabrielle Jouan s’est lancée en 2012 dans l’aventure entrepreneuriale BGene
Après avoir occupé un poste de chargée d’affaires en valorisation de la recherche, Marie-Gabrielle Jouan s’est lancée en 2012 dans l’aventure entrepreneuriale BGene. © Chloe PEREZ

Marie-Gabrielle Jouan : L’entreprise a vu le jour suite à une rencontre entre mon associée principale Caroline Ranquet et moi-même.

Après la thèse que j’ai réalisée à l’Université Grenoble Alpes (UGA) – sur un thème complètement différent de celui de BGene –, je suis devenue chargée d’affaires en valorisation de la recherche à Floralis, qui était à l’époque la société de valorisation privée de l’Université Joseph-Fourier. Je m’occupais essentiellement de valoriser le travail des chercheurs sous une autre forme que la seule voie bibliographique : sous forme de brevets, de plateformes technologiques… Caroline Ranquet est un jour venue me voir pour me faire part de ses compétences spécifiques en ingénierie génétique microbienne. Ce type de compétences était alors très recherché par certains grands groupes. Elle ne songeait toutefois pas à être embauchée, son objectif étant de devenir maîtresse de conférences. Ces grands groupes lui proposaient malgré tout de réaliser des expériences pour leur compte. On lui avait alors suggéré d’ouvrir une plateforme basée sur ses compétences… Je lui ai pour ma part conseillé de déposer des brevets, et, pourquoi pas, de créer une start-up.

Cette discussion est restée sans suite pendant près de six mois. J’ai cru que je lui avais fait peur ! (Rires) En fait, Caroline avait entre-temps été embauchée par une start-up montpelliéraine, pour un poste de chercheuse en entreprise. Elle a ainsi découvert qu’un chercheur en entreprise faisait véritablement de la recherche, comme c’est le cas à l’université. Elle est ensuite revenue dans la région pour raisons familiales. Cette brève expérience lui a permis de changer de regard sur le conseil que je lui avais donné six mois plus tôt… Elle est donc revenue vers moi pour en rediscuter. Nous avons ainsi petit à petit fait mûrir l’idée ; nous lui avons trouvé un nom…

Il s’avère par ailleurs que Floralis proposait à l’époque un modèle de création de start-up qui permettait de ne pas prendre trop de risques, en lançant l’idée sous forme de business unit, tout en restant protégé par le statut juridique de la structure de valorisation.

C’est sous cette forme qu’est née BGene, fin 2012, après un dépôt de brevet portant sur les techniques spécifiques qu’avait mises au point Caroline.

Nous avons travaillé toute l’année 2013 avec des grands groupes, pour le compte desquels nous avons sous-traité des prestations de services dans le domaine de l’ingénierie génétique. Nous avons également déposé cette année-là un dossier de candidature au concours « Émergence » organisé par OSEO, ancêtre de Bpifrance. Nous avons remporté ce concours. Nous avons alors été rejointes en septembre 2013 par une troisième associée, Alexia Chandor, qui nous a apporté des compétences complémentaires : Caroline était plutôt spécialisée dans le domaine des bactéries, alors qu’Alexia avait aussi travaillé sur les levures. Elle nous a aussi permis de bénéficier de sa double compétence docteure-ingénieure de Chimie Paris : cette touche de chimie a été – et reste aujourd’hui encore – hautement nécessaire dans le développement de nos activités.

En février 2014, nous avons finalement créé toutes les trois la société BGene Genetics, cette fois-ci de façon formelle.

Sur la base du brevet dont vous évoquiez le dépôt, quel travail avez-vous ensuite réalisé ?

Le BGene d’aujourd’hui n’est plus du tout celui que nous avons créé en 2014… ! Le brevet que nous avions déposé peu avant sa création officielle traitait de la modification génétique de microorganismes sans laisser de traces. Caroline avait en effet mis au point une technique qui permettait de cibler un locus[1] du chromosome bactérien, d’y transférer ou d’en ôter de l’information de manière très précise et, à la différence des techniques qui existaient à l’époque, sans laisser de « cicatrice », c’est-à-dire, sans ajouter de paires de bases non codantes de part et d’autre du point d’intervention. Nous parlions alors de « haute couture génétique ». C’était notre crédo de l’époque. Nous nous sommes toutefois assez vite rendu compte que le panier moyen de prestation n’était pas suffisamment élevé, dans un domaine qui plus est fortement concurrentiel, nécessitant en outre d’importants investissements en R&D. En 2016, nous avons donc réalisé une première levée de fonds auprès de business angels pour booster notre R&D. Nous avions par ailleurs commencé à travailler avec une autre start-up grenobloise, CAD4Bio, qui avait quant à elle mis au point un logiciel d’automatisation de construction de briques génétiques. Nous nous sommes alors dit que ces possibilités d’automatisation allaient nous permettre de multiplier nos possibilités en matière de prestations. Nos business angels ont flairé une opportunité et ont jugé que ce qui pourrait nous différencier serait d’avoir cette double compétence en interne. Ils nous ont alors aidées à formaliser le rachat de la société CAD4Bio. En 2017, grâce à une deuxième levée de fonds, nous avons ainsi eu la possibilité de racheter l’entreprise, et donc de garder pour nous ce logiciel d’automatisation que nous trouvions très prometteur.

La même année, nous avons aussi pris conscience d’une chose : les fonds d’investissement apprécient peu les sociétés de services… Pour sortir du lot, outre le rachat de cette entreprise de bio-informatique, nous avons donc décidé de nous orienter vers le produit.

Nous avons alors commencé à travailler sur des produits à forte valeur ajoutée, mais ne demandant pas un temps trop important de mise sur le marché. Cette équation nous a rapidement conduites à nous concentrer sur le monde de la cosmétique, sur des molécules dont le sourcing finirait, à moyen ou long terme, par être problématique, notamment dans un contexte de réchauffement climatique. Un autre point commun qui nous caractérisait toutes les trois depuis le début de l’aventure était en effet notre engagement pour l’environnement, et notre certitude que la production de molécules par la voie de la biologie synthétique était l’une des clés face aux problématiques actuelles et à venir.

En 2017 toujours, nous avons donc opéré un pivot stratégique, qui nous a permis de convaincre un nouvel investisseur, lequel a injecté 3 M€ dans la société. Cela nous a permis de faire naître le BGene d’aujourd’hui. Nous sommes ainsi, depuis 2018, une société non plus uniquement de services, mais aussi de production. Si nous n’aspirons pas forcément à créer une usine, nous avons en tout cas vocation à mettre au point des éco-procédés, et ce de façon rapide et soutenable. Outre la microbiologie, la bio-informatique nous est d’une grande aide pour y parvenir.

Nous sommes aujourd’hui capables de reproduire une voie de synthèse dans un microorganisme, qui, lui, sera capable de produire une molécule donnée toute l’année et avec très peu d’emprise au sol.

Les piliers de BGene sont la microbiologie et la bio-informatique
Aux côtés de la microbiologie, la bio-informatique est l’un des piliers sur lesquels s’est développée BGene. ©Axel Pittet, agence perceptiom

Quels « éco-procédés » êtes-vous parvenus à mettre au point ?

Nous avons tout d’abord voulu apporter la preuve de notre capacité à mettre au point, de façon rapide, des éco-procédés efficaces sur une famille de molécules, celle des phénylpropanoïdes. Nous avons ainsi d’ores et déjà mis au point un procédé de production de quatre molécules. Nous nous sommes astreints à travailler à partir de déchets de l’industrie forestière, avec en tête l’idée que notre châssis bactérien soit capable de « manger » les sucres issus de ces déchets de bois pour en faire des molécules d’intérêt.

Nous sommes aujourd’hui capables de produire des échantillons, qui sont ensuite testés par nos clients. Nous voulons désormais pousser la preuve un peu plus loin, en montant en échelle. Notre objectif est de démontrer la possibilité d’industrialiser le procédé. Nous visons le passage d’un fermenteur de 3 litres à un modèle de 40 litres… voire plus si nécessaire. Les études montrent en tout cas que franchir le cap des 40 litres permet ensuite une transposition dans des fermenteurs industriels.

Nous avons par la même occasion divisé par deux le temps de mise au point d’un procédé de production, tout en gardant en tête nos impératifs d’éco-conception.

Nous avons ainsi déjà répondu aux demandes de plusieurs clients, qui nous ont fait part de leurs difficultés de sourcing de certaines molécules, et que nous accompagnons donc pour mettre au point des voies de production biotechnologies soutenables.

Vous disiez ne pas forcément aspirer à la création d’une usine… Comment envisagez-vous alors l’industrialisation de vos procédés ?

L’idée, pour nous, est de transférer le procédé de production à nos clients. Nous avons à cœur de mettre au point des procédés facilement transférables dans leurs usines actuelles, sans avoir besoin de reconstruire tout le site industriel…

Equipe BGene
En accord avec ses salariés, BGene a défini les grands axes qui sont désormais inscrits dans ses statuts d’entreprise à mission. ©BGene

Vous avez récemment annoncé votre passage sous le statut d’entreprise à mission. Quels sont les origines et les objectifs de cette démarche ?

Notre culture d’entreprise est très axée sur nos valeurs ; valeurs que nous avons notamment définies avec la nouvelle équipe que nous avons recrutée début 2018. Parmi elles se trouvent notamment l’éco-responsabilité, mais aussi la bienveillance et l’excellence scientifique. Cela a initié chez nous une réflexion : comment démontrer que notre savoir-faire, nos technologies, ne sont pas là que pour servir un but marketing et lucratif… ? Nous avons par ailleurs commencé à nous pencher sur des aspects tels que la réduction de notre production de déchets, sur notre bilan carbone… Et puis j’ai aussi pour ma part intégré le Centre des jeunes dirigeants, le CJD, fin 2017. J’ai notamment participé par ce biais au montage d’une conférence qui a eu lieu début 2020 à Grenoble, et qui s’intitulait « ImpactS ». Cette conférence a été le siège de plusieurs ateliers, sur la mobilité, la réduction des déchets, l’informatique durable, les économies d’énergie… Petit à petit, la notion de « RSE[2] » a émergé, et je me suis alors aperçue que nous réalisions déjà, un peu sans le savoir, des actions dans ce domaine.

Nous avons ensuite eu la chance d’être sélectionnés par GreenFlex et Bpifrance pour un programme d’accompagnement de structuration de la RSE. Le confinement nous a servi à dresser un bilan de nos actions, et à créer un comité de pilotage. Devenir une entreprise à mission, nous doter d’une raison d’être et l’inscrire dans nos statuts, avoir des objectifs opérationnels accompagnés d’indicateurs de suivi… nous sont ainsi apparus comme autant d’évidences.

Toute cette démarche a eu un impact positif sur nos recrutements. Les candidats aux postes que nous proposons nous en parlent en effet de manière quasi systématique, nous questionnent sur les actions que nous menons, afin de s’assurer qu’il ne s’agit pas de greenwashing…


[1] Localisation précise d’un gène sur un chromosome

[2] Responsabilité sociale/sociétale des entreprises

Smoky traite les mégots de cigarette

En juillet 2020, en pleine période de Covid, Alexandre Perret et Stefan Petrovic décident de lancer leur entreprise à la sortie de leur école d’ingénieur, l’École supérieure d’ingénieurs de Luminy. « Nous avons décidé de créer cette start-up, Smoky, car on voulait avoir un impact positif sur la planète et les mégots sont les premiers pollueurs de l’océan », explique Alexandre Perret. La start-up est basée sur un business model relativement simple : les sociétés paient un abonnement mensuel pour que Smoky leur fournisse des cendriers personnalisés, deux collectes par mois et la garantie que les mégots seront recyclés. « Nous avons observé que les cendriers sur mesure incitaient davantage les employés à se soucier de la fin de vie de leur cigarette. Pour l’instant nous ne travaillons qu’avec des entreprises privées, mais le public nous approche de plus en plus », constate le cofondateur.

Purifier les filtres

Une fois les mégots collectés par Smoky, ils sont acheminés dans leur usine en Île-de-France. Le papier et la cendre des cigarettes sont récoltés pour être transformés en compost. Reste le filtre, composé d’acétate de cellulose, particulièrement pollué par des métaux lourds, des goudrons, des produits chimiques, mais aussi des microplastiques. « On isole au mieux cette mousse grâce à un broyage. On fait ensuite une extraction de tous les déchets toxiques. Il nous reste, en plus de la mousse propre, un liquide pollué qui est traité par nos partenaires dans un laboratoire spécialisé », précise Giovanni Bellani.

L’acétate de cellulose est alors réemployé dans des rembourrages de coussins, de doudounes. Il peut également être compressé et chauffé pour le transformer en plaque plastique ou en filaments d’impression 3D.

De nouveaux horizons

En septembre 2023, Smoky va ouvrir une usine dédiée à la transformation de l’acétate de cellulose recyclé en Île-de-France. « Notre but est vraiment de créer une grosse filière de recyclage des mégots. Nous souhaitons ne produire que des filaments pour l’impression 3D qui ont une grande valeur ajoutée. Cela nous permettrait de financer tout le recyclage, sans demander aux entreprises de s’abonner », développe le cofondateur. Les clients actuels de l’entreprise comme LVMH, Lazard (groupe de conseil financier) ou même les villes, les collectivités et les musées pourraient ainsi disposer de cendriers et de la collecte des mégots de manière gratuite. « Nous trouvons cela plus sain de proposer le recyclage de manière gratuite », ajoute-t-il.

Opérant seulement en région parisienne, la start-up cherche à s’étendre dans tout l’Hexagone afin de récolter, d’ici fin 2024, cinq tonnes de mégots par an, contre 600 kg aujourd’hui.

Norimat : des pièces fabriquées en 3D grâce au procédé de frittage SPS

Fondée en 2016, la start-up Norimat est une spin-off du CIRIMAT, le Centre inter-universitaire de recherche et d’ingénierie des matériaux. Après 15 années de recherche et développement, ce laboratoire de l’université de Toulouse a réussi à lever un verrou technologique pour fabriquer des pièces en 3D possédant de hautes performances grâce au procédé de frittage SPS (Spark Plasma Sintering). L’entreprise poursuit le développement de ce procédé afin de l’industrialiser. Elle commercialise déjà des pièces pour le secteur du luxe et des prototypes pour celui de l’aéronautique. Ancien chercheur du CIRIMAT, Romain Epherre est l’un des cofondateurs de Norimat et son CEO. Il nous parle de la technologie développée par son entreprise.

Techniques de l’Ingénieur : En quoi consiste le procédé de frittage SPS et quels sont ses avantages ?

Romain Epherre, cofondateur et CEO de Norimat. Crédit : Norimat
Romain Epherre, cofondateur et CEO de Norimat. Crédit : Norimat

Romain Epherre : Il s’agit d’un four qui permet de fabriquer des matériaux à très haute densité, sans porosité et sans défaut. Ce four est constitué d’un moule en graphite à l’intérieur duquel sont placés différents types de poudre, notamment céramique et métallique. Ensuite, un courant de forte intensité est injecté directement dans le moule pour faire chauffer la poudre, à l’image d’un filament électrique. À la différence des fours classiques qui sont équipés de résistances placées sur la partie extérieure de la paroi de l’enceinte afin de la chauffer, le frittage SPS est très économe en énergie puisque le courant électrique sert quasi exclusivement à chauffer la poudre. Le temps de cuisson est très rapide, car l’échauffement est quasi instantané, avec des vitesses de montée et de descente en température de l’ordre de 100 degrés par minute, contre 1 à 5 degrés pour les procédés classiques de frittage. Par exemple, le traitement thermique à 1 500 degrés dure moins d’une heure, contre 20 à 30 heures pour les procédés conventionnels. La rapidité de la chauffe permet d’obtenir des microstructures très fines et bien contrôlées, avec très peu de croissance granulaire, et au final d’améliorer la performance des matériaux par rapport au frittage conventionnel. Enfin, les pertes de matières sont limitées à moins de 1 %, alors qu’elles peuvent grimper jusqu’à 80 % sur certaines pièces conçues pour l’aéronautique.

Le frittage SPS a été inventé dans les années 60 et est arrivé en Europe au début des années 2000, qu’est-ce qui différencie votre technologie de vos concurrents ?

Nous sommes la seule entreprise dans le monde à savoir fabriquer des pièces en 3D avec ce procédé. Toutes les autres conçoivent uniquement des galets en 2D. Cette technologie présente un grand intérêt, mais est difficile à maîtriser. Nous avons créé de véritables jumeaux numériques de ces fours dans le but de modéliser ce qui se passe à l’intérieur, afin de prédire et d’anticiper les différentes réactions avant de commencer le traitement. Cela nous permet d’optimiser les cycles ainsi que les outils que nous utilisons, et de diminuer les gradients thermiques dans les pièces pour obtenir un traitement des pièces homogènes thermiquement. Il s’agit d’une des clés dans notre maîtrise de la technologie.

Les pièces fabriquées par Norimat grâce au procédé de frittage SPS. Crédit : Norimat
Les pièces fabriquées par Norimat grâce au procédé de frittage SPS. Crédit : Norimat

Ensuite, nous avons développé un modèle de suivi de la production, basé sur le traitement statistique et l’analyse des données, afin de suivre la fabrication et atteindre les standards de qualité fixés et le contrôle renforcé des pièces.

Quelles sont les principales applications de votre procédé ?

Nous fabriquons beaucoup de pièces en céramique, car elles correspondent aux marchés les plus matures actuellement, notamment pour des applications dans le domaine de la défense, du luxe et de l’outillage. Par exemple, nous avons développé des céramiques colorées qui servent à la fabrication de pièces d’habillage de montres ou de joaillerie. La vitesse de notre processus nous permet d’utiliser des pigments qui ne peuvent pas être employés par d’autres procédés. Dans l’outillage, nous concevons des pièces qui servent à fabriquer des outils de coupe et de forages qui possèdent une très grande résistance à l’abrasion, à la rayure, et une grande dureté. Dans l’aérospatial, nous concevons des pièces pour des environnements moteurs, pour repousser leurs limites d’utilisation, notamment de résistance à des températures très élevées, afin de fabriquer des moteurs plus puissants et plus efficients.

Quel est le business modèle de Norimat ?

Nous avons développé trois secteurs d’activité. Nous sommes un bureau d’études et nous développons de nouvelles pièces grâce à notre procédé de frittage SPS. Ensuite, nous sommes capables de les fabriquer grâce à une première ligne de production mise en service en 2019. Une seconde ligne est en cours d’acquisition et devrait être opérationnelle en début d’année prochaine. Enfin, nous accompagnons nos clients qui utilisent le frittage SPS et nous pouvons même délocaliser notre production directement chez eux. Nous développons également une quatrième activité dans le domaine de l’édition de logiciels destinés aux utilisateurs du procédé SPS. Notre logiciel sera commercialisé d’ici quelques semaines.

Nous produisons déjà des pièces pour le secteur horloger, et nous sommes en phase de prototypage pour celui de l’aéronautique. Nous explorons de nouveaux marchés, notamment celui de l’automobile pour fabriquer des pièces utilisées dans l’environnement moteur ainsi que celui de l’énergie pour des applications dans le domaine de l’hydrogène et du nucléaire.

MABIN propose des solutions clés en main robotisées et automatisées pour la plasturgie et l’industrie

Laurent Gourier
Laurent Gourier est le fondateur de MABIN (crédit : MABIN)

MABIN est une jeune start-up créée en juillet 2022.

Cette société est installée aux Sables-d’Olonne, en Vendée, au cœur d’un territoire reconnu pour l’excellence de sa filière robotique industrielle. MABIN propose des solutions spécifiques robotisées et automatisées pour toutes les industries.

Soutenue par la Région Pays de la Loire, Bpifrance et membre de la French Fab, MABIN met également à disposition de la plasturgie des solutions de palettisation / dépalettisation « no-code ».

Techniques de l’ingénieur : MABIN a été créée il y a un an. Quelles solutions proposez-vous aux industriels ?

Laurent Gourier : Nous avons deux activités séparées. Il y a d’une part nos solutions de palettisation automatique, qui sont polyvalentes car elles s’adaptent à toutes les industries. D’autre part, nous proposons l’intégration de solutions robotisées dédiées à l’industrie de la plasturgie. Ces deux activités sont complémentaires et permettent à MABIN de développer son réseau de clients et de partenaires industriels.

MABIN joue donc le rôle d’intégrateur. Nous réalisons la phase d’étude, en accord avec le besoin du client, puis nous achetons les différents éléments que nous assemblons. Ces éléments sont ensuite interfacés et testés avant la mise en route chez le client.

C’est un milieu que je connais bien, car j’ai travaillé pendant des années en tant qu’ingénieur en conception mécanique (ingénieur d’affaires) au sein du groupe SEPRO, l’un des leaders de l’industrie plastique. Au cours de ma carrière, j’ai donc côtoyé de nombreux systèmes de robotisation en pied de presse ainsi que tout un panel de solutions pour l’assemblage ou le contrôle.

En ce qui concerne la palettisation, les solutions que nous proposons sont de type « robot portique cartésien ». Je constate qu’il y a un fort intérêt pour ces systèmes et que le besoin existe bel et bien. En effet, au cours de ma carrière, j’ai été amené à vendre et intégrer de nombreux robots de ce type. Par ailleurs, en moins d’un an d’existence, MABIN a déjà eu une dizaine de demandes, sans pour autant être très connu.

Quels sont les avantages d’utiliser un palettiseur cartésien ?

palettiseur automatique cartésien MABIN
Visuel 3D d’un palettiseur automatique cartésien MABIN (Crédit : MABIN

Les robots industriels six axes ont l’inconvénient de prendre beaucoup de place, car le robot se déplace suivant une trajectoire circulaire. Si on a cinq palettes à déplacer, celles-ci doivent nécessairement être positionnées autour du robot, ce qui veut dire que toute l’implantation de l’usine doit être pensée autour du robot.

Avec un robot cartésien, il n’y a pas ces inconvénients. Toutes les palettes peuvent être disposées en ligne, les presses étant installées côte à côte. Comme le robot se déplace suivant l’axe vertical, son emprise au sol est donc beaucoup plus faible.

Souvent, les robots six axes sont utilisés par défaut, de manière traditionnelle, par facilité et par habitude, car il suffit de prendre un robot sur étagère. C’est pratique, surtout qu’il y a beaucoup de fabricants et d’intégrateurs.

Dans le cas des robots cartésiens, il n’y a pas de solution sur étagère, chaque robot étant adapté à la situation du client. Cela peut sembler moins pratique, car il y a un vrai travail d’intégration sur mesure, mais en réalité c’est plus avantageux, car cela multiplie les possibilités.

Dans votre récent communiqué de presse, vous évoquez une interface « no-code », sans programmation. Pouvez-vous nous en dire plus ?

Dans les entreprises, il y a de moins en moins de personnes disposant de compétences en programmation robot. Même les grands groupes sous-traitent beaucoup les activités liées à la robotique.

La robotisation est pourtant incontournable, notamment en palettisation, car la palettisation manuelle engendre énormément de problèmes de TMS et provoque un turnover important dans les entreprises.

La programmation robotique a donc plus que jamais besoin de gagner en accessibilité, d’où l’intérêt de développer des solutions sans programmation, ce que l’on appelle le « no-code ». Cette partie est actuellement en phase de développement chez nous et nous recherchons des partenaires et des financements.

MABIN est une jeune société. Proposez-vous déjà des solutions aux entreprises ?

Bien que MABIN n’ait pas encore de locaux industriels, l’activité a déjà démarré. Nous partons du besoin du client et nous y répondons avec une proposition d’intégration sur mesure. Nous avons des demandes diverses : manipulation de tubes, dépalettisation et ouverture automatique de sacs de matière pour la plasturgie, convoyage, robotique collaborative pour le soudage de pièces plastiques, machines spéciales de soudage par ultrasons, etc.

Pour fournir la partie hardware, nous nous appuyons sur nos partenaires lorsque nous avons besoin de locaux industriels. Nous sommes aussi à la recherche de bâtiments industriels, mais dans le secteur des Sables-D’Olonne, les bâtiments de ce type sont malheureusement rares.

En parallèle, nous avons lancé une phase de financement pour l’installation d’un prototype de palettiseur qui devrait être opérationnel en fin d’année 2023 ou début 2024. L’idée est d’intégrer ce prototype sur une usine pilote.

Nos sources de financement actuelles sont diverses : financement BPI [1], région, fonds privés, prêts bancaires, prêts donneurs du réseau Initiative France. En revanche, nous n’avons pas encore engagé de campagne de financement participatif.

Nous restons ouverts à propositions. Si des personnes souhaitent s’associer au projet, elles sont les bienvenues !

 


[1] Bpifrance

Des tuiles équipées de réservoirs pour stocker l’eau de pluie sur les toitures

Après avoir travaillé pendant 15 ans dans le secteur de la production hydroélectrique et développé un service numérique d’aide à la gestion de l’eau des rivières à l’échelle de bassins versants, Jean-Baptiste Landes décide de s’intéresser aux villes. Conscient des problématiques de disponibilités de la ressource en eau, il constate que les zones urbaines accueillent une majorité de la population française, mais que ces territoires sont très imperméabilisés, avec peu de moyens pour stocker l’eau. Il observe également que vu du ciel, les toitures des bâtiments peuvent représenter jusqu’à 50 % de la surface d’un centre-ville. Il imagine alors un système de tuiles légères munies de réservoirs pour stocker l’eau de pluie. Après le développement de plusieurs prototypes, il équipera bientôt plusieurs bâtiments. Entretien avec le cofondateur de la start-up Cactile.

Techniques de l’Ingénieur : Quelle a été votre source d’inspiration pour concevoir votre système de tuiles modulables ?

Jean-Baptiste Landes, cofondateur de la start-up Cactile
Jean-Baptiste Landes, cofondateur de la start-up Cactile. Crédit : Cactile

Jean-Baptiste Landes : Nous nous sommes beaucoup inspirés du cactus, une espèce végétale qui a su s’adapter à des conditions climatiques extrêmes. À l’origine, c’était un arbre, puis ses feuilles sont devenues des épines, pour à la fois se protéger des prédateurs, mais aussi pour se refroidir et diriger les gouttes d’eau vers ses racines. Tout son système racinaire s’est rapproché de la surface de la terre pour collecter l’eau rapidement avant qu’elle ne s’évapore et les plus gros cactus peuvent stocker jusqu’à 4 000 litres dans leurs troncs. Cette plante a également su faire évoluer son comportement, puisque sa photosynthèse a lieu la nuit et non plus le jour, pour éviter les pertes en eau liées à l’évaporation. Cactile, le nom de notre entreprise, est la contraction de cactus et de tile, qui signifie tuile en anglais.

Comment fonctionne votre innovation ?

Une illustration des réservoirs extra plats posés sur le toit pour stocker l'eau de pluie sur les toitures. Crédit : Cactile
Une illustration des réservoirs extra plats posés sur le toit pour stocker l’eau de pluie sur les toitures. Crédit : Cactile

Notre système se divise en trois couches fonctionnelles. La première est constituée de grands panneaux qui mesurent environ 1,5 m² et se fixent à la charpente, à la place des tuiles traditionnelles. Ils sont pour l’instant fabriqués en polypropylène recyclé, mais nous testons d’autres matériaux. Leur rôle est à la fois d’assurer l’étanchéité du toit et de servir de réceptacle à des réservoirs d’eau extra-plats. Ces réservoirs ressemblent aux blocs de glace que l’on place dans un congélateur, pour ensuite maintenir au froid une glacière, et constituent la deuxième couche. Ils sont fabriqués en polyéthylène haute densité (PE-HD) et sont tous interconnectés entre eux avec pour fonction de stocker l’eau.

L’équipe de Cactile peaufine actuellement le design des futurs éléments de couverture de son système. Crédit : Cactile
L’équipe de Cactile peaufine actuellement le design des futurs éléments de couverture de son système. Crédit : Cactile

La troisième couche vient recouvrir les deux précédentes et a pour rôle de collecter l’eau de pluie et a également une fonction esthétique, puisque c’est la partie visible de notre système. Au départ, nous voulions reproduire la forme des tuiles traditionnelles, et puis en écoutant des architectes, nous avons décidé de créer notre propre design, afin d’assumer la singularité de notre produit. Au final, il s’agit d’une couverture métallique, avec un design à mi-chemin entre un bac acier et une tuile traditionnelle.

Quels sont les avantages de votre système ?

L’épaisseur finale de ces trois couches est comprise entre 6 et 11 cm d’épaisseur et pèse moins de 20 kg par m². Étant donné que les charpentes sont conçues pour supporter 60 kg de tuiles par m², les réservoirs peuvent stocker jusqu’à 40 litres d’eau par m². Notre dispositif a été imaginé dans une logique inverse des toitures conventionnelles dont le rôle est d’évacuer l’eau de pluie le plus rapidement possible, au risque de voir les réseaux d’eau collectifs s’engorger lorsque des torrents d’eau tombent. Grâce à la forme de nos tuiles et à leurs revêtements, nous parvenons à casser l’énergie de l’eau pour ralentir sa vitesse d’écoulement et faire en sorte qu’elle s’insère le plus possible dans les réservoirs. En utilisant un simulateur numérique, nous avons calculé que pour une toiture de 60 m², nous pouvons réduire théoriquement de 70 % le rejet d’eau dans le réseau pluvial lors d’un orage de 30 mm durant une heure.

Nous développons une vanne connectée à un service météorologie pour protéger les villes des inondations. Concrètement, elle pourra vidanger automatiquement les réservoirs avant un orage à venir, pour stocker un maximum d’eau lorsqu’il surviendra et ainsi éviter le débordement du réseau collectif.

Nos tuiles sont éco-conçues afin de réduire le plus possible l’impact de la couverture des bâtiments sur l’environnement. Par exemple, nous évitons de mélanger des couches de matériaux, pour que notre système soit facilement recyclable en fin de vie.

Comment est valorisée l’eau après avoir été stockée ?

Étant donné que tous les réservoirs sont interconnectés entre eux, il est possible de faire une descente d’eau à l’endroit souhaité. Par exemple, on peut alimenter des toilettes par gravité, sans consommer d’énergie. Cet usage intérieur est privilégié, car il n’y a pas besoin de pression et c’est l’un des principaux postes de consommation d’eau d’une habitation. Ensuite, tous les usages autorisés avec l’eau de pluie sont possibles comme l’irrigation des végétaux ou le lavage des voitures.

À qui est destiné votre système ?

Il est adapté aux bâtiments collectifs équipés de grandes toitures en pente et principalement ceux gérés par l’État, les collectivités, le secteur public, les bailleurs sociaux. Nous nous adressons par ailleurs à tous les acteurs de l’immobilier, comme les architectes, les bureaux d’études, les promoteurs… Notre système n’est pas adapté aux toitures plates, par contre il peut équiper les façades, afin de créer un bardage utile, comme une seconde peau du bâtiment. Nous privilégions aussi la rénovation, car il s’agit d’un des rares produits adapté à cela. Notre système a été conçu pour éviter de devoir tout casser afin d’adapter les villes au changement climatique le plus rapidement et facilement possible.

Au premier semestre 2024, nous allons installer un démonstrateur à l’école des Mines d’Albi, où notre entreprise est incubée. La structure imaginée va nous permettre de tester notre produit sur différentes inclinaisons de toitures ainsi que sur des façades. Ensuite, nous allons équiper cinq autres bâtiments, dont celui d’une école, une médiathèque et de deux entreprises, propriétaires privés.

Nous bénéficions du soutien de l’Ademe et nous allons engager des démarches pour que nos tuiles modulables puissent être subventionnées, au même titre que les autres systèmes de récupération de l’eau de pluie. Nous poursuivons le développement de notre système afin qu’il puisse également accueillir des panneaux photovoltaïques, qui eux aussi peuvent faire l’objet de subventions.

Module Carré recycle les déchets en revêtements de sol

En 2018, Giovanni Belloni et Nicolas Brutin créent la société Module Carré, qui a réalisé un chiffre d’affaires de 2,2 millions d’euros en 2022. Forte de quatre employés et située à Orléans, l’objectif de la jeune entreprise est de fournir des revêtements de sol fabriqués grâce à des matières plastiques recyclées. « Nous voulons développer des matières recyclées. Nous faisons déjà du PVC et du caoutchouc à partir de pneus usagés. Ces revêtements sont utilisés dans les salles de sports, en intérieur ou en extérieur. Nous proposons aussi des sols en polypropylène recyclé pour les piscines par exemple », détaille Giovanni Belloni, co-fondateur et directeur commercial de Module Carré.

Le polystyrène comme décoration

En 2020, les partenaires souhaitent pousser leur concept plus loin. Ils prennent alors contact avec la société The Good Plastic Compagny qui récupère des déchets en polystyrène tels que les portes de frigos, les claviers d’ordinateurs ou l’électroménager, qui seraient autrement enfouis ou incinérés, pour en faire des granulés de plastique. « Une fois ces plastiques broyés, nous les thermocompressions pour en faire des grandes plaques. Aucun additif n’est employé, que ce soit les colorants ou les colles », précise Giovanni Belloni. Ce matériau rigide, baptisé Polygood, peut être peint, gravé, percé ou découpé comme le serait un panneau en bois, auquel il peut d’ailleurs se substituer. Le cofondateur ajoute : « Nous travaillons beaucoup avec les architectes et les designers d’espace. Nos panneaux ont été utilisés par Nike pour leurs présentoirs et bacs de recyclage de vêtements ou par Adidas pour mettre en avant leurs produits. Il nous arrive aussi de collaborer avec des particuliers quand ils veulent réaliser un plan de travail de cuisine par exemple ». Ces plaques ne contiennent pas de composés organiques volatils (COV). La gamme Polygood se décline en deux catégories, « classic » et « basic », qui assurent une répétabilité des décors. Mais l’entreprise possède une multitude de sources de déchets polystyrène, qui lui permet de s’adapter à la demande client et de créer des décors sur-mesure tout en se passant de colorants.

Ces panneaux se vendent entre 100 € et 200 € hors taxe du mètre carré. « Pour l’instant nous ne sommes pas dans la production à grande échelle, car nous avons besoin de plus de volumes. Mais à terme, nous souhaitons passer à des prix aux alentours de 60 € du mètre carré », développe le cofondateur. Dans une démarche d’économie circulaire, Module Carré réintègre également ses rebuts à sa production.

Développer le recyclage

En 2022, Module Carré a permis de recycler 750 tonnes de déchets, ce qui équivaut à une production d’environ 1 000 panneaux par an. Et l’entreprise ne compte pas s’arrêter là. Elle développe notamment son partenariat avec The Good Plastic Company. En mai 2023, Module Carré est devenue la filiale française du groupe. « Nous nous occupons de promouvoir, stocker et distribuer Polygood », précise Giovanni Belloni. La prochaine étape pour les partenaires est de créer un revêtement de sol en polystyrène.

En parallèle, Module Carré a mis en place un programme pour reprendre et recycler les chutes des panneaux de ses clients pour les transformer en nouvelles plaques. « La prochaine étape pour nous est de se concentrer sur l’ignifugation en utilisant d’autres plastiques recyclés ou des matières naturelles toujours dans l’optique de ne rien rajouter dans nos panneaux », ajoute Giovanni Belloni. Pour l’instant, les panneaux du groupe sont revêtus d’une fine couche de vernis qui permet une tenue maximale au feu (M2) et qui conserve la recyclabilité à 100 % du Polygood.

Et le cofondateur de conclure : « Nous croyons à fond dans notre procédé, à l’économie circulaire et aux nouvelles sources de matériaux qui vont devenir indispensables avec le réchauffement climatique ».

La surpêche conduit à l’extinction des requins de récifs dans le monde

Les requins jouent un rôle majeur dans la chaîne tropique, car ils constituent en effet une espèce dite de « clé de voûte » pour les écosystèmes marins. Ils sont également considérés comme des superprédateurs, tout en présentant par ailleurs une grande vulnérabilité. Depuis des années, la communauté scientifique sonne en effet l’alerte, car cette population est menacée d’extinction, à cause de la pression croissante exercée par l’homme. Une nouvelle étude, publiée dans la revue Science, révèle l’ampleur de la perte globale à travers le monde. Elle a monopolisé durant cinq ans plus de 150 chercheurs issus de plus de 120 institutions situées aux quatre coins du globe.

Les scientifiques ont utilisé un procédé facile à reproduire : la vidéo sous-marine appâtée. Cette méthode consiste à déposer un appât dans une cage pour attirer les requins, sans qu’ils puissent l’atteindre, mais sous l’œil d’une caméra. Il est ainsi possible de compter et d’identifier les différentes espèces qui s’en approchent. Pour avoir une compréhension globale du déclin de cette population, plus de 22 000 stations vidéo sous-marines ont été placées dans 391 récifs coralliens différents, répartis dans 67 pays et territoires, soit l’équivalent de 90 % des récifs mondiaux.

Le dispositif mis en place a permis d’identifier 104 espèces de requins différentes, ce qui représente plus de 77 % de celles qui sont connues pour être présentes sur les récifs coralliens à un moment donné de leur vie. Premier résultat : un peu plus de la moitié (53 %) de la centaine d’espèces de requins identifiés a été comptabilisée moins de dix fois. Un chiffre très faible, qui démontre l’ampleur du déclin. Ensuite, il apparaît que les cinq principales espèces de requins vivant sur les récifs coralliens, c’est-à-dire le requin gris de récif, le requin à pointe noire, le requin à pointe blanche, le requin nourrice et le requin de récif des Caraïbes, ont régressé en moyenne de 63 % au niveau mondial. Cette perte a été calculée par rapport à une estimation réalisée par un modèle numérique de l’abondance attendue de requins sur chaque site, s’il n’y avait eu aucune pression anthropique.

Le déclin est plus important que prévu

Selon Colin Simpfendorfer, auteur principal de cette étude et professeur à l’Université James Cook en Australie, il s’agit de l’une des meilleures estimations du déclin de la population d’espèces de requins, en raison du très grand nombre de récifs et de pays échantillonnés. « Cela nous dit que le problème des requins sur les récifs coralliens est bien pire et plus répandu que quiconque ne le pensait », ajoute-t-il. Quant aux motifs de cette extinction, sans surprise, la surpêche généralisée est la principale responsable. Les auteurs de l’étude écrivent que « les effets directs et indirects de la pêche ont entraîné des changements dans la composition des espèces, passant d’assemblages dominés par les requins à des assemblages dominés par les raies. » De plus, une perte complète des requins et des raies est même observée dans environ 7 % des récifs étudiés.

Les résultats de ces travaux de recherche ont déjà été utilisés pour placer quatre espèces de requins dans la liste rouge des espèces les plus menacées de l’ UICN (Union internationale pour la conservation de la nature). Ils ont également été présentés lors de la dernière conférence de la Convention sur le commerce international des espèces de faune et de flore sauvages menacées d’extinction (CITES), afin d’aider les gouvernements du monde à mieux réglementer le commerce de ces espèces de requins.

À l’échelle planétaire, la zone Indo-Pacifique a globalement des populations de requins mieux préservées que celles de l’Atlantique. Les lieux où le déclin est le moins important sont des sanctuaires, c’est-à-dire des endroits où chaque espèce est totalement protégée des activités de l’homme. Bien que les requins de récif courent un risque considérable dans de nombreux endroits, l’étude démontre tout de même que le déclin d’un récif a relativement peu d’effet sur les récifs situés à des dizaines à des centaines de kilomètres. Les auteurs estiment que même dans une zone menacée d’extinction, le potentiel de reconstitution de l’abondance des espèces de requins est relativement élevé, mais à condition de la protéger et d’interdire la pêche de ces animaux.

Le verre noir ou comment recycler les rebuts de verre

Les arts de la table sont toujours exclus des consignes de tri nationales des emballages. Pour autant, les industriels optimisent le recyclage des rebuts et casses issus de leurs procédés afin de réduire leurs émissions de gaz à effet de serre. Dans cette perspective, le groupe Arc France lance de nouvelles gammes de produits en verre noir sur le marché. On en profite pour faire le point sur le verre noir, son procédé de fabrication et son intérêt pour l’économie circulaire.

Le groupe a quatre usines dédiées aux arts de la table dans le monde : en France, aux Émirats arabes unis, en Chine et aux États-Unis. Il emploie quelque 7 800 personnes, dont 5 000 en France. Le site d’Arques est dimensionné pour une production de 215 000 tonnes. Valentin Singlit y est directeur stratégie et méthodes verrières, en charge des équipes qui pilotent la fusion des fours et de l’atelier qui prépare les matières premières à placer dans les fours. Il nous explique l’intérêt du verre noir pour recycler les chutes et les casses qui sont monnaie courante dans l’industrie du verre.

Techniques de l’ingénieur : Lors de la production du verre, les chutes et la casse sont relativement fréquentes, pourquoi ?

Valentin Singlit : Les chutes et la casse représentent environ un tiers de la production. Il y a des rebuts à cause de défauts, mais surtout des procédés. Notamment, le pressé-soufflé sert à fabriquer des gobelets ou des verres à pied. Une partie du verre sert au procédé, mais est coupé et supprimé dans l’article final. La quasi-totalité de ces rebuts va être réinjectée dans les fours. Le verre noir permet de recycler la part qui ne peut être directement remise dans les fours.

Pour comprendre, il faut s’intéresser rapidement à la chaîne de production. Pour faire simple, on fond le verre, puis éventuellement on le colore et enfin on le met en forme. Il peut également recevoir un décor sur sa surface extérieure. Dans l’art de la table, on a un niveau de qualité de verre supérieur à celui de la bouteille, que cela soit en teinte, ou en décoloration. On ne peut donc pas se permettre la pollution par des oxydes colorants. Une fois que l’on a fait un verre coloré ou décoré, il n’est donc pas remis dans le four de verre transparent, mais servira à faire du verre noir.

Comment fabrique-t-on le verre noir ?

Le verre noir comprend 70 % de verre coloré broyé issu de la production, 20 % de matière vierge et 10 % de colorant. Le colorant est un oxyde de manganèse. Ce ratio 70/20/10 est l’équilibre entre la chimie du verre, notre gisement et les concentrations des matières premières. Cela permet de recycler tout le verre coloré en surface ou dans la masse. Ce processus de fabrication réduit l’impact carbone d’environ 10 % par rapport à la production de verre sodocalcique transparent. En effet, le calcin a déjà été préfondu et demande donc moins d’énergie pour fondre.

Pourquoi ne trie-t-on pas les arts de la table au niveau national ?

Le risque est d’avoir un amalgame entre les différentes verreries de table : sodocalcique, fluosilicate, porcelaine, borosilicate cristal… Ceci risque de créer des pollutions dans les circuits. Historiquement il y avait une pollution au plomb dans la filière arts de la table, ce qui n’est plus le cas aujourd’hui. En effet, le cristal à 24 % de plomb disparaît de plus en plus des étalages.

Un guide des bonnes pratiques RSE pour l’agrivoltaïsme

Depuis quelques années, on constate un intérêt croissant de la filière photovoltaïque pour les terres agricoles. Depuis 2020, des milliers de projets ont ainsi germé, avec leur lot de promesses, mais également de polémiques.

Pour que cette filière naissante se développe sereinement, il lui faut un cadre strict, qui prend en compte les intérêts de tous : des énergéticiens, des producteurs agricoles, de la biodiversité, comme les acteurs des territoires.

Ce cadre existe désormais. Les différents décrets sont en cours de finalisation et des référentiels ont déjà été publiés par l’ADEME. AFNOR certification propose également un label Agrivoltaïsme Culture.

Ce guide des bonnes pratiques RSE de l’agrivoltaïsme s’inscrit dans la suite logique de cette construction de la filière agrivoltaïque.

Qu’est-ce que l’agrivoltaïsme ?

La loi APER apporte enfin un cadre clair pour les installations photovoltaïques sur terrain agricole. Elle définit ainsi l’agrivoltaïsme comme « une installation de production d’électricité utilisant l’énergie radiative du soleil et dont les modules sont situés sur une parcelle agricole où ils contribuent durablement à l’installation, au maintien ou au développement d’une production agricole. »

En outre, l’installation doit apporter directement à la parcelle, au moins l’un de ces quatre services :

  • l’amélioration du potentiel et de l’impact agronomiques ;
  • l’adaptation au changement climatique ;
  • la protection contre les aléas ;
  • l’amélioration du bien-être animal.

Au-delà des apports positifs, cette loi pose également des limites en précisant que l’installation ne doit pas porter « une atteinte substantielle à l’un des services » mentionnés précédemment, ou « une atteinte limitée à deux de ces services. »

Autre point important : toute installation qui ne permet pas à la production agricole de demeurer l’activité principale n’est pas considérée comme de l’agrivoltaïsme, de même qu’une installation qui n’est pas réversible.

En clair, la production d’énergie ne doit pas prendre le pas sur la production agricole ni engendrer de spéculation et elle doit rester un outil au service de l’agriculture.

Un guide pour accompagner les porteurs de projet

Le guide proposé par France Agrivoltaïsme est le fruit de discussions au sein de la commission RSE de France Agrivoltaïsme entre des représentants des collèges Agriculture, Énergie et Technologies agrivoltaïques.

Les recommandations qui sont proposées ont pour but de permettre un développement harmonieux de la filière avec une prise en compte des préoccupations environnementales, sociales, sociétales et économiques de la RSE pour chaque projet.

Voici la liste des 10 bonnes pratiques proposées dans le guide.

Un premier livrable qui en appelle d’autres

Les bonnes pratiques du guide sont le fruit d’un premier travail de la commission RSE de France Agrivoltaïsme. Et ces travaux en appellent d’autres !

Aussi, trois nouveaux groupes de travail ont été mis en place pour approfondir des sujets aussi importants que la modélisation économique, l’assurance, la concertation, mais aussi l’aspect contractualisation.

Autant de travaux nécessaires pour préserver les intérêts des porteurs de projets agricoles et renforcer la pérennité de l’activité, notamment au travers de la transmission.

Car il ne faut pas oublier que si les technologies agrivoltaïques sont simplement des « invitées » de nos terres agricoles, elles le sont pour au moins 20 ou 30 ans. La question de la transmission des projets sur au moins deux générations d’agriculteurs doit donc être considérée sérieusement !

Les résultats des prochains travaux de la commission RSE devraient rapidement arriver, puisqu’un guide de la concertation devrait être publié d’ici fin 2023, de même que des préconisations concernant les contractualisations.

Caractériser finement les microstructures des matériaux grâce à l’EBSD

Le microscope optique et le microscope électronique à balayage sont les deux outils majeurs utilisés pour caractériser les microstructures des matériaux métalliques. Sauf qu’ils atteignent leurs limites en termes de résolution, lorsqu’il s’agit d’étudier les matériaux fabriqués par fabrication additive ou par soudage, ainsi que par tous les nouveaux procédés qui s’éloignent de la métallurgie traditionnelle et présentent des microstructures complexes. Il est alors possible de faire appel à l’EBSD (Electron backscatter diffraction), une technique d’analyse cristallographique, qui permet d’aller encore plus loin dans la caractérisation. Son utilisation est longtemps restée cantonnée au monde de la recherche académique, face à ses contraintes de mise en œuvre. Grâce aux dernières avancées technologiques, ce procédé est devenu plus accessible et le Cetim a décidé de le mettre à disposition des industriels.

« En moins de dix ans, l’EBSD a fait un bond en avant, analyse Mathilde Labonne, ingénieur d’études au Cetim. Auparavant, la lourde préparation de l’échantillon était rendue difficile par le travail sur des échantillons de petites dimensions, non enrobés, car il faut que l’état de surface du matériau soit presque parfait. Il fallait au minimum 4 à 5 heures pour réaliser une cartographie. Aujourd’hui, grâce aux progrès réalisés par les fabricants de caméras pour notamment maximiser la récupération du signal, les exigences de préparation des échantillons sont moins élevées, et il est même possible d’analyser des échantillons enrobés, ce qui n’était pas possible avant. Et grâce à de nombreuses améliorations, le temps d’acquisition pour réaliser des cartographies peut être inférieur à une heure. »

Chaque grain peut être étudié séparément

L’EBSD repose sur l’utilisation d’un microscope électronique muni d’une caméra équipée d’un écran phosphore. Le procédé consiste à faire percuter un faisceau d’électrons à la surface d’un matériau inclinée avec un angle très important (70 degrés) afin d’obtenir un phénomène de diffraction, à l’image de la diffraction de la lumière dans l’eau. Ce faisceau d’électrons est en partie réémis par la surface du matériau, après interaction avec les atomes, et permet d’obtenir une figure de diffraction, appelée figure de Kikuchi. Un logiciel calcule ensuite quelle est l’orientation cristalline du matériau à partir de cette figure afin de visualiser sa structure atomique, et cela en chaque point.

Il en résulte une cartographie où chaque grain est représenté par une couleur, ce qui permet de les étudier séparément, alors que cette analyse est très difficile à réaliser grâce aux microscopes traditionnels. Il est par exemple possible d’observer leur localisation, leur taille, ou comment les grains s’organisent entre eux. Des informations sur les contraintes résiduelles du matériau, via l’observation des désorientations locales, sont également visualisables dans le but, par exemple, de savoir à quel endroit précisément il pourrait se fissurer. Quant à la résolution, elle se révèle bien meilleure, puisqu’avec un microscope électronique à balayage standard, elle est limitée à la dizaine de micromètres, tandis qu’elle peut atteindre quelques dizaines de nanomètres avec l’ESBD.

« Obtenir des informations sur la taille des grains est une problématique à laquelle nous faisons face depuis longtemps, complète l’experte du Cetim. Ici, en une seule cartographie, toute la distribution est accessible. Cela signifie qu’en plus des matériaux possédant des microstructures complexes, cette technique est également pertinente pour un grand nombre de matériaux classiques. Avec l’EBSD, on peut également distinguer les différentes phases des alliages biphasés, comme le laiton, et ainsi connaître la proportion entre la phase alpha et bêta. Il est aussi possible de le faire avec les techniques habituelles de microscopie, mais il est très complexe d’obtenir un résultat satisfaisant et quantitatif. »

Aider les industriels à préparer leurs échantillons

Depuis la fin de l’année dernière, le Cetim propose aux industriels de caractériser leurs matériaux métalliques à l’aide de cette technique. Cette prestation est disponible sur une large gamme de matériaux, même ceux de faible dureté, comme le laiton. Même si la préparation de l’échantillon est plus facile à mettre en œuvre que dans le passé, elle nécessite malgré tout un savoir-faire en matière de qualité de surface du matériau à obtenir avant analyse. Ce centre technique souhaite notamment se spécialiser dans cette préparation pour rendre encore plus accessible l’EBSD.

« Cette technique d’analyse n’est pas très connue dans l’industrie et a encore la réputation d’être un moyen académique, déclare Mathilde Labonne. Notre ambition est de la démocratiser, car elle peut donner des informations plus rapidement, et avec des niveaux de détails meilleurs que ce obtenus avec les techniques traditionnelles. Nous ne doutons pas qu’elle réponde à un besoin, car c’est la meilleure connaissance de la matière que l’on puisse obtenir actuellement. »

Biocide et biocontrôle : grâce à «Willy», Amoéba fait d’une pierre deux coups

Willaertia magna C2c Maky… Derrière cette appellation pour le moins cryptique se cache un microorganisme unicellulaire aux propriétés naturelles remarquables. Surnommé « Willy », ce représentant des « amibes libres[1] » décrit pour la première fois en 1984[2] et découvert dans les eaux thermales d’Aix-Les-Bains en 1998 par le professeur Pierre Pernin, se révèle en effet capable de « digérer » – après les avoir « ingérés » par phagocytose – d’autres microorganismes. Parmi eux notamment, des bactéries pathogènes pour l’être humain : Legionella, Pseudomonas, Listeria, ou encore Klebsiella. Des pathogènes pourtant capables de détourner la machinerie cellulaire des amibes libres et d’en tirer parti pour se multiplier en leur sein… À l’exception, donc, de Willy, qui inhibe au contraire leur multiplication.

La découverte de ce pouvoir singulier de Willaertia magna C2c Maky a ainsi abouti, en 2006, au dépôt d’un brevet portant notamment sur un « nouveau procédé de lutte biologique contre la prolifération de legionella pneumophila ». Une base à partir de laquelle est née, en juillet 2010, l’entreprise innovante Amoéba sous l’impulsion de Fabrice Plasson, ex-directeur général et fondateur de la division française de DiscoverX.

L’amibe Willaertia magna C2c Maky
L’amibe Willaertia magna C2c Maky se révèle capable d’inhiber en son sein la multiplication de bactéries pathogènes. © Amoéba

Un long travail d’optimisation

« Les travaux menés en amont du dépôt de brevet de l’Université de Lyon avaient démontré une activité de cette amibe contre les bactéries pathogènes, et notamment de Legionella, responsable de la légionellose. Amoéba est donc née à partir de ce concept, avec l’objectif de trouver des alternatives aux solutions de luttes non soutenables, basées notamment sur la chimie de synthèse », retrace le président fondateur de l’entreprise basée à Chassieu, près de Lyon.

Avec la volonté de donner naissance au premier biocide biologique au monde destiné au traitement du risque bactérien dans l’eau, la biotech rhodanienne s’est donc tout d’abord attelée à l’optimisation du processus de culture de ce microorganisme. Elle a ainsi dans un premier temps abouti à une approche par adhésion. Un mode de culture qui se révèle toutefois particulièrement difficile à mettre en place à l’échelle industrielle, comme le confie Fabrice Plasson. « Le milieu de culture que nous avons utilisé au départ était en outre un milieu très riche, et donc très cher », ajoute le président fondateur d’Amoéba. Un important effort d’optimisation de sa composition a donc été consenti – et se poursuit d’ailleurs encore aujourd’hui – s’ajoutant ainsi à l’autre « gros travail », tel que le décrit M. Plasson, qu’a été le passage d’un mode de culture en adhésion à une culture en suspension. « Pour produire une même quantité d’amibes, la culture en adhésion nécessite une surface de plusieurs mètres carrés, là où la suspension tient dans l’équivalent d’un bouchon de bouteille… justifie Fabrice Plasson. Or, à l’état naturel, l’amibe vit bel et bien en suspension. Nous avons donc cherché à forcer la nature. »

De l’adhésion à la suspension, et du batch au continu

C’est ainsi en 2014, quatre ans après sa création, qu’Amoéba est parvenue à franchir le cap de la culture en suspension. « Au prix de beaucoup de travail et d’un très grand nombre d’itérations », insiste M. Plasson. Et ce travail ne s’est pas arrêté là : non contente d’être parvenue à maîtriser cette culture en suspension, la biotech lyonnaise s’est ensuite efforcée de transposer le procédé de culture en batch qu’elle avait développé vers un processus fed-batch, et même finalement, il y a cinq ans, vers une approche dite « continue ». « Le Saint-Graal », tel que la qualifie Fabrice Plasson… « L’approche continue permet en effet une production entièrement automatisée, sans intervention humaine, et une optimisation absolue », souligne le dirigeant.

Après avoir progressivement franchi des stades de production de 500 mL, 2 L, 10 L, puis finalement 500 litres, Amoéba vise désormais une échelle encore supérieure, avec l’espoir de porter bientôt son process de production en suspension et en continu à un volume de 5 m³.

Il faut dire qu’elle porte d’importants espoirs industriels, nourris en outre par la découverte d’un autre usage de l’amibe Willaertia magna C2c Maky que sa seule utilisation en tant que biocide.

Biocide… mais aussi biocontrôle

« Nous avons obtenu une première autorisation pour un usage biocide de notre principe actif en 2022, aux États-Unis, à destination des systèmes de refroidissement fermés », se félicite Fabrice Plasson. L’Europe, quant à elle, a toutefois refusé la demande d’approbation de la substance active biologique. Un refus que déplore le dirigeant, qui invoque d’ailleurs, pour l’expliquer, « des raisons nébuleuses »« Ça n’était en effet ni pour des raisons d’efficacité, ni pour un problème de danger : le microorganisme a fait la preuve de son innocuité pour l’Homme et l’environnement », assure Fabrice Plasson.

Qu’à cela ne tienne… Au cours de ses essais d’efficacité menés sur une multitude de bactéries, mais aussi d’autres microorganismes, Amoéba a en effet identifié une autre propriété particulièrement prometteuse de Willy. « Nous nous sommes aperçus que l’amibe non plus vivante, mais coupée en morceaux – lysée – possédait une très forte efficacité contre les champignons, à la fois d’un point de vue curatif et prophylactique. Cette forme renferme en effet plusieurs molécules d’intérêt qui possèdent un double mode d’action : elle stimule les défenses naturelles des plantes, et bloque la germination des spores fongiques. Or, aujourd’hui, 98 % des problématiques liées à la santé des plantes sont dues à des champignons. Cette découverte nous a donc conduits à explorer un autre marché : celui de la protection des plantes par biocontrôle » retrace M. Plasson.

Amoéba possède déjà une petite unité de production sur son site de Chassieu. © Amoéba

Une phase de commercialisation en vue

Après avoir démontré les propriétés fongicides de la forme lysée de son amibe, Amoéba mène donc, depuis 2019, des essais de sa solution de biocontrôle en laboratoire mais aussi en plein champ, dans 15 pays à travers le monde. L’entreprise assure ainsi avoir observé une efficacité supérieure aux autres produits de biocontrôle du marché, et pratiquement au niveau de la plupart des produits de synthèse. Ceci sur un large spectre d’applications : de la vigne au maraîchage, en passant par les grandes cultures de céréales ou de soja.

Et c’est cette fois un « oui » que l’Europe a accordé à la solution, comme s’en réjouit Fabrice Plasson : « En 2022, les USA nous ont également accordé une autorisation de mise sur le marché pour cette seconde application. Outre cette très bonne nouvelle, l’Autriche, Membre Rapporteur de l’Europe a, à son tour, émis une recommandation d’approbation sur cette substance ! Nous sommes donc actuellement en train d’enregistrer les différents produits issus de notre principe actif ».

Amoéba espère ainsi démarrer en 2025 la commercialisation de ses produits de biocontrôle en Europe, aux États-Unis, mais aussi au Brésil. Après sa première marque Biomeba, créée pour l’application biocide de sa substance, l’entreprise rhodanienne a d’ailleurs dévoilé, en juin dernier, sa nouvelle marque destinée quant à elle aux applications de biocontrôle : Axpera.

« Nous sommes aujourd’hui en phase de pré-commercialisation, note Fabrice Plasson. Nous avons ainsi naturellement besoin de produire, et donc, d’une usine… » Si elle possède déjà une petite unité de production sur son site de Chassieu[3], Amoéba ambitionne désormais de se doter d’une usine de grande envergure : équipée de quatre bioréacteurs de 5 000 L, elle devrait atteindre une capacité annuelle de production de 200 tonnes de produit fini, pour 40 tonnes de substance active. De quoi traiter pas moins de 100 000 hectares de cultures.

Amoéba et son projet USIBIAM : réunir les principes de l’industrie 4.0 avec les valeurs de soutenabilité
Au travers de son projet USIBIAM, Amoéba souhaite marier les principes de l’industrie 4.0 avec les valeurs de soutenabilité qui lui sont chères. © Flox Architecture / © GSE

Un site de production qui se veut exemplaire

La future usine d’Amoéba sera érigée au sein de la première ZAC décarbonée de France
La future usine d’Amoéba sera érigée au sein de la première ZAC décarbonée de France. © Flox Architecture / © GSE

Baptisé USIBIAM[4], le projet devrait se concrétiser à Cavaillon[5], dans le Vaucluse, et faire la part belle aux principes de l’industrie 4.0. « Notre usine incarnera ce qu’est l’industrie moderne à nos yeux, et portera en outre nos valeurs de soutenabilité », souligne Fabrice Plasson, qui prévoit ainsi l’installation de panneaux solaires destinés à assurer l’indépendance du site en matière de production d’électricité et d’eau chaude, mais aussi d’un système de climatisation et de chauffage géothermique. « Nous recyclerons également 60 à 80 % de notre eau, assure Fabrice Plasson. Les déchets générés par nos process seront quant à eux valorisés par méthanisation chez un agriculteur voisin, qui nous renverra en échange du gaz vert, destiné à alimenter notre chaudière vapeur. Tout cela sur la première ZAC décarbonée de France, équipée d’une station d’épuration naturelle, et prônant par ailleurs des valeurs de protection de la biodiversité. »

Un futur aboutissement qui ne représente toutefois pas une fin en soi. Dans l’optique de conquérir d’autres segments de marché, Amoéba ambitionne en effet, à terme, de multiplier ce type de site de production vertueux.


[1] Protozoaires nichés dans les sols ou dans l’eau, capables de boucler leur cycle de vie sans nécessairement passer par une phase parasitaire.

[2] Jonckheere, Jf. de et al. “Willaertia magna gen. nov., sp. nov. (Vahlkampfiidae), a thermophilic amoeba found in different habitats.” Protistologica. 20 (1984) : 5-13.

[3] Conçue à l’origine pour produire des substances biocides à destination de l’Europe, l’usine assure aujourd’hui une production annuelle de 500 kg de substance active destinée à mener les essais techniques en champ de la solution de biocontrôle d’Amoéba.

[4] Usine Biocontrôle Amoéba

[5] Amoéba a annoncé en février 2023 le dépôt du permis de construire de son usine 100 % biocontrôle de Cavaillon.

Des qubits répartis dans différents « frigos »

Les ordinateurs quantiques sont aujourd’hui un domaine de recherche en plein essor. Ils promettent la résolution de problématiques très complexes qui ne peuvent être résolues par les ordinateurs classiques.

Mais ces ordinateurs sont encore loin d’être capables de prendre le relais de machines classiques. Étant conçus d’une manière totalement différente, ils sont très sensibles au bruit ambiant et à d’autres problèmes, tels que la décohérence. Ils nécessitent une correction d’erreur pour leur permettre d’effectuer des calculs précis.

« Le grand défi d’IBM notamment est de continuer à augmenter le nombre de qubits tout en améliorant la qualité. Mais pour l’instant, les 433 qubits actuels ne servent à rien, car chaque opération génère 2 % d’erreurs ! Il faut donc augmenter le nombre de qubits. Mais les options technologiques – comme relier des mini-ordinateurs quantiques entre eux – restent à être démontrées », souligne Olivier Ezratty, auteur spécialisé en technologies quantiques et qui connaît bien les projets d’IBM.

30 mètres de distance

L’informatique quantique se heurte encore à plusieurs défis, dont l’augmentation du nombre de qubits et la nécessité de les répartir dans différents systèmes de réfrigération. Différentes expérimentations ont démontré qu’il est possible de relier deux points quantiques proches l’un de l’autre.

En 2019, des chercheurs de l’Université de Princeton avaient démontré une communication entre deux qubits éloignés d’un demi-centimètre sur une puce en silicium. Au Japon, en 2022, une équipe du RIKEN Center for Emergent Matter Science a réussi à relier deux qubits physiquement distants.

Mais augmenter la distance semblait jusqu’à présent impossible. Une équipe de chercheurs de l’ETH Zürich a franchi récemment une étape majeure en démontrant qu’il est possible de relier des qubits à travers différents systèmes de réfrigération. Pour l’instant, la distance est de 30 mètres. Elle ne permet donc pas de relier des qubits répartis dans différents bâtiments.

« Notre expérience démontre que l’information quantique peut être transmise entre des circuits supraconducteurs logés dans des systèmes cryogéniques séparés par des dizaines de mètres, ce qui va au-delà de nos travaux antérieurs sur un système à l’échelle du mètre. Les systèmes cryogéniques interconnectés peuvent indiquer une voie vers la réalisation de systèmes de calcul quantique à plus grande échelle utilisant des réseaux locaux de micro-ondes quantiques, par exemple au sein d’un centre de calcul quantique », explique cette équipe.

Une nouvelle approche de fabrication du fuselage des avions en thermoplastique

Les matériaux composites thermoplastiques intéressent fortement l’industrie aérospatiale. Comparés aux thermodurcissables, ils permettent la fabrication de pièces à une cadence élevée et de les assembler sans perçage, ni rivets ou visseries. Ils offrent une meilleure résistance à l’impact, ce qui constitue un avantage pour les pièces de fuselage qui peuvent subir des chocs, notamment d’oiseaux. Par contre, ces matières se transforment à des températures beaucoup plus élevées (environ 400 degrés, contre 180 pour les thermodurcissables) et sont donc plus difficiles à transformer. Au sein d’un projet baptisé Frames, une équipe de chercheurs a développé une nouvelle approche de fabrication du fuselage arrière des avions en thermoplastique. Ce projet s’inscrit dans le cadre du programme de recherche européen Clean Sky 2, dont l’objectif est de construire la future génération d’aéronefs.

« Nous avons démontré que l’on peut fabriquer le fuselage en double courbure, c’est-à-dire avec des formes complexes, ainsi que les raidisseurs qui servent de supports, en une pièce de structure unique, explique Guillaume Fourage, ingénieur et chef de projet à Compositadour, une plateforme technologique de l’ESTIA (École supérieure des technologies industrielles avancées). Pour parvenir à ce résultat, nous avons développé trois nouvelles briques technologiques qui vont être utilisées par le DLR (Deutsches Zentrum für Luft- und Raumfahrt – l’agence spatiale allemande) afin de fabriquer cette année un démonstrateur de la partie arrière d’un nouvel avion. »

La première brique technologique repose sur le développement d’un outil de simulation de la chauffe pendant le placement de la fibre. Grâce à une caractérisation optique du rayonnement de la source de chaleur, cet outil permet de prédire les températures de traitement pendant la fabrication des panneaux de revêtement. Il apporte une optimisation des processus de moulage des thermoplastiques, notamment en augmentant la vitesse de placement des fibres tout en contrôlant la consommation d’énergie.

Assembler directement la peau du fuselage et les raidisseurs

La deuxième brique concerne la fabrication des raidisseurs. Les scientifiques ont amélioré certains procédés de fabrication tels que le placement de fibre, également appelé AFP pour Automated fiber placement, et qui sert à la mise en forme des composites. « On vient draper des préformes à plat, puis elles sont transférées vers une presse, où elles sont réchauffées pour les ramollir, avant d’être mises sous presse pour leur donner leur forme finale. La pièce est ainsi estampée en un quart d’heure, alors qu’avec des matériaux thermodurcissables, le cycle de cuisson par autoclave prend 5 à 6 heures. »

Un autre procédé a contribué à faciliter la fabrication des supports de fuselage : le moulage continue en compression, également appelé CCM pour Continuous compression moulding. Il s’agit d’une méthode de fabrication des composites thermoplastiques renforcés de fibres. « Grâce à ces deux procédés, nous sommes parvenus à produire des profils de raidisseurs très courbés, y compris des variations d’épaisseur, et ce, dans un temps de cycle compétitif », déclare l’ingénieur.

La dernière brique technologique du projet Frames a consisté à développer un outil métallique, qui se présente sous la forme d’un moule fermé. Il a la particularité d’intégrer des moyens de chauffe, ce qui permet d’éviter l’utilisation d’un autoclave pour la montée en température. Il est conçu pour gérer les dilatations des éléments que l’on place à l’intérieur, et permet d’appliquer une pression sur les différentes zones, notamment aux interfaces entre les raidisseurs et la peau du fuselage. Grâce à lui, il est possible d’assembler directement, pendant la cuisson des pièces, la peau et les raidisseurs, sans opérations supplémentaires.

« Les composites thermoplastiques existent depuis longtemps, mais sont restés un peu dans l’ombre jusqu’à présent, car ils sont difficiles à transformer, ce qui les rend plus coûteux, analyse Guillaume Fourage. Nos différentes solutions technologiques montrent qu’il y a encore beaucoup de potentiel de développement de ces matériaux. Aujourd’hui, ils ont le vent en poupe auprès des industriels, qui ont besoin de réduire le temps d’assemblage des pièces et augmenter leur recyclabilité.  »

Waste Marketplace centralise la gestion des déchets des industriels et du bâtiment

Créée en 2018 par Jérôme de Tomasi, Waste Marketplace est un concept qui a vu le jour grâce au programme intrapreneur de VINCI.

Cette startup issue de la première promotion compte désormais 35 personnes et intervient chaque mois sur plus de 600 chantiers et sites industriels, ce qui représente environ 4 000 contenants installés sur site.

Techniques de l’ingénieur : Qu’est-ce que Waste Marketplace ?

Jérôme de TOMASI - Waste Marketplace
Jérôme de Tomasi, président et fondateur de Waste Marketplace
(Crédit : Waste Marketplace)

Jérôme de Tomasi : Waste Marketplace dispose du statut officiel de « courtier en déchet ». Ce statut nous permet de traiter les déchets de nos clients, sans posséder les moyens techniques nécessaires. Le nom « marketplace » est donc un peu trompeur. Nous proposons des services dans l’esprit marketplace, mais si on utilise une notion bien connue dans le bâtiment, nous sommes plus proches d’un contractant général.

Dans un premier temps, nous recherchons les prestataires capables de répondre aux problématiques déchets de nos clients. Suite à ce sourcing, nous lui proposons les solutions que nous pensons être « idéales », en termes de rapport qualité-prix, de qualité de service, de conformité réglementaire, mais aussi de taux de valorisation.

Le taux de valorisation est un paramètre important, car le choix des prestataires va influer très fortement sur le taux de valorisation des déchets que nous prenons en charge.

Pour le client, quels sont les avantages de passer par Waste Marketplace ?

Lorsqu’un client nous confie l’évacuation de ses déchets, nous devenons son unique interlocuteur. Il a donc l’avantage de disposer d’un seul contrat, tout en ayant accès à la richesse du marché en matière de solutions de valorisation, tout cela à travers un seul portail numérique.

La recherche des meilleures solutions de valorisation des déchets est dans notre ADN. Il faut savoir que l’ensemble des solutions ne sont pas détenues par un seul gros acteur, mais par de nombreux acteurs spécialisés et implantés sur l’ensemble du territoire.

Par exemple, un spécialiste du broyage du béton, aussi gros soit-il, ne dispose pas forcément des équipements nécessaires au retraitement de la ferraille. C’est la même chose pour les déchets dangereux, les déchets liquides, etc.

Au fil du temps, Waste Marketplace a construit un réseau de plus de 600 partenaires répartis sur tout le territoire métropolitain, qui nous permet d’intervenir efficacement partout. Cet ancrage local est une force, car il faut savoir que les déchets se transportent peu. Chaque benne pesant en moyenne deux tonnes, transporter des déchets sur plus de 20 km est une hérésie économique et environnementale.

Concernant le BTP, deux chantiers n’étant par définition jamais au même endroit, avant d’utiliser Waste Marketplace, nos clients devaient, à chaque nouveau chantier, partir à la recherche d’un nouveau prestataire, mais aussi de nouvelles solutions logistiques. Cette recherche particulièrement ardue, nous la prenons en charge, ce qui nous permet d’être en veille permanente et ainsi de gagner en efficacité sur les futurs chantiers ou sites.

Permettez-vous d’améliorer la traçabilité des déchets ?

Au-delà de chercher le meilleur taux de valorisation, notre service propose aux utilisateurs de mieux gérer la traçabilité de leurs déchets.

Pour cela, nous mettons à disposition de nos clients l’ensemble de la data nécessaire à la gestion des déchets, notamment les documents liés aux enlèvements de déchets (bons de pesée, bordereaux de suivi des déchets, etc.), mais aussi les données concernant les filières, c’est-à-dire les types de valorisation et les taux associés.

Ces données sont directement accessibles aux clients, via la plateforme, sans qu’aucune action de leur part soit nécessaire. C’est un gros avantage pour eux, car ces aspects administratifs sont réputés très chronophages et les informations qu’ils peuvent récolter sont souvent très parcellaires, incomplètes, voire inexactes.

Pour éviter les erreurs, nous proposons une traçabilité entièrement numérique, à la place du téléphone, car c’est un moyen de communication non traçable. Ce fonctionnement repose sur une collecte en amont des données du chantier ou du site. Une fois les données rentrées dans l’application, l’enlèvement de benne se fait en deux clics, puisque nous savons déjà qui a demandé l’enlèvement, le type de déchet concerné, la date de demande, le lieu.

Cette méthode nous permet de lever 90 % des sujets problématiques : le camion qui ne passe pas, pas au bon endroit ou au bon moment, le montant facturé qui n’est pas correct, etc.

Le 1er janvier 2023 est entrée en application la REP PMCB. Waste Marketplace jouera-t-il un rôle dans le cadre de cette nouvelle REP ?

La loi AGEC a engendré la création de nouvelles REP, dont la REP PMCB[1]. Cette REP a pour vocation de prendre en charge la fin de vie des matériaux issus du bâtiment avec des objectifs de valorisation.

À terme, elle permettra aux producteurs de déchets qui effectuent un tri de bénéficier de la gratuité de la valorisation en échange d’une écocontribution[2]. Pour le moment elle n’oblige à rien et se concentre sur les points d’apports volontaires destinés à la récupération des déchets des artisans.

Cependant, les artisans ne sont pas notre cible, car Waste Marketplace ne traite qu’avec des grands comptes, qui ont de multiples chantiers et besoin de bennes.

Waste Marketplace se situe entre les producteurs de déchets et les éco-organismes. Lorsque la reprise gratuite sur chantier sera mise en place, nous orienterons alors nos clients vers le ou les prestataires pouvant leur faire bénéficier de la gratuité de reprise des déchets triés.

Néanmoins, tout ne sera pas gratuit, notamment la logistique dans un premier temps, de même que le traitement des déchets en mélange, ou le traitement de certains types de déchets spécifiques. Waste marketplace continuera à jouer son rôle sur ces déchets.

La logistique jouera-t-elle un rôle important dans le cadre de cette REP ?

La logistique sera l’un des vrais sujets de cette REP PMCB, car le tri implique de disposer de plusieurs contenants. Or, la place disponible sur les chantiers étant faible – c’est d’autant plus vrai en domaine urbain –, le tri posera nécessairement des questions logistiques.

Il faudra réussir à multiplier les contenants, en faisant en sorte de réduire la place utilisée, sans pour cela employer des contenants de taille trop faible, car cela obligerait à augmenter le nombre d’allers-retours et ferait donc exploser les coûts logistiques.

Dans ce cas de figure, le risque est bien d’avoir un coût logistique bien supérieur aux coûts de traitement. L’enjeu sera donc de réussir à ajuster le triptyque finesse du tri/place utilisée/coût logistique, ce qui n’est pas simple !


[1] Produits et matériaux de construction du secteur du bâtiment

[2] Depuis le 1er mai 2023, les producteurs de matériaux ont obligation d’indiquer une clause dans les CGV indiquant que l’écocontribution sera répercutée à l’acheteur sans possibilité de réfaction.

Climat : le train reste beaucoup plus cher que l’avion en Europe

Au moment de planifier ses vacances, le comparatif des prix entre les billets d’avion et de train ne fait souvent pas photo. Mis à part les écologistes convaincus prêts à payer plus cher pour ne pas prendre l’avion, le quidam se tournera vers la solution la moins chère : l’avion. Et cela doit arriver bien souvent malgré l’urgence climatique. Greenpeace Europe centrale et de l’Est estime dans un nouveau rapport que « les billets de train sont en moyenne deux fois plus chers que ceux d’avion pour un même trajet ». Entre Barcelone et Londres, le train reviendra même « jusqu’à 30 fois plus cher », alerte l’ONG.

Le rapport a étudié les prix de billets de train et d’avion sur 9 jours pour 112 liaisons européennes. Résultat : pour 79 trajets sur 112, l’avion est moins cher que le train. « EasyJet, Ryanair, Wizz Air, Volotea et d’autres compagnies aériennes low cost proposent les prix les plus bas, et sont dans presque tous les cas moins chères que le train, peut-on lire dans le rapport. Elles proposent souvent des tarifs manifestement inférieurs aux coûts réels. » En plus, certaines compagnies ferroviaires comme la SNCF ne mettent pas les billets en vente plus de deux ou trois mois en avance. « Un avantage de plus pour les compagnies aériennes qui n’ont pas ces restrictions », note Greenpeace.

« Comment, avec de telles différences, demander sérieusement à la population de privilégier le train ? », s’interroge l’ONG. Face à « une fiscalité inéquitable au profit des compagnies aériennes et à contre-courant de la lutte contre la crise climatique », Greenpeace appelle à mettre fin aux exemptions fiscales dont jouissent les compagnies aériennes et les aéroports, notamment l’exonération de la taxe sur le kérosène et de la TVA sur les vols internationaux. Et ce, alors que les compagnies ferroviaires payent des taxes sur l’énergie, la TVA et des péages ferroviaires dans la plupart des pays. « Il est grand temps de rendre le train plus abordable que l’avion en Europe », assène l’ONG.

La France, emblématique de cette différence

Vous l’avez sans doute expérimenté en France, Greenpeace confirme une généralité. Dans l’Hexagone, les billets de train sont en moyenne 2,6 fois plus chers que les billets d’avion. La France se place ainsi en troisième position des pays où la différence de tarification entre le train et l’avion est la plus élevée, à égalité avec la Belgique et derrière le Royaume-Uni (4 fois) et l’Espagne (3,9 fois).

Pour rendre le train plus compétitif que l’avion, Greenpeace demande au gouvernement français de mettre fin aux avantages fiscaux dont bénéficie le secteur aérien et d’augmenter la taxe de solidarité sur les billets, afin de réorienter le manque à gagner dans le développement du train. Ce manque à gagner lié aux avantages fiscaux du secteur aérien en France est estimé à 4,7 milliards d’euros par an par l’association Transport & Environnement.

Greenpeace appelle aussi à créer un « ticket climat » pour rendre le train accessible à tous. Ce forfait, lancé par exemple en Allemagne à 49 € par mois, permettrait d’utiliser le train (hors TGV) de manière illimitée et à un prix abordable. Cela serait aussi l’occasion de relancer les trains de nuit nationaux et transfrontaliers et de renforcer les tarifs réduits sur les trains longue distance pour les personnes à revenus modestes.

Coup de boost pour le biométhane

En difficulté depuis quelques mois, la filière méthanisation vient de bénéficier d’un coup de pouce de l’État. Ce rééquilibrage du soutien public se justifie au regard de l’importance du biogaz dans le futur système énergétique.

La France prévoit en effet un fort développement de la production de biogaz pour sa transition. La valorisation du biogaz s’est historiquement faite par cogénération d’électricité et de chaleur, puis l’injection de biogaz épuré dans les réseaux de gaz a été privilégiée grâce à un soutien public (tarif d’achat, droit à l’injection).

L’ambition est d’injecter 44 TWh/an de ce biométhane en 2030. Un objectif de taille quand on sait que la filière est partie de zéro dans les années 2000 et a peiné à installer la méthanisation dans le paysage agricole, tant par manque initial d’industriel spécialisé que de nouvelles habitudes à prendre pour les agriculteurs ou de préjugés à vaincre pour les riverains. Jusqu’aux crises de 2020-2022, une bonne dynamique s’était néanmoins installée, permettant à la filière de dépasser son objectif 2023 (6 TWh) dès 2022. Aujourd’hui plus de 10 TWh/an sont injectés.

Plus de souplesse administrative

Mais les deux dernières années, comme d’autres activités, la filière méthanisation a souffert de l’inflation du coût des matériaux et de l’énergie. Cette hausse des dépenses se heurtait à l’obligation de réduire les coûts de production imposée par les pouvoirs publics avec une diminution régulière du tarif d’achat auquel le biométhane est valorisé. « Les conditions économiques devenaient trop difficiles pour les installations existantes et les nouveaux projets. Face au risque de ne pas atteindre les objectifs 2030 de la Programmation pluriannuelle de l’énergie, la Direction générale énergie-climat (DGEC) a repris plusieurs propositions des acteurs de la filière, en publiant un décret et deux arrêtés le 13 juin 2023 », explique Raphaël Boukobza, juriste au Club Biogaz de l’ATEE.

Le décret apporte deux souplesses aux installations de méthanisation. Pour les projets en cours ou à venir, si un contentieux (opposition de riverains par exemple) empêche l’installation de démarrer, les exploitants peuvent désormais attendre la mise en service effective pour profiter du tarif d’achat de biométhane. Ce n’était pas le cas auparavant, car le temps du contentieux – parfois en années – se déduisait de la période de 15 ans d’accès au tarif. Le délai est illimité pour les contrats signés après le 24 novembre 2020, et il est de trois ans pour ceux signés avant.

L’autre facilité est de donner la possibilité aux exploitants de méthanisation, les deux prochaines années, de changer une fois par an l’estimation de leur capacité maximale de production (Cmax) pouvant bénéficier du tarif d’achat. Avant, ceci n’était possible qu’une fois tous les deux ans. Maintenant, une plus grande flexibilité sera possible, en particulier pour que les exploitants augmentent leur production lorsque l’approvisionnement national en gaz est tendu, comme l’hiver dernier.

Améliorations tarifaires

Les deux arrêtés, quant à eux, améliorent les conditions tarifaires de valorisation du biométhane. L’un précise qu’en cas de dépassement de Cmax, le biométhane – qui ne bénéficie alors plus du tarif d’achat – sera valorisé au prix journalier constaté sur le marché de gros du gaz naturel. À charge pour l’exploitant de voir si ce prix lui convient, mais il dispose ainsi d’un débouché économique.

L’autre arrêté conduit à une amélioration du tarif d’achat par différents ajustements.

  • L’annualisation de Cmax plutôt que sa mensualisation. Cette mesure très attendue permet d’éviter un torchage du biogaz l’été quand il y a un écrêtement de la demande de gaz sur le réseau. Cette annualisation donnera également plus de flexibilité aux producteurs ayant des soucis de production.
  • Une réhausse d’environ 5 % du tarif en annulant les dégressivités passées de 0,5 % par trimestre depuis novembre 2020. Ce taux de dégressivité est néanmoins maintenu pour que la filière continue ces efforts de compétitivité.
  • La possibilité de cumuler les aides financières de l’Ademe avec le tarif d’achat, alors qu’auparavant une décote de 5 €/MWh s’appliquait. Le taux de rentabilité interne avant impôts du projet doit néanmoins rester inférieur à 10 %.
  • Une meilleure prise en compte de l’évolution des coûts dans la formule tarifaire grâce une mise à jour deux fois par an au lieu d’une, et à l’ajout d’une indexation sur le coût de l’énergie.
  • La possibilité pour les installations de méthanisation d’autoconsommer une partie de leur biogaz pour la pasteurisation, l’hygiénisation et le prétraitement des produits entrants dans le méthaniseur. Dans ce cas, le tarif d’achat bénéficiera d’une prime proportionnelle au volume de gaz autoconsommé.

« Avec toutes ces mesures, la filière estime que la revalorisation des tarifs d’achat est d’environ 18 %. Elle redonne des perspectives encourageantes pour les installations existantes et pour le développement de projets de biométhane en injection » complète Raphaël Boukobza. Les représentants de la filière (Syndicat des énergies renouvelables, France Gaz, France Gaz Renouvelable, Club Biogaz de l’ATEE) estiment même qu’avec le lancement de nouveaux appels d’offres et la mise en place de certificats de production de biométhane, la France pourrait produire 70 TWh de biométhane en 2030, soit 20 % de sa consommation. Pour être crédible, il faudra aussi qu’elle fasse des efforts en matière d’efficacité énergétique. D’ailleurs le récent arrêté incite les installations à limiter leur consommation d’électricité à 15 % de l’énergie qu’elles produisent, et à ne plus utiliser de gaz d’origine fossile. Quand on est vertueux, il faut l’être jusqu’au bout…

Tarif achat GRDF
Différents niveaux de tarifs d’achat du biométhane selon les années et les types d’installation. Source : GRDF.

Juillet 2023 : des records de chaleur liés au dérèglement climatique

Le mois de juillet 2023 a été battu de nombreux records de chaleur. Selon une analyse de Karsten Haustein, climatologue à l’université de Leipzig, la température moyenne mondiale de ce mois devrait être supérieure de 1,3 à 1,7°C à la température moyenne des mois de juillet de l’ère préindustrielle. C’est 0,2 °C (+/-0,1°C) de plus que le précédent record établi en juillet 2019. Ce mois de juillet record intervient après un mois de juin également sans précédent.

Karsten Haustein réagit : « Non seulement ce sera le mois de juillet le plus chaud, mais le mois le plus chaud jamais enregistré en termes de température moyenne mondiale absolue. Nous devrons peut-être remonter des milliers, voire des dizaines de milliers d’années en arrière pour trouver des conditions aussi chaudes sur notre planète. »

Des vagues de chaleur dues au changement climatique

Tout au long du mois, des vagues de chaleur ont frappé le sud de l’Europe, certaines parties des États-Unis et de la Chine. Le 31 juillet, la ville de Phoenix en Arizona enregistrait ainsi son 31e jour consécutif à plus de 43°C. À Pékin, il a fait plus de 35°C pendant 27 jours. Dans la nuit du 16 au 17 juillet, il faisait 49,9°C dans la Vallée de la mort aux États-Unis. Et le 16 juillet, la Chine battait également un record, le thermomètre atteignant 52,2°C au Xinjiang (ouest).

Le changement climatique a rendu les vagues de chaleur plus chaudes, plus longues et plus fréquentes. Ces vagues de chaleur en Europe et aux États-Unis auraient été « pratiquement impossibles sans le changement climatique », estime une étude d’attribution rapide réalisée par les scientifiques du World Weather Attribution (WWA). La vague de chaleur en Chine a pour sa part été rendue « au moins 50 fois plus probable » par le dérèglement du climat, d’après l’analyse.

« De tels événements peuvent maintenant se produire environ une fois tous les 15 ans en Amérique du Nord, environ une fois tous les 10 ans dans le sud de l’Europe et environ une fois tous les cinq ans en Chine », préviennent les chercheurs du WWA. Et cela risque de s’empirer si les émissions de gaz à effet de serre ne sont pas rapidement stoppées et que le monde s’éloigne de la neutralité carbone, préviennent les scientifiques. Dans un monde à +2°C, « de tels événements deviendront encore plus fréquents, se produisant tous les 2 à 5 ans ».

Des puces neuromorphiques imitent le cerveau pour être plus performantes

L’intelligence artificielle ne cesse de révolutionner les usages grand public et professionnels en franchissant des étapes majeures. La première génération d’IA était basée sur des règles et émulait la logique classique pour tirer des conclusions raisonnées dans un domaine spécifique et étroitement défini.

La seconde génération s’intéresse principalement à la détection et à la perception, comme l’utilisation de réseaux d’apprentissage en profondeur (deep learning) pour analyser le contenu d’une image vidéo. Cette nouvelle génération étend l’IA à des domaines correspondant à la cognition humaine, tels que l’interprétation et l’adaptation autonome.

Mais surtout, il s’agit de présenter à la fois des performances élevées tout en affichant une efficience énergétique. Les réseaux neuronaux conventionnels affichent une forte consommation énergétique.

Faible latence

Pour relever ce double défi, de nombreuses startups misent sur l’informatique neuromorphique. Sur le papier, le principe est simple : concevoir une puce informatique qui simule les systèmes neuronaux biologiques.

L’architecture des ordinateurs sépare physiquement le processeur et la mémoire où sont stockées les données. Avec l’informatique neuromorphique, les données sont traitées et stockées dans une seule puce. Une prouesse relevée par quelques deeptech et laboratoires de recherches.

C’est le cas de SynSense. Issue de l’École polytechnique et de l’Université de Zurich et créée en 2017, cette start-up développe des processeurs neuromorphiques dédiés au traitement de la vision en temps réel.

Son SoC (system on a chip) comprend un capteur et un processeur multicœur qui peuvent capturer des informations visuelles, les traiter en temps réel et effectuer une analyse intelligente de la scène avec une consommation d’énergie inférieure à 1 milliwatt et une latence de bout en bout de 5 à 10 millisecondes.

Cette faible consommation s’explique par le fait que « les capteurs n’encodent que les parties d’une image qui changent, réduisant ainsi l’information nécessaire pour transmettre le flux d’images. En un mot, notre capteur ne consomme de l’énergie que lorsqu’il y a quelque chose à calculer », nous explique Dylan Muir, vice-président des opérations de recherche mondiales chez SynSense.

Confidentialité des données

Cette faible consommation s’explique également par le recours au Edge computing, pour schématiser, des mini data centers locaux. « Notre architecture est à la fois frugale en énergie et plus réactive, car le calcul IA est sur les machines proches des capteurs », précise Raphaël Frisch, CEO cofondateur de HawAI.tech, une start-up de Grenoble dont la particularité et de s’appuyer sur l’IA frugale.

Le recours au Edge computing présente deux autres intérêts majeurs : la confidentialité des données et une faible latence, car les informations ne sont pas gérées dans le cloud, mais au niveau des machines.

Ces puces très performantes et économes intéressent de nombreux secteurs parmi lesquels la robotique, l’AR/VR, la santé, la logistique ou encore l’automobile.

 

Un outil autonome en énergie qui rend intelligent les réseaux d’eau potable

Créée en 2012, la start-up Save Innovations a développé un outil pour mettre en place des réseaux d’eau potable intelligents, que l’on appelle également smart water. Il se compose d’une turbine capable de produire de l’électricité en toute autonomie dès qu’un faible flux d’eau la traverse, ainsi qu’un module de capteurs pour mesurer plusieurs paramètres dans l’eau. L’entreprise souhaite aider les gestionnaires de réseaux à mieux surveiller la qualité de l’eau pour respecter les normes sanitaires. Elle veut aussi aider à la préservation de la ressource en eau, en facilitant la détection des fuites, qui sont responsables d’environ 20 % des pertes en volume d’eau en France. Save innovations est lauréate du concours I-Nov 2019 organisé par l’Ademe et a reçu le label « Seal of Excellence » délivré par la Commission européenne. Olivier Salasca, directeur général de cette start-up, nous parle de la technologie développée, sur le point d’être industrialisée.

Techniques de l’Ingénieur : Pourquoi est-ce important de surveiller les réseaux eau potable ?

Olivier Salasca, directeur général de Save innovations. Crédit : Save innovations
Olivier Salasca, directeur général de Save innovations. Crédit : Save innovations

Olivier Salasca : En 2020, la Commission européenne a publié une refonte de la Directive Cadre Eau qui encourage les pays à plus de prévention dans la gestion des risques sanitaires. La France impose également aux gestionnaires de réseaux de limiter les fuites dans leurs canalisations. Il est important de cartographier les réseaux à l’aide de capteurs pour comprendre sur le plan physico-chimique ce qui se passe dans l’eau afin de prévenir tous risques de pollution. Par exemple, la présence d’une fuite peut entraîner l’entrée de matières à l’intérieur du réseau. Des accélérations brusques de débits peuvent aussi provoquer une remise en suspension de la matière dans l’eau. À certains endroits également, l’eau peut stagner et des bactéries peuvent se développer. Aujourd’hui, face à ces risques, les gestionnaires de réseaux ont tendance à injecter des quantités trop importantes de chlore dans le réseau. Cette manière de procéder ne va pas dans le bon sens, tant pour la santé des consommateurs, le goût de l’eau et l’environnement.

Face à cette situation, quelle technologie proposez-vous ?

Le système intégré développé par Save innovation regroupe une turbine pour produire de l'énergie à un module de capteurs d'analyse de la qualité de l'eau. Crédit : Save innovations
Le système intégré développé par Save innovation regroupe une turbine pour produire de l’énergie à un module de capteurs d’analyse de la qualité de l’eau. Crédit : Save innovations

Nous avons développé une turbine que l’on immerge dans l’eau, et lorsque l’eau passe à travers, elle fait tourner des pales, qui elles-mêmes font tourner un rotor constitué d’aimants. De chaque côté de ces aimants, sont placés des circuits en cuivre pour créer un alternateur, et il est conçu de telle façon qu’il n’y a pas de frein magnétique lors de faibles vitesses de rotation des pales. Grâce au design magnétique de cet alternateur que nous avons développé, nous parvenons à produire de l’énergie dès que l’eau s’écoule à une vitesse d’un m3 par heure. Cette performance est également liée au fait que la turbine est totalement immergée dans l’eau et qu’il n’y a pas d’arbre de transmission allant des hélices jusqu’à l’alternateur, qui est lui-même est dans l’eau. Cette première technologie constitue la brique énergétique de notre outil. Ensuite, nous avons développé un module pour mesurer sept paramètres physico-chimiques de l’eau recommandés par la Commission européenne, et qui sont le débit, la pression, le pH, le chlore, la température, la conductivité, et la turbidité.

Quels sont les avantages de votre procédé ?

Notre outil s’installe très simplement dans les canalisations d’eau potable existante ou neuve, il suffit d’enlever un bout de canalisation de 40 cm, pour la remplacer par notre canalisation intelligente, qui produit de l’énergie et prend des mesures. Notre système modifie très peu la pression du réseau, puisque son impact est inférieur à 0,1 bar. Concernant la transmission des mesures, elles sont principalement envoyées aux gestionnaires des réseaux par GSM 3G et 4G, mais il est également possible de le faire par Wi-fi ou ondes radio, selon les demandes des clients.

Pour cartographier un réseau d’eau potable, il faut installer de nombreux capteurs, environ un tous les 5 à 6 km de canalisation. La clé pour les déployer à grande échelle est l’autonomie en énergie. Il n’est pas envisageable de les alimenter grâce à du courant électrique, car cela nécessiterait des travaux de voirie trop importants. Ceux qui fonctionnent sur batteries ont leurs limites, car il faut remplacer régulièrement les piles. Du coup, la plupart transmettent les données toutes les 48 heures, afin d’éviter de les remplacer trop fréquemment, mais cela ne permet pas de détecter une anomalie sur le réseau en temps réel. Notre système est totalement autonome en énergie avec une durée de vie de 10 ans, et transmet les données toutes les minutes. Un point important concerne la maintenance de ces capteurs. Nous avons développé notre propre système d’analyse des paramètres de l’eau et obtenu une stabilité ainsi qu’une durabilité des mesures. Du coup, il n’y a pas besoin de les calibrer avant six mois, et nous visons une à deux calibrations par an.

Enfin, étant donné que notre outil s’installe dans les canalisations, il ne doit pas dégrader la qualité de l’eau. Aucun matériau impropre à la consommation d’eau potable ne doit être utilisé, ce qui limite beaucoup les choix et constitue une vraie barrière au développement d’une telle technologie. Notre outil est fabriqué à l’aide de polymères et de céramiques spécifiques, et toutes les pièces de roulement fonctionnent sans aucun lubrifiant. Nous avons ainsi réussi à obtenir l’homologation ACS (Accréditation de conformité sanitaire).

Comment parvenez-vous à identifier les fuites ?

Nous ne pouvons pas les identifier précisément, mais notre système facilite leur localisation. Les réseaux sont déjà divisés en secteurs, et les gestionnaires analysent les volumes d’eaux en entrées et ceux en sorties à travers la consommation des ménages, et parviennent ainsi à déceler les fuites en calculant la différence. Étant donné que nos capteurs quadrillent plus finement le réseau et qu’ils sont équipés de débitmètres, nous aidons à mieux localiser les fuites, puisque le secteur à surveiller est plus petit. De plus, la nuit, il n’y a quasiment pas de consommation d’eau, et nos capteurs aident à identifier les débits anormaux.

À quel stade se trouve votre projet ?

Notre turbine qui produit de l’électricité est déjà installée depuis 6 ans en France et dans des pays limitrophes chez des gestionnaires de réseaux d’eau potable. Elle leur a permis d’alimenter leurs propres capteurs d’analyse de la qualité de l’eau. Notre module de capteurs a été développé dans un second temps et tous les pilotes que nous avons développés ont été testés et validés sur le terrain. Nous sommes actuellement dans une phase d’industrialisation de notre système intégré, c’est-à-dire la turbine couplée à notre module de capteurs, et nous commençons à le déployer en France et à l’international. Nous travaillons déjà avec Suez et Véolia et nous avons déjà des premières commandes en région Rhône-Alpes et en Suisse.

ARTEMIS, objectif Lune !

Le programme américain ARTEMIS, également financé timidement – à hauteur de 7 % – par l’Agence Spatiale Européenne, prévoit donc un vol habité sur le sol lunaire d’ici 2025, plus raisonnablement 2026. Développé par la Nasa, le programme prévoyait initialement une mission habitée pour 2028, mais sous l’impulsion du Président de l’époque Donald Trump, cette dernière a été avancée de trois ans.

Une des ambitions d’ARTEMIS est de s’installer durablement sur la Lune pour y mener des recherches et des expériences sur le long terme. Ceci implique donc la mise en fonctionnement d’un poste permanent sur notre satellite. Site qui servira accessoirement à mettre au point de nombreux équipements et appareils destinés à être utilisés lors de futures missions martiennes. 

Le programme ARTEMIS se déroule en trois phases successives, dont les dates d’exécution, comme c’est souvent le cas, sont sujettes à caution. ARTEMIS 1, la première étape, a vu la fusée géante de la Nasa, le SLS (Space Launch System), décoller avec succès, le 16 novembre 2022 :

Au passage, le SLS a lancé le vaisseau Orion vers la Lune. Ce vaisseau, qui devra abriter les astronautes pour la prochaine mission lunaire, a poursuivi son voyage jusqu’à notre astre le plus proche, puis est revenu sur Terre, pour s’amerrir 25 jours après son lancement dans l’océan Pacifique, comme prévu. Comme espéré, le bouclier thermique géant – cinq mètres de diamètre – a parfaitement résisté à la rentrée dans l’atmosphère, après avoir parcouru plus de 2,2 millions de kilomètres dans l’espace. En 2014, un premier test avait été mené avec ce type de capsule, mais celle-ci n’avait pas quitté l’orbite terrestre, et son entrée dans l’atmosphère s’était faite à une vitesse inférieure, de l’ordre de 32 000 km/h.

Dès fin 2024, ARTEMIS 2 doit emmener 4 astronautes (3 Américains, dont une femme, et un Canadien), à bord de la capsule Orion, en orbite autour de la Lune, avant de revenir sur Terre :

Cette étape cruciale du programme permettra de valider tous les appareils et les technologies mis en jeu pour mener la mission finale, ARTEMIS 3. Avec ARTEMIS 2, l’homme revient en orbite lunaire pour la première fois depuis 1972.

En 2025, ou peut-être un peu plus tard, la mission ARTEMIS 3 doit voir aboutir le programme ARTEMIS, à savoir emmener des astronautes sur le sol lunaire. L’équipage sera constitué de 4 astronautes, dont deux descendront à la surface de la Lune à bord du vaisseau HLS pour y rester 6,5 jours durant. Cette mission ARTEMIS 3 sera suivie d’autres missions, le but étant de rester de plus en plus longtemps sur notre satellite naturel, pour l’étudier bien sûr, et mettre au point et tester les technologies innovantes nécessaires pour rendre possible une future mission martienne.

Un retour sur la Lune dans un délai relativement court donc, dont le Nasa a donné de nombreux détails sur les contours, à l’instar des sites d’alunissages, qui seront situés près du pôle Sud de l’astre. A cet endroit, la lumière du soleil permet à certaines zones d’être éclairées toute la journée, tandis que d’autres, au fond des cratères, sont continuellement à l’ombre. Cette zone permet donc d’imaginer produire de l’énergie solaire de manière continue, et de limiter les chutes extrêmes de températures. Au fond des cratères, là où les rayons du soleil ne parviennent pas, se trouvent des réserves de glace, qui pourraient être exploitées soit pour produire de l’eau, de l’oxygène voire du carburant sous forme d’ergols.

Prochaine étape donc avec ARTEMIS 2, dont le lancement est actuellement prévu pour le mois de novembre 2024.

De futures constructions en pâte de mycélium

Ces dix dernières années ont vu un élargissement important des recherches sur les biomatériaux. Une tendance qui concerne notamment les composites bio-fabriqués à base de mycélium (réseau de filaments des champignons) et biosourcés (la sciure ou la paille). Leurs excellentes propriétés thermiques et acoustiques leur promettent déjà de remplacer les mousses et plastiques des intérieurs actuels. De plus, le mycélium est peu énergivore et peut se contenter pour se nourrir de produits issus de l’agriculture. Son faible impact climatique a logiquement fait de l’œil aux membres du Hub for Biotechnology in the Built Environment. Cette collaboration créée en août 2019 regroupe des bio-scientifiques de la Northumbria University et des architectes de l’université de Newcastle. Leur objectif : réaliser des constructions durables issues du vivant.

Une construction fongique à toute épreuve !

Pour obtenir un mycélium exploitable, les chercheurs mélangent d’abord des spores avec des graines qui leur serviront à la fois de support et de réserve de nourriture. La mixture ainsi obtenue est placée dans un moule, lui-même mis dans un environnement sombre, humide et chaud. Le mycélium va alors pouvoir croître tranquillement jusqu’à atteindre la densité souhaitée, c’est-à-dire juste avant la maturation des champignons. Le mycélium est alors séché pour freiner drastiquement sa progression. Voilà donc un matériau peu cher et en accord avec l’environnement… Seulement voilà, il demande en retour un apport constant en oxygène qui limite du même coup la forme ainsi que la taille des moules qui le contiennent. C’est là que l’équipe anglaise a eu un coup de génie ! Elle a choisi d’utiliser du textile tricoté. Autrement dit, les moules sont perméables à l’oxygène. Ne reste plus qu’à ajouter un peu de poudre et de fibres de papier, de l’eau, de la glycérine et de la gomme xanthane. Et voilà une pâte de mycélium prête à l’emploi !

Un prototype de construction basé sur son mycélium a été présenté par l’équipe scientifique dans Frontiers in Bioenegineering and Biotechnology le 14 juillet 2023. Prénommé BioKnit (knit signifiant « tricot » en anglais), il s’agit d’un dôme de 2 mètres de diamètre et haut de 1,8 mètre. Pour le fabriquer, les chercheurs ont d’abord conçu un coffrage – un cadre flexible – en tubes de textile tricoté, qu’ils ont ensuite rempli de pâte de mycélium à l’aide d’un pistolet à injection. En croissant, le mycélium a rigidifié de lui-même l’ensemble de la structure.

construction mycélium
BioKnit, la structure en mycélium haute de 1,8 mètre pour un diamètre de 2 mètres. Crédits : Hub for Biotechnology in the Built Environment/Frontiers Science News.

À l’heure des tests mécaniques, l’équipe a souhaité vérifier la résistance de leur œuvre comparée à celle basée sur un mycélium conventionnel. Résultats : une capacité de flexion 16 fois plus importante (90,1 Mpa contre 5,6), une résistance à la compression 4,9 fois supérieure (12,3 Mpa contre 2,5), une densité moyenne plus haute de 23 % (306 kg/m³ contre 249 kg/m³) et trahissant une meilleure solidité. À l’avenir, cette fameuse pâte de construction pourrait mener à des édifices associant légèreté des matériaux et complexité des formes architecturales.

Le Slip français mise sur les volumes pour une commande inédite

On aimerait bien s’habiller made in France de la tête au pied tous les jours, mais le prix reste un frein important pour la plupart des Français. Afin de rendre le made in France plus accessible, Guillaume Gibault, fondateur et président du Slip français a eu une idée simple : atteindre 50 000 précommandes de sous-vêtements d’ici au 31 juillet pour diviser le prix de vente par deux.

L’opération « Le Slip des Français » propose deux modèles : un slip et un boxer. « Si l’on prend notre boxer bleu habituel, on en vend environ 8 000 chaque année, mais on lance la fabrication par 2 000 », explique Guillaume Gibault. Le lancement d’une commande groupée de 50 000 pièces permet des économies d’échelle sur tous les postes de dépenses.

Des économies d’échelle grâce à une commande inédite

Cette commande inédite depuis 30 ans en France permet une économie de -25 % sur la matière, -22 % sur la confection et -18 % sur le transport. « C’est l’effet volume pur et dur », se félicite Guillaume Gibault. « 2 000 pièces, c’est l’affaire de 7 jours de production, mais pour les 50 000 pièces, les entreprises organiseront leurs ateliers pendant plusieurs semaines pour répondre à cette commande, ce qui permet une meilleure organisation et donc des économies. »

C’est aussi -45 % grâce à une légère modification du design. « Habituellement, on brode une cocarde en pièce rapportée ; ici, la marque va être tissée directement dans la ceinture, ce qui retire une opération de broderie et donc un gain significatif sur cette étape », complète Guillaume Gibault.

Enfin, la marque jouera fortement sur sa marge opérationnelle. « Le temps et les ressources mobilisées habituellement pour fabriquer 2 500 pièces sont ici répartis sur 50 000 pièces », peut-on lire sur la page de prévente. Résultat des courses : elle propose son produit iconique à 20 €, livraison comprise, au lieu de 40 €.

Un rêve de renouveau industriel

Pour cette opération, le Slip français s’entoure de ses partenaires historiques. « On a Bertheas & Cie qui fait les élastiques, Neyret qui fabrique les étiquettes de composition, Éminence qui tricote et confectionne et Logtex qui est notre partenaire logistique », résume Guillaume Gibault.

« On se limite à 50 000 pièces, car on a pris l’engagement de livrer avant Noël, mais on espère aller plus loin l’année prochaine, projette le fondateur du Slip français. 50 000 pièces c’est beaucoup, mais ce n’est que 0,02 % des Français. Éminence fabrique un million de pièces par an, donc on a la possibilité d’aller beaucoup plus loin. »

 


Crédit image de une : pikisuperstar – freepik