Techniques de l’Ingénieur partenaire de la 9ème édition des Journées Nationales de l’Ingénieur

Les Journées Nationales de l’Ingénieur (JNI) permettent, au travers de conférences, colloques, journées portes ouvertes, « hackathons », concours, salons virtuels, présentations des métiers, etc., de faire des rencontres et des échanges pour répondre aux objectifs suivants : 

  • Rassembler les membres d’une communauté aux multiples facettes. 
  • Promouvoir et valoriser les métiers des sciences aux yeux du grand public et des décideurs, pour susciter des vocations et favoriser l’emploi. 
  • Renforcer chez les ingénieurs le sentiment d’appartenance à un corps professionnel pleinement engagé dans les grandes transformations de notre monde afin qu’ils puissent davantage se faire écouter sur ces questions. 
  • Encourager les ingénieurs à s’engager, à entreprendre et innover afin d’agir pour le développement durable et la décarbonation de l’industrie. 

Cette nouvelle édition des JNI, organisée par l’association Ingénieurs et Scientifiques de France (IESF) et en lien avec le World Engineering Day (WED), proposera une succession d’animations en format hybride (présentiel et/ou distanciel) qui réunira plus de 10 000 participants (élèves, jeunes diplômés, ingénieurs en activité, professeurs, acteurs économiques, décideurs politiques et grand public).

Tous ces événements seront préparés avec l’aide des IESF régionales, des associations d’alumni membres d’IESF et des partenaires des JNI avec pour objectif commun de montrer comment chaque jour les ingénieurs et les futurs ingénieurs innovent et contribuent à construire le monde de demain.

Pour inaugurer les JNI, un colloque est programmé le 4 mars pour que tous les acteurs du monde puissent s’exprimer autour de la chaîne de valeur de l’hydrogène (H2) et faire un panorama complet du sujet avec les thématiques de la production, du stockage, du transport, de l’écosystème industriel, de la distribution, mais aussi des grands segments d’usage qui ont d’ores et déjà recours à l’hydrogène. Enfin, les aspects économiques et les coûts seront également abordés.

Si vous souhaitez en savoir plus sur les Journées Nationales de l’Ingénieur et assister à un des nombreux événements répartis sur le territoire, rendez-vous sur le site officiel des JNI 2022.

Détecter les populations touchées par la faim grâce à l’intelligence artificielle

Pour détecter les populations les plus susceptibles d’être touchées par la faim, une approche classique consiste à réaliser des enquêtes ménages en se déplaçant sur le terrain de manière à appréhender au plus près les familles et leur consommation alimentaire. Cette méthode permet d’obtenir de nombreux indicateurs de sécurité alimentaire pertinents et utiles, parmi lesquels deux sont particulièrement exploités par les organisations étatiques et les ONG : le score de consommation alimentaire (SCA) et le score de diversité alimentaire (SDA). Très précieux pour la compréhension de la situation alimentaire, ces indicateurs présentent tout de même l’inconvénient de nécessiter des enquêtes longues et coûteuses.

Une équipe de scientifiques du Cirad (Centre de coopération internationale en recherche agronomique pour le développement) a développé une nouvelle méthode d’approximation de ces indicateurs, plus facile à mettre en œuvre. Elle vient d’être testée avec des résultats prometteurs au Burkina Faso et a fait l’objet d’une publication dans la revue Expert Systems With Applications. Les chercheurs ont utilisé des indicateurs indirects de la faim, provenant de données publiques et donnant une information partielle mais significative sur le niveau d’insécurité alimentaire, comme la météo, la densité de population, la répartition des hôpitaux et des écoles sur un territoire, les prix du maïs… « Savoir quel est le nombre d’hôpitaux et leur localisation n’est pas une information directe de l’insécurité alimentaire, mais donne une indication sur le niveau sanitaire d’un territoire. Et l’on sait que ces deux composantes, alimentaires et sanitaires, sont corrélées », analyse Hugo Deléglise, docteur en science des données au Cirad.

Au total, plus de 120 variables indirectes de la faim ont été retenues, puis intégrées dans un outil de modélisation de type apprentissage automatique (machine learning). Face à la complexité des données, certaines pouvant être des valeurs numériques, des images ou des textes, ce travail de recherche a également nécessité l’emploi de modèles de type réseau de neurones (deep learning). L’algorithme a ensuite été entraîné sur un historique de données de 10 années, et grâce aux enquêtes sur le terrain effectuées au Burkina Faso depuis 2009, des liens de corrélation avec les deux scores d’insécurité alimentaire (SCA et SDA) ont pu être effectués.

L’altitude des communes a une incidence sur l’insécurité alimentaire

Depuis plusieurs dizaines d’années, les experts utilisaient déjà un grand nombre des 120 variables dans leurs analyses pour détecter les zones les plus touchées par la faim. L’originalité de cette nouvelle approche utilisant l’intelligence artificielle est que le modèle est guidé par les données elles-mêmes et non par des règles fixées empiriquement par des humains. « Du coup, certains liens peuvent être contre-intuitifs, ajoute le chercheur. Par exemple, il est apparu que l’altitude moyenne de chaque commune a une incidence relativement importante sur l’insécurité alimentaire. Cette variable n’est pas très utilisée par les experts, ou alors ne figure certainement pas parmi les plus importantes. On peut s’apercevoir à quel point une variable peut peser sur le résultat final, mais sans vraiment pouvoir interpréter les liens de causalité. »

Sur la dernière année de l’enquête ménage disponible au Burkina Faso et menée en 2018, les scientifiques ont pu évaluer les performances de leur modèle sur sa capacité à prédire les deux indicateurs de l’insécurité alimentaire. Résultat, le score de consommation alimentaire est prédit avec un coefficient R2 de 0,57 et celui sur la diversité alimentaire de 0,58. En sachant qu’une valeur proche de zéro correspond à une prédiction très hasardeuse et qu’elle devient parfaite lorsqu’elle tend vers un. « À partir d’un coefficient de 0,6, on peut considérer comme envisageable une utilisation de notre modèle par les acteurs qui interviennent sur le terrain, poursuit Hugo Deléglise. Nous y sommes donc presque. Il va être possible de l’améliorer au fur et à mesure des années, car plus on a d’historique de données, et plus l’algorithme pourra établir des règles de corrélation sûres et sophistiquées. Nous souhaitons également poursuivre notre travail de recherche pour intégrer de nouvelles variables dans notre modèle. »

En haut, la distribution spatiale du SCA (Score de consommation alimentaire) et du SDA (score de diversité alimentaire) réels obtenus par les enquêtes ménages en 2018 au Burkina Faso. En bas, le SCA et le SDA prédits grâce au nouvel outil de modélisation. Crédit : H. Deleglise

Et quid de la prise en compte de l’impact du récent coup d’État militaire dans ce pays sur l’insécurité alimentaire ? « L’algorithme intègre déjà les situations de conflits survenant dans un pays grâce à une variable provenant de l’ACLED (Armed Conflict Location & Event Data Project), un organisme qui recense tous les événements violents dans le monde, répond le chercheur. Mais cette source d’information est trop partielle, et nous poursuivons nos travaux pour ajouter des données textuelles issues de journaux. L’idée est d’extraire automatiquement des informations sur les situations alimentaires et les crises publiées sur des sites en ligne. »

Dans tous les cas, ce nouveau modèle peut se révéler très utile dans les pays soumis à des situations de crise, où les enquêtes auprès des populations ne peuvent plus être réalisées, car il devient trop dangereux de se déplacer sur le terrain.

Le Label VertVolt, pour des offres d’électricité verte vraiment «engagées»

Actuellement, le label VertVolt récompense sept offres d’électricité verte à destination de clients résidentiels, c’est-à-dire des particuliers, commerces et petits artisans. Il se divise en deux niveaux, le niveau 1 « engagé » et le niveau 2 « très engagé ». Selon les données déclaratives des fournisseurs, le label couvre 100 % des clients de l’offre Particuliers d’Enercoop, une offre de niveau 2. Planète Oui et Plüm Energie proposent une offre de niveau 2, et une offre de niveau 1. 100 % du portefeuille des clients de Plüm Energie et 70 % du portefeuille de Planète Oui sur ce segment marché ont souscrit à l’une de ces deux offres. EDF et ENGIE proposent une offre de niveau 1. L’offre labellisée d’EDF couvre 1 % de ses clients, ENGIE ne communique pas cette part. Deux organismes de labellisation, l’Afnor et l’Apav, assurent les audits de labellisation.

Brice Arnaud est économiste au sein de la direction Bioéconomies et Energies Renouvelables de l’Ademe. Co-auteur de l’avis de l’agence sur les offres d’électricité verte publié en décembre 2018, il a copiloté le groupe de travail de l’Ademe visant à définir les critères du label VertVolt. Il nous explique les garanties de ce nouveau label.

Techniques de l’ingénieur : Le label Vervolt récompense les offres les plus engagées des fournisseurs d’électricité. À quoi correspondent les deux niveaux ?

Brice Arnaud, économiste à la direction Bioéconomies et Energies Renouvelables de l’Ademe, co-auteur de l’avis sur les offres d’électricité verte, et copilote du groupe de travail sur les critères du label VertVolt

D’un côté, il s’agit d’installations construites après 2015 sans soutien public : elles n’ont pas bénéficié de contrat d’obligation d’achat, de contrat de complément de rémunération, ni de subvention à l’investissement. Ce critère est exigeant : peu d’installations parviennent à se développer sans aucun soutien public. L’autre possibilité est d’avoir des installations, bénéficiant ou non d’un soutien public, mais respectant les critères de la gouvernance du projet, à savoir des installations qui comptent des citoyens et/ou des collectivités locales parmi leurs actionnaires et qui participent aux processus de décisions. Il y en a aussi peu. Ce mode de fonctionnement peut faciliter l’acceptabilité dans certains endroits, limiter les oppositions. C’est un mode de gouvernance que l’Ademe promeut. Nous souhaitons flécher les fournisseurs vers ce type d’offre car en y souscrivant, un consommateur apporte une contribution plus significative au développement des installations d’énergie renouvelable en France.

Une offre du niveau de choix engagé n’entraîne pas de surcoût très important et peut être compétitive avec une offre d’électricité verte non labellisée ou même avec une offre d’électricité classique. Le choix très engagé peut entraîner un surcoût puisque l’on cible des installations spécifiques plus difficiles à faire émerger.

Vous mentionnez l’équilibre offre-demande avec des énergies renouvelables. À quelle échelle de temps se fait cet équilibre ?

L’obligation d’équilibre est le même que pour les garanties d’origine. C’est en moyenne sur un mois. Tout fournisseur peut donc faire un peu d’équilibrage via l’accès régulé à l’énergie nucléaire historique (Arenh) ou en achetant de l’électricité sur le marché. Nous vérifions toutefois qu’il a acheté à des producteurs d’énergie renouvelable autant d’électricité qu’il en a vendue à ses clients en moyenne chaque mois.

Il y a des offres qui se disent en « temps réel ». Cela veut dire qu’elles essayent à chaque instant d’acheter de l’électricité renouvelable pour couvrir la consommation des clients. On essaye de capter cet effet via un critère de transparence que l’on a appelé « taux d’équilibre temps réel ». Si ce chiffre est égal à 60 %, cela signifie que l’électricité commercialisée dans le cadre de l’offre labellisée est à 60 % d’origine renouvelable en moyenne à chaque instant, mais toujours à 100 % en moyenne sur le mois.

Notons que si un fournisseur pour l’ensemble de son portefeuille client a choisi de ne pas recourir à Arenh, il peut aussi ajouter la mention « sans nucléaire » sur son offre.

Quels sont les autres informations pour les consommateurs ?

Nous fournissons plusieurs informations de transparence. Le site indique si le fournisseur a ou non recours à de l’électricité d’origine nucléaire via le mécanisme de l’Arenh. Nous précisons le nombre de clients du fournisseur qui ont souscrit à une offre labellisée VertVolt, l’origine géographique et technologique de l’électricité, ainsi que la structure de l’additionnalité pour le niveau 2 « choix très engagé », soit la part des installations sans soutien public ou installations sous gouvernance partagée. En plus, nous donnons le taux moyen de couverture horaire et la part des clients de l’offre qui ont activé le suivi de leur consommation via le compteur Linky pour inciter les fournisseurs à faire de la sensibilisation à la maîtrise de la consommation.

À quels types d’installations d’énergie renouvelable les fournisseurs peuvent-ils acheter leur électricité ?

Toutes les installations qui ne sont pas sous concession et qui ne sont pas sous obligation d’achat sont éligibles. Les installations hydroélectriques sous concession et les installations sous obligation d’achat ne sont pas éligibles. Pour les installations sous concession car elles ont déjà été rentabilisées, et pour les installations sous obligation d’achat car elles ont une obligation de vendre leur électricité à EDF Obligation d’Achat. En revanche, les installations sous complément de rémunération sont éligibles puisque libres de commercialiser leur électricité.

Avec BlueNav, les bateaux deviennent hybrides

La gamme de turbines électriques BlueSpin de BlueNav se destine à tout type de bateau disposant d’une motorisation thermique. Grâce à une offre déclinée en différentes puissances et disponibles sous trois formes d’intégration distinctes, BlueNav apporte une réponse quasi universelle à un marché caractérisé par son hétérogénéité. Équipés d’une turbine, ces moteurs ont un rendement 20 % plus élevé qu’un équivalent à hélice, tout en optimisant le refroidissement de leur bobinage. Leur alimentation se fait par batteries, et peut également être assurée, en cas de besoin, par un groupe électrogène ou une pile à combustible. Permettant de naviguer sans émissions polluantes directes à petite vitesse et dans le silence, ces moteurs promettent de redéfinir les habitudes de navigation. Le co-fondateur et Directeur technique de l’entreprise Hervé Frouin nous en dit plus.

Techniques de l’Ingénieur : BlueNav est née en 2020, quelles ont été les étapes qui vous ont conduits à créer cette entreprise ?

® BlueNav

Hervé Frouin : Tout a commencé avec E-Nautic, une autre société dont les actionnaires sont en grande partie les mêmes que ceux de BlueNav. E-Nautic est un intégrateur d’équipements électriques et électroniques dans les bateaux. L’entreprise travaille pour moitié à Arcachon, dans la plaisance pour des chantiers locaux, et pour une autre moitié à Bordeaux sur les bateaux fluviaux naviguant sur la Garonne. À plusieurs reprises, E-Nautic a eu des demandes d’équipement en propulsion électrique de bateaux de plaisance, et à chaque fois, E-Nautic a été obligée de trouver des fournisseurs à l’étranger : en Autriche, en Allemagne, en Hollande, en Italie… Nous avons fini par nous dire que ce n’était pas possible, qu’un Français allait finir par s’installer ; mais personne ne le faisait.

La France est un acteur important dans la construction navale, mais curieusement, il n’y avait pas d’offre en matière de motorisation électrique. Nous avons donc fini par en discuter avec nos actionnaires : serions-nous prêts à nous lancer sur ce marché ? Nous avions globalement le sentiment d’en avoir les clés essentielles. Nous avons donc décidé de créer BlueNav pour être un constructeur français de motorisations électriques de bateaux. Les actionnaires d’E-Nautic ont alors mis 700 000 euros de capitaux dans BlueNav pour lancer l’activité.

Nous avons décidé d’entrer sur ce marché par l’hybridation. L’effort nécessaire pour faire avancer un bateau étant bien supérieur, par exemple, à celui d’une voiture (de l’ordre du triple), nous avons jugé qu’il ne fallait surtout pas chercher à remplacer les moteurs existants. Sinon, nous allions buter non pas sur des problèmes de puissance, mais sur des problèmes de batteries. Elles allaient nous brider. La bonne solution était donc d’avoir deux modes de fonctionnement : conserver le mode thermique quand on veut des performances et avoir, en plus, un mode électrique lorsque l’on veut naviguer à petite vitesse. Faire cela au travers d’une modification de la propulsion existante nous a semblé une source de grosses difficultés : cela impliquait d’intervenir systématiquement sur la propulsion, en déplaçant le moteur d’origine pour insérer un moteur électrique entre le moteur thermique et la transmission. La bonne solution nous semblait donc de concevoir un moteur électrique qui se rajoute sans toucher à la ligne de propulsion existante, de façon à ce que le client ne prenne pas de risque et qu’il soit rassuré.

L’autre problème d’une motorisation hybride dans laquelle on a un moteur thermique plus un moteur électrique qui entraînent la même hélice est que cette hélice se trouve complètement inadaptée à la propulsion électrique. Nous avons donc opté pour cette solution de rajout d’un moteur électrique, qui nous a semblé être la bonne, à condition toutefois que l’on puisse les rétracter lorsque l’on n’en a pas besoin. C’est comme cela qu’est née la gamme BlueSpin.

Quelles sont les caractéristiques de ces turbines BlueSpin ? Comment fonctionnent-elles ?

Les BlueSpin sont des moteurs à base de turbines, qui permettent d’avoir un meilleur rendement. Ces turbines peuvent être descendues sous l’eau lorsque l’on souhaite naviguer en mode électrique, et remontées quand on souhaite naviguer avec le moteur thermique.

Les turbines rétractables développées par BlueNav permettent d’alterner facilement les phases de navigation thermique et électrique. ® BlueNav

Quelles sont les différences et quels sont les intérêts d’une turbine par rapport à une hélice classique ?

La turbine, en fait, est un moteur sans jante, dans lequel les électroaimants et les aimants sont sur la partie extérieure, et tout cela sans moyeu. Or, dans un bateau, environ 20 % de l’énergie est perdue par le simple fait que le cœur de l’hélice est occupé par le moteur. Le fait d’opter pour une turbine nous a permis de gagner ces 20 % de rendement par rapport à une hélice traditionnelle. Cela a un autre avantage pour nous : le refroidissement se fait par simple trempage, il n’y a pas de pompe de circulation d’eau. On a un bien meilleur refroidissement de la partie bobinage, celle qui chauffe sur un moteur électrique. Cette partie étant située au niveau externe de la turbine, elle est en contact direct avec l’eau, on a donc un très bon refroidissement. Dernier avantage : si l’on rencontre une corde ou un autre élément dans l’eau, elle a tendance à passer par le trou au milieu de la turbine, plutôt que de s’emmêler autour du moteur qui serait au milieu de l’hélice.

Vous proposez différentes déclinaisons de ces turbines. Quelles sont leurs spécificités ?

Nous avons d’une part trois puissances différentes – 15 kW, 20 kW et 30 kW pour l’instant  – et un moteur de 50 kW arrivera bientôt. En plus de cela, nous proposons trois intégrations différentes : sur le tableau arrière, en puits et en fixe. On a sur le marché une multitude de chantiers navals et donc une multitude de bateaux différents, contrairement par exemple au marché de l’automobile qui a été uniformisé au travers d’une réglementation. Les configurations d’intégration sont donc très nombreuses, chaque bateau étant différent.

Comment les moteurs électriques sont-ils alimentés ?

Par batteries. Nous n’en sommes toutefois pas fabricants, nous avons donc passé deux accords : l’un avec un fournisseur de batteries neuves, l’autre de batteries de seconde vie, qui est Renault. En fonction de l’encombrement, de l’utilisation du client, de son budget etc. nous faisons plusieurs recommandations et le client choisit. L’autonomie est alors directement fonction de la batterie. Si les gens veulent installer un groupe électrogène complémentaire, comme une « roue de secours » en cas de panne de batteries, ou une pile à combustible, c’est naturellement possible.

Quelle vitesse le moteur électrique permet-il d’atteindre ?

Cela va entièrement dépendre du bateau. Chaque bateau a une vitesse de carène. Selon sa forme, sa longueur et son poids, la vitesse varie beaucoup. Globalement, avec nos moteurs électriques, les bateaux ne planent pas, ils restent dans un mode déplacement. Pour les bateaux à carène planante, les moments où l’on souhaite planer nécessitent l’utilisation des moteurs thermiques. Les utilisateurs doivent apprendre, ils vont évoluer dans leurs habitudes, un peu comme avec les voitures électriques. L’évolution réglementaire et le simple respect des sites magnifiques dont on peut profiter en France font que les gens, petit à petit, vont naviguer moins vite et dans le silence. Cela va leur offrir une convivialité exceptionnelle et ils pourront profiter bien plus de leur navigation. Comme dans les voitures, on est aussi plus ouvert à utiliser un autopilot, et à avoir des distractions pendant la navigation.

Proposez-vous d’autres solutions en plus de cette offre de motorisation hybride ? Avez-vous éventuellement d’autres projets de développement ?

Nous proposons déjà une solution full electric. Même si nous pensons que cette offre ne correspond qu’à peu de cas, nous nous devions d’offrir ce type de réponse, notamment pour des gens qui sortent uniquement à la journée, qui ne cherchent pas la performance et qui ont une place de port. C’est intéressant par exemple sur les bateaux classiques, qui de toute façon naviguent doucement.

Nous avons également beaucoup d’autres projets dans les tuyaux… Nous sommes déjà une trentaine de salariés et nous voulons devenir un vrai acteur important au niveau mondial sur ce marché. Nous sommes une start-up industrielle. Nous pensons que le logiciel, la fintech etc. ne sont pas les seules voies possibles. L’industrie a aussi un certain avenir. Faire des projets industriels en France est passionnant, même si ça n’est pas toujours facile car le monde de la finance veut trop souvent, à mon sens, des projets qui se contentent de faire du logiciel. Je trouve à titre personnel passionnant le fait que des entreprises se lancent dans des sujets hardware.

Éliminer le méthane de l’atmosphère en utilisant des minéraux disponibles en abondance

Si le CO2 est le gaz à effet de serre le plus connu en raison des quantités émises chaque année, il existe des molécules plus dangereuses encore. Le méthane en fait partie : selon le GIEC, « 1 kg de méthane (CH4) réchauffera autant l’atmosphère que 28 à 30 kg de CO2 au cours du siècle qui suit leur émission ». Pire encore, s’il est calculé sur 20 ans, le potentiel global de réchauffement du méthane n’est plus de 30, mais de 84 !

Transformer une partie des émissions de méthane en CO2 permettrait donc de limiter l’aggravation à court terme du réchauffement global.

Répartition des émissions mondiales de gaz à effet de serre (y compris UTCATF*), par gaz, en 2010, en %. (Crédit : ministère de la Transition écologique. D’après les travaux du Giec, 3e groupe de travail, 2014**)

Les émissions de méthane proviennent de sources diverses

Alors que les émissions anthropiques de CO2 proviennent en majorité de la combustion d’énergie fossile, de la déforestation tropicale et de procédés industriels, en France, les sources d’émission de méthane sont essentiellement liées à l’agriculture, à l’élevage et à la décomposition des déchets en décharge**.

Au niveau mondial, d’autres sources d’émission sont également à prendre en compte : le forage et la fracturation hydraulique associés à l’extraction du pétrole et du gaz naturel sont en effet responsables de près de 18 % des émissions de méthane. Les émissions mondiales de méthane proviennent également de sources très diverses, comme l’agriculture itinérante sur brûlis, l’élevage laitier, l’exploitation du charbon et des minerais, les zones humides et la fonte du pergélisol.

Conversion de CH4 en CO2 à l’aide de zéolites dopées au cuivre

Un papier publié en open access dans le journal ACS Environmental Au tend à montrer l’intérêt d’utiliser des zéolites dopées au cuivre pour l’oxydation du méthane à basse température et en conditions atmosphériques.

Les zéolites sont des argiles naturelles que l’on trouve en abondance dans la nature. Elles sont si peu onéreuses qu’elles servent par exemple à fabriquer la litière pour chat, en raison de leur fort pouvoir absorbant. Par ailleurs, les zéolites sont également capables d’adsorber toutes sortes de molécules en phase gazeuse, ce qui élargit considérablement leur spectre d’utilisation.

Le principe de fonctionnement est relativement simple, à l’échelle du laboratoire : les chercheurs ont introduit de petites particules de zéolite dopée au cuivre dans un tube de réaction. Celui-ci a ensuite été chauffé depuis l’extérieur, alors qu’un flux de gaz contenant de 2 ppm à 2 % de méthane le traversait. Cette fourchette de concentrations couvre ainsi les niveaux de concentration de méthane de l’atmosphère.

Une méthode qui présente bien des avantages

Dans un communiqué de presse, Desiree Plata, professeure associée au Ralph M. Parsons Laboratory (MIT) et co-autrice de l’étude, explique l’intérêt de cette nouvelle approche de conversion du méthane par rapport à d’autres méthodes : « Les autres méthodes ont tendance à utiliser des catalyseurs coûteux, tels que le platine ou le palladium, à exiger des températures élevées, d’au moins 600 degrés Celsius, et à nécessiter des cycles complexes entre les flux riches en méthane et les flux riches en oxygène, ce qui rend les dispositifs à la fois plus compliqués et plus risqués, car le méthane et l’oxygène sont hautement combustibles, seuls ou en combinaison. »

Compte tenu des risques d’explosion, cette température élevée est bien évidemment problématique. La méthode proposée par l’équipe du MIT a l’avantage de fonctionner à environ 300 °C, ce qui requiert à la fois moins d’énergie et diminue les risques.

En outre, cette méthode est efficace en présence de concentrations de méthane inférieures à 1 %, ce qui n’est pas le cas des méthodes conventionnelles.

Des applications dans les mines de charbon

Les chercheurs proposent ainsi d’incorporer ce nouveau catalyseur dans les systèmes de ventilation des mines de charbon. En outre, cette nouvelle méthode a l’avantage de dégager de la chaleur, sans nécessiter de combustion.

Selon les calculs des chercheurs, si la concentration en méthane ne dépasse pas 0,5 %, la chaleur dégagée est supérieure à l’énergie consommée pour la catalyse, cette énergie pouvant également être utilisée pour générer de l’électricité. Déployer un tel système dans les mines serait donc assez rapidement rentable et Desiree Plata pense que ce type d’application pourrait être commercialisé d’ici trois ans.

Un développement qui se poursuit

D’après les chercheurs, la conversion du méthane en CO2 entraîne une réduction instantanée du forçage radiatif. En outre, la conversion de 60 % du réservoir de méthane atmosphérique n’augmenterait le taux de CO2 que de 1 ppmv, le faisant passer de 415 à 416 ppmv, ce qui est extrêmement faible.

Le développement de ce type de technologie présente donc un fort intérêt sur le moyen terme. Les travaux des chercheurs se poursuivent ; ils espèrent ainsi démontrer la faisabilité industrielle de cette méthode d’ici les 18 prochains mois.


* UTCATF : utilisation des terres, changement d’affectation des terres et la foresterie (LULUCF en anglais pour Land Use, Land Use Change and Forestry).

** Source : Chiffres clés du climat France, Europe et Monde. Édition 2021.

Un nouvel insecte pollinisateur pour féconder les fleurs de tomate sous serre

Depuis les années 80, en Europe ou aux États-Unis, les bourdons sont utilisés pour polliniser les cultures de tomates sous serre. Cette pratique n’est pas possible à la Réunion, car l’insecte n’est pas présent naturellement sur l’île et son importation est interdite pour des raisons de risques écologiques. Les producteurs continuent donc à féconder manuellement leurs tomates à l’aide de petits vibreurs mécaniques ou de souffleurs de feuilles pour secouer les hampes florales. Mais ces techniques s’avèrent coûteuses en temps de travail et ne permettent pas toujours la fécondation de la fleur au bon stade physiologique.

En partenariat avec le Cirad (Centre de coopération internationale en recherche agronomique pour le développement), l’ARMEFLHOR (Association réunionnaise pour la modernisation de l’économie Fruitière, légumière et horticole) a développé une méthode de pollinisation à l’aide d’un insecte naturellement présent sur l’île, appelé le xylocopa fenestrata, et plus connu sous le nom de mouche charbon, en raison de sa couleur noire.

« On apercevait sporadiquement cette abeille sauvage sur les fleurs de tomates, explique Jean-Sébastien Cottineau, responsable de cette expérimentation à l’ARMEFLHOR. Il y a plus de 5 ans, nous avons commencé nos travaux de recherche en la capturant dans son milieu naturel. Puis, nous l’avons introduit dans des serres, mais elle mourait. Nous avons donc dû reconstituer son habitat pour qu’elle puisse vivre dans les serres. » Ce xylocope est en effet un insecte semi-grégaire, qui creuse des galeries dans le bois, avec dans chacun des trous une seule femelle. Les scientifiques ont alors aménagé des cadres en bois avec des planches pré-perforées afin qu’il se niche à l’intérieur.

Le xylocope se niche dans des trous formés dans le bois. © Armeflhor

Les fleurs de tomates ne produisant pas de nectar, des nourrisseurs, dont la texture ressemble à celle d’une éponge, ont également été construits pour alimenter l’abeille sauvage. Avec à l’intérieur, un sirop riche en sucres, le même que celui utilisé en apiculture pour alimenter les ruches en hiver. Et pour que ces xylocopes repèrent ces nourrisseurs dans l’espace, les chercheurs se sont servis de leur sensibilité aux couleurs. Après plusieurs tests à l’aide de caméras, les couleurs bleu et jaune ont été sélectionnées pour les attirer. « Ce n’est qu’au début qu’il faut les attirer vers les nourrisseurs avec ces couleurs, explique le chercheur. Lorsque la colonie est formée, il y a une forme d’apprentissage et ces abeilles sauvages ont repéré ces endroits pour se nourrir. »

Des nourrisseurs ont été aménagés pour alimenter l’insecte. © Armeflhor

Une adaptation de l’insecte à des températures de 26 à 38 degrés

Après être parvenus à faire vivre cet insecte dans un milieu confiné et fermé, les chercheurs ont réalisé des tests d’efficacité dans sept exploitations réparties sur l’île afin d’évaluer sa capacité à s’adapter aux différents microclimats de l’île. Ces expérimentations ont permis d’observer une très bonne adaptation de ce xylocope aux températures chaudes de l’île, puisqu’il travaille à la fécondation des fleurs de tomate, de manière optimale, entre 26 et 38 degrés. Le protocole de recherche a uniquement mis en évidence une baisse de son activité lors de longues périodes nuageuses.

Le xylocope fenestrata sur une fleur de tomate. © Armeflhor

« Avec cet insecte, nous obtenons des nouaisons, c’est-à-dire des transformations des fleurs en fruits, qui sont comparables à la métropole et l’utilisation de bourdons, déclare Jean-Sébastien Cottineau. Concrètement, le taux de fécondation est de l’ordre de 90 % et parfois plus sur certaines zones, et ce malgré quelques successions de journées couvertes. » Ce bon résultat se traduit sur les rendements, en nette progression, puisqu’ils s’améliorent de 20 à 30 %, comparés à la technique de fécondation manuelle. Le fait que cette abeille sauvage butine sans relâche 7 jours sur 7 et qu’elle passe plusieurs fois sur la même fleur, en sachant exactement le moment où elle est la plus à même d’être visitée, explique cette bonne performance. Un meilleur calibrage des tomates sur les grappes a aussi été observé ainsi qu’une plus grande qualité des fruits, ceux-ci possédant moins de chair, plus de pulpe et se révélant plus juteux et savoureux.

L’économie réalisée grâce à l’utilisation du xylocopa fenestrata a été chiffrée à 1,5 euro par m². « Elle est non négligeable et correspond au temps qu’un travailleur salarié consacre tous les jours à la fécondation manuelle, et dont le travail est réalisé correctement », analyse le chercheur. Comparé aux bourdons qui doivent être remplacés tous les trois mois, cet insecte présente l’avantage d’être inféodé à la serre et de se reproduire à l’intérieur. La nouvelle génération peut alors prendre le relais de l’ancienne ou encore être transférée dans une autre serre. Cette abeille se révèle par ailleurs très peu agressive envers les humains, un atout pour son utilisation dans un milieu fermé.

L’ensemble du savoir-faire acquis au cours de cette expérimentation a été transféré à la biofabrique réunionnaise La Coccinelle. Spécialisée dans l’élevage d’insectes auxiliaires, elle aura pour rôle de déployer ce xylocope dans les exploitations. Avec l’objectif, d’ici cinq ans, que cette nouvelle méthode de pollinisation soit utilisée par la moitié des producteurs de l’île.

Techniques de l’Ingénieur partenaire du concours Ingénieuses 2022

Cette opération, créée en 2011 par la CDEFI, a pour ambition de promouvoir l’égalité femmes-hommes à l’école et dans la sphère professionnelle, de lutter contre les stéréotypes de genre et de favoriser l’orientation des jeunes filles vers les formations scientifiques et technologiques et les carrières d’ingénieur-e-s. 

Elle prend ainsi la forme d’une campagne de communication nationale et d’un concours récompensant les actions, les projets et les parcours réalisés par des femmes dans le monde de l’ingénierie. 

Plusieurs catégories historiques sont mises à l’honneur: 

  • Les écoles d’ingénieur-e-s, pour présenter un projet répondant à un des objectifs de l’événement ;
  • Les élèves-ingénieures en formation au sein d’une école d’ingénieur-e-s (France et Maghreb), pour récompenser un parcours, une ambition, un investissement associatif ;
  • Les femmes ingénieures en activité, pour valoriser un parcours professionnel, des engagements, et devenir ambassadrice de la profession d’ingénieur-e auprès de collégiennes.

Voici les dates à retenir : 

  • 8 mars 2022 : clôture de l’appel à projets et à candidatures ;
  • fin mars-début avril 2022 : réunion du jury ;
  • 19 mai 2022 : cérémonie de remise des prix (en présentiel).

Nous vous invitons à candidater pour le concours en téléchargeant les dossiers de candidature pour les différentes catégories du concours, ici.

Si vous souhaitez en savoir plus sur l’événement, rendez-vous directement sur le site Ingénieuses.

 

Mecaware : une technologie de rupture pour recycler les métaux et terres rares des déchets technologiques

Depuis quelques mois, les annonces de création de gigafactories – ces « gigafabriques » de batteries inspirées du modèle initié par Tesla – se multiplient en France : à Douvrin (Pas-de-Calais) pour le groupe Stellantis, Douai (Nord) pour Renault, ou encore, plus récemment, à Dunkerque (Nord) pour Verkor, entreprise fondée en 2020 avec l’ambition d’atteindre, d’ici 2030, une capacité de production de 50 GWh.

Synonymes de décarbonation du marché automobile, ces grands projets de production de batteries ne vont toutefois pas sans poser un problème de taille, tant sur le plan écologique qu’économique : celui de l’extraction et du recyclage des matériaux nécessaires à la fabrication de ces batteries, métaux critiques en tête. Une start-up lyonnaise pourrait toutefois changer la donne.

Un procédé fruit de travaux de recherche antérieurs

Spin-off de l’Institut de chimie et biochimie moléculaires et supramoléculaires (ICBMS), Mecaware est l’acronyme de « metal capture for waste recycling ». Grâce à un procédé d’extraction innovant breveté, la jeune entreprise créée en décembre 2020 est en effet capable de récupérer, de manière sélective, écologique et économiquement viable, les métaux critiques, issus notamment des batteries lithium-ion usagées, ainsi que les terres rares contenues, par exemple, dans des aimants permanents ou les batteries Ni-MH équipant de nombreux véhicules hybrides. À l’origine de cette technologie de rupture : les travaux du professeur Julien Leclaire, enseignant-chercheur de l’Université Claude Bernard Lyon 1 à l’ICBMS et cofondateur de Mecaware. « La technologie est antérieure à la création de l’entreprise. Historiquement, nous nous sommes d’abord intéressés au captage du CO2 ; l’histoire a véritablement commencé en partenariat avec l’Institut français du pétrole [devenu en 2010 l’IFP Energies Nouvelles, NDLR], qui a sollicité des acteurs académiques pour le développement de solutions innovantes de captage de cette molécule », retrace Julien Leclaire.

Dès la fin des années 2000, le Professeur et son équipe ont alors travaillé autour de systèmes capables, en présence de dioxyde de carbone, de s’auto-assembler et de former des molécules inexistantes en son absence. « En étudiant ces molécules, nous nous sommes rendu compte que les objets formés possédaient de fortes affinités avec les métaux, notamment ceux que l’on retrouve fréquemment dans les dispositifs technologiques », poursuit le Pr. Leclaire. En 2012, le chercheur a alors soumis un projet à l’Agence nationale de la recherche (ANR) consistant à valoriser ces molécules formées lors du captage de CO2, afin de pouvoir les associer sélectivement avec des métaux, les séparer et les recycler.

2012, année charnière

« Cette année 2012 correspond à l’année où la Chine a restreint ses exports de terres rares, avec pour conséquence une flambée des prix », précise Julien Leclaire. Arrivé au moment opportun, le projet a alors été retenu, avec un financement public à la clé. « L’idée s’est révélée être la bonne. Nous avons alors déposé un premier brevet, puis rencontré des industriels spécialistes de la séparation des métaux », se remémore le chercheur lyonnais. Le début d’une aventure qui s’est poursuivie autour du développement de prototypes de procédés, avec un défi : celui d’une chimie triphasique, mêlant phases liquide, solide et gazeuse. « Nous nous sommes associés avec un laboratoire de génie des procédés et nous avons développé un procédé en flux continu, qui fonctionnait à l’échelle du laboratoire », ajoute Julien Leclaire.

Après le dépôt de deux premiers brevets portant sur le procédé, l’équipe de scientifiques a poursuivi son chemin avec une troisième patente, portant cette fois plus particulièrement sur la chimie. « Malgré ce portefeuille de brevets, nous nous sommes aperçus que les industriels restaient frileux vis-à-vis de l’acquisition de la technologie, considérée comme une technologie de rupture », relate le Pr. Leclaire.

Avec l’aide de l’incubateur spécialiste de la deep tech Pulsalys, Julien Leclaire s’est ainsi lancé dans l’aventure de la start-up aux côtés d’Arnaud Villers d’Arbouet, aujourd’hui président de l’entreprise. « Nous avons formé un binôme avec Arnaud afin d’associer progressivement des investisseurs, du personnel et créer la société », conclut le chercheur, qui cite également deux autres membres de l’aventure, co-inventeurs de la technologie : Claude de Bellefon, expert en génie des procédés et directeur scientifique de l’école d’ingénieurs CPE Lyon, et Frédéric Fotiadu, collaborateur de la première heure du Pr. Leclaire et actuel directeur de l’Institut national des sciences appliquées (Insa) de Lyon.

Un an après sa création, l’entreprise est ainsi parvenue à mettre en service un premier démonstrateur. « Nous avons un petit démonstrateur qui fonctionne, cela a été l’objectif de l’année dernière : il a été mis en service en novembre 2021 », indique Julien Leclaire. Une ligne pilote qui tient, pour l’heure, dans un atelier d’une soixantaine de mètres carrés, et qui met en œuvre le procédé particulièrement vertueux développé au fil des ans par le chercheur et ses collègues.

Le démonstrateur de Mecaware apporte la preuve du fonctionnement du procédé
Mis en service en novembre dernier, le démonstrateur de Mecaware apporte la preuve du fonctionnement du procédé. © Mecaware

Une technologie de rupture

À la base de la technologie : le CO2, un ingrédient issu notamment de fumées de combustion, qui sont mises en contact avec des amines. « La mise en contact est réalisée dans des unités d’absorption qui existent au Texas ou en Arabie Saoudite et qui servent à capter du CO2 avant son enfouissement », explique le chercheur lyonnais. Ainsi mises en contact avec le dioxyde de carbone, les amines permettent de donner naissance à des molécules chargées électrostatiquement. Des charges qui permettent ensuite, lors de leur mise en contact avec un gisement solide ou liquide contenant des métaux, de provoquer leur association avec ces molécules.

« La particularité de la technologie est que, lors de la mise en contact des amines avec le CO2, se forme une collection de molécules en équilibre, ce qui signifie que l’on a affaire à un mélange “vivant” », souligne Julien Leclaire. La composition du mélange peut ainsi s’ajuster aux métaux avec lesquels il est mis en contact. Contrairement aux technologies conventionnelles, associant généralement un extractant à un métal donné, le mélange adaptatif que Mecaware est capable de former peut donc s’adapter aux spécificités du gisement de métaux à traiter. « C’est une grande force de la technologie. Nous proposons une solution à un verrou de la filière qui est la variabilité du gisement, due aux changements de composition des batteries », assure le Pr. Leclaire.

Une fois métal et extractant associés, reste alors à les séparer. Une opération habituellement réalisée en milieu très acide, ou au contraire à un pH très élevé. Pour Mecaware, la solution est tout autre : elle consiste à chauffer la solution à moins de 100°C, afin d’éliminer le CO2. « On a un interrupteur physique pour pouvoir restituer le métal et l’agent d’extraction, là où la filière utilise d’habitude des interrupteurs chimiques générateurs d’effluents, consommateurs d’acides et de bases, avec à la clé des conséquences importantes pour l’environnement », compare le chercheur.

Quant au devenir du CO2, deux options sont alors possibles : la formation de carbonates associés aux métaux, ou l’éjection de ce dioxyde de carbone sous la forme d’un flux gazeux pur qui peut ensuite être enfoui ou valorisé. Le métal est alors, dans ce cas, restitué sous forme métallique, et non pas sous forme de sel.

Un procédé aux multiples vertus

Outre une génération d’effluents largement inférieure aux procédés conventionnels d’hydrométallurgie, la technologie développée par Mecaware se révèle très largement moins énergivore et émettrice de gaz à effet de serre. Elle est aussi 30 à 50 % moins chère, le tout avec un très haut niveau de pureté. Autant d’avantages qui permettent à l’entreprise d’envisager sa mise en œuvre à l’échelle industrielle très prochainement.

« Le démarrage d’une première ligne industrielle devrait avoir lieu fin 2024 », prévoit en effet le président de Mecaware, Arnaud Villers d’Arbouet ; une installation destinée à la production en flux continu de 5 000 à 10 000 tonnes de métaux par an. « Nous avons plusieurs pistes de site en discussion aujourd’hui », glisse Arnaud Villers d’Arbouet. Un site qui devrait occuper quelque dix mille mètres carrés, soit environ dix fois moins que la surface nécessaire aux usines mettant en œuvre les technologies actuelles d’hydro ou de pyrometallurgie.

D’autres applications en vue

Alors que les premières batteries fabriquées à partir de ces métaux recyclés pourraient équiper des véhicules dès 2025, la start-up planche également aujourd’hui sur d’autres applications de sa technologie. « Nous avons conclu un partenariat avec un industriel du ciment, qui nous a confié des terres polluées aux métaux. Dans ce cas, le procédé permet de fixer le CO2 dans la terre et d’en lixivier les métaux contaminants, ce qui fait que l’on a une terre décontaminée qui peut retourner dans le cycle de production de granulats. Ceci avec un double service : fabriquer du ciment avec une matière première recyclée, et décontaminer le sol », explique Julien Leclaire, qui indique également avoir envisagé le traitement de gisements d’aimants permanents, pour en extraire les terres rares. « Cela fonctionne mais les performances ne permettent pas encore d’envisager l’industrialisation », constate le chercheur.

Autre perspective pour Mecaware : étendre l’utilisation de son procédé à des ressources primaires ; autrement dit : le mettre en œuvre afin d’extraire des métaux directement à partir de minerais. « Actuellement, les techniques qui permettent de le faire ont de lourdes conséquences au niveau environnemental, notamment les opérations d’injection d’acide sulfurique dans le sous-sol qui sont réalisées », souligne en effet le chercheur. Avant d’en arriver là, ce sont avant tout les futures gigafactories qui pourraient bien bénéficier de la technologie de rupture proposée par Mecaware.

La stratégie quantique de la France favorise l’émergence de startups prometteuses

L’informatique quantique est une technologie très prometteuse, mais qui doit encore faire ses preuves en termes d’applications. À cause de la pandémie, de nombreux programmes ont été retardés, y compris l’annonce il y a un an de la stratégie quantique nationale par Emmanuel Macron.

Ce plan massif comprend :

  • la mise à disposition de nouveaux moyens pour les chercheurs, y compris sur la formation, mais aussi pour les startups et les industriels ;
  • le développement de l’informatique quantique ;
  • des investissements dans toutes les technologies autour du quantique : communications, capteurs, cryptographie, et technologies capacitantes comme la cryogénie et l’électronique de contrôle.

Un an plus tard, où en sommes-nous ? Les choses se mettent en place progressivement, facilitées par une machinerie administrative qui ne traîne pas les pieds. Ce Plan quantique est le premier qui a mis en œuvre un nouveau dispositif de financement de la recherche doté de 3 milliards d’euros, dont 150 M€ pour le quantique.

« Ce Programme d’équipements prioritaires de recherche, étendu à de nombreux domaines, accélère l’allocation de crédits aux organismes de recherche sans passer par les appels d’offres de l’ANR qui ralentissent le système. Les trois plus gros Organismes nationaux de recherche (ONR) – CNRS, INRIA et CEA – peuvent ainsi allouer des crédits à des équipes sélectionnées en fonction de l’importance des sujets, avec une logique de faire le pont entre la recherche fondamentale et l’intérêt industriel. Ce processus a incité les chercheurs dans le calcul quantique à se regrouper par domaine et à mieux se coordonner. Ces regroupements ont un effet vertueux de fédération des efforts », explique Olivier Ezratty, consultant et auteur spécialisé dans les technologies quantiques.

Repérer des sous-marins nucléaires

Début 2022, le gouvernement français a également lancé un nouveau programme visant à relier les ordinateurs quantiques et les superordinateurs. Les moyens devront être mis à disposition des chercheurs et des entreprises pour que la France soit à la hauteur des révolutions technologiques à venir. Budget total de cette plate-forme : 170 millions d’euros qui sont cofinancés par l’Union européenne.

Cette nouvelle plate-forme de calcul quantique hybride, qui sera hébergée au centre de calcul TGCC de Bruyères-le-Châtel et opérée par le CEA DAM, constitue un autre résultat concret de la stratégie nationale sur les technologies quantiques présentée le 21 janvier 2021 par Emmanuel Macron.

Lors d’une visioconférence, la ministre des Armées Florence Parly a rappelé que les technologies quantiques pourraient devenir vitales dans le domaine de l’armée pour tout ce qui concerne les systèmes de navigation ou la sécurité nationale. L’une des craintes avancées étant que les ordinateurs quantiques pourraient casser les clés RSA. Décrit en 1977, ce système cryptographique est utilisé pour sécuriser nos échanges et les transactions de tout l’Internet ouvert d’aujourd’hui.

« La dimension stratégique se trouve aussi dans les capteurs quantiques qui ont des capacités à mesurer des grandeurs physiques avec une très grande précision et avec des cas d’usage dans le civil et le militaire, ce qui relève de la souveraineté. Par exemple, les micro-gravimètres permettant de mesurer des variations de la gravité dans le temps et dans l’espace pourraient faciliter la détection des sous-marins nucléaires. Mais ces capteurs sont également très utiles dans le civil comme dans l’imagerie médicale », souligne Olivier Ezratty.

Même s’il est encore trop tard pour savoir quels usages et marchés vont décoller dans les dix prochaines années, l’informatique quantique représente une opportunité pour l’Europe de reprendre un peu d’autonomie technologique par rapport aux Américains et Chinois.

La puissance de calcul d’un PC portable !

« L’Europe peut revendiquer une excellence scientifique dans les technologies quantiques, ce qui peut permettre à des entreprises de jouer un rôle clé dans le concert mondial, surtout dans un marché qui sera au départ très spécialisé. Il y a un écosystème de startups qui est visible, des financements arrivés et des projets lancés en liaison avec des industriels comme Total, EDF, BMW et Airbus », note Olivier Ezratty.

Une poignée de startups françaises, qui sont des émanations de laboratoires de recherche, sont créées et affichent un gros potentiel : Quandela, Pasqal, C12 Nanotech, Alice & Bob… Pasqal affiche le potentiel d’apporter « une capacité de calcul digne des machines les plus puissantes et qui serait utile dans la simulation chimique pour inventer notamment de nouveaux matériaux, mais aussi résoudre des problèmes d’optimisation. On pourra juger sur pièce avec des benchmarks d’ici moins de 2 ans », précise Olivier Ezratty.

Reste que pour l’instant, aucun des ordinateurs quantiques développés dans le monde ne peut prétendre dépasser la puissance de calcul d’un… ordinateur portable. Ce sont encore des machines expérimentales qui permettent à des développeurs d’apprendre à coder. Et elles ne permettent pas encore de développer des logiciels qui iraient plus vite que leurs équivalents sur des ordinateurs standards.

« La promesse ultime dans plusieurs années est de dépasser les plus grosses machines qui sont énergivores. Des machines consommant peu d’énergie et qui feraient tourner des algorithmes dont les équivalents classiques exigent des clusters de serveurs, voire du HPC (High Performance Computing) pourraient apparaître dans moins de cinq ans », anticipe Olivier Ezratty.

Les véhicules hybrides, « une arnaque aux normes CO2 » ?

« Les véhicules hybrides plug-in sont très éloignés de leurs promesses et ne présentent que de très légers avantages (voire aucun) par rapport à une voiture thermique conventionnelle », estime une nouvelle étude d’Impact Living, réalisée à la demande des autorités valaisannes. Cette entreprise, qui se présente comme assistant maître d’ouvrage, propose donc « d’éliminer cette technologie rapidement du marché des nouvelles immatriculations pour atteindre les objectifs climatiques ».

En Suisse, l’hybride rechargeable serait « une arnaque »

L’étude s’est intéressée aux apports de la technologie dans le cadre de la topographie suisse, particulièrement montagneuse. Dans le canton du Valais où ont été menés les tests, les performances réelles des véhicules hybrides rechargeables restent loin des promesses des constructeurs. Ainsi, Impact Living a mesuré + 116 % d’émissions par rapport aux données des constructeurs (cycle WLTP) alors que le surplus d’émissions n’atteint que 26 % par rapport aux données constructeurs pour les véhicules thermiques en conditions similaires.

« La procédure d’essai WLTP s’applique très bien aux véhicules conventionnels à combustion, mais ne reflète absolument pas la consommation réelle des véhicules hybrides plug-in », alerte Impact Living. Marc Muller, ingénieur en énergies, et coauteur de l’étude, a déclaré à la Radio télévision suisse (RTS) que ces véhicules sont « une arnaque aux normes CO2, aux objectifs climatiques et aux consommateurs ! ». Avant d’ajouter : « Les véhicules hybrides sont souvent annoncés par les constructeurs comme des véhicules à 1,5 à 2,5 litres aux 100 kilomètres, mais dans la réalité, ils consomment entre 4 et 7 litres, comme des véhicules diesel ».

Des seuils à peine respectés

L’Union européenne et la Suisse imposent des limites d’émissions de CO2 pour les véhicules neufs. Depuis 2021, ces seuils reposent sur la procédure WLTP et s’élèvent à 118 grammes de CO2 maximum par kilomètre pour les voitures de tourisme. Cette valeur cible correspond à celle qui s’appliquait précédemment dans le cadre du cycle NEDC et qui s’élevait à 95 grammes de CO2 par km pour ces mêmes véhicules.

« Les valeurs mesurées montrent que la moyenne des véhicules hybrides mesurés atteint tout juste la valeur de 118 grammes de CO2/km » mesure l’étude. Ainsi la technologie ne devrait pas permettre de répondre aux futures valeurs cibles. Les auteurs imaginent peu probables des avancées technologiques suffisantes pour y parvenir.

L’étude estime finalement que l’achat d’un véhicule hybride provient souvent d’une crainte de tomber en panne et d’un manque de connaissance des nouvelles technologies électriques.  Les auteurs proposent donc « d’orienter le fonds de soutien valaisan dans le renforcement des infrastructures de recharge publique, la sensibilisation de la population à propos des véhicules électriques ainsi que l’utilisation des bornes et dans la participation à l’acquisition d’une borne de recharge ou d’un véhicule électrique ». À la suite de ce rapport, le canton du Valais a supprimé les subventions aux véhicules hybrides rechargeables.

La compagnie La Machine : l’alliance de la technique et du spectacle

L’Île de Nantes, bordée par les deux bras de la Loire, héberge les Machines de l’Île. Un éléphant de bois et de métal se balade lentement et arrose de sa trompe un public amusé.

Le Grand Eléphant déambule sur l’Île des Machines et arrose le public. Crédit : Alexandra Vépierre

D’autres spectateurs attendent leur tour pour grimper sur un carrousel de 3 étages où tournent inlassablement des animaux marins déroutants et étranges. La Galerie des machines accueille aussi les curieux, et des machinistes leur permettent de manipuler les animaux mécaniques, tandis que l’atelier de fabrication ouvert au grand jour donne l’opportunité de suivre tout le processus de création des machines.

Imaginées par Pierre Orefice et François Delaroziere, les Machines de l’Île est un projet artistique d’envergure avec des structures mécaniques monumentales créé pour accompagner le renouvellement urbain de la pointe ouest de l’Île de Nantes. Les animaux mécaniques sont imaginés et réalisés par la compagnie La Machine, une association fondée en 1999 par son directeur artistique François Delaroziere, afin de fabriquer des décors de théâtre et des machines de spectacles de rue. Depuis, les machines s’exportent et voyagent à Toulouse, Calais, Pékin, Ottawa, etc.

Aujourd’hui, la compagnie travaille sur un nouveau projet, l’Arbre aux Hérons, qui sera situé sur un site proche du centre-ville de Nantes, en bord de la Loire. Benjamin Laurent, architecte de métier, a coordonné la pré-étude de cet arbre gigantesque et revient sur les étapes de création de ce « projet un peu fou », selon ses dires.

Techniques de l’Ingénieur : Qu’est-ce que l’Arbre aux Hérons ?

Benjamin Laurent, coordinateur de la pré-étude sur l’Arbre aux Hérons.

Benjamin Laurent : Il s’agit d’un arbre de 35 m de haut et 55 m de diamètre, qui contiendra une quinzaine d’animaux mécaniques, des paysages végétaux et des grands hérons qui embarqueront du public. C’est un projet « mouton à 5 pattes » car c’est à la fois une œuvre d’art, une attraction dans laquelle déambuleront le public et les animaux mécaniques, et une œuvre vivante car les structures métalliques seront recouvertes de végétation. L’Arbre aux Hérons est un défi industriel et technique parce qu’il faut savoir produire et monter une structure de cette complexité. Une étude technique a été présentée et le vote du conseil métropolitain déterminera début 2022 si le projet se poursuivra. Sa réalisation est estimée à 52 millions d’euros et est prévue pour 2027.

Comment avez-vous réalisé la pré-étude du projet ?

Le point de départ est toujours un dessin en 2D de François Delaroziere qui fixe les intentions artistiques. Puis nous modélisons cette œuvre en 3D, ce qui a été le travail d’une vingtaine de personnes pendant 3 ans. D’abord, nous avons cherché la silhouette générale de l’œuvre. Pour cela, nous avons dû créer des outils d’automatisation pour ne pas dessiner chacune des branches et les redessiner à chaque fois que nous ajoutions une passerelle ou un animal mécanique. Il y a aussi une recherche de mouvements adaptés. Notre arbre est fixe mais il y aura des animaux dedans donc nous essayons d’en reproduire les mouvements. Ensuite, nous étudions l’arbre partie par partie en croisant des recherches de CAO avec un travail de sculptures en atelier, des scans 3D, des prototypes en acier et des maquettes réduites de toutes les parties.

Quelles que soient les contraintes techniques, il faut toujours garder en tête que notre but est de raconter une histoire, donc les solutions les plus simples techniquement ne sont pas les meilleures. Par exemple, faire tenir notre Arbre aux Hérons grâce à des poteaux serait le plus simple mais nous perdrions l’illusion d’un vrai arbre.

Quels corps de métier travaillent sur ce projet ?

Il existe une très grande variété de profils, et les équipes évoluent en fonction de l’avancée de l’œuvre. Nous travaillons donc avec des dessinateurs industriels, des ingénieurs mécaniques et structures, des sculpteurs, des automaticiens, informaticiens, ingénieurs fluides, géotechniciens, designers, architectes, menuisiers, serruriers, chaudronniers, une maquilleuse etc. Nous allons chercher l’expertise afin de résoudre chaque problématique technique rencontrée.

Quels critères devez-vous prendre en compte pour assurer la sécurité du public et la pérennité de l’œuvre ?

Nous avons travaillé avec le Centre scientifique et technique du bâtiment (CSTB) en soufflerie afin de savoir comment appliquer les charges de vent sur notre structure de forme complexe, située au bord de la Loire. Nous avons aussi étudié les végétaux et leur prise au vent puisque nous en aurons 130 types dans l’arbre. Des études techniques avec des biologistes et le service des espaces verts de la ville nous ont aussi permis de choisir les emplacements des végétaux en fonction de leurs conditions climatiques de prédilection, pour qu’il y ait une végétation luxuriante mais qui impacte au minimum la structure.

Une fois l’Arbre terminé, des hérons embarqueront le public vers le sommet de l’œuvre. Crédit : Alexandra Vépierre

Concernant la sécurité, nous avons optimisé le temps d’évacuation du public grâce à des simulations numériques, et nous respectons la norme européenne EN 13814 relative aux machines et structures pour fêtes foraines et parcs d’attractions. Il s’agit d’anticiper les comportements déviants que pourrait avoir le public, de calculer le niveau de risque puis de décider s’il faut le réduire ou le supprimer afin d’assurer leur sécurité.

Dans l’Arbre, il y aura aussi des animaux mécaniques. Comment sont-ils construits ?

Nous partons à nouveau des croquis de François Delaroziere et essayons de trouver les mouvements les plus représentatifs des animaux . Puis, nous voyons comment ces mouvements pourraient être générés par les machinistes et/ou les spectateurs. Par exemple, le paresseux va avancer très lentement sur sa branche et sera contrôlé par le public via un volant qui tourne très vite. Le constructeur a trouvé le moyen pour qu’avec un seul mouvement de rotation, toute la machine puisse évoluer et que les pattes fassent avancer le paresseux sur sa branche. Cela nécessite une grosse recherche documentaire à travers des vidéos, des photos, des représentations de squelette de l’animal afin de trouver les points de rotation, les pivots, etc.

Le paresseux avance lentement sur sa branche. Crédit : Alexandra Vépierre

Assez rapidement, nous passons en 3D avec un sculpteur qui réalise une interprétation du dessin. Cette maquette permet au directeur artistique de valider l’interprétation du sculpteur, puis elle est scannée. Ensuite, vient la fabrication en atelier avec deux parties : la partie bois et la partie métal. Pour des machines comme l’éléphant, la partie bois est une surface courbe assez complexe, donc nous sommes obligés de procéder strate par strate. Le bois est découpé à la main, assemblé puis poncé, avant d’être traité par une maquilleuse. La partie métallique est souvent la structure interne qui permet de soutenir les coques et la mécanique. Elle est apparente car notre but n’est pas de calquer l’animal mais de reproduire un mouvement. Une fois les coques de bois montées sur la structure, nous programmons les mouvements. La plupart d’entre eux sont contrôlés par des manipulateurs, ce qui permet de favoriser le lien avec le public et de raconter des histoires. Pour des machines comme le Grand Éléphant ou le Dragon de Calais, un mode de ville permet aussi d’avoir un seul manipulateur mais ce n’est pas ce que nous recherchons lors des spectacles.

Les animaux mécaniques visibles dans la Galerie seront ensuite présents dans l’Arbre aux Hérons. Crédit : Alexandra Vépierre

Comment prévoyez-vous la maintenance sur l’Arbre aux Hérons ?

Nous l’avons divisé entre la maintenance de la structure métallique, du végétal et des animaux mécaniques. Dans chacun de ces sujets, nous avons mis en place des protocoles de maintenance, et identifié des solutions techniques qui permettent d’avoir une durabilité plus importante dès la conception. Les protocoles permettent d’expliquer comment démonter certaines parties et réaliser les opérations de maintenance. Par exemple, pour le paresseux, nous avons prévu un treuil qui permet de le descendre à la branche du dessous afin qu’il soit plus accessible pour changer une pièce, voire le gruter pour l’évacuer. La difficulté que nous avons, c’est que nous ne faisons jamais deux fois la même création donc nous avons un savoir-faire mais nous ne pouvons pas prédire à 100 % comment une pièce va s’user. Il y a néanmoins des périodes de rodage car une fois l’animal mécanique créé, il est présenté dans la Galerie des machines où il sera manipulé par le public pendant plusieurs années. Cela permet de le mettre d’emblée en conditions réelles.

Propos recueillis par Alexandra Vépierre.

Le Web3 : un concept marketing ou une vraie alternative aux GAFAM ?

Le Web3 sera-t-il le premier buzz word de 2022 ? Comme tous les ans, des concepts ou des technologies censés révolutionner notre vie de tous les jours ou des usages professionnels font leur apparition.

Avec le Web3, il s’agirait d’adapter le World Wide Web inventé en 1989 par Tim Berners-Lee aux nouvelles exigences des internautes, à savoir plus de respect de la vie privée et moins de GAFAM. Une partie plus ou moins importante du business model des GAFAM repose sur l’exploitation de nos données à caractère personnel (Facebook et Google en particulier).

Le terme Web3 a été utilisé pour la première fois en 2014 par le Britannique Gavin Wood, le cofondateur de la cryptomonnaie Ethereum, et popularisé dans un article publié dans Wired en novembre 2021 : « The Father of Web3 Wants You to Trust Less ».

Au départ, le Web était décentralisé

Il a ensuite créé la Web3 Foundation. L’ambition de cette fondation ? « Financer les équipes de recherche et de développement qui construisent les bases du Web décentralisé », peut-on lire sur le site de la fondation.

En fait, ce terme existe depuis bien plus longtemps comme nous l’a précisé Stéphane Bortzmeyer : « Le domaine Web3.fr a été déposé en 2005 ». Pour ce spécialiste en réseau, qui connaît très bien les moindres rouages de l’Internet, le problème est que les personnes qui défendent ce concept donnent une définition en perpétuelle évolution.

En l’absence de définition claire et consensuelle, précisons qu’il ne faut pas confondre le Web3 avec le Web 3.0. Appelé aussi « Web sémantique », le Web 3.0 serait doué d’intelligence artificielle afin de rendre le contenu des ressources du World Wide Web accessible et utilisable par les programmes et agents logiciels.

S’il est difficile d’avoir un avis tranché sur le Web3, il est néanmoins possible de constater que plusieurs objectifs avancés par ses défenseurs existent déjà ! « Le Web a toujours été décentralisé et il existe déjà des alternatives aux GAFAM, mais elles ne sont jamais estampillées « Web3 » ! Concernant la protection de la vie privée, tout le monde n’a pas un compte Gmail et les internautes ne communiquent pas uniquement via Facebook. Si on veut publier des articles, on peut très bien créer son propre site sous WordPress comme on le faisait dans les années 90. Quant aux réseaux sociaux, il en existe déjà qui sont décentralisés : Mastodon, Fédivers… », précise Stéphane Bortzmeyer.

Concept marketing ?

Cette décentralisation du Web existait avant la mainmise des GAFAM et d’autres plateformes mondiales. Mais les partisans du Web3 n’appellent pas à revenir à ce concept originel. Ces derniers proposent de développer de nouvelles solutions reposant notamment sur la blockchain.

Pour Stéphane Bortzmeyer, ce concept est utilisé dans « un contexte uniquement commercial pour attirer des investisseurs » : « Je n’ai jamais entendu parler de ce terme pour évoquer les réseaux sociaux décentralisés ou les outils alternatifs aux GAFAM. Mettre en avant la défense de la vie privée devient un argument marketing ».

Le biomimétisme : de nombreuses externalités positives

Lors de son discours du 14 octobre 2021, à l’occasion du plan de Relance 2030, le Président Emmanuel Macron citait le biomimétisme comme levier d’innovation. L’intérêt des pouvoirs publics pour cette thématique porteuse n’est pas soudain, puisque l’ADEME est officiellement engagée pour le développement du biomimétisme, en partenariat avec le CEEBIOS, depuis novembre 2019.

Une étude (en suivant ce lien, vous en trouverez une synthèse réalisée par Myceco)*, soutenue par l’ADEME, a été réalisée sur la base d’entretiens auprès d’une quarantaine de parties prenantes du monde de la recherche, de l’industrie ou de l’action publique et s’inscrit dans la continuité de la feuille de route nationale portée par le CEEBIOS.

Le biomimétisme : un terme à la sémantique très large, riche et évolutive

Le biomimétisme est une démarche de bioinspiration :

  • pour une innovation orientée vers la conception de technologies durables ;
  • qui permet de défixer la pensée créative pour répondre aux enjeux sociétaux ;
  • qui peut aussi être perçue comme une philosophie véhiculant une conception nouvelle du monde.

À ce concept de biomimétisme est associé un champ lexical foisonnant et le rapport met en avant son aspect tentaculaire. La sémantique de ce concept se décompose en trois catégories de termes :

1- Ceux reflétant une inspiration du comportement du vivant

Exemples : bioinspiration, écomimétisme, biomimétique, économie circulaire, symbiose industrielle.

2- Les termes qui se rapportent à l’utilisation du vivant

Exemples : écoconception, ingénierie écologique, biosourcing, bioéconomie.

3- Ceux qui impliquent une intervention sur le vivant

Exemples : biologie de synthèse, biotechnologies, OGM, bionique.

Faire du biomimétisme un levier de soutenabilité environnementale et économique

Quoi qu’il en soit, au-delà des considérations sémantiques, il est certain que le biomimétisme a tout le potentiel pour devenir un facteur majeur de développement économique, social et environnemental dans les années à venir.

Huguette Tiegna, Députée du Lot et membre de la Commission des Affaires Économiques, en est convaincue, comme l’atteste l’extrait d’une déclaration figurant en conclusion du rapport :

« Le biomimétisme permet de créer de nouveaux emplois, comme ceux liés aux technologies bioinspirées pour lutter contre la pyrale du buis et le frelon asiatique. C’est une façon de créer des innovations dans les territoires avec des ressources locales, poussant les jeunes entreprises innovantes à s’installer sur le territoire. Le décrochage d’emplois non délocalisables en fait donc un enjeu de vitalité territoriale. »

Le rapport met aussi en avant 4 motifs qui font du biomimétisme un levier de souveraineté :

  • Notre réseau économique, technologique et académique qui intègre la pratique du biomimétisme, est déjà fortement développé.
  • Nous disposons d’un patrimoine qui représente une immense source de savoir (10 % de la biodiversité mondiale, 2e espace maritime au monde).
  • Notre culture et notre histoire sont en phase avec le caractère transversal et initiateur du biomimétisme.
  • Les secteurs et domaines d’activités concernés par l’innovation promue par le biomimétisme sont extrêmement variés.

Vers une charte pour un biomimétisme vertueux et orienté développement durable ?

Si nous voulons que le biomimétisme soit un outil permettant l’essor d’un modèle de société basé sur le développement durable, il est également important de voir au-delà des considérations technologiques.

En effet, bien que le biomimétisme permette de réaliser d’innombrables innovations technologiques, il faut aussi s’assurer qu’elles ne soient pas détournées vers une utilisation contraire au développement durable. Pour aller vers un développement vertueux du biomimétisme, celui-ci nécessite donc d’être encadré.

À ce titre, de nombreux intervenants s’accordent sur la nécessaire mise en place d’une charte du biomimétisme, qui pourrait donner lieu à la mise en place d’un label.

Pour en savoir plus, nous vous invitons à lire l’étude complète.

Vous pouvez également consulter une récente note scientifique de l’office parlementaire d’évaluation des choix scientifiques et technologiques.

Myceco est un cabinet de conseil en biomimétisme et numérique responsable tourné vers l’innovation.

Le Centre d’études & d’expertises en biomimétisme (Ceebios) est une Société Coopérative d’Intérêt Collectif (SCIC) à but non lucratif qui veut faire du biomimétisme un levier majeur de la transition écologique et sociétale.

VertigoLab est un bureau d’études et de recherches spécialisé en économie de l’environnement.

*Les informations présentées dans l’article sont issues de cette synthèse. 

Ion-X : des ions « liquides dans une bouteille » pour propulser les satellites

Étudié dès les années 1950 pour des applications de propulsion, le principe de l’électrohydrodynamique (EHD) n’a jamais permis de donner naissance à un système de propulsion véritablement exploitable à l’échelle industrielle et commerciale. Ce principe a, en revanche, contribué au développement d’un outil aujourd’hui utilisé à grande échelle par l’industrie des semi-conducteurs : le « focused ion beam » (FIB), ou sonde ionique focalisée. Le Centre de nanosciences et de nanotechnologies (C2N) travaille avec cette technologie depuis les années 80 et a été le premier laboratoire français à en bénéficier. Revenant en quelque sorte aux sources de l’exploitation de l’électrohydrodynamique, le C2N travaille depuis deux ans au développement d’un propulseur basé sur ce principe. Un travail qui a abouti en mai dernier à la création de la start-up Ion-X. Une levée de fonds de près de 2 millions d’euros réalisée en fin d’année dernière va permettre à la jeune pousse d’industrialiser son nouveau propulseur. Ingénieur de recherche CNRS au C2N et Directeur technique d’Ion-X, Jacques Gierak nous dévoile le fonctionnement et les spécificités de la technologie développée par la jeune entreprise, en compagnie de son Président, Yves Matton.

Techniques de l’Ingénieur : Quelles sont les origines de la technologie de propulsion que vous avez développée ?

Jacques Gierak. © Ion-X

Jacques Gierak : Nous utilisons une source d’ions qui a été inventée, à la base, pour le spatial dans les années 50 : le propulseur électrohydrodynamique (EHD). Ce type de propulseur n’a jamais volé jusqu’à très récemment. Mais vingt ans plus tard, il a donné naissance au « focused ion beam » (FIB), un « scalpel d’ions » qui permet de venir localement graver de la matière. Il s’agit d’une approche qui est maintenant quasi universelle dans l’industrie des semi-conducteurs. Cet outil est développé par le Centre de nanosciences et de nanotechnologies (C2N) depuis le milieu des années 80. Nous avons été le premier laboratoire en France à avoir un FIB.

En 2009, le MIT¹ nous a sollicités afin d’avoir notre aide pour mettre au point une source d’ions fonctionnant non plus avec un métal liquide, comme c’était le cas jusqu’alors, mais avec un sel fondu à température ambiante, ce sel à température ambiante étant développé par le MIT pour de la propulsion spatiale.

En 2017, ayant pris connaissance de notre capacité à développer des sources d’ions à partir de ces liquides ioniques, le CNES² nous a demandé si nous serions intéressés par un travail autour de la propulsion spatiale… À partir de là, nous avons travaillé pendant deux ans sur ce sujet et finalement proposé un concept.

Qu’est-ce que le liquide ionique que vous évoquez ? Quelle est sa nature et quelles sont ses propriétés ?

Jacques Gierak : Un liquide ionique est tout simplement un sel, comme le sel de table, mais avec une caractéristique essentielle : son état liquide à température ambiante. Il n’est pas toxique, son prix reste modéré et il est abondamment disponible ; ce qui n’est pas le cas de gaz, comme le xénon, très rares et très chers. Nos collègues du MIT appellent cela « un plasma dans une bouteille ».

Comment le principe de l’électrohydrodynamique fonctionne-t-il ?

Jacques Gierak : Le fonctionnement de l’électrohydrodynamique est très simple : on dépose le liquide ionique sous forme de goutte sur une pointe, qui va localement faire rayonner un champ électrostatique lorsqu’elle est polarisée. Lorsque le champ électrostatique devient supérieur à l’énergie de cohésion du liquide ionique, on vient le « casser » électrostatiquement et en extraire des anions et des cations. Ce qui fait la beauté de cette source est qu’elle peut émettre des ions positifs et négatifs. Cela avec un processus relativement simple : toute l’énergie électrique apportée l’est pour casser une liaison chimique. Il n’est pas nécessaire de chauffer, ni d’induire de réaction, de contrôler de pression ou d’avoir de processus annexe qui consommerait lui aussi de l’énergie.

Qu’est-ce qui fait la spécificité de la technologie que vous avez développée sur la base de ce principe ?

Jacques Gierak : Notre technologie est protégée par trois brevets. Le premier d’entre eux concerne la fabrication d’un réseau de pointes, sur lequel on vient faire circuler le liquide ionique. Provenant d’un réservoir de stockage, ce liquide va être transporté là où l’on applique le champ électrostatique le plus important. Le champ rayonne entre l’extrémité des pointes et la grille d’extraction, produisant un faisceau qui va partir et être accéléré. On extrait des particules très rapides – plusieurs centaines de kilomètres par seconde – dès le départ, ce qui provoque une poussée.

Tout cela fonctionne notamment avec des nanofils, nous avons donc marié les technologies des nanosciences, que nous connaissons bien au laboratoire, avec une technologie de fabrication qui nous permettra, à terme, d’avoir des composants faciles à produire et à coût modéré.

Nous avons également développé un système de pilotage. Le moteur étant à la fois asservi par le flux du faisceau et la vitesse que l’on veut donner à ce panache, on a deux entrées pour réguler le moteur.

Le troisième brevet, enfin, porte sur le fait de pouvoir équilibrer les charges positives et négatives, de façon à ce que le vaisseau – le satellite – ainsi que le faisceau lui-même restent neutres.

Concrètement, de quoi le moteur est-il constitué ? Quelles sont ses caractéristiques ? À quoi ressemble-t-il ?

Yves Matton. © Ion-X

Yves Matton : Il rassemble trois briques technologiques. Il est tout d’abord constitué d’une dalle d’émission, c’est le cœur du processus d’émission que nous venons de détailler. À cela s’ajoute un réservoir, très simple, qui n’est pas sous pression. Il contient uniquement le liquide ionique inerte. Le dernier élément est la partie de contrôle de la tension et du courant pour générer la tension d’émission. Cet élément est en communication avec le vaisseau pour recevoir les ordres de propulsion.

Notre moteur fait partie de la gamme des propulseurs électriques, comme les moteurs à effet Hall par exemple. Son alimentation est assurée par les panneaux solaires du satellite. La principale différence par rapport aux autres technologies est qu’il n’y a pas d’énergie perdue pour créer les ions. Ces ions sont « liquides dans une bouteille », et on a juste à venir les dissocier et les accélérer, ce qui est très efficace d’un point de vue énergétique.

L’ISP (impulsion spécifique) de ce moteur est excellente et il tient, pour l’instant, dans un cube de 1U (1 000 cm³).

Jacques Gierak : Avec l’intégration de toute l’électronique, l’objectif est d’arriver, à terme, à un tiers de U pour une mission de plusieurs années avec un CubeSat.

Yves Matton : Et en ce qui concerne son architecture, le moteur se présente sous forme de dalle, ou tile en anglais. L’idée est de pouvoir les juxtaposer afin d’en mettre autant que nécessaire. Il pourra donc être utilisé du CubeSat jusqu’au microsat (soit une gamme de satellites de 1 à 300 kg).

Légende : Grâce, notamment, à une chambre de test spécifique, l’équipe a pu commencer l’assemblage et la qualification de propulseurs de présérie. La livraison des premiers propulseurs est prévue pour fin 2023 ou début 2024. © Ion-X

Où en est aujourd’hui le développement de ce propulseur ? Quand pourrait-il équiper un premier satellite ?

Yves Matton : L’objectif est de terminer la qualification spatiale en 2023, avec au moins un lancement pour une mission en orbite, afin de faire la démonstration de la fiabilité et des performances du moteur in-situ. À la suite de cela, nous pourrons ouvrir le carnet de commandes… Nous sommes d’ailleurs déjà en discussion avec plusieurs fabricants de satellites, qui montrent un fort intérêt pour ce moteur. Que ce soit en matière de facilité d’intégration, de performances, ou d’efficacité d’utilisation du carburant, le moteur répond bien aux attentes dans le domaine.

Par rapport à d’autres technologies, où le coût de ce moteur pourrait-il se situer ?

Yves Matton : Le rapport qualité/prix sera forcément plus intéressant. Ce moteur étant issu d’un laboratoire de micro et nanoélectronique, les procédés de fabrication que nous avons choisis sont des procédés facilement transposables à plus grande échelle. Lorsqu’il s’agira d’augmenter les volumes, nous bénéficierons donc d’un effet d’échelle qui contribuera à faire baisser les coûts.


(1) Massachusetts Institute of Technology

(2) Centre national d’études spatiales

Techniques de l’Ingénieur partenaire de IoT World +MtoM Embedded 2022

Le besoin des entreprises d’intégrer de l’IoT dans leurs projets a été mis à mal ces dernières années avec le Covid-19, le retard de la 5G, la pénurie de composants électroniques, et le manque de compétences…

Mais 2022 promet d’être une année de passage à l’échelle des projets IoT.

Pour relancer la machine et relever les défis des prochaines années, le salon IoT MtoM réunira pour cette 3ème édition les acteurs et les décideurs engagés sur les marchés de l’IoT, du MtoM, de l’embarqué, de la data, du cloud et de l’IA. Ce sont alors 200 exposants, 4 000 auditeurs et 10 000 visiteurs attendus rassemblés en un seul lieu.

Techniques de l’Ingénieur est partenaire de cet événement leader en Europe au cours duquel 3 temps majeurs seront mise en avant : le Focus 5G & IoT, le colloque Asset Tracking Systems et L’IoT Executive Track, un parcours exclusif 100% nouveau et utile pour les décideurs ! D’autres thèmes seront également abordés tels que l’industrie 4.0, le metering, la gestion des datas issues des IoT, la cybersécurité des IoT sous des formats variés comme des conférences, des keynotes, ou encore des des tables-rondes.

Des animations sont également au programme :

IoT Awards

Présentez votre projet IoT gratuitement aux IoT Awards 2022 !

Pour la 6ème année consécutive, un jury de professionnels attribuera le 30 juin 2022 les IoT Awards. Ces prestigieux trophées récompenseront les meilleurs projets IoT (high‐tech, innovant, ambitieux, compliant, Prix du jury, IoT Lab Award). Concourir est gratuit, simple et rapide, directement sur le site :  www.iot‐awards.fr.

Rendez-vous Business gratuit

Seulement 5 minutes pour vous inscrire ! Vous sélectionnez les exposants que vous souhaitez rencontrer sur le site. Les rendez-vous sont organisés avec les exposants que vous aurez sélectionnés. Les rendez-vous de 30 minutes se déroulent directement sur les stands des exposants.

Highlight your Deeptech

Vous menez un projet, aidez, hébergez ou avez découvert une start-up dont vous êtes fier, qui a développé un produit ou une solution en rapport avec l’IoT, le MtoM, les objets connectés ?

Vous estimez qu’elle mérite d’être (re)connue ? Inscrivez-la à l’Opération Highlight your Deep-Tech 2022.

IoT Legal Desk

Vous avez un projet IoT ? Pensez « légal » le plus tôt possible et profitez d’un rendez-vous privé, gratuit et confidentiel avec un cabinet d’avocats présent sur le salon.

IoT Financing Desk

Vous cherchez des conseils avisés pour bien financer votre projet IoT ?

Prenez rendez-vous avec les consultants spécialisés à l’occasion du salon. L’opération IoT Financial Desk consiste à mettre gratuitement à disposition des entreprises une expertise en ingénierie du financement de l’IoT, pour leur permettre d’identifier les dispositifs de financement et en bénéficier pleinement en toute sécurité.

Inscrivez-vous ou demandez votre badge visiteur gratuit et découvrez l’intégralité des programmes de conférences dès maintenant, via le site : https://www.salon-iot-mtom.com/ 

Des robots pour décharger plus rapidement des camions

Il est courant de voir dans les entrepôts des véhicules autoguidés manipulant et déplaçant des marchandises, ainsi que des cobots ou robots mobiles aidant les opérateurs dans leurs tâches. Ce type de robotique permet de réduire le temps et les ressources consacrés à la récupération et au transport des articles dans l’entrepôt.

Elle permet aux opérateurs de se concentrer sur des processus plus complexes comme l’emballage et la préparation de colis fragiles. Mais pour combien de temps encore ? Une nouvelle génération de robots dotés d’intelligence artificielle et de flexibilité commence à apparaître.

Le meilleur exemple actuel s’appelle Stretch de Boston Dynamics qui, après un an de développement, sera déployé chez DHL au printemps 2022. L’opérateur a annoncé fin janvier 2022 qu’il allait investir près de 15 millions de dollars auprès de Boston Dynamics pour automatiser davantage les entrepôts en Amérique du Nord. Plusieurs robots Stretch seront intégrés dans différents entrepôts de DHL en Amérique du Nord au cours des trois prochaines années. Dans un premier temps, ces machines seront chargées du déchargement des camions.


Stretch ne ressemble pas trop aux robots humanoïdes (Atlas) et quadrupèdes (Spot) qui ont fait la réputation de Boston Dynamics. Équipé d’un bras massif, d’une pince munie de capteurs, d’un ensemble de ventouses et d’une base mobile omnidirectionnelle, Stretch peut transférer des boîtes pesant jusqu’à 23 kilogrammes de l’arrière d’un camion vers un tapis roulant à une vitesse de 800 boîtes par heure.

Un robot qui peut travailler 16 heures

Un opérateur pourrait faire la même chose, mais pas toute la journée, alors que Stretch peut tenir 16 heures avant de devoir être rechargé. Et ce type de manipulation est éprouvant pour le corps humain, surtout lorsque des boîtes lourdes doivent être déplacées depuis le plafond ou le plancher d’une remorque.

Selon Boston Dynamics, Stretch ne serait pas destiné à remplacer entièrement les. En général, il y a deux personnes qui déchargent chaque camion. Avec Stretch, l’objectif est de n’en avoir plus qu’une seule.

Pour relever ce défi, les chercheurs de Boston Dynamics ont passé plusieurs années à mettre au point un bras robotique performant. Mais surtout, certaines tâches qui semblent évidentes pour un être humain se révèlent complexes pour un robot.

Par exemple, devant un mur de cartons dans un camion, nous pouvons repérer d’un coup d’œil les dimensions d’un emballage pour savoir où le prendre. Pour un robot, être capable de savoir où s’arrête une boîte – ou une palette – et où commence une autre est un challenge.

Boston Dynamics indique que son robot sera opérationnel cette année. Ce n’est pas le premier galop d’essai du constructeur dans la logistique. En 2019, il avait présenté la version améliorée du robot Handle, un manipulateur mobile qui intègre à la fois des jambes et des roues, et une « queue » oscillante qui sert de contrepoids. Elle lui permet de s’équilibrer et de se déplacer de manière dynamique.

Source image de une : YouTube, capture d’écran de la vidéo de Boston Dynamics annonçant Stretch, et visible plus haut dans notre article.

Les impacts environnementaux du numérique : un état des lieux pour aller vers un numérique responsable

Cette étude, réalisée suivant les recommandations méthodologiques des normes ACV¹, met en lumière les réels impacts environnementaux du numérique, sur des bases scientifiques. Elle s’adresse aussi bien aux décideurs qu’à la communauté scientifique, aux acteurs stratégiques français ainsi qu’à l’ensemble des citoyens.

Une approche multicritère pour pousser la réflexion au-delà de l’empreinte carbone

Alors que le numérique est actuellement responsable de 3,5 % des émissions mondiales de gaz à effet de serre, cette empreinte carbone risque de doubler d’ici 2025 avec l’augmentation des usages. Néanmoins, comme le soulignent les auteurs de cette étude multicritères² dans leurs conclusions, les impacts ne se limitent pas aux émissions de gaz à effet de serre puisque l’utilisation de ressources minérales et fossiles ainsi que les émissions de radiations ionisantes sont prépondérantes.

Les terminaux utilisateurs ont l’impact le plus fort

Afin de fournir une analyse complète des causes d’impact, les services numériques ont été découpés en trois segments indépendants.

  • Les terminaux utilisateurs : téléviseurs (11% à 30% des impacts), ordinateurs, tablettes, smartphones, consoles, écrans, etc.
  • Les réseaux : fixes (xDSL, FFTx) et mobiles (2G, 3G, 4G, 5G).
  • Les centres de données (Datacenters) : les impacts environnementaux dépendent de la surface des salles informatiques, du nombre de serveurs et de la consommation électrique.
Répartition des impacts environnementaux du numérique en 3 briques

Selon un premier niveau d’analyse, les terminaux utilisateurs sont responsables de 63,6 % à 92 % des impacts environnementaux du numérique, alors que les centres de données et les réseaux se partagent la seconde place (de 4 % à 22,3 % pour les centres de données et de 2 % à 14 % pour les réseaux)

L’impact de la fabrication des équipements arrive en tête

Une recherche plus poussée met en évidence le fait que la phase de fabrication est la principale source d’impact, et ce pour deux raisons.

La première vient du fait que les procédés de fabrication des équipements numériques sont très énergivores. Or, comme ces équipements sont fabriqués dans des pays dont le mix énergétique est fortement carboné (Asie et États-Unis), cela impacte l’ensemble des indicateurs.

La seconde raison concerne la forte consommation de terres rares et de ressources critiques ou précieuses. En effet, en plus de nécessiter beaucoup d’énergie et de ressources pour leur extraction, ces matériaux génèrent une quantité importante de déchets.

La phase d’utilisation arrive en deuxième position et les impacts concernent principalement la consommation d’électricité.

Enfin, l’impact de la distribution semble être moins important, bien que non négligeable.

L’importance d’allonger la durée de vie des équipements

En pointant du doigt l’impact de la fabrication des équipements numériques, cette étude confirme l’importance des politiques visant à allonger leur durée de vie, par exemple via le réemploi, le reconditionnement ou la réparation.

Ce n’est d’ailleurs pas un hasard si un autre rapport de l’ADEME a été publié en même temps que celui-ci. Ce rapport de synthèse intermédiaire – dont les résultats sont en cours de revue critique – concerne cette fois l’évaluation de l’impact environnemental d’un smartphone reconditionné. Il met notamment en évidence que « faire l’acquisition d’un téléphone mobile reconditionné permet une réduction d’impact environnemental annuel de 91 % à 55 % selon les indicateurs par rapport à l’utilisation d’un smartphone neuf. »

Cela représente 82 kg de matières premières dont l’extraction est évitée et 25 kg d’émissions de gaz à effet de serre en moins chaque année. Les 2,8 millions de smartphones reconditionnés vendus en 2020 ont ainsi permis d’économiser 229 000 tonnes de matières premières et d’éviter l’émission de 70 000 tonnes d’équivalent CO2.

La sobriété numérique : la clé pour réduire nos impacts

Les trois quarts des impacts environnementaux du numérique sont dus à la fabrication des appareils. Commencer par limiter la fréquence de renouvellement de nos équipements est donc un point de départ pour aller vers plus de sobriété dans nos pratiques numériques. À ce sujet, l’ADEME vous donne également les clés pour agir, à travers un guide au nom évocateur : en route vers la sobriété numérique.

(1) ISO 14040:2006, 14044:2006 et revue critique selon ISO 14071

(2) LEES PERASSO Etienne, VATEAU Caroline, DOMON Firmin, ADEME, Arcep, BUREAU VERITAS, A. THEOBALD

Trop de fuites de méthane dans l’atmosphère

Pendant l’exploitation des gisements pétroliers et gaziers, et lors du transport du gaz dans les pipe-lines, il y a de nombreuses occasions de fuite du méthane (usure, maintenance, accident). Souvent minimisées voire niées par les industriels du secteur « Oil & Gas » (O&G), ces fuites dites fugitives font pourtant parfois l’objet de mesures qui montrent qu’elles sont très importantes.

Afin d’améliorer la connaissance à ce sujet, une équipe internationale de chercheurs menée par le Laboratoire des sciences du climat et de l’environnement (IPSL, CNRS/CEA/Université de Saclay) a travaillé avec l’entreprise privée Kayrros pour analyser les données relevées quotidiennement par le satellite Sentinel 5-P et mises à disposition par l’Agence spatiale européenne. À son bord, un instrument de mesure troposphérique (baptisé Tropomi) permet, par analyse multispectrale, de réaliser un échantillon des fractions molaires de méthane, avec une résolution modérée de 5,5×7 km². Grâce à un traitement statistique des données sur deux années (2019 et 2020), les chercheurs ont ainsi pu identifier les méga-fuites, c’est-à-dire celles dépassant 25 tonnes par heure.

Nombreuses fuites de méthane encore sous-estimées

Les résultats de cette étude sont édifiants. Plus de 1 800 panaches de méga-fuites ont été identifiés dont les deux tiers sont attribuables à l’industrie O&G (exploitation et transport). Ils ont lieu principalement en Russie, au Turkménistan, aux États-Unis, au Moyen-Orient et en Algérie. Les panaches les plus grands peuvent venir de sites émettant plusieurs centaines de tonnes de méthane par heure, et s’étendent sur des centaines de kilomètres…

Les méga-fuites de méthane identifiées par satellite ont permis de reconstituer les zones d’émissions fugitives de l’industrie pétrolière et gazière. Crédit : © Kayrros Inc., Esri, HERE, Garmin, FAO, NOAA, USGS, OpenStreetMap contributors, and the GIS User Community

« On a ainsi montré que ces fuites de méthane sont bien plus nombreuses, plus fréquentes et plus grosses que les inventaires officiels ne le disent. Et elles durent parfois longtemps en périodes de maintenance lorsque les exploitants préfèrent laisser le “robinet” ouvert plutôt que de le fermer ou mettre en place un système de dérivation, explique Thomas Lauvaux, chercheur au CNRS. Pourtant, notre évaluation sous-estime encore ces émissions. En effet le satellite n’a pas pu fournir de données dans les zones équatoriales à cause des nuages, ni dans les hautes latitudes comme au Canada, ni pour les zones en mer. La grande zone d’exploitation du gaz de schiste dans le Bassin permien aux États-Unis n’a pas pu être prise en compte non plus car il y a tellement d’émissions diffuses de méthane que les panaches sont difficilement détectables ! ». 

Quel enjeu pour le climat et l’économie ?

Selon les évaluations de l’étude, les méga-fuites représenteraient 8 à 12 % des émissions totales de méthane du secteur pétrolier et gazier qui sont estimées à 70 Mt. Forcément connues des exploitants, elles mériteraient d’être traitées pour éviter les effets de ce gaz sur le climat. Car le méthane a un pouvoir de réchauffement global (PRG) à 100 ans qui est environ 30 fois supérieur à celui du CO2. Mais sa durée de vie plus courte dans l’atmosphère fait qu’il a plutôt un PRG dépassant 80 à l’horizon de 20 ans.

« On estime que si on supprimait ces méga-fuites de méthane, on réduirait le réchauffement climatique moyen de 0,005 degré. Cela paraît peu mais c’est l’équivalent de l’impact des émissions de 20 millions de voitures en un an dans le monde ! Même si les émissions de CO2 restent le problème majeur à traiter, chaque effort sur le méthane aide à limiter le bouleversement du climat », ajoute Thomas Lauvaux. Les instances européennes et internationales ont d’ailleurs (enfin) perçu l’urgence de limiter les rejets de méthane. A l’issue de la COP26 à Glasgow fin 2021, une centaine d’États ont lancé un Observatoire international des émissions de méthane. La Commission européenne est en train d’élaborer un règlement.

L’Agence internationale de l’énergie (AIE) avait déjà pointé le sujet dans un rapport en janvier 2021 et mis en ligne une base de données sur les émissions de méthane. Différents types de solutions sont mis en avant par l’AIE pour réduire les rejets de méthane comme l’utilisation de pompes et moteurs électriques dans les process industriels, le torchage du gaz et bien sûr la mise en place de systèmes plus fréquents de détection. Ces pistes d’actions sont théoriquement prises en compte par les entreprises du secteur O&G, notamment celles qui se sont regroupées dans un partenariat international dédié.

Néanmoins, pour que ces bonnes intentions ne soient pas que de l’affichage, les États doivent réguler et contrôler les entreprises dans ce domaine. Tout le monde aurait à y gagner. Selon les chercheurs, la valeur du gaz qui serait ainsi récupéré par les entreprises et la réduction des coûts sociétaux (qualité de l’air, santé, impacts climatiques) engendreraient des bénéfices élevés, de l’ordre de 6 milliards de dollars pour le Turkménistan, 4 Md$ pour la Russie et 1,6 Md$ pour les États-Unis. Ce message sera-t-il entendu ?

Expérimenter le pâturage des bovins au milieu de plusieurs haies photovoltaïques

Après le pâturage des ovins sous des panneaux solaires, l’INRAE va tester un démonstrateur agrivoltaïque avec des bovins. Pour cette nouvelle expérimentation, les animaux ne vont pas pâturer sous l’installation, mais à côté puisque ce projet a pour originalité d’utiliser des panneaux photovoltaïques bifaciaux verticaux. Baptisé Camelia, il sera mené en partenariat avec ENGIE Green et doit débuter au printemps prochain, à Laqueuille dans le Puy-de-Dôme, sur une ferme expérimentale de l’institut.

Image de synthèse représentant les sept haies photovoltaïques et les bovins. Crédit : ENGIE Green

Les panneaux seront placés sur une parcelle de 0,9 ha, à proximité d’une zone témoin. Sept haies photovoltaïques seront installées parallèlement, avec deux niveaux d’écartements de 12 et 18 mètres. Elles seront orientées à l’est et à l’ouest, permettant ainsi deux pics journaliers de production d’énergie, le matin et l’après-midi. Chaque haie sera constituée de deux rangées de panneaux solaires superposés, et l’installation devrait au total développer une puissance de 100 KW.

Avant le début des travaux, une étude de la parcelle sera réalisée afin d’évaluer le tassement du sol, ses caractéristiques et la végétation déjà présente. Au cours du chantier d’installation de ce démonstrateur, la circulation des engins sera géolocalisée à l’aide de GPS pour mesurer leurs effets sur le tassement du sol. Les panneaux seront fixés à l’aide de pieux avec une emprise au sol relativement limitée, mais des tranchées devront être réalisées pour faire passer les câbles électriques. « Nous avons demandé à ENGIE Green de soulever des mottes de terre afin de ne pas trop impacter le sol et la végétation. Nous allons, entre autres, évaluer l’impact du chantier sur le carbone stocké dans le sol », déclare Catherine Picon-Cochard, directrice de recherche à l’INRAE.

L’effet d’ombrage des panneaux pourrait être positif pour la végétation

Le protocole de recherche s’étalera sur 3,5 ans. L’impact agronomique de l’installation sera analysé, notamment sur le microclimat aérien (lumière, vent, humidité, albédo…) et souterrain (température, humidité du sol…), ainsi que sur la croissance de la végétation, et la qualité de la ressource fourragère. « Nous allons analyser comment l’écosystème réagit face à cette installation et fournir des références à la fin de l’étude, ajoute Catherine Picon-Cochard. Nous pensons que l’ombrage des panneaux peut avoir des effets bénéfiques sur la végétation, notamment l’été. C’est ce que nous avons déjà constaté sur d’autres études avec des panneaux solaires classiques sous la forme de tables, orientés au sud. Bien qu’ici cet effet devrait être moins important puisque les panneaux sont verticaux. » L’évaluation de l’impact sur la biodiversité sera quant à elle confiée au bureau d’expert indépendant Crexeco, associé à ce projet.

Le comportement des bovins sera aussi étudié. Afin de respecter un chargement animal et ne pas provoquer de surpâturage, deux génisses seront présentes dans la parcelle expérimentée. Pour limiter le risque qu’elles se frottent contre les panneaux, deux brosses seront installées à l’extrémité d’une des haies. Les chercheurs comptent observer les animaux pour étudier s’ils profitent de l’ombre de l’installation et comment ils réagissent face à ces panneaux formant des couloirs. « Des apports d’engrais seront réalisés dans la parcelle, car l’idée est qu’elle soit pâturable et mécanisable, poursuit Catherine Picon-Cochard. Nous étudierons comment les engins agricoles circulent entre les haies et la dispersion de l’engrais en veillant à ce qu’il ne se projette pas sur les panneaux. »

Image de synthèse représentant un tracteur épandant des engrais dans la parcelle expérimentée. Crédit : ENGIE Green

Le travail de modélisation de la production énergétique sera réalisé au Laborelec, un centre de recherche d’ENGIE, qui analysera les performances de ce dispositif. L’objectif de ce projet d’agrivoltaïsme étant d’aller plus loin qu’une seule mixité d’usage et d’atteindre une synergie entre cette production d’électricité et l’activité agricole.

Des polyuréthanes biocompatibles et durables, sans isocyanates

Des résultats ont été récemment présentés au salon MEDICA 2021 de Düsseldorf. Nous avons interviewé le docteur Christoph Herfurth de l’Institut Fraunhofer IAP, afin d’en savoir plus.

L’Institut Fraunhofer IAP est un organisme spécialisé dans la recherche et le développement d’applications polymères. Outre ses compétences en caractérisation des polymères, l’institut développe des solutions polymères plus écologiques et rentables à l’échelle du laboratoire et de l’usine pilote.

Le docteur Christoph Herfurth coordonne ce projet à l’Institut Fraunhofer pour la recherche appliquée sur les polymères (IAP).

Techniques de l’Ingénieur : Quel rôle jouent les isocyanates dans la formulation du polyuréthane ?

Christoph Herfurth (crédit : Fraunhofer IAP)

Christoph Herfurth : Les isocyanates sont la substance réactive dans la formulation de polyuréthane (PU). Ils réagissent avec les groupes OH du polyol et de l’allongeur de chaîne, ce qui forme les fragments d’uréthane du PU, par une réaction de polyaddition.

Les propriétés du PU obtenu dépendent à la fois de la composition de chaque bloc de construction et du type d’isocyanate utilisé (par exemple, aromatique ou aliphatique).

Leur haute réactivité permet d’obtenir des processus de polymérisation rapides et efficaces et des temps de réaction de l’ordre de quelques minutes.

Par ailleurs, les isocyanates permettent la réticulation nécessaire à l’obtention de revêtements et d’adhésifs. Ils ont aussi la particularité de libérer du dioxyde de carbone lorsqu’ils réagissent avec l’eau, ce qui permet de souffler des mousses PU.

Pourquoi les isocyanates sont-ils si dangereux ?

C’est justement la forte réactivité des isocyanates qui constitue un danger. Étant donné que les isocyanates réagissent facilement avec toutes sortes de nucléophiles (c’est-à-dire les groupes hydroxyle, amine ou thiol) que l’on trouve en abondance dans le corps humain, ils sont au minimum de puissants sensibilisants, voire des substances toxiques aigues.

En outre, cette réactivité élevée peut entraîner des inhomogénéités indésirables dans le matériau PU résultant, soit si la réaction se déroule trop rapidement, soit s’il y a formation de points chauds dans des zones de réactivité particulièrement élevée, ce qui conduit à la réticulation.

Pour ne rien arranger, la production des isocyanates implique des substances encore plus dangereuses, comme le phosgène.

En 2023, de nouvelles restrictions seront imposées par l’Agence européenne des produits chimiques (ECHA) sur les isocyanates. Quelles seront les conséquences pour les industriels qui travaillent le polyuréthane ?

Afin de réglementer le travail avec les substances hautement dangereuses, l’ECHA a limité l’utilisation de formulations contenant plus de 0,1 % de diisocyanate [fait partie de la famille des isocyanates et est un monomère de départ pour la production de polyuréthane, NDLR] aux personnes spécialement formées. Par conséquent, les industriels devront soit s’assurer que tous les employés qui manipulent des formulations contenant plus de 0,1 % de diisocyanate ont reçu une formation appropriée, soit chercher des solutions alternatives, sans isocyanates.

Vous proposez un nouveau processus de production sans isocyanates. Comment fonctionne-t-il ?

Le processus que nous avons optimisé dans nos laboratoires est une réaction de polycondensation de dicarbamates avec des polyols et des prolongateurs de chaîne.

Par rapport à une formulation classique contenant des polyols et des prolongateurs de chaîne, seul l’isocyanate est substitué. La structure chimique du matériau obtenu (le NIPU) est ainsi très similaire à celle du PU (polyuréthane) produit par le procédé conventionnel. Par conséquent, il y a de très fortes chances de transférer les relations structure-propriété du PU conventionnel à notre NIPU.

Comparaison des réactions chimiques permettant la formation de PU (en haut) et de NIPU (en bas). (crédit : Fraunhofer IAP)

Cependant, passer d’une réaction de polyaddition dans le PU conventionnel à une réaction de polycondensation pour le NIPU est un changement assez radical au niveau de la chimie et du procédé, mais aussi du temps de réaction. En effet, remplacer un isocyanate hautement réactif par un dicarbamate moins réactif entraîne nécessairement des temps de réaction plus longs.

Néanmoins, les procédés de polycondensation sont bien connus dans l’industrie, par exemple pour la production de polyéthylène téréphtalate (PET) pour les bouteilles d’eau.

Quelles sont les applications industrielles potentielles ?

À l’heure actuelle, le NIPU est capable de remplacer le PU conventionnel dans toutes les applications qui reposent sur les propriétés exceptionnelles du PU, tant qu’une forte réactivité n’est pas recherchée.

Ce matériau est particulièrement intéressant pour les utilisations sensibles comme les produits médicaux ou les mousses pour oreillers et matelas.

Les tubes à usage médical sont l’une des nombreuses applications des polyuréthanes. (© Fraunhofer IAP)

En dehors de cela, l’utilisation de CO2 et de PU recyclé comme matière première pour la synthèse de NIPU est une bonne alternative en termes de développement durable.

Ce procédé est-il proche de l’industrialisation ?

Jusqu’à présent, nous avons réussi la synthèse de NIPU à l’échelle du laboratoire, dans des contenants de 1 L. néanmoins, des essais effectués en réacteur à polycondensation nous ont permis de constater que le processus fonctionne plus rapidement et plus facilement de cette manière que dans une fiole de laboratoire. Étant donné que les procédés de polycondensation sont des procédés industriels bien établis, la mise à l’échelle du processus NIPU ne devrait pas poser de problèmes insolubles. En parallèle, nous étudions actuellement un procédé de polycondensation semi-continu utilisant l’extrusion réactive, afin de nous rapprocher de la production du PU conventionnel.

Est-ce applicable à grande échelle, à un coût raisonnable ?

Comme mentionné précédemment, la polycondensation est un procédé industriel qui se fait à très grande échelle.

Pour le moment, l’estimation des coûts de production du NIPU est difficile à faire, car d’une part, la conception du processus n’est pas encore finalisée et, d’autre part, les effets d’échelle concernant la production de dicarbamate sont difficiles à estimer. Si je devais donner une estimation rapide, je dirais que les coûts du procédé une fois développé pourraient être un peu plus élevés que pour la production de PET.

Quelles seront les prochaines étapes du développement ?

Étant donné que le NIPU ne bénéficie pas de la réactivité élevée des diisocyanates, la formation de mousse et la réticulation ne sont pas aussi facilement réalisables qu’en utilisant des diisocyanates. Nous sommes donc en train de développer des stratégies permettant le moussage et la réticulation sans utilisation de diisocyanates, afin d’ouvrir de nouvelles applications pour les NIPU.

Crédit image de une : Fraunhofer IAP

2021 rejoint le top 7 des années les plus chaudes

« Le réchauffement global à long terme dû à l’augmentation des gaz à effet de serre est désormais bien plus marqué que la variabilité annuelle de la moyenne des températures du globe causée par des facteurs climatiques naturels », partage l’Organisation météorologique mondiale (OMM). Ainsi, même si le phénomène météorologique de la Niña a temporairement fait baisser les températures l’année dernière, « l’année 2021 a tout de même été plus chaude que celles qui ont subi l’influence de La Niña dans un passé récent », partage Petteri Taalas, secrétaire général de l’OMM. Pour rappel, la Niña est un phénomène qui se caractérise par une anomalie négative de la température de surface de la mer qui provoque des températures anormalement fraîches sur des zones étendues du globe.

Bilan : sur l’année 2021, la température moyenne sur la planète dépassait d’environ 1,11°C sa valeur préindustrielle (1850-1900), partage l’OMM dans un communiqué. La marge d’erreur atteint plus ou moins 0,13°C. « Les sept années les plus chaudes ont toutes été enregistrées depuis 2015, les années 2016, 2019 et 2020 arrivant en tête du classement », souligne l’OMM. Pour la septième année consécutive, la température mondiale dépasse de plus de 1°C les niveaux préindustriels.

L’année 2021 a connu de nombreux événements météorologiques extrêmes. Fin juin, le record historique de température a été battu au Canada, atteignant 49,6°C. L’Asie, l’Europe et l’Australie ont connu des précipitations exceptionnelles et des inondations meurtrières. Pendant ce temps, l’Afrique et l’Amérique latine souffraient sous la sécheresse. S’il n’est pas possible de faire un lien direct entre chacun de ces événements météorologiques et le changement climatique, le réchauffement de la planète les rend bien de plus en plus probables.

2021 : cinquième, sixième ou septième année la plus chaude

Pour établir ses statistiques, l’OMM fait la synthèse de six grands jeux de données internationales. Elles proviennent, entre autres, de l’Administration américaine pour les océans et l’atmosphère (NOAA), du Goddard Institute for Space Studies (GISS) de la NASA, du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) et de son service Copernicus de surveillance du changement climatique, du Service météorologique japonais (JMA) et du groupe Berkeley Earth.

Selon Copernicus, 2021 est la cinquième année la plus chaude jamais enregistrée. Pour leur part, la NOAA et Berkeley Earth la classent sixième. D’autres jeux de données la placent sixième ex æquo, et la JMA la classe septième. Si les classements peuvent différer un peu entre les agences, en raison de méthodologies différentes, toutes s’accordent à classer 2016 comme année la plus chaude jamais enregistrée.

« Le réchauffement de la planète et les autres tendances à long terme du changement climatique devraient se poursuivre en raison des niveaux records de gaz à effet de serre présents dans l’atmosphère », avertit l’OMM. Russel Vose, responsable de la surveillance du climat à la NOAA estime que l’année 2022 « a 99% de chances de se classer elle aussi dans le top 10 ». Les engagements de réduction d’émissions pris par la communauté internationale laissent pour l’instant le monde sur une trajectoire de réchauffement de 2,7°C d’ici la fin du siècle. Un niveau qualifié de « catastrophique » par l’ONU.

Patrick Barillot : « notre vaccin nasal bloque la contagiosité, ce qui est essentiel pour éradiquer cette pandémie »

LoValtech (Loire Valley Technology) est présidée par Patrick Barillot, ancien directeur du développement du laboratoire pharmaceutique Recipharm. Patrick Barillot a rejoint la directrice de BioMap, Isabelle Dimier-Poisson, et deux autres chercheurs associés (Mathieu Epardaud et Nicolas Aubrey) pour fonder cette start-up. Hébergée à la cité MAME de Tours, elle a été labellisée deeptech par la BPI (Banque Publique d’Investissement). « C’est la passerelle idéale pour transformer le concept innovant d’un vaccin issu de la recherche académique vers le monde industriel et enfin sa mise sur le marché », explique Patrick Barillot.

Techniques de l’Ingénieur : votre vaccin nasal a montré son efficacité, tant en termes de réponse immunitaire que de neutralisation précoce du virus. Mais serait-il également efficace contre les variants ?

Patrick Barillot. DR

Patrick Barillot : tous les vaccins sont basés sur la protéine Spike, mais celle-ci mute énormément. Un des intérêts majeurs de notre vaccin, qui intègre aussi la protéine Spike, est qu’il intègre d’autres protéines qui ne sont pas soumises à mutations. Ces protéines, qui font l’objet d’un brevet, n’évoluent pas. Il y a donc une reconnaissance du virus par le système de défense de l’être humain, quels que soient les variants. Nous avons réalisé des essais sur les variants Delta avec 100 % d’efficacité. Nous allons entamer des essais sur Omicron qui nous permettront de confirmer ce point. Cela restera à confirmer avec nos prochains essais.

Votre vaccin nasal arrête-t-il la contagiosité, ce que ne font pas correctement les vaccins actuels ?

En plus de l’immunité systémique que confèrent tous les vaccins IM, le nôtre confère également une immunité des muqueuses et notamment au niveau de la sphère ORL. Cela signifie que le virus ne va pas se multiplier au niveau des cavités nasales et il n’y aura pas d’expectoration du virus vers d’autres personnes. Actuellement, si vous êtes vacciné, vous pouvez attraper le virus, mais aussi le transmettre. Notre vaccin va bloquer le virus dès son entrée. Cela répond à la demande de l’OMS formulée à l’intention des chercheurs pour qu’ils développent des vaccins qui soient efficaces sur les variants, mais surtout qui empêchent la contagiosité, car c’est un élément capital pour éradiquer cette pandémie.

Facile à administrer, ce vaccin nasal serait aussi facile à conserver, puisqu’il peut être stocké à quatre degrés, voire à température ambiante.

À la différence des vaccins ARN messager, nous n’avons pas besoin de congélation. Notre vaccin arrivera sous forme de solution chez les producteurs. Le process et la logistique seront donc plus simples. Notre vaccin étant également très stable, il pourra être conservé à 4 degrés pendant plusieurs années, et à température ambiante pendant plusieurs semaines.

Pour développer ce vaccin, LoValtech doit récolter des fonds. Où en êtes-vous ?

Les premiers résultats ont été financés par des crédits et subventions accordés par le ministère de la Recherche et de l’Enseignement supérieur, de la Recherche et de l’Innovation (1,5 million d’euros) et par l’ANRS-MIE (Agence nationale de recherches sur le sida et les hépatites virales, maladies infectieuses émergentes), [900 000 euros]. Nous sommes maintenant optimistes. Nous discutons avec plusieurs investisseurs, les ministères. Et nous avons une réunion prévue avec la COVAX pour présenter notre projet. Il s’agit d’une organisation créée en 2020 pour d’assurer un accès équitable à la vaccination contre le Covid-19 dans les pays émergents. Elle peut nous aider financièrement à développer notre vaccin avec en échange une mise à disposition de notre vaccin à des conditions qui permettraient à des pays émergents de vacciner leur population.

Quelle est votre roadmap ?

Nous terminons les études précliniques et nous avons commencé l’étape de fabrication des protéines en environnement GMP (Bonne pratique de fabrication), qui sera suivie par la fabrication de la solution vaccinale et de sa mise en flacon, toujours en GMP, étape indispensable pour réaliser les essais cliniques sur l’être humain dont l’ANRS sera sponsor. Nous pensons passer aux essais de phase 1 et 2 à la fin de cette année ou début de l’année prochaine. Pour la phase 3, la situation la plus favorable pour nous serait de bénéficier d’une autorisation de mise sur le marché (AMM) d’urgence sanitaire. Cela signifierait que le vaccin pourrait-être mis sur le marché au cours de cette phase 3 vers la fin 2024.

Écoutez notre podcast Cogitons Sciences : Alexandre Tisserant, de l’informatique aux nanosatellites [Des ingénieurs qui cassent la routine #1]

Après une spécialisation dans l’informatique, comment les expériences professionnelles d’Alexandre Tisserant l’ont-elles conduit jusqu’au spatial ? Quelles différences l’ont le plus marqué dans ce secteur ? Et comment ces diverses compétences sont-elles reliées à un même cœur de métier, celui d’ingénieur ? 

Depuis janvier 2019, Alexandre Tisserant est PDG de Kinéis. La constellation de 25 nanosatellites de Kinéis devrait fournir des services de connectivité destinés à l’internet des objets (IoT). Dans la continuité du projet Argos, ses applications vont – entre autres – du suivi de la biodiversité marine et terrestre, au suivi de l’activité volcanique, en passant par le suivi des convois de denrées sensibles.

En 2002, Alexandre Tisserant obtient un diplôme d’ingénieur spécialisé en computer science, de l’Ecole polytechnique. Il y ajoute en 2004 un deuxième master, délivré par Telecom ParisTech, et cette fois tourné vers le management, la stratégie commerciale et le développement de logiciel. Ni ses études, ni une carrière dans la finance au sein de l’Etat ne présageaient pour cet ingénieur une direction toute autre lorsqu’il rejoint CLS Group en 2017 : embrasser le domaine spatial. Un univers qui, pourtant, l’avait toujours fasciné… 

Vous pouvez écouter l’épisode ici. 

Une passion avant tout [1:00 – 11:18]

“Je ne pense pas que ça me prédestinait à y travailler, mais le spatial est un domaine qui me fascinait depuis très longtemps, nous confie Alexandre Tisserant. Adolescent, en lisant les magazines de vulgarisation scientifique, j’étais toujours très intéressé par les dossiers qui avaient trait à l’espace. Et quand ensuite j’ai eu des cours de mécanique spatiale, comprendre comment les astres tournent les uns autour des autres m’a captivé. À un moment, j’envisageais même de m’orienter vers l’astrophysique ; chose que je n’ai pas poursuivie, car je n’étais pas sûr que le domaine de la recherche me conviendrait. Comme par ailleurs j’aimais beaucoup l’informatique, je me suis spécialisé là-dedans.” 

Dans l’espace infini, de la rigueur [11:19 – 23:46]

En 2017, alors que la famille part s’installer à Toulouse, où l’épouse d’Alexandre Tisserant va enseigner l’histoire à l’université, l’ingénieur cherche des opportunités de travail dans la ville rose. “De fil en aiguille”, il est alors recruté par CLS Group pour diriger le projet Kinéis, devenu par la suite une entreprise spin-off. Dans ce milieu qu’il découvre, comme nous l’explique Alexandre Tisserant, une spécificité se démarque : “Quand on envoie un objet dans l’espace, on n’y a plus accès, plus jamais, et on est donc obligé de réaliser une batterie de tests et de validations, à la fois électroniques, informatiques, mécaniques, thermiques, au sol. En plus, envoyer et développer le satellite coûte cher !” Et on n’a donc pas vraiment droit à l’erreur. D’où cette rigueur accrue. Qui peut même contraster avec le monde de l’informatique : “De là découle la méthode de l’ingénierie spatiale, qui est très différente de l’informatique, où on écrit du code, on compile, on exécute, on teste, et si ça ne marche pas, on refait”. 

Le liant : la curiosité… Et une quête de sens [23:47 – 32:58]

“Ce qui m’a guidé tout au long de ma carrière, c’est la curiosité, une envie de comprendre comment les choses fonctionnent, et pouvoir les refaire moi-même”, décrète le PDG de Kinéis. Il continue : “C’est d’ailleurs comme ça que je me suis retrouvé à travailler pour le budget de l’Etat pendant quelques années, car c’était une mécanique financière que je ne comprenais pas au début, alors que c’est au cœur des ‘machines’ de l’Etat !” Son conseil aux étudiants ingénieurs ? “Savoir pourquoi vous faites ce que vous faites, et vous demander ce que ça produit pour la société en général !” 

Pour écouter l’épisode, c’est par ici.

Références citées :

Le projet Argos (continué par Kinéis) 

CLS Group

Ressources pour aller plus loin :

“Merci de changer de métier”, un livre de Celia Izoard

“Voyage en misarchie”, un livre d’Emmanuel Dockès

“Les couilles sur la table”, un podcast de Victoire Tuaillon 

“Silicon Valley”, une série télévisée américaine

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur.  Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Marie-Caroline Loriquet. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

(Crédit photo d’Alexandre Tisserant : Nuuk photographies)

L’avantage environnemental de la méthanisation est prouvé

Une des solutions mises en avant par les politiques publiques de transition énergétique est la production de biogaz. Cette énergie renouvelable issue en grande partie du monde agricole grâce à des unités de méthanisation (cf. encadré) fait pourtant face à des critiques : au-delà des problèmes d’odeurs qui sont gérables au cas par cas, des interrogations voient le jour sur l’utilisation des cultures alimentaires pour augmenter les intrants dans les méthaniseurs, sur les risques de pollution de l’eau et des sols, sur les risques d’accident, sur l’intérêt agronomique du digestat pour la fertilisation des sols.

La filière commence à répondre à ces légitimes questionnements dès lors qu’ils ont un fondement scientifique, par exemple via le site InfoMetha. L’enjeu le plus important est celui du bilan environnemental global du biométhane issu de ressources agricoles. Une étude récente d’une filiale de l’INRAE pour GRDF permet d’y voir plus clair grâce à une analyse du cycle de vie (ACV) incluant trois fonctions essentielles : la production d’énergie, la gestion des effluents et la fertilisation des sols. Ses résultats permettent de comparer les bilans de systèmes avec ou sans méthanisation, au regard de 16 indicateurs.

Bilan globalement meilleur avec méthanisation que sans

Par rapport à un scénario de référence sans méthanisation, deux scénarios agricoles avec méthanisation sont envisagés dans cette étude. L’un est orienté vers la polyculture avec des intrants majoritairement issus de cultures intermédiaires à vocation énergétique (CIVE) comme le triticale, le seigle et l’avoine. L’autre est tourné vers l’élevage : les substrats méthanisés sont alors principalement des effluents d’élevage (fumier, lisier).

Globalement, l’ACV montre qu’il y a plus de bénéfices environnementaux à utiliser la méthanisation, qui est meilleure sur 7 à 10 indicateurs, tandis que 4 ou 5 indicateurs sont sans écarts significatifs (cf. tableau). On note en particulier une forte amélioration de l’environnement atmosphérique (gaz à effet de serre, ozone, particules fines) par rapport à la version sans méthanisation. Les indicateurs les plus défavorables viennent du fait que les systèmes avec méthanisation utilisent plus d’électricité, et intègrent donc les effets du parc électronucléaire français (radiation ionisante, eutrophisation de l’eau douce et ressources métalliques/minérales).

Sur les 16 indicateurs de l’ACV de la méthanisation, une majorité est améliorée (en vert) ou sans écart significatif, c’est-à-dire inférieurs à +/- 10% (en noir), par rapport à un système sans méthanisation. Source : Esnouf A., Brockmann D., Cresson R. (2021), Analyse du cycle de vie du biométhane issu de ressources agricoles – Rapport d’ACV. Inrae Transfert

Quatre externalités positives majeures donnent l’avantage à la méthanisation, selon les auteurs de l’étude : le recyclage de l’azote des déchets méthanisés et sa valorisation via l’épandage des digestats (en remplacement d’engrais minéraux d’origine fossile) ; les gestions des effluents d’élevage par des stockages de courtes durées ; le stockage de carbone par les CIVE, même s’il est limité ; et la mobilisation du pouvoir méthanogène des résidus de culture, avec un impact très faible sur la matière organique des sols.

Enfin, grâce à plusieurs analyses de sensibilité, l’étude identifie des critères techniques et des bonnes pratiques à généraliser pour assurer la pertinence environnementale de la méthanisation, comme la couverture du stockage de digestat, la limitation des émissions fugitives de méthane au digesteur, les pratiques d’épandage adaptées, la bonne gestion des CIVE. Il ne tient plus qu’à la filière biogaz de les mettre en œuvre pour faire de la méthanisation un véritable succès.

Repères sur le biométhane

Le biogaz n’est pas extrait de gisements d’origine fossile mais issu de la digestion anaérobie de déchets organiques par des micro-organismes dans des unités de méthanisation. Le biogaz contenant aussi de l’eau, du H2S et du CO2, il faut l’épurer de ces molécules. Le biométhane alors obtenu, constitué à 97 % de CH4, peut être injecté dans les réseaux de gaz pour des usages classiques (combustion pour la cuisson, le chauffage, la production d’électricité) ou pour de nouveaux usages (mobilité).
Le développement de la méthanisation s’est fait à petits pas depuis 15 ans, alors que la loi fixe un objectif ambitieux d’injection de 10 % de biométhane dans les réseaux en 2030 (soit plus de 20 TWh). Fin 2021, plus de 330 unités de méthanisation en fonctionnement injectaient « seulement » 5,8 TWh/an. Le potentiel technique accessible est estimé par l’Ademe à 60 TWh en 2030 et 123 TWh en 2050. Il faudrait donc accélérer la montée en puissance de la filière biogaz en sécurisant le modèle économique des installations de méthanisation, en particulier les plus nombreuses, celles du monde agricole.

 

Une technique d’inventaire de la biodiversité grâce à l’ADN environnemental

Tous les organismes vivants perdent leurs cellules dans l’environnement, que ce soit à travers leurs urines, leurs fèces, leurs salives, leurs mucus… Les êtres humains vont par exemple perdre, en moyenne au cours de leur vie, 18 kg de peau, avec à l’intérieur des milliards de cellules. Créée en 2011, la start-up Spygen a développé une technologie pour identifier des espèces grâce aux traces d’ADN qu’elles laissent dans l’environnement, et plus particulièrement dans l’eau. Cette méthode, appelée ADN environnemental (ADNe), permet notamment un meilleur suivi des espèces rares ou discrètes et vise à renforcer les opérations de veille environnementale. Vincent Prié, directeur de projets de l’entreprise, nous dévoile cette technique d’inventaire de la biodiversité.

Techniques de l’Ingénieur : Comment l’ADN des différentes espèces présentes dans l’eau est-il prélevé ?

Vincent Prié, directeur de projets de Spygen. (Crédits : Spygen)

Vincent Prié : Nous avons mis en place un protocole d’échantillonnage qui consiste à prélever à chaque fois de deux fois 30 litres d’eau, puis à utiliser un filtre de 500 cm², d’un diamètre de 45 microns. Ce protocole permet de répondre à la rareté des fragments d’ADN et des espèces présents dans le milieu. Par exemple, dans le Rhône, certaines espèces sont très présentes, comme le chevesne, un gros poisson, mais d’autres sont beaucoup plus rares, comme l’apron du Rhône. Il ne mesure que 10 cm et il n’y en a peut-être qu’un seul tous les kilomètres. Grâce à notre protocole, nous sommes capables d’inventorier environ 95 % des espèces présentes dans l’eau des rivières, des fleuves, des lacs…

Le protocole d’échantillonnage consiste à prélever deux fois 30 litres d’eau (Crédits : Spygen)

Comment faites-vous pour identifier les espèces à partir de ces fragments d’ADN ?

Ces fragments d’ADN se dégradent très vite dans l’eau, en une quinzaine de jours environ. C’est une bonne chose, car cela permet d’avoir une image actuelle de la faune, alors que s’ils étaient présents plusieurs années, le résultat serait faussé. Autre particularité : ces fragments se déposent sur des particules avant qu’elles ne se sédimentent au fond de la rivière. Là encore, c’est une bonne chose, car cela évite de retrouver des fragments d’ADN déposés à la source du Rhône et qui se retrouvent quinze jours plus tard en méditerranée avec la vitesse du courant.

Par contre, toute la difficulté est de parvenir à les capter avant qu’ils ne soient trop dégradés, puis de faire la relation entre un fragment d’ADN dégradé et une espèce. Chaque espèce à une signature génétique et aujourd’hui, grâce au code-barres, il est possible de les qualifier à partir d’un gène standard. Par exemple, celui du CO1 possède 658 paires de bases, mais dans le milieu, l’ADN est coupé en petits morceaux. Du coup, nous cherchons des endroits sur les gènes qui sont différents entre chaque espèce. En moyenne, nous sommes capables d’identifier une espèce avec 150 paires de bases. Et en général, notre recherche se fait à un autre endroit du génome que celui du CO1, comme sur le gène 16S dans le cas des bivalves ou le 12S pour les poissons.

Quels sont les avantages de votre méthode ?

Sur les poissons, les bivalves, les amphibiens…, le taux de détection est très élevé, environ 95 %. Ensuite, notre technique se révèle efficace dans des milieux très complexes. Avant d’intégrer Spygen, j’étais plongeur et j’allais à la recherche de bivalves dans des rivières parfois très profondes où la visibilité était quasi nulle. Cette méthode d’inventaire des espèces est difficile à mettre en œuvre et peut se révéler dangereuse ; c’est pourquoi deux plongeurs travaillent toujours côte à côte. Notre méthode présente l’avantage d’être facile d’emploi et intéresse beaucoup les bureaux d’études qui redoutent les accidents. De plus, elle est beaucoup moins coûteuse. Faire appel à deux plongeurs coûte environ 1 400 euros par jour et plusieurs jours seront nécessaires pour réaliser un inventaire correct. En comparaison, notre technique ne coûte qu’environ 1 000 euros.

Dernier élément, la détermination de certaines espèces est parfois très difficile, comme c’est le cas avec les bivalves, puisqu’il n’y a plus qu’une ou deux personnes en France capables de les identifier correctement. Avec l’ADN environnemental, on est sûr de ne pas se tromper.

Et les limites ?

Nous n’avons pas d’information sur l’abondance des espèces, ni sur leurs caractéristiques. Nous y travaillons actuellement, mais c’est compliqué. Pour comprendre l’intérêt de notre méthode, on peut prendre l’image des odeurs et de la chasse. Le chasseur, avec l’aide de ses chiens, va identifier une odeur de chevreuil, mais ne sait pas exactement où se trouve l’animal, s’il est seul ou pas, ni si c’est un mâle ou une femelle. Il commence par l’odeur, puis s’il sent quelque chose, il va fouiller en se déplaçant sur place. Avec l’ADN environnemental, c’est un peu la même chose, la méthode donne un panel des espèces présentes, mais si l’on souhaite connaître la taille de la population, l’état sanitaire des individus (jeune, mâle, femelle…), il faut basculer sur des méthodes traditionnelles. Elles conservent donc tout leur intérêt, mais au moins avant de les utiliser, on sait à quel endroit il y a de fortes chances de trouver les espèces que l’on recherche.

Présentez-nous le projet d’observatoire mondial du vivant

Nous participons à un projet appelé Vigilive dont l’ambition est de réaliser l’inventaire et le suivi de la biodiversité dans le monde. Il regroupe de nombreux scientifiques à l’échelle internationale, issus d’institutions publiques, d’entreprises, d’organisations non gouvernementales… Ces scientifiques réalisent des prélèvements d’ADN dans le respect du protocole d’échantillonnage que nous avons mis en place, puis notre laboratoire réalise les analyses. Une plateforme cartographique a été créée et mise en ligne pour rassembler, gérer et analyser les données de la biodiversité.

Par exemple, je suis en charge de l’inventaire des 30 plus grands fleuves dans le monde. L’année dernière, nous nous sommes déplacés en pirogue sur le fleuve Maroni en Guyane long de 600 km et avons réalisé 57 échantillonnages, soit quasiment un tous les 10 km. En 2021, nous avons ainsi pu réaliser une photographie moléculaire du fleuve et des espèces présentes. Étant donné que ce travail avait déjà été réalisé en 2017, c’est la première fois que nous pouvons suivre l’évolution de la biodiversité de ce fleuve sur 4 années.

Les technologies propres trouveront-elles leur place ?

La Commission européenne vient de laisser la porte ouverte au nucléaire et au gaz fossile en tant qu’énergies ayant un rôle à jouer dans la transition énergétique. C’est à travers un « acte délégué complémentaire relatif aux objectifs climatiques de la taxinomie » que cette nouvelle position a été officialisée, ce 2 février 2022, après d’intenses mois de lobbying des États membres. La taxinomie « verte » est en effet un document de référence pour aider les investisseurs privés à identifier les technologies les plus favorables à l’atteinte de la neutralité carbone d’ici 2050.

Dans le domaine de la production d’énergie, la taxinomie ne concernait jusque-là que les sources renouvelables et les systèmes allant avec (réseaux urbains, cogénération, stockage, pompes à chaleur). Par ce nouvel acte délégué, la Commission donne une place à deux géants historiques qui vivent mal leur déclassement dans la hiérarchie des technologies d’avenir.

Pour se justifier, la Commission pousse les avantages relatifs qu’apportent ces deux solutions. Le nucléaire permettrait de décarboner la production d’électricité de pays cherchant de forts volumes de production sans développer trop d’énergies renouvelables. Le gaz fossile se présenterait comme une alternative rapide à mettre en place en remplacement du charbon. En échange, et afin de se prémunir de trop fortes critiques, l’acte délégué de la taxinomie définit des conditions :

  • Le gaz fossile devrait baisser ses émissions de CO2 et être remplacé par des sources renouvelables ou bas-carbone d’ici 2035 ; se substituer à des centrales à charbon quand il n’est pas possible de développer des énergies renouvelables ; être utilisé dans les centrales à cogénération à haute efficacité ou pour des réseaux de chaleur urbains.
  • La filière nucléaire doit appliquer les plus hauts standards de sûreté et de gestion des déchets ; elle est limitée dans le temps pour étendre la durée de vie des centrales existantes (2040) ou construire de nouvelles unités de type EPR (2045) et elle doit développer les technologies de 4e génération (réacteurs à neutrons rapides, à très haute température, à eau supercritique ou à sels fondus).

Des technologies propres bien identifiées

L’approche de la Commission est critiquée par de nombreux acteurs, notamment les ONG environnementales : comment peut-on guider les financements vers l’usage d’un gaz responsable de l’effet de serre et vers une technologie créant des déchets radioactifs pour des milliers d’années ? Ce choix – au-delà du fait qu’il arrange certains pays comme la France pour le nucléaire et l’Allemagne pour le gaz – ne paraît pas en phase avec la vision d’une société disposant de technologies propres pour satisfaire ses besoins, eux-mêmes dimensionnés de manière plus sobre, et plus économe en énergie et en matériaux.

La démarche de la Commission européenne est d’autant plus paradoxale qu’en octobre 2021, lors de sa présentation de l’état de l’union de l’énergie, elle a mis en avant une analyse de la compétitivité des technologies propres. Elle y fait le constat que l’Europe est encore à l’avant-garde mondiale dans plusieurs domaines de recherche sur les énergies propres, tout en retrouvant une dynamique positive de dépôts de brevet. L’UE bénéficie aussi d’une position forte dans l’industrie éolienne et se place sérieusement sur les marchés émergents pour lesquels des sites industriels de fabrication pourraient être installés sur le territoire européen : photovoltaïque, batteries électriques, pompes à chaleur, carburants d’origine renouvelable, réseaux électriques intelligents, hydrogène vert. Aucune trace du nucléaire et du gaz fossile dans cette liste.

Et ce n’est pas le moment de ralentir. La Commission fait en effet remarquer dans son rapport que les technologies innovantes propices à la transition énergétique sont parfois fragilisées par un environnement concurrentiel mondial fort, et ont souvent du mal à passer à un marché de masse. Pour passer ce cap et augmenter de taille, trois conditions sont requises, a minima. Tout d’abord, les start-up ne doivent pas être freinées par des réglementations inadéquates, qui empêcheraient par exemple le solaire photovoltaïque de porter l’autoconsommation ou la naissance de communautés énergétiques. Ensuite, elles doivent avoir accès à une demande domestique suffisante pour se développer : c’est par exemple le cas pour les pompes à chaleur dans le bâtiment. Enfin, les technologies propres ont besoin de financements privés pour porter leur développement.

La taxinomie se présentait comme une bonne nouvelle en identifiant clairement les technologies – chacune avec ses avantages et ses limites – aux yeux des investisseurs. Mais en intégrant maintenant le nucléaire et le gaz fossile dans la taxinomie, on peut craindre que le poids de ces deux géants freine le recours rapide aux technologies propres en captant une part des financements et des marchés. Le gâteau de la transition existe, mais à vouloir le découper en trop de parts, il n’est pas certain que tout le monde survive.

ALG-AD : produire des micro-algues à partir des sous-produits d’élevage, pour l’alimentation piscicole

Exploiter les effluents liquides issus des élevages agricoles pour cultiver des microalgues riches en nutriments est une solution pleine de potentiel. C’est le thème d’ALG-AD, un projet européen profondément orienté vers l’économie circulaire, qui a démontré que substituer les 800 000 tonnes d’huiles de poisson consommées chaque année est quelque chose de réalisable.

Philippe Soudant et Denis de la Broise, coordinateurs du projet, ont accepté de répondre à nos questions au sujet de ce projet.

 

Philippe SOUDANT (à gauche) est directeur de recherche CNRS et Denis DE LA BROISE (à droite) est maître de conférences à l’UBO. Ils font partie du LEMAR et sont coordinateurs du projet ALG-AD (crédit photo : LEMAR).

ALG-AD est un projet européen, financé par Interreg North-West Europe à hauteur de 3,7 M€ sur un total de 6,2 M€. Il réunit 11 partenaires français, britanniques, belges et allemands issus de l’industrie et du monde de la recherche.

L’Institut Universitaire Européen de la Mer (IUEM) est un organisme pluridisciplinaire qui regroupe 7 laboratoires multi-tutelles, dont le LEMAR.

Le LEMAR est une unité mixte de recherche (UMR 6539) qui relève du CNRS, de l’Université de Bretagne Occidentale (UBO), d’IFREMER et de l’Institut de Recherche pour le Développement (IRD).

 

Techniques de l’Ingénieur : Quels sont les enjeux du projet ALG-AD ?

Denis de la Broise : Le projet ALG-AD a pour but de produire de la biomasse, à partir des effluents issus de l’agriculture pour permettre la croissance de microalgues. 

Il répond à plusieurs besoins liés au développement durable. D’une part, trouver une voie de valorisation pour les déchets agricoles en réduisant les risques de pollution et d’autre part réduire notre dépendance à l’importation de matières premières pour la nutrition animale.

ALG-AD combine la culture de microalgues au processus de digestion anaérobique déjà utilisé sur 2000 sites d’Europe du Nord-ouest (ENO). Il a conduit à l’implantation de pilotes industriels sur 3 sites distincts, afin de refléter l’hétérogénéité de la région ENO.

Le projet ALG-AD devait se terminer en mars 2021. Pourquoi a-t-il été prolongé ?

Philippe Soudant : Initialement, le périmètre du projet concernait principalement la production de biomasse à destination de l’alimentation du bétail, et notamment des porcelets. Les résultats obtenus étant encourageants, les partenaires ont répondu à l’appel à “capitalisation” de l’ENO, dans le but de valoriser les avancées du projet.

Ceci a conduit à la prolongation du projet ALG-AD. Un complément de financement nous a ainsi permis de poursuivre nos expérimentations en explorant un nouveau modèle : l’alimentation piscicole.

En quoi l’alimentation piscicole est-elle une application intéressante ?

P. S. : La matière noble que nous produisons via notre procédé est riche en acide gras polyinsaturé (notamment en acide docosahexaénoïque, ou DHA). Si ce composé est intéressant en nutrition porcine, il est indispensable en aquaculture, principalement pour nourrir les espèces carnivores comme les truites, les bars, les dorades ou les saumons.

D. dl. B. : Actuellement, le DHA utilisé en aquaculture provient de la pêche minotière et les enjeux en termes de tonnage sont énormes. Il faut savoir que 20 % de la pêche mondiale est tout de même utilisée pour la production de farines et d’huiles de poisson, au lieu de servir directement à l’alimentation humaine.

Or, cette pêche minotière est associée à de nombreux enjeux socio-économiques et l’impact environnemental est important. Si la ressource est plus ou moins stable actuellement, pour que l’aquaculture mondiale continue de se développer, il est urgent de trouver d’autres solutions, surtout que des produits comme les huiles de poisson coûtent cher – environ 2000 dollars la tonne.

Avez-vous obtenu des résultats satisfaisants ?

D. dl. B. : Dans nos derniers essais, nous avons démontré que l’ajout de 15% de biomasse microalgale dans un aliment classique pour poisson permettait de remplacer la totalité des huiles de poisson, en couvrant les besoins en DHA.

Si notre ingrédient permet aussi de remplacer une partie des farines de poisson, l’enjeu pour nous est d’arriver à couvrir les besoins en acides aminés essentiels en même temps que ceux en acides gras polyinsaturés oméga 3. Or, il s’avère justement que le profil en acides aminés essentiels de notre ingrédient est très similaire à celui des farines des poissons.

Nous travaillons également à la fabrication d’un produit partiellement hydraté, sous forme de pâte et qui pourrait aussi couvrir une partie des apports en eau. L’avantage d’un tel produit est que l’absence de séchage ne détériore pas les nutriments, ce qui augmente sa qualité.

Quelle sera la suite du projet ?

P. S. : Nous savons que le marché existe, car des produits de nutrition utilisant des souches de microalgues du même genre Schizochytrium sont déjà commercialisés. Mais notre produit n’a pas qu’un intérêt nutritionnel : il permet aussi de résoudre un certain nombre de problèmes environnementaux et d’aller vers des modèles de production agricoles et aquacoles plus durables.

La faisabilité technique est démontrée et nous avons réussi à produire une trentaine de kilogrammes de matière concentrée sèche. Nous cherchons maintenant à attirer des partenaires industriels sensibilisés aux questions d’économie circulaire, pour lancer des productions à grande échelle et continuer le développement de cette solution. 

Pour en savoir plus au sujet du projet ALG-AD et découvrir les détails du procédé, nous vous invitons à visionner la vidéo du projet européen ALG-AD (Crédit : Laboratoire LEMAR), ci-dessous :

Une pyrolyse par plasmas froids nanosecondes pulsés pour convertir le méthane en hydrogène

Le plasma est un gaz ionisé qui peut être généré par des impulsions électriques. La start-up Spark Cleantech a développé une technologie particulière de pyrolyse par plasmas froids pour dissocier le méthane afin de produire de l’hydrogène. Plus précisément, le procédé repose sur des plasmas froids nanosecondes pulsés, permettant un contrôle fin de la température et de l’énergie des électrons, et donc une optimisation du procédé énergétique. La pyrolyse permet de produire de l’hydrogène sans émission de CO2, y compris si le gaz intrant est d’origine fossile, car le carbone est rejeté sous la forme solide. Erwan Pannier, l’inventeur de ce procédé et le cofondateur de la société, nous parle de cette technologie.

Techniques de l’Ingénieur : Quelle est la technologie développée par votre entreprise ?

Erwan Pannier, cofondateur de Spark Cleantech. Crédit photo : Spark Cleantech

Erwan Pannier : Nous développons une technologie de plasmas froids nanosecondes pulsés pour convertir le méthane en hydrogène. Elle fonctionne grâce à des impulsions électriques de très courte durée, à haute tension et à très haute fréquence. L’énergie est déposée en environ 10 nanosecondes, à une fréquence de 10 à 100 kilohertz, donc toutes les 10 à 100 microsecondes. Autrement dit, l’apport d’énergie est réalisé tous les 1/100ème à 1/1000ème du temps. Nous parvenons ainsi à créer un plasma avec une densité d’électrons importante et des électrons beaucoup plus énergétiques que le gaz. C’est ce qu’on appelle l’état hors-équilibre : nos électrons ont une énergie moyenne correspondant à une température de plus de 20 000°C, alors que les molécules de gaz sont maintenues à une température de 700 à 1 000°C.  Dans un plasma classique à l’équilibre, que l’on appelle plasma thermique, il aurait fallu chauffer l’ensemble du gaz à plusieurs dizaines de milliers de degrés pour obtenir des électrons aussi énergétiques.

Quels sont les avantages de votre procédé ?

La pyrolyse par plasma permet de produire de l’hydrogène décarboné avec 3 à 4 fois moins d’électricité qu’un électrolyseur. Un électrolyseur industriel actuel nécessite plus de 50  kWh/kg H2 (kWh pour produire un kilogramme d’hydrogène) à partir de l’eau, et un électrolyseur idéal nécessitera toujours au moins 39 kWh/kg H2. L’eau est une molécule très stable et difficile à casser. Par comparaison, notre procédé ne nécessite en théorie que 5 kWh/kg H2, donc 8 fois moins. En pratique, nous visons 10 kWh/kg H2, donc 4 fois moins qu’un électrolyseur idéal.

La pyrolyse plasma par voie thermique est aujourd’hui la voie la plus mûre, mais se révèle très contraignante pour les matériaux, en particulier au niveau des électrodes qui sont en contact avec un arc électrique pouvant avoisiner les 20 000°C. Cela entraîne nécessairement une ablation importante, car même le graphite ou le tungstène fondent au-delà 3 500 °C. Grâce à la température nettement plus basse de notre procédé de plasmas pulsés, les matériaux du réacteur sont beaucoup moins sollicités, nous supprimons les problèmes d’ablation des électrodes, et les pertes thermiques au niveau du système sont également moins importantes. Cela rend les réacteurs plasma froids plus faciles à industrialiser.

D’où vient le méthane pour produire de l’hydrogène ?

Il peut être issu de la méthanisation des déchets organiques, appelé biométhane, mais provient surtout du gaz naturel, c’est-à-dire du gaz fossile. Avec le procédé de pyrolyse, quelle que soit la provenance du méthane, il n’est jamais oxydé et donc l’hydrogène est produit sans émission de CO2.

Quant au carbone solide produit, il peut être utilisé comme un nouveau matériau à valeur ajoutée ou stocké dans les sols, notamment sous la forme de biochar qui facilite la rétention d’eau et se dégrade très lentement, donc stocke du carbone pendant des siècles.

Par comparaison, stocker le CO2 issu de la production d’hydrogène actuelle, par oxydation du méthane, pose un problème logistique complexe qui nécessite d’injecter le CO2, c’est-à-dire un gaz, dont chaque molécule est 3,6 fois plus massique que le carbone initial, dans des formations géologiques ou des cavités salines. En traitant directement le carbone, on gère directement un solide, avec bien moins de masse, ce qui facilite beaucoup la logistique.

À qui s’adresse votre technologie ?

Nous ciblons les industriels consommateurs d’hydrogène, dont les besoins sont inférieurs à 1 000 Nm³/h (normo mètre cube par heure) d’hydrogène, soit 2 000 kg/jour, et qui veulent s’alimenter en hydrogène décarboné, et réduire leurs coûts en le produisant sur place. Pour cela, il leur suffit d’être connectés au réseau gazier et à celui d’électricité. Ces industriels peuvent ainsi s’affranchir du conditionnement, du transport et du stockage, qui représentent jusqu’à 70 % du coût final de l’hydrogène.

Quel est le stade de maturité de votre procédé ?

Nous développons notre technologie dans les laboratoires de CentraleSupélec grâce à un programme de maturation financé par la SATT (Société d’Accélération de Transfert Technologique) Paris-Saclay. Nous avons fait la preuve de concept d’une brique élémentaire capable de produire 1 m³/heure d’hydrogène. Ce prototype sera notre unité de base et sera ensuite monté en parallèle, car nous développons un concept modulaire. Concrètement, pour une installation de 200 kW, nous installerons 200 unités de 1 kW. En 2023, nous allons installer un premier démonstrateur d’environ de 30 kW sur un site industriel, avec en objectif la commercialisation du procédé à l’horizon 2025.

Un mois dans l’espace #25

Les restes d’une fusée de SpaceX vont s’écraser sur la lune

Lancée en 2015, la fusée développée par la firme d’Elon Musk, propulsée par un lanceur Falcon 9, a accompli sa mission avec succès, mettant en orbite un satellite (le DSCOVR, Deep Space Climate Observatory). Le deuxième étage du lanceur ayant effectué sa mission, il a été laissé, comme cela se fait la plupart du temps, à la dérive dans l’espace.

Récemment, la Nasa – et SpaceX – a fait état d’un changement de trajectoire de cet objet à la dérive, dû à un passage proche de la Lune. Se faisant, les experts de la Nasa ont projeté une collision du lanceur développé par SpaceX avec notre astre pour le 4 mars prochain. Manque de chance, cette scène devrait se dérouler sur la face cachée de la Lune, la rendant invisible pour nous. La Nasa a même précisé que le LRO (Reconnaissance Lunar Orbiter), la sonde qui orbite en ce moment même autour de la Lune, ne sera pas au bon endroit, au bon moment, pour immortaliser la scène. Reste la possibilité de comparer, grâce au LRO toujours, les images avant et après le crash, pour en évaluer l’impact. Une occasion unique, selon la Nasa, puisque la vitesse et le poids de l’objet qui va s’écraser sur Mars sont connus. Même si la détection à posteriori prendra des semaines, les chercheurs de l’agence américaine « évaluent si des observations peuvent être faites de tout changement de l’environnement lunaire résultant de l’impact, et identifier par la suite le cratère formé par l’impact. »

La nature des débris, la poussière soulevée, la forme du cratère, pourraient permettre aux scientifiques de poursuivre l’approfondissement des connaissances sur notre astre, que la Nasa envisage de revisiter dans les années qui viennent.

Enfin, il faut savoir que si le crash annoncé pour le 4 mars prochain n’a rien d’intentionnel, d’autres engins spatiaux ont déjà, volontairement cette fois, été projetés sur la Lune.

C’était le cas par exemple pour le satellite LCROSS, développé pour collecter les données relatives à la collision du lanceur (qui avait propulsé le satellite jusque vers la Lune), avec la surface de notre astre.

Les premières images du télescope James Webb

Annoncé comme le successeur de Hubble, le télescope James Webb, lancé le 25 décembre dernier de Guyane par une fusée Ariane 5, progresse à l’heure actuelle pour atteindre le point de Lagrange L2. Cependant, le James Webb ne donnera sa pleine mesure que dans cinq à six mois, le temps de refroidir l’ensemble du télescope, et de calibrer ses sondes.

Pour suivre l’aventure de ce télescope sur lequel les chercheurs fondent d’immenses espoirs, la Nasa met à disposition du public des outils interactifs : vous pouvez ainsi suivre en temps réel les données relatives à la progression du télescope, et même voir en direct la position, en 3D, du satellite dans le système solaire.

Toujours sur le site de la Nasa, vous pouvez suivre le fil d’actualité consacré au télescope, où vous pourrez retrouver les premières images envoyées par le télescope,  – un exemple ci-dessous – et toutes celles qui suivront.

Image prise puis retravaillée par la Nasa : il s’agit d’une galaxie en spirale, dont le nom est NGC 3351. – Credits: Science: NASA, ESA, ESO-Chile, ALMA, NAOJ, NRAO; image processing: Joseph DePasquale (STScI)

Par P.T