Le coronavirus défavorise les entreprises et le marché industriel français

Une dizaine de morts, plus d’un millier de personnes contaminées, et une industrie contrainte de tourner au ralenti. Voilà l’état actuel des conséquences du nouveau coronavirus Covid-19 sur le sol français. Selon les informations communiquées par différents groupes français, les pertes financières liées à la propagation du virus semblaient s’élever à environ un milliard d’euros à la fin du mois de février. Alors que les autorités sanitaires se préparent à une phase 3 de l’épidémie de Covid-19, des répercussions négatives sont déjà à prévoir pour l’économie hexagonale.

Le ministre de l’Économie Bruno Le Maire a livré une première évaluation des conséquences à peine un mois après le début de l’épidémie. Selon lui, le coronavirus fera reculer de 0,1 point la croissance économique française. « Nous voulons, avec Muriel Pénicaud, ministre du Travail, et Olivier Véran, ministre des Solidarités et de la Santé, apporter aux chefs d’entreprises et aux salariés les réponses les plus concrètes possible pour accompagner chacun et faciliter un certain nombre de dispositifs », tient à rassurer Bruno Le Maire, lors d’une réunion avec les acteurs économiques nationaux concernés par le coronavirus à Bercy. Dans le même temps, le ministère a décidé que bpifrance se porterait garant de prêts de trésorerie « pour les entreprises qui en auraient besoin ».

Un premier trimestre largement impacté

Cette annonce du gouvernement permettra de rassurer les entreprises, alors que de nombreux secteurs sont touchés, à l’instar de l’automobile ou de l’aviation. Les grands groupes industriels français sont également concernés. Selon plusieurs données relayées par Sud-Ouest, les entreprises françaises les plus affectées sont celles qui détiennent des sites en Chine, ou dont les chaînes de production dépendent. Ainsi, le groupe français spécialisé dans l’industrie électrique Schneider Electric indique que son usine de Wuhan, qui représente 15% de son activité, est toujours à l’arrêt, et prévoit d’enregistrer 300 millions d’euros de pertes sur son chiffre d’affaires du premier trimestre 2020. Le premier trimestre de Suez sera également fortement impacté. Le géant français de la gestion de l’eau et des déchets devrait perdre 30 à 40 millions d’euros sur son chiffre d’affaires du début d’année. Ce recul s’expliquerait par la mise à l’arrêt momentanée de six incinérateurs chinois gérés par la société française, qui représentent 7 à 8 % de son activité.

Même situation pour le groupe chimiste Arkema. Même après la reprise de l’activité de ses neuf sites chinois, la société française devrait perdre 20 millions d’euros sur son excédent brut d’exploitation. Fabricante de tubes, l’entreprise Vallourec a elle aussi pu relancer l’activité de ses quatre sites chinois. Bien que ces dernières se trouvent dans des zones peu touchées par le coronavirus, elles ne fonctionnent pas à plein régime. Sans avancer de chiffres, la société annonce craindre des conséquences négatives sur ses résultats du premier trimestre.

Relocaliser d’urgence ?

Conscient des répercussions négatives que cette crise sanitaire a sur l’industrie française, le ministre de l’Économie en profite pour relancer le débat sur la relocalisation. « Il peut y avoir aussi un sujet d’offres dans les semaines à venir avec des difficultés d’approvisionnement sur certaines chaînes de production et vous savez que ça m’a conduit à rappeler la nécessité d’une relocalisation de certaines activités économiques et de certaines activités industrielles », a-t-il indiqué le 3 mars dernier, lors d’un nouvel échange avec les acteurs économiques nationaux à Bercy. 

Ainsi, le ministre appelle à moins de dépendance à l’égard des marchés étrangers. Dans le secteur du médicament, Bruno Le Maire rappelle que la France dépend « à 80 % de la fourniture à l’étranger des principes actifs : 40% en Chine, 80% à l’étranger ». Et afin de prouver qu’un tel revirement est possible, le ministre évoque notamment le cas de l’industrie automobile. Ce dernier fait référence à la décision de la Commission européenne de relocaliser en Europe des unités de fabrication de batteries électriques, en accordant une aide publique de trois milliards d’euros pour développer la filière. Le ministre a par ailleurs annoncé qu’il s’entretiendrait avec des économistes, pour évaluer l’impact de la relocalisation sur l’économie française.

Bercy appelle à la compréhension

Afin d’évaluer l’ampleur des problèmes rencontrés par les entreprises françaises, le ministre de l’Économie Bruno Le Maire a réuni à Bercy le 21 février, puis le 3 mars, plusieurs acteurs de l’industrie française. Les représentants des filières de la santé, de l’agroalimentaire, du nucléaire ou encore du ferroviaire ont pris part à cette réunion, à laquelle participaient également les organisations patronales. « Cette épidémie touche un certain nombre de chaînes de valeur industrielles, qui ont du mal à s’approvisionner, […] et remet en cause aussi un certain nombre de chaînes de valeur qui sont trop dépendantes de leur approvisionnement à l’étranger », a constaté le ministre. Le ministre de l’Économie a ainsi demandé que ne soient pas appliquées de pénalités de retard aux fournisseurs.

Afin de pallier le manque de matières premières, le gouvernement a aussi décidé d’accorder davantage d’agréments à de nouvelles sources d’approvisionnement. Cette mesure concerne notamment les secteurs de la construction et de la chimie. Le représentant de la Confédération des PME Jean-Eric Riche a déclaré à l’AFP être satisfait de cette décision. Ce dernier explique qu’actuellement, « il n’y a pas d’impact très fort » grâce aux stocks que les industriels possèdent, et qui ne seraient pas encore épuisés. Cependant, il ajoute que dans le cas où les usines chinoises tarderaient à rouvrir leurs portes, l’industrie française, et notamment les PME risqueraient de « très vite se retrouver en difficultés ».

L’intelligence artificielle mise au service de l’optimisation énergétique

Utiliser l’intelligence artificielle pour réduire la consommation énergétique des entreprises est possible. C’est ce que fait Metron. Créée en 2013, cette start-up française a développé une technologie capable d’identifier efficacement les bonnes pratiques à adopter pour réduire les besoins en énergie. « De manière générale, notre technologie va permettre de réaliser entre 5 et 15 % d’économies d’énergie », affirme Anthony Gadiou, chief digital officer (CDO) de cette start-up, lors d’une soirée consacrée à l’industrie 4.0 et organisée à Paris par la société Teeptrak .

Pour y parvenir, la jeune pousse analyse les données de ses clients grâce à une technologie basée sur le machine learning. « Chez Metron, nous avons décidé de nous intéresser aux problématiques énergétiques pour aider les entreprises à développer leur compétitivité et leurs performances industrielles », explique Anthony Gadiou.

Un jumeau numérique effectué en Saas

La solution de Metron est une plateforme logicielle appelée Metron-EVA Factory, qui, après avoir analysé les informations apportées, propose différents scénarios menant à la réduction des besoins énergétiques. Cette technologie est un Saas (« software as a service », ou logiciel en tant que service). Pour les clients, le recours à l’intelligence artificielle ne remplace pas l’action humaine, mais lui vient plutôt en soutien. Pour eux, il n’est pas nécessaire d’installer un quelconque logiciel en interne. Les données collectées sont exploitées en temps réel par l’intelligence artificielle.

C’est grâce aux bases de connaissances spécifiques à l’énergie et l’industrie, les ontologies, que les solutions les plus adaptées sont mises en évidence. Et pour garantir un meilleur résultat, le logiciel constitue un jumeau numérique de l’entreprise cliente sur lequel sont réalisées diverses simulations. « Ensuite, avec l’aide d’un energy manager, nous produisons des prédictions de consommation », précise Anthony Gadiou. Ce n’est qu’après cette étape que sont mises en œuvre les optimisations identifiées. « Une usine optimisée et pilotée, c’est une industrie 4.0 », résume le CDO.

25 000 tonnes de rejets de CO2 évitées

Grâce à deux levées de fonds s’élevant à plus de 20 millions d’euros, Metron accélère son implantation à l’international. Actuellement, la start-up travaille dans une douzaine de pays répartis entre l’Europe, l’Asie, le Moyen-Orient et l’Amérique latine. L’un de ces chantiers d’actions se trouve à Bogotá, dans une papeterie. Dans cette entreprise colombienne à la maturité digitale moyenne, l’enjeu était d’optimiser le fonctionnement de la machine à papier. Outil principal de l’industrie papetière, cette machine énergivore consomme beaucoup de vapeur. Dans ce cas, l’objectif de la jeune pousse française était de détecter les paramètres qui impactent cette consommation de vapeur.

Après analyse, Metron a répertorié un élément insoupçonné. Le surdosage d’un agent chimique impactait négativement les besoins en vapeur de la machine à papier. Si ce produit est sous-dosé, le papier risque de devenir cassant. Mais lorsqu’il est présent en excès, le papier est plus humide, et demande donc plus d’énergie pour être séché. Après modification, la papeterie a pu réduire ses besoins en vapeur de 4,5 %. Ainsi, en 2019, l’entreprise a pu éviter l’émission de 25 000 tonnes de CO2.

Adapter les vignobles français face au réchauffement climatique

Nathalie Ollat, ingénieure de recherche à l’INRAE / INRAE

Le réchauffement climatique n’épargne pas les vignobles français. Les températures plus chaudes, l’air plus sec ainsi que les épisodes de canicules perturbent déjà le fonctionnement des vignes et affectent la composition des raisins. Dans trente ans, les vins risquent d’être encore plus concentrés, plus riches en alcool et moins acides qu’aujourd’hui. Depuis 2012, à travers le projet Laccave, l’INRAE étudie les impacts à long terme du changement climatique sur le vignoble. Nathalie Ollat, ingénieure de recherche à l’INRAE, nous explique comment aider les acteurs de la filière viti-vinicole à se préparer au climat de demain et nous donne des pistes opérationnelles d’adaptation.

Techniques de l’Ingénieur : Quels sont les effets déjà observés du changement climatique sur les vignes ?

Nathalie Ollat, ingénieure de recherche à l’INRAE : Depuis 1989, nous observons une plus grande précocité de tous les stades de développement de la vigne, avec pour conséquence principale des dates de vendanges avancées dans toutes les régions. En Alsace, le phénomène est le plus visible, avec une récolte autour du 21 septembre contre le 15 octobre trente ans plus tôt. Il devient parfois nécessaire de vendanger la nuit lorsque les températures sont trop élevées en journée car cela peut entraîner des problèmes de vinification. Avec une augmentation de la température de l’air de 1,4 °C depuis 1900, la composition des vins a déjà beaucoup évolué. Et depuis 30 ans, nous observons des modifications du rapport sucres/acides qui joue un rôle important pour la structure, l’équilibre et la conservation des vins. A Bordeaux par exemple, la teneur en alcool a déjà augmenté de 0,9 ° par décennie et l’acidité a baissé de 1 g/l.

Quelles sont les conséquences attendues dans le futur ?

Les effets déjà observés vont se poursuivre. En retenant l’hypothèse d’une augmentation des températures entre 3,4 et 5,3 °C en moyenne d’ici 2100, on peut s’attendre à des vendanges plus précoces de 20 à 30 jours. Le raisin va subir une double peine. Non seulement il va mûrir plus vite, mais aussi en pleine période estivale, quand les températures sont les plus élevées. Concernant les rendements, il est plus difficile de se prononcer, mais on peut envisager une baisse dans le sud à cause du stress hydrique et une progression dans le nord. La composition finale des raisins et des vins est difficile à évaluer et dépendra des cépages, des régions et des paramètres du climat. D’ici 2050 et hormis en zones montagneuses, la probabilité est élevée de voir tout le territoire hexagonal en mesure de produire du vin. Dans les régions méridionales, la culture de la vigne pourrait devenir plus difficile à la fin du siècle.

Comment faire face à ces nouvelles conditions de culture ?

Nous accompagnons la filière afin qu’elle puisse réfléchir à une stratégie d’adaptation au plan national. D’après une étude prospective que nous avons conduite, les professionnels souhaitent tout mettre en œuvre pour maintenir les vignobles en place et ne pas avoir à se déplacer vers des zones plus propices. Il sera nécessaire de combiner plusieurs leviers pour s’adapter. Nos recherches devraient permettre de mettre en place des systèmes de conduite plus résilients. Nous travaillons pour fournir, région par région, des indicateurs sur les conditions de culture de la vigne en 2050. Pour réduire les besoins en eau, il faut envisager le réaménagement des parcelles en réduisant la densité de plantation ou en adoptant des modes de conduite mieux adaptés comme le gobelet [taille courte de la vigne, NDLR]. Une meilleure gestion du sol est aussi à considérer en ayant recours au paillage et à des amendements organiques. Il faut garder l’irrigation pour les situations les plus extrêmes. Changer de cépages est une autre solution. Nous étudions le comportement de variétés plus résistantes à la sécheresse, aux maladies et aux températures élevées, avec une maturation plus tardive. A Bordeaux, le cahier des charges des Appellations d’origine contrôlée commence à s’ouvrir à de nouveaux cépages à des fins d’adaptation.

La filière contribue-t-elle aux émissions de gaz à effet de serre ?

Même si elle ne fait pas partie des plus gros émetteurs, c’est principalement l’aval, à travers les emballages et le transport des vins, qui en produit le plus. Des pistes de réduction de l’émission de CO2 apparaissent déjà et par exemple plusieurs grands vignobles commencent à réduire l’épaisseur du verre des bouteilles. En terme agronomique, l’enherbement des vignes peut contribuer au stockage du carbone dans les sols. En Espagne, une entreprise récupère le CO2 rejeté lors de la vinification. Plus largement, sur le plan environnemental, il est aussi possible d’adopter les pratiques de l’agroécologie afin de réduire les produits phytosanitaires.

Propos recueillis par Nicolas Louis

ecosystem prépare le fonds de réparation des équipements électriques et électroniques

« La réparation, c’est un champs nouveau qui s’ouvre, prévient Christian Brabant, directeur général d’ecosystem, éco-organisme en charge de développer la collecte et le recyclage des ampoules et équipements électriques et électroniques. On doit contribuer à apporter au consommateur un annuaire des réparateurs labellisés, identifier comment on va aider à baisser le coût de la réparation, et créer un réseau national d’approvisionnement de pièces détachées issues de l’économie circulaire. » 

La loi anti-gaspillage prévoit la parution d’une quinzaine de décrets touchant les EEE entre juillet et septembre 2020. L’éco-organisme ecosystem souhaite traduire la loi en actions concrètes, notamment autour des fonds de réparation et de l’indice de réparabilité, dont le déploiement est prévu au 1er janvier 2021. En 2022, les réparateurs devront en plus proposer des pièces détachées issues de l’économie circulaire sur un certain nombre de produits définis par décret.

Un fonds de réparation dès 2021

La loi oblige les éco-organismes et les metteurs sur le marché à créer un fonds dédié au financement des coûts de réparation effectués par un réparateur agréé, ainsi qu’un fonds dédié au financement du réemploi et de la réutilisation. La discussion est en cours avec les parties prenantes afin de déterminer les catégories de produits éligibles, la part de financement, les modalités de labellisation des réparateurs, ainsi que les modalités d’information des consommateurs. Un décret définira la part des ressources nécessaires et du montant du financement pour atteindre les objectifs. 

Pour l’instant, le choix est de déployer une première phase pilote du fonds de réparabilité dès janvier 2021 sur les mêmes produits que ceux retenus pour l’application de l’indice de réparabilité : les machines à laver le linge, les téléviseurs, les téléphones portables et les ordinateurs. Le fonds intégrera une modulation suivant le niveau d’indice de réparabilité. « Celui qui a un bon indice de réparabilité paiera moins cher en terme de contribution », explique Christian Barban. 

Le déploiement s’appuiera notamment sur la mise en place d’un annuaire des réparateurs, disponible en 2020. « Pour être référencés, les réparateurs devront au moins disposer d’une inscription au registre du commerce, d’une assurance responsabilité civile et professionnelle, d’une habilitation électrique pour garantir et sécuriser les opérations de réparation aux consommateurs », précise ecosystem.

« Notre responsabilité en tant qu’éco-organisme opérationnel est de maîtriser la chaîne des opérations pour garantir que tous les appareils sont réemployés ou à défaut dépollués, que les nouvelles mesures n’alimenteront pas les filières illégales, souligne Christian Barban. Il faudra aussi s’assurer que les flux destinés à la réparation et au réemploi soient confiés à des acteurs de confiance, engagés contractuellement et agissant avec professionnalisme. »

Selon l’enquête « les Français et le recyclage » élaborée par Elabe pour ecosystem, parmi les grands enjeux environnementaux, les Français considèrent le gaspillage, le recyclage et la valorisation des déchets, la réparabilité des produits et l’allongement de la durée de vie des appareils comme des sujets prioritaires. Ils valident à plus de 94% la pertinence du recyclage sous forme de nouvelles matières premières et les gestes d’apport nécessaires pour y parvenir. 80% d’entre eux se déclarent « prêts à s’équiper d’appareils d’occasion » et à « louer ou emprunter plutôt que d’acheter ».

PROSNOW : le logiciel d’aide à l’enneigement des stations de ski

L’enneigement naturel diminue et la production de neige de culture n’est possible que lorsque les températures sont en dessous de -2°C. Face au changement climatique, les stations de ski devront donc prévoir au mieux les jours où cette production est possible. Dans ce cadre, le projet européen PROSNOW développe un logiciel pour optimiser au mieux la production de neige de culture. Samuel Morin est chercheur à Météo-France et responsable du Centre d’Études de la Neige, équipe du Centre national de recherche météorologique (CNRM), un laboratoire commun à Météo-France et au CNRS. Il est coordinateur du projet PROSNOW.

Techniques de l’Ingénieur : Pouvez-vous nous présenter le logiciel PROSNOW?

Samuel Morin : Le logiciel PROSNOW permet d’optimiser la production de neige de culture en fournissant des informations sur l’enneigement actuel et futur. Il le fait à l’échelle de quelques jours à quelques semaines, selon plusieurs tactiques de gestion : par exemple, produire ou non de la neige de culture, damer ou pas… Cela permet aux gestionnaires de mesurer les conséquences, à l’échelle de quelques jours à quelques semaines, de leurs choix de production.

Un objectif secondaire, mais important, est de faciliter l’échange d’informations entre les différents acteurs de la station – services des pistes, damage, production de neige, direction de la station, office du tourisme, marketing, collectivités – afin de partager et d’objectiver la situation de l’enneigement et des options qui peuvent être prises.

Comment prévoir les tombées de neige plusieurs mois à l’avance ?

En montagne, notamment en Europe de l’Ouest, la prévisibilité météorologique s’étend rarement au-delà d’une semaine. Mais l’évolution du manteau neigeux est prévisible au-delà, car celle-ci dépend de son état initial. Par exemple, si on a 1 m de neige, ou seulement 20 cm, le 15 décembre, il est possible de fournir une fourchette probable des conditions d’enneigement pendant les vacances de Noël, sur la base de prévisions météorologiques à court terme (J+4), de prévision saisonnière, et d’utilisation des données météorologiques des années précédentes. Les données sont fournies aux utilisateurs de PROSNOW à une haute fréquence, toutes les 3 heures, pour les premiers jours, puis seulement tous les jours au bout de quelques semaines.

Le système a été développé pour l’ensemble des Alpes, avec plusieurs systèmes de modélisation selon les pays. Il s’appuie sur les systèmes de modélisation de la neige existant, par exemple en appui de la prévision du risque d’avalanches. Le système n’a pas besoin de connaître les données d’enneigement des années précédentes. Elles sont calculées sur la base des données météorologiques du passé, couvrant la période de 1958 à nos jours.

Le premier prototype est en test pour sa première saison. Quels sont les premiers enseignements ?

Le prototype a été mis à disposition des stations pilotes depuis début novembre. En France, nous avons deux stations : Les Saisies et La Plagne. Un certain nombre de sessions de travail partagées entre les services des stations et les membres du projet ont permis d’affiner le potentiel et l’utilisation de l’interface graphique. En effet, le système de prévision est d’autant plus fiable qu’il est corrigé par les observations sur l’épaisseur de neige et de production de neige.

Cela demande de mettre en place des interfaces pour récupérer ces données auprès des prestataires des stations. Nous nous y sommes attelés, avec des progrès en cours d’hiver. Le système est déjà utile sans ces corrections en temps réel, et il bénéficie de ces corrections, qui contribuent au réalisme des résultats et de leur appropriation par les acteurs de la station.

Quels changements comprendra la prochaine version ? Êtes-vous prêts à passer à la version commerciale ?

Nous travaillons en ce moment à finaliser le modèle économique pour une exploitation commerciale, et identifier les progrès à mettre en œuvre avant ce lancement. En fait, le système tel qu’il a fonctionné cet hiver semble répondre à des problématiques concrètes des acteurs des stations. Par exemple, éviter de produire si les conditions météorologiques risquent de faire fondre la neige quelques jours plus tard, éviter de trop produire au risque d’avoir un excédent en fin de saison et donc d’avoir, de facto, gaspillé les ressources associées à la production de neige. Et donc il n’est pas sûr que nous ayons à mettre en œuvre des modifications très importantes.

Un enjeu important va être de consolider l’organisation technique, commerciale et administrative, permettant de vendre le service PROSNOW à partir de l’hiver 2020-2021. Cela pourra passer par plusieurs instances opérationnelles, notamment selon les pays. Ce sont des réflexions en cours au sein du consortium, et nous œuvrons pour pouvoir atteindre le lancement commercial au moins pour une partie du marché européen lors du salon Mountain Planet du 22 au 24 avril prochain.

Propos recueillis par Matthieu Combe

Trois techniques originales pour stocker l’énergie renouvelable

Dépendantes de facteurs tels que le vent et le soleil, les énergies renouvelables sont limitées dans leur capacité à fournir de l’électricité en adéquation avec les besoins du réseau. Pour remédier à leur intermittence, la question du stockage est un point crucial à soulever. A travers le monde, de multiples solutions existent pour stocker ces énergies vertes, certaines plus matures que d’autres à l’image des batteries lithium-ion ou des stations de transfert d’énergie par pompage (STEP) qui utilisent la gravité de l’eau. Il existe aussi le stockage par production d’hydrogène à partir de l’électrolyse de l’eau, qui fait l’objet d’un important soutien en France. D’autres procédés sont encore à l’état d’expérimentation ou sur le point d’être commercialisés. Tour d’horizon de trois technologies originales de stockage des énergies renouvelables.

Liquéfier l’air pour produire un cryogène

Lorsque l’électricité est excédentaire, l’air est prélevé à l’extérieur et liquéfié à très basse température (-150 degrés). Le cryogène obtenu est ensuite stocké dans des réservoirs isothermes. En cas de besoin d’énergie, le cryogène est pompé et détendu pour procéder à son évaporation et ainsi faire tourner des turbines qui produisent de l’électricité. Ce procédé présente l’inconvénient d’afficher un faible rendement de l’énergie électrique redistribué, évalué entre 8 à 10 %. Mais il s’accompagne d’une production de chaleur générée par les compresseurs lors de la phase de liquéfaction ainsi qu’une production de froid lors de l’évaporation de l’air. « Si l’on récupère la chaleur et le froid, le rendement peut monter potentiellement entre 70 à 75% », précise Denis Leducq, ingénieur de recherche à l’INRAE. « Le procédé est donc particulièrement intéressant pour des sites industriels de type entrepôts frigorifiques ». Ce système, né au Royaume-Uni, fait actuellement l’objet d’un programme de recherche réunissant cinq pays européens dont la France à travers l’INRAE. Baptisé CryoHub, les chercheurs s’apprêtent à tester cette nouvelle technologie sur le site belge de la société Frigologix. Un démonstrateur grandeur nature est en cours de construction et les premiers essais doivent débuter cet été.

Comprimer l’air sous l’eau

Le procédé est installé en mer et associé à des éoliennes. Une partie de l’électricité est utilisée en cas de surplus d’énergie pour alimenter une pompe qui fait monter le niveau d’eau dans une chambre de compression de 10 mètres de haut et ainsi comprime l’air. En cas de besoin d’électricité, l’air est dépressurisé puis va pousser l’eau et alimenter la pompe qui va générer du courant. « Pour comprimer l’air, nous utilisons un piston liquide à une température quasi constante » explique Albert Subrenat, enseignant-chercheur à l’Institut Mines-Télécom Atlantique. « Il n’y a pas d’abaissement de température, ce qui évite les problèmes de givre sur les turbines du générateur d’électricité ». Le stockage de l’air est réalisé dans de grands réservoirs de 200 à 500 m3 entre 100 à 150 mètres sous l’eau. A cette profondeur, la pression est comprise entre 10 à 15 bars. « On profite de la pression de l’eau pour contenir la pression à l’intérieur des réservoirs de stockage qui est quasiment la même » complète Albert Subrenat. Cette technologie est portée par l’entreprise Segula Technologies en association avec l’IMT Atlantique. Un rendement de l’énergie redistribuée de 70 % est annoncé. Le projet est actuellement dans une phase d’essai, l’ensemble du système est installé au CETIM (Centre technique des industries mécaniques) en modèle réduit avec une chambre de compression de 3 mètres.

Utiliser la gravité de blocs de béton

 

Utiliser la gravité de blocs de béton pour stocker l’énergie verte /Société Energy Vault

Une grue utilise l’électricité produite en excès pour faire grimper des blocs de béton de 35 tonnes jusqu’à 120 mètres de hauteur. L’énergie cinétique de ce mouvement est alors transformée en énergie potentielle. Lorsque la demande d’électricité est supérieure à l’offre, les blocs sont descendus et ce mouvement alimente alors un alternateur qui restitue l’énergie pour la transformer en électricité. Conçue par la startup suisse Energy Vault, cette technologie est inspirée par les centrales hydrauliques et le principe de gravité. Ici, l’eau est remplacée par les blocs de béton. La société annonce un rendement compris entre 85 et 90 % pour une durée de vie du système supérieure à 40 ans. Afin de baisser le coût de fabrication, le béton utilisé provient de déchets de construction. La startup a déjà conclu un contrat commercial avec le géant indien Tata Power pour la construction d’une tour d’une capacité de stockage de 35 MWh et une puissance de crête de 4MWh.

Photo de Une : Société Energy Vault

La réalité virtuelle au service des hôpitaux

La réalité virtuelle propose de nombreuses applications et la médecine n’est pas exclue. En recréant un environnement dans lequel l’utilisateur va s’immerger, la réalité virtuelle est employée dans un cadre médical, au service de la formation, de l’apaisement des patients et de la rééducation.

La formation chirurgicale au bout des doigts

La formation dans des conditions similaires au réel est l’une des premières applications de la réalité virtuelle qui n’échappe pas au domaine du médical. Dans l’acte chirurgical, le geste doit être précis et l’erreur n’est pas admise. Ainsi, des entreprises développent des logiciels de simulation permettant de s’exercer à l’envi. La société britannique Fundamental VR en fait partie avec son logiciel Fundamental Surgery qui associe la technologie HapticVR pour apporter le sens du toucher à la réalité virtuelle. L’avantage de l’haptique est d’avoir un retour sensitif au geste que “l’apprenti” va réaliser. Voir la démonstration en vidéo.

Une femme apprend à réaliser une chirurgie orthopédique grâce au système de réalité virtuelle d’Osso VR. Crédit photo : Oculus (capture d’écran YouTube)

La plateforme Osso VR est, quant à elle, dédiée à la chirurgie orthopédique. Elle permet aux praticiens de s’exercer mais également d’apprendre à maîtriser les nouveaux équipements mis au point. Elle est également composée d’un casque de réalité virtuelle et de manettes haptiques : l’Oculus Quest et les Oculus Touch. Une fonctionnalité de hand tracking est intégrée au casque pour pouvoir interagir avec le monde virtuel sans utiliser les manettes. Depuis début février, le casque est capable de détecter automatiquement l’absence de manettes pour déclencher la fonctionnalité.

Une thérapie pour les patients

La réalité virtuelle est également utilisée comme une thérapie pour réduire le stress des patients qui ont subi des opérations, augmentant ainsi leur rémission. Pour lutter contre les risques de rejet dans les greffes pulmonaires par exemple, la start-up C2Care a mis au point des logiciels thérapeutiques pour une application préventive. Via le casque de réalité virtuelle Oculus, le patient sera immergé dans la salle de réanimation telle qu’il la verra à son réveil, avec des machines qui l’entourent et leurs bruits correspondants. Les essais cliniques sur 20 patients ont débuté en janvier.

Une autre entreprise, la start-up HypnoVR, plonge quant à elle les patients dans un état de semi-conscience et d’hypnose toute la durée d’un acte douloureux. La technologie est actuellement implantée dans quelques CHU comme Strasbourg, Bordeaux ou Lyon. D’autres sociétés se sont également lancées sur ce créneau, pour apaiser les maux. C’est le cas de la start-up lyonnaise Lumeen ou encore de la société Lenovo.

La rééducation des patients

La technologie est de plus en plus utilisée pour une autre application : la rééducation. Le centre Cooper University Health Care, aux Etats-Unis, est le premier à utiliser un nouveau système de réalité virtuelle pour la rééducation de patients qui ont subi un AVC. La technologie entièrement immersive REAL, co-développée avec le fabricant Penumbra, est composée d’un casque de réalité virtuelle, de capteurs placés sur le corps pour mesurer le déplacement et de manettes dotées du hand tracking. L’ensemble permet au soignant de suivre la rééducation des membres supérieurs du patient. En effet, les patients adultes réalisent des exercices interactifs en utilisant un mélange d’environnements virtuels et avatars pour avoir un feedback visuel. L’objectif est de tonifier les bras du patient.

Copyright photo et illustration : Oculus (captures d’écran YouTube)

Un pansement « intelligent » pour surveiller les plaies chroniques

Vincent Bouchiat, PDG Grapheal /société Grapheal

Mal soignées, les plaies chroniques peuvent avoir des conséquences graves et mener jusqu’à l’amputation du membre infecté. Pour améliorer la prise en charge des patients concernés, la startup Grapheal a conçu un pansement « intelligent » capable de surveiller l’évolution d’une plaie et transmettre les données mesurées au personnel de santé.

Le biocapteur à l’intérieur du pansement est fabriqué à partir de graphène, un nanomatériau carboné. Vincent Bouchiat, ex-chercheur au CNRS et PDG de la société, nous explique le procédé technologique et son intérêt médical.

 

Techniques de l’Ingénieur : Comment fonctionne cette innovation ?

Vincent Bouchiat, PDG de Grapheal : A l’origine, l’innovation est issue d’un laboratoire de recherche du CNRS, l’Institut Néel, où l’on étudie le graphène et ses applications en bioélectronique. Ce matériau est un bon conducteur électrique qui est sensible à l’environnement physico-chimique. Il peut servir de détecteur électrochimique et en même temps il est très flexible et biocompatible. Il présente donc des applications biomédicales. Nous utilisons la méthode du dépôt chimique en phase vapeur (CVD) pour fabriquer ce nanomatériau constitué d’une couche de carbone pur d’un seul atome d’épaisseur. Cette méthode consiste à décomposer du méthane à très haute température (1 000 °C) pour produire des atomes de carbone qui se déposent et se cristallisent sur un support de cuivre en présence d’hydrogène. Le graphène ainsi formé est ensuite transféré sur un polymère en plastique. Nous y ajoutons un microprocesseur, une mémoire et une antenne. Tout ceci forme un patch que l’on peut introduire à l’intérieur d’un pansement traditionnel quelle que soit la taille de ce dernier.

Quel est l’intérêt médical de ce patch ?

Il est capable de mesurer en temps réel et objectivement l’évolution d’une plaie, son degré de cicatrisation et ainsi détecter précocement les risques d’infection. Les données mesurées sont transmises, via un smartphone, sur une application et donc disponibles à distance au personnel soignant. La transmission est réalisée grâce au protocole NFC (Near Field Communication), celui utilisé pour le paiement sans contact ou le passe Navigo de la RATP. Ce patch s’adresse principalement aux personnes âgées ainsi qu’à celles atteintes du diabète et qui souffrent de plaies chroniques supérieures à six semaines. Ces plaies sont une véritable épidémie silencieuse qui coûte chaque année un milliard d’euros au système français de santé. On dénombre 12 000 personnes diabétiques amputées par an à cause d’infections liées à ces plaies. Nous souhaitons aussi développer un serveur sécurisé qui conserve tout l’historique des mesures ainsi que les soins prodigués aux malades, car ces plaies peuvent parfois durer trois à quatre ans. Avec le renouvellement du personnel soignant, il est actuellement difficile de retracer le parcours de soins, les antibiotiques administrés aux malades…

A quelle phase de votre projet en êtes-vous ?

Nous travaillons sur cette innovation depuis cinq ans. Des prototypes ont été réalisés ainsi que des essais in vitro et in vivo sur des animaux. Nous avons démontré la non-toxicité de notre technologie. Elle est protégée par des brevets qui couvrent le procédé de dépôt du graphène, celui du transfert du matériau sur un polymère et le dispositif médical. Nous allons débuter des essais cliniques sur des personnes saines puis sur des patients diabétiques. Le dossier d’agrément pour obtenir l’accord de la réglementation européenne est assez long et nous pensons commercialiser notre procédé en 2023. Nous allons profiter de ce temps pour effectuer un travail de pédagogie pour démontrer l’utilité de notre dispositif auprès des médecins qui prescriront son usage, des infirmiers qui auront à le gérer et bien sûr des patients. D’autres entreprises travaillent également sur un pansement « intelligent » mais utilisent des matériaux différents, comme le silicium. Ce matériau est, selon moi, moins adapté à l’usage d’un pansement et entraîne un coût plus élevé. Nous sommes la seule société à mesurer l’évolution d’une plaie à partir du graphène. Notre patch sera vendu environ 10 euros pour un usage unique.

Propos recueillis par Nicolas Louis.

Une nouvelle filière de matériaux thermoplastiques en développement

Légers, faciles à travailler, recyclables, les atouts des matériaux thermoplastiques sont nombreux. Afin de développer leurs applications, le projet HAICoPAS (Highly automatized integrated composites for performing adaptable structures) a pour objectif de créer une nouvelle filière allant de la production des matières premières jusqu’au contrôle de la qualité des pièces. Il réunit deux industriels qui fourniront les deux matériaux de ces composites : Hexcel pour les fibres de carbone et Arkema pour les polymères. Plusieurs petites et moyennes entreprises très qualifiées et reconnues pour leur expertise dans le domaine des équipements et des procédés de production sont également associées au projet ainsi que deux laboratoires du CNRS.

Ces thermoplastiques seront principalement destinés aux industries de l’aéronautique et de l’automobile ainsi qu’à celles du pétrole et du gaz. Dans les avions, ces matériaux sont jusqu’ici uniquement présents à l’intérieur des appareils. L’objectif à terme est de fabriquer des pièces composant la structure extérieure comme les ailes ou le fuselage. Le but est d’alléger les avions afin de réduire leur consommation de carburant mais surtout d’augmenter les cadences de fabrication des pièces afin de baisser les coûts de production. Car contrairement aux matériaux thermodurcissables, nul besoin d’autoclave à haute température et sous haute pression pour fabriquer des pièces composites à matrice thermoplastique. Il suffit de les chauffer puis de les laisser se refroidir afin qu’elles se solidifient à nouveau. Le phénomène est en plus réversible.

Étudier la durabilité des matériaux

Sur le plan de la recherche, plusieurs questions liées à la physique des matériaux vont être soulevées. Les composites utilisés sont des nappes constituées de fines bandes unidirectionnelles de fibres de carbone pré-imprégnées de polymère thermoplastique. « Nous cherchons à comprendre comment le polymère va se fondre et se cristalliser avec la fibre, explique Ilias Iliopoulos, directeur de recherche au laboratoire Procédés et ingénierie en mécanique et matériaux qui est associé au consortium HAICoPAS. Nous allons aussi étudier la durabilité de ces matériaux dans un environnement agressif comme par exemple en présence de pluie, de carburant… ». Un travail de recherche sur les procédés de mise en forme des pièces à hautes cadences va aussi être réalisé. Les nappes seront chauffées par laser jusqu’à des températures pouvant avoisiner 400 degrés avec des vitesses de fabrication pouvant atteindre le mètre par seconde. « Nous allons mesurer et modéliser les évolutions de températures lors du chauffage puis du refroidissement », complète Nicolas Boyard, chargé de recherche au Laboratoire de thermique et énergie de Nantes, également partenaire de HAICoPAS.

Des lignes de production robotisées

En plus de la constitution de ces pièces thermoplastiques, il est aussi question d’étudier le soudage des pièces entre elles. Contrairement à d’autres matériaux comme les métaux, il n’est pas nécessaire de les percer puis d’utiliser des rivets pour les assembler. « Il faut être capable de les chauffer localement en veillant à ne pas chauffer trop profondément afin d’éviter toute déconsolidation des pièces. Là encore, nous allons étudier ce phénomène du point de vue des transferts thermiques », ajoute Nicolas Boyard.

Initié en 2019 et d’une durée de quatre ans, le projet HAICoPAS a reçu un soutien financier de 6 millions d’euros en tant que Projet de recherche et de développement structurant pour la Compétitivité (PSPC) dans le cadre du Programme d’investissements d’avenir (PIA). Le budget global s’élève à 13,5 millions d’euros. A terme, de nouvelles lignes de production robotisées et d’assemblage des pièces composites doivent sortir de terre. Une fois utilisés, les thermoplastiques présentent l’avantage d’être plus facilement recyclables, ce qui devrait contribuer à les fabriquer à des prix compétitifs. L’aptitude au recyclage et les bénéfices environnementaux apportés seront étudiés dans le cadre de ce projet.

Du plastique d’origine végétale compostable à la maison

« Le PLA, ou acide polylactique, est un polymère biosourcé qui pourrait être une alternative à de nombreux polymères pétrosourcés dans nombre d’applications, mais sa compostabilité est limitée, rappelle Clémentine Arnault, responsable R&D de Carbiolice. Nous avons développé Evanesto, un additif basé sur des enzymes rendant les produits qui contiennent du PLA compostables en conditions domestiques ». Communément fabriqué à partir d’amidon de maïs, le PLA pourrait ainsi se substituer dans certaines applications au polystyrène (PS), au polypropylène (PP) et au polyéthylène basse densité (PEBD).

Une enzyme activée en conditions particulières

Le PLA est un polymère naturellement biodégradable. La biodégradation se fait par hydrolyse des fonctions esters pour former des oligomères de PLA. Dans une seconde étape, ces oligomères sont digérés par des micro-organismes naturellement présents dans l’environnement, ce qui dégage du CO2. « Nous avons sélectionné une enzyme particulière, de la grande famille des protéases, qui permet d’accélérer la vitesse d’hydrolyse des fonctions esters du PLA », souligne Clémentine Arnault.

Pendant la durée de vie de l’objet final contenant Evanesto, l’enzyme restera inactive, comme endormie. C’est seulement lorsqu’il sera jeté dans un composteur domestique que l’enzyme s’activera et accélérera la biodégradation. « Une enzyme a besoin de conditions d’activation particulière : dans notre cas, il faut un pH autour de 9, une température autour de 28°C et une humidité supérieure à 55 % », précise la chercheuse.

Des enzymes danoises, une usine française

Carbiolice a signé un accord d’approvisionnement d’enzymes en provenance du Danemark avec le leader mondial Novozymes. L’entreprise concentre ensuite ces enzymes sur un polymère biodégradable pour être utilisé comme un additif à une concentration d’environ 5 %. « Evanesto est ensuite ajouté à un plastique composite qui contient un fort taux de PLA, sur des outils de la plasturgie conventionnels, complète Clémentine Arnault. Nous voulons une solution universelle pour faire en sorte que cet additif s’adapte à la plus grande diversité de composites, avec des taux de PLA variables, de 35 % à plus de 70 % ». L’ensemble de la technologie a été brevetée : les enzymes, l’additif complet, le procédé et les applications.

L’entreprise a installé sa première usine à Clermont-Ferrand. D’une capacité de production d’Evanesto d’environ 4 000 tonnes par année, elle pourrait adresser un marché de 80 000 tonnes de produits finis en considérant un taux d’incorporation moyen de 5 % de l’additif.

Des films et des barquettes mono et multicouches

« Nous avons commencé à travailler sur des films fins d’une épaisseur d’environ 15 µm qui contiennent 5 % d’Evanesto, 35 % de PLA et d’autres polymères flexibles biodégradables, par exemple du PBAT ou du PBS, explique Clémentine Arnault. Dans un compost domestique, après 182 jours, tout le film est désintégré et il se biodégrade en 195 jours au lieu des 365 théoriques pour répondre aux exigences de la certification OK Home Compost ». Evanesto permettrait ainsi d’accélérer la biodégradation du PLA, d’environ 30 %.

Carbiolice valide actuellement la dégradation de pièces plus épaisses (450 µm), à 70 % de PLA pour des applications en thermoformage. « En compostage domestique, la feuille se désintègre en moins de 6 mois ; les tests de biodégradation sont encore en cours, mais nous avons montré un taux de dépolymérisation de 20 % en 20 jours », indique Clémentine Arnault. L’entreprise travaille aussi pour des films et barquettes multicouches. Dans les deux cas, Evanesto peut être placé en couche centrale, entouré de polymères eux-mêmes compostables. Selon les tests effectués par la société et confirmés par des laboratoires indépendants, il n’y aurait pas de migration de l’enzyme. Cela laisse envisager des applications pour des emballages multicouches, aptes au contact alimentaire.

Une commercialisation dès avril 2020

Les premières commercialisations de produits sont prévues dès avril 2020. Evanesto devrait dès lors être introduit dans des films monocouches jusqu’à 50 µm pour des applications techniques, ne nécessitant pas l’aptitude au contact alimentaire. « Le PLA additivé aura un coût d’environ 30 % supérieur à du PLA classique, en fonction de la tension du marché », partage Clémentine Arnault.

« Evanesto pourra en plus être utilisé dans des films multicouches jusqu’à 25 µm pour des applications d’emballages alimentaires souples du type sachets de chips ou de salade, complète-t-elle. En septembre, nous devrions avoir les certifications Home compost pour les feuilles monocouches jusqu’à 450 µm et les barquettes multicouches à 225 µm ». Carbiolice développe déjà une deuxième génération d’enzymes. Elle déposera un dossier de contact alimentaire pour cette seconde enzyme, en espérant l’obtenir d’ici 2023 au plus tard.

Les calculateurs NISQ : pour valider ce qui « marche »

Contrairement aux principes classiques, une particule quantique peut être dans différents états simultanément.

Appliqué à l’informatique, un bit « classique » est soit dans l’état 0, soit dans l’état 1. Un bit quantique (qubit ou « quantum bit ») est à la fois dans les états 0 et 1. C’est le principe de superposition qui permet à une particule d’être à la fois dans plusieurs des états de la base qui la caractérise.

Mais la « décohérence quantique »,  c’est-à-dire la particularité des qubits à perdre leurs propriétés quantiques à cause de leur extrême sensibilité à leur environnement, a un impact non négligeable sur les résultats obtenus par un système quantique (des erreurs dues, entre autres, au bruit environnant).

Pour l’instant, on parvient à stabiliser une vingtaine de qubits de façon opérationnelle et une cinquantaine dans un cadre expérimental. Le niveau supérieur est atteint avec les systèmes baptisés Noisy Intermediate-Scale Quantum (NISQ).

Coprocesseur quantique

Ils sont capables de stabiliser 50 à 100 qubits. Mais cette période de stabilité est trop courte pour réaliser certaines opérations. Même si leur précision ne peut être retenue, ils permettent de démontrer que cela « marche », que les algorithmes sont valides.

Ils pourraient permettre de découvrir de nouveaux matériaux pour l’électronique (panneaux solaires plus efficaces, ordinateurs plus rapides, caméras thermiques plus sensibles…) ou de mieux comprendre le comportement d’une molécule dans son environnement naturel.

Autre opportunité très importante pour les NISQ dans les cinq à dix prochaines années : la simulation des processus chimiques et des catalyseurs. Ces derniers sont des substances qui accélèrent les réactions chimiques. Ils sont au cœur de toute l’industrie chimique et sont utilisés chaque jour dans la production de médicaments, de matériaux, de cosmétiques, de parfums…

Aujourd’hui, de nombreuses startups travaillent sur ce concept, et notamment avec des algorithmes hybrides (quantique/classique). Dans ce cas, un ordinateur quantique est composé de parties constituées de technologies et d’architectures classiques. Elles permettent de piloter et de contrôler des parties exploitant des phénomènes quantiques pour ces calculs. On parle alors de coprocesseur quantique.

Quelques années seront encore nécessaires avant que les NISQ soient réellement au point. Mais le potentiel est énorme. Dans un ordinateur classique, la croissance de la puissance est linéaire en nombre de bits et de transistors.

Un ordinateur quantique peut doubler sa puissance de calcul à chaque qubit ajouté !

Le photovoltaïque s’invite dans le monde agricole

Lors du Salon de l’agriculture, la ministre de la Transition écologique, Elisabeth Borne, a annoncé le relèvement du seuil des installations photovoltaïques pouvant bénéficier d’un tarif d’achat en guichet ouvert. Il triple, passant de 100 kilowatts crête (kWc) à 300 kWc. Cela rend éligibles des projets d’envergure sur les toitures agricoles, dans le secteur industriel ou encore dans l’équipement des bâtiments publics. Et cela offre « un cadre de développement plus efficace que le dispositif d’appel d’offres actuel qui, après plusieurs périodes de sous-souscription, a montré ses limites pour accélérer la dynamique de ce marché », se félicite le syndicat des énergies renouvelables. Le secteur attend désormais de connaître le mécanisme de ce nouveau niveau du tarif d’achat.

L’agrivoltaïsme pour combiner culture et production d’énergie

En parallèle, d’autres types de technologies cherchent à s’imposer au cœur même des champs. C’est l’agrivoltaïsme qui consiste à associer la production d’électricité et des pratiques agricoles sur une même surface. Les panneaux photovoltaïques sont alors installés sur des mâts, au-dessus de champs ou de systèmes d’élevage.

Les sociétés ACTHUEL et ARTIFEX ont recensé les projets emblématiques dans le monde. Parmi les activités agricoles développées : la pisciculture, l’ostréiculture, l’élevage – en majorité ovin – l’arboriculture, la vigne, le maraîchage et les grandes cultures. Mais force est de constater que le nombre de projets demeure très faible en France et dans le monde. En pisciculture par exemple, trois projets ont été recensés, dont un élevage d’esturgeons en Dordogne et une ferme solaire abritant plusieurs bassins piscicoles sur l’Ile de la Réunion.

Des recherches en cours avec l’ADEME et INRAE

Puisque la pratique agricole et la production d’électricité se partagent l’espace disponible et l’ensoleillement, les rendements des deux activités dépendent fortement de l’installation photovoltaïque. Les technologies varient selon la densité, le type de panneaux, leur inclinaison et leur mobilité. Des trackers solaires permettent de régler l’orientation des panneaux pour suivre l’orientation du soleil. Cela permet d’augmenter la production d’électricité, ainsi que le rayonnement solaire disponible pour les cultures. « Les trackers ont une double fonction : ils produisent de l’énergie et jouent un rôle de protection, par exemple en cas de coup de chaleur, avec de l’ombrage sur certaines cultures, explique Jérôme Mousset, chef du service Agriculture et Forêt à la Direction Productions et Énergies Durables de l’ADEME. Les trackers sont toujours orientés en priorisant la production de culture. »

La présence des panneaux au-dessus de cultures a deux principales incidences directes : la réduction de l’ensoleillement de la culture et la réduction du contact entre la culture et l’eau de pluie. En fonction de la culture, du climat et de la période de l’année, ces effets peuvent être bénéfiques ou néfastes. « Nous accompagnons actuellement quelques sociétés via les Programmes d’Investissement d’avenir avec différentes techniques et nous étudions l’impact sur les rendements du côté énergétique et agricole », précise Arnaud Leroy, PDG de l’ADEME.

La recension d’ACTHUEL et ARTIFEX met en avant quelques recherches effectuées par INRAE. À Montpellier, l’Institut a étudié la croissance de laitues sous panneaux photovoltaïques et étudié l’influence de l’orientabilité des panneaux. Dans le Roussillon, une exploitation viticole familiale de 60 ha s’est associée à INRAE pour planter 7,5 ha de vignes sur une parcelle en jachère, dont 6 ha équipés de panneaux inclinables et réglables. Le bilan est prévu avec la première récolte de 2021.

Au final, le développement ou non de l’agrivoltaïsme sera un choix politique. « Les promoteurs du solaire disent qu’il faudrait mobiliser 5 % de la surface agricole pour faire de l’agrivoltaïsme, mais le syndicat majoritaire [la FNSEA, ndlr] est plutôt arc-bouté en disant que ce n’est pas la vocation des champs », prévient Arnaud Leroy.

L’Afrique, une proie du réchauffement climatique

Arona Diedhiou est climatologue et physicien de l’atmosphère, directeur de recherche à l’Institut de recherche pour le développement (IRD) et en poste à l’Institut des Géosciences de l’Environnement (IGE) de l’Université Grenoble-Alpes. Il a été auteur principal du Rapport spécial du GIEC sur les implications d’un réchauffement de 1.5°C.

Techniques de l’ingénieur : Quelle est la part du continent africain dans le réchauffement climatique et comment s’adapte-t-il ?

Arona Diedhiou : L’Afrique n’est responsable que de 3,8 % des émissions totales de gaz à effet de serre dans le monde. Cependant, sur ces 20 dernières années, les émissions de dioxyde de carbone et de méthane, aussi faibles soient-elles par rapport aux émissions globales, ont significativement augmenté en Afrique Subsaharienne. Cela est en cohérence avec la croissance économique que connaissent la plupart des pays du continent.

Les Etats africains se sont tous engagés à contribuer à limiter la hausse des températures à 2°C. Mais localement, la hausse des températures en Afrique sub-saharienne sera bien supérieure au réchauffement global. Les nuits seront plus chaudes et les vagues de chaleur seront plus longues avec des températures plus élevées. Le continent connaît déjà plusieurs problèmes de développement multifactoriels. Le réchauffement climatique est sérieusement en train de complexifier ces problèmes et de compromettre les efforts des Etats et les économies locales.

La Commission économique des Nations Unies pour l’Afrique (UNECA) a noté que les secteurs de l’agriculture, l’eau, l’énergie et la préservation des écosystèmes sont considérés comme prioritaires dans la plupart des plans d’adaptation. Beaucoup de pays africains sont déjà engagés sur un modèle de croissance résilient au changement climatique, mais cette voie s’annonce difficile par manque de moyens. Il est donc urgent que les Etats respectent leur engagement de soutenir le Fonds Vert qui est le principal instrument de financement des politiques climatiques pour les pays en développement.

Comment se manifeste déjà aujourd’hui le changement climatique à l’échelle du continent ?

La majorité des modèles climatiques indiquent qu’un réchauffement de 2°C au niveau mondial se traduirait par des augmentations de température plus élevées au niveau régional en Afrique. En Afrique de l’Ouest, à 2°C, la plupart des modèles prédisent une augmentation des événements de fortes pluies dans la partie sahélienne couvrant le Niger, le Mali, le Burkina-Faso et le Tchad avec des risques d’inondations en milieu urbain. Sur la partie Ouest du Sahel, le rendement des céréales au Sénégal serait presque divisé par deux en fin de siècle sous l’effet combiné de la hausse des températures et de la baisse des pluies. Plus au Sud, le long des pays de la côte, il y aura une augmentation du risque d’inondation et dans certaines zones, il faut s’attendre à une augmentation des glissements de terrains.

En Afrique du Nord, les modèles convergent vers une baisse plus importante des précipitations à 2°C qu’à 1.5°C avec des conséquences sur la ressource en eau et sur l’agriculture. Il est aussi projeté une légère augmentation des pluies intenses et de la longueur des épisodes de sécheresses à 2°C qu’à 1.5°C.

En Afrique australe, les modèles s’accordent pour indiquer que la température augmenterait plus rapidement à 2°C (1,5 à 2,5°C) par rapport à 1,5°C (0,5 à 1,5°C). Les régions du sud-ouest, notamment la Namibie et certaines parties du Botswana, devraient connaître les plus fortes augmentations de température. La partie occidentale de l’Afrique australe devrait devenir plus sèche avec une augmentation de la fréquence des sécheresses et du nombre de vagues de chaleur vers la fin du 21e siècle. À 1,5°C, un signal robuste de réduction des précipitations est détecté sur le bassin du Limpopo et sur le bassin du Zambèze, en Zambie, ainsi que sur la région du Western Cape au Sud, tandis qu’une augmentation est prévue sur les régions centrale et occidentale d’Afrique du Sud ainsi que dans le sud de la Namibie. À 2°C, toute la région devrait faire face à une forte diminution des précipitations.

On parle beaucoup de famines et de mouvements de population en Afrique. Peut-on faire le lien avec le réchauffement ?

Si le lien entre changement climatique et menaces sur la sécurité alimentaire est observé, démontré et projeté sur plusieurs régions d’Afrique, il y a encore beaucoup d’incertitudes sur le lien entre changement climatique et migrations. En Afrique de l’Ouest par exemple, la complexité vient du fait que la mobilité ou certaines formes de migrations sont associées à des faits culturels. Cependant, des études ont montré que les migrations dues aux aléas climatiques sont de courte distance et de courte période et que les déficits de pluie et l’augmentation des températures sont les deux aléas qui ont le plus d’impact sur les migrations internes et régionales. L’essentiel des migrations concerne les zones rurales qui constituent les principales zones de départ vers des villes africaines de plus en plus vulnérables aux changements climatiques. Le lien est encore plus complexe pour ce qui est des migrations internationales.

Quel est le rôle de la communauté scientifique africaine dans l’étude du changement climatique ?

L’Afrique commence à disposer d’une bonne expertise et d’une masse critique dans le domaine. Les instances dirigeantes du GIEC ont fait un travail remarquable pour augmenter le nombre d’experts africains dans l’élaboration du prochain rapport du GIEC. Il est important d’encourager le rapprochement entre le groupe de négociateurs africains et ce groupe d’experts africains du GIEC pour mieux prendre en compte les nouveaux résultats de recherche, étayer les interventions et mieux faire entendre la voix d’une Afrique en proie au réchauffement climatique avec peu de capacité d’adaptation.

L’évaluation du changement climatique en Afrique à des échelles pertinentes pour guider les études d’impact, les politiques de développement local ou les politiques d’adaptation et d’atténuation, doit nécessairement s’appuyer sur l’expertise locale, sur une implication des scientifiques africains et des services nationaux qui connaissent les réalités du terrain. Mais au-delà d’une évaluation du changement climatique par les sciences physiques et naturelles, il s’agit surtout de proposer des solutions et des technologies acceptées par les bénéficiaires pour garantir un développement durable. Aussi, il est important qu’il y ait plus d’implication d’experts en sciences humaines et sociales dès le début du processus pour coconstruire avec la société civile africaine et les communautés des solutions et des politiques pour un développement résilient au changement climatique. Cette implication des sciences humaines et sociales est importante pour l’effectivité et l’efficacité des innovations.

Propos recueillis par Matthieu Combe

Un mois dans l’espace #2

Bételgeuse, l’étoile du mois

Vous avez probablement vu passer ce nom dans vos journaux et vos fils d’informations favoris : Bételgeuse.

Appartenant à la constellation d’Orion, l’étoile a vu baisser significativement sa luminosité. Le phénomène, observé à partir du mois d’octobre 2019, a fait frémir les astronomes.

L’étoile Bételgeuse ©ESO

En effet, une baisse de luminosité est le signe qu’une étoile est en fin de vie et va s’effondrer sur elle-même, pour former une supernova. Un événement rarissime, qui aurait été observable de jour comme de nuit durant plusieurs semaines. Manque de chance, depuis quelques semaines la luminosité de Bételgeuse remonte et l’étoile pourrait encore briller des centaines de milliers d’années. Fausse alerte donc. Pour le moment les hypothèses quant à cette fluctuation de luminosité sont nombreuses.

 

SpaceX rate l’atterrissage du premier étage de son Falcon 9

Le 17 février dernier, une fusée Falcon 9 a mis sur orbite 60 satellites supplémentaires de sa constellation Starlink. Une opération couronnée de succès, à une exception près.

La barge devant accueillir le retour du premier étage de la fusée. Raté ! ©SpaceX

Pour la quatrième fois, le premier étage de la fusée, programmé pour redescendre sur terre et se poser sur une barge au milieu de l’océan, a raté son atterrissage. Rien de spectaculaire puisque comme on peut le voir sur les images fournies (vidéo ci-dessous à partir de 18’35) par SpaceX, la barge est restée désespérément vide. Les ingénieurs de SpaceX ont laissé entendre pendant le direct que le premier étage ne s’était peut-être pas détruit lors de son amerrissage : «Malheureusement, nous n’avons pas fait atterrir le premier étage sur notre barge de récupération, mais il a atterri doucement en mer, juste à côté de la barge, il semble donc qu’il soit en un seul morceau». Nous n’en savons pas beaucoup plus pour le moment.

 

Des signaux radio venant de l’espace profond intriguent les scientifiques

En 2018, le télescope dernière génération Chime détectait d’étranges signaux radios émis à des centaines d’années lumières de notre système solaire.

Le téléscope Chime ©ChimeCollaboration

Mais depuis le mois dernier tout s’est accéléré. Trois découvertes viennent d’être faites : des sursauts radios rapides. Certains n’ont été émis qu’une seule fois et d’autres l’ont été de manière répétitive. Ces signaux radios inaudibles ne durent que quelques millisecondes mais ils sont très énergétiques. Pour le moment – et depuis 2018 – les scientifiques restent très circonspects quant à l’origine de ces sursaut rapides.

 

Jour de gloire pour les astronomes du dimanche

Vous aimez l’astronomie, vous êtres fascinés par les trous noirs, mais vous n’avez pas de télescope géant dans votre jardin ?

Une équipe d’astronomes européens vient d’avoir une idée qui pourrait vous plaire. En effet, ces derniers viennent de lancer un projet de science participative (LOFAR Radio Galaxy Zoo) en permettant à tous les internautes de scruter les données obtenues par le radiotélescope géant LOFAR et mettre en évidence des trous noirs supermassifs. Ce n’est pas la première fois que des astronomes impliquent le public dans leurs recherches.

Voici le tutoriel pour mieux comprendre comment aider les astronomes et débusquer les trous noirs :

Pour participer au projet LOFAR Radio Galaxy Zoo

En bref…

Par P.T

 

Première injection d’hydrogène dans le réseau de transport de gaz de GRTgaz

Les premières molécules d’hydrogène ont été injectées « avec succès » le 20 février, se félicite GRTgaz, qui rappelle dans un communiqué qu’il s’agit « d’une étape majeure dans le développement de solutions de décarbonation du gaz et de ses usages, du stockage d’énergie et de synergies entre réseaux gaz et électriques ».

Jupiter 1000 est le premier démonstrateur français de la technologie de Power to Gas (de l’électricité au gaz, ou P2G en initiales anglaises), à l’échelle industrielle, raccordé au réseau de transport.

Jupiter 1000 va permettre de valoriser les excédents d’électricité renouvelable, grâce aux capacités massives de stockage et de transit des infrastructures gazières existantes, rappelle GRTgaz. L’électricité en surplus sera en effet convertie en hydrogène par deux électrolyseurs mais aussi en méthane de synthèse par le biais d’un réacteur de méthanation et d’une structure de capture de CO2 à partir de fumées industrielles voisines. L’installation, de 1 MWe, permettra de produire jusqu’à 200 m3 d’hydrogène par heure et 25 m3/h de méthane. Sa capacité de production sera ainsi de quelque 5 millions de kWh d’énergie sur trois ans. Parmi les partenaires du projet, McPhy a fourni les électrolyseurs, de 0,5 MWe chacun, l’un alcalin et l’autre PEM (Proton exchange membrane). La CNR livrera l’électricité en surplus à partir de ses parcs éoliens et solaires. Leroux & Lotz s’occupe du CO2 pour la méthanation, laquelle est réalisée par le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) et Khimod.

Le lancement opérationnel de l’installation est d’autant plus important qu’il va aussi permettre aux opérateurs français d’infrastructures gazières de poursuivre et valider leurs travaux d’étude sur le volume d’injection soutenable par les infrastructures. Ces derniers estiment, dans un rapport sur les conditions techniques et économiques d’injection d’hydrogène dans les réseaux de gaz naturel remis en juin 2019 au Ministère de de la Transition écologique et solidaire dans le cadre du Plan de déploiement de l’hydrogène pour la Transition écologique, que les infrastructures gazières peuvent « accepter dès à présent un taux de 6 % en volume d’hydrogène en mélange et jusqu’à 20 % à plus long terme avec des coûts d’adaptation modérés ».

Jupiter 1000 doit ainsi permettre à l’ensemble des partenaires industriels du projet (CEA, CNR, Khimod, Leroux & Lotz, McPhy, Port de Marseille Fos, RTE, Teréga et GRTgaz) de tester le fonctionnement de l’installation et des équipements, d’évaluer l’impact de l’hydrogène sur les réseaux et son usage dans un process industriel, ainsi que de consolider l’étude économique sur la base des performances constatées, contribuant à l’émergence d’une filière Power to Gas en France.

Le site du démonstrateur Jupiter 1000, avec injection d’hydrogène dans le réseau de GRTgaz/GRTgaz/Jérôme Cabanel

Les prochaines semaines seront consacrées à l’optimisation du fonctionnement de l’ensemble de la chaîne de production, compression-injection, avant d’entamer les tests de performance et les analyses d’optimisation technico-économiques de l’installation, indique GRTgaz dans un communiqué publié à cette occasion.

Si le lancement de Jupiter 1000 constitue une première pour le réseau de transport de gaz, le réseau de distribution de gaz de GRDF expérimente déjà l’injection de l’hydrogène avec le démonstrateur GRHYD, inauguré en juin 2018 à Cappelle-la-Grande, près de Dunkerque, dans le Nord. Après avoir démarré avec 6 % d’injection d’hydrogène dans le réseau, l’installation est passée en 2019 à un taux de 10 % et a validé le principe d’un passage à 20 % d’hydrogène en volume dans le réseau de distribution. Ici encore, c’est l’utilisation des ressources « périssables » du futur parc éolien en mer de Dunkerque qui sont visées à terme.

Photo de Une : GRTgaz/Jérôme Cabanel

Techniques de l’Ingénieur est partenaire des JNI 2020

Devenu un véritable événement annuel de référence, les Journées Nationales de l’Ingénieur, organisées par l’IESF (Ingénieurs et Scientifiques de France), réunissent chaque année près de 14 000 participants (élèves, jeunes diplômés, ingénieurs en activité, professeurs, acteurs économiques, décideurs politiques et grand public) dans toutes les régions de France.

Les JNI 2020 aborderont et mettront en scène :
• Les technologies les plus avancées en matière de développement durable ;
• Le métier d’ingénieur et sa formation, porte-parole d’une vocation d’avenir en faveur du développement durable ;
• L’engagement des ingénieurs pour le développement durable et économique.

Dans toute la France, plusieurs événements labellisés JNI et WED (World Engineering Day) seront proposés au public :
• Pour comprendre : des conférences, tables rondes, séminaires, colloques ;
• Pour découvrir : des démonstrations, expositions, visites d’entreprises, journées portes ouvertes ;
• Pour récompenser : des hackathons, concours, trophées, remise de prix ;
• Pour échanger : des afterworks, cocktails networking.

Une dimension sociale

Les JNI 2020 valorisent la communauté des ingénieurs et scientifiques en intégrant des dimensions sociales et environnementales à leurs actions pour :

ENCOURAGER les ingénieurs à s’engager, à entreprendre et innover afin d’agir pour le développement durable ;

PROMOUVOIR les métiers et les valoriser aux yeux du grand public et des décideurs, pour susciter des vocations et générer de l’employabilité ;

RASSEMBLER les membres d’un métier aux multiples facettes ;

RENFORCER chez les ingénieurs le sentiment d’appartenance à un corps professionnel engagé dans les grandes transformations liées aux transitions numériques et environnementales.

Tous ces événements seront organisés avec l’aide des IESF régionales, des associations d’alumni membres d’IESF et des partenaires des JNI avec pour objectif commun de parler des métiers et des réalisations des ingénieurs en faveur du développement durable.

Si vous souhaitez en savoir plus sur les Journées Nationales de l’Ingénieur et assister à un des nombreux événements repartis sur le territoire, rendez-vous sur le site officiel des JNI 2020.

Comment allier intensification des procédés et efficacité énergétique ?

L’intensification des procédés dans le secteur de la chimie consiste, pour le dire vite, à faire plus avec moins. Comment ? D’abord par le développement de méthodes, de techniques et d’appareils adaptés, la conception de procédés plus compacts… permettant d’obtenir des rendements plusieurs fois supérieurs à ceux des procédés conventionnels. On est là dans l’innovation technologique pure et dure.

Mais l’intensification des procédés ne doit pas s’absoudre des enjeux environnementaux actuels. Cela se manifeste à plusieurs niveaux.

Au niveau écologique d’abord, la mise au point de procédés plus sûrs, moins consommateurs d’énergie, et également moins polluants, de matières premières et de solvants,  constitue le cœur des enjeux.

Au niveau technologique, il va s’agir de limiter tous les processus physiques de transferts de chaleur ou de matière qui ralentissent la synthèse chimique et diminuent son efficacité. Pour ce faire, des procédés innovants se sont imposés sur :

  • la structuration interne des équipements ;
  • la simulation des procédés ;
  • la mise en place d’une production en continu ;
  • la possibilité pour les industriels de produire eux-mêmes certains produits par l’intermédiaire de petites unités de production.

Une économie de la miniaturisation

Mais les enjeux sont également d’ordres économique et sociétal. En effet, l’intensification des procédés permet de développer de nouveaux modèles économiques, par exemple en miniaturisant les réacteurs : cela permet la diminution de la durée et du coût des phases de conception et d’industrialisation d’un procédé. Cet exemple, en amont de la phase industrielle à proprement parler est celui qui va générer le plus d’économies.

Un autre modèle économique de plus en plus intéressant pour les industriels est le développement sur site de la production de certains gaz très utilisés dans certaines activités. La possibilité de les produire sur place permet d’économiser des coûts de transport évidents, mais également de stockage.

L’intensification, réponse aux enjeux sociétaux que porte l’industrie chimique ?

Au niveau sociétal enfin, l’intensification des procédés profite au consommateur final. Les innovations techniques et économiques participent à une amélioration de la compétitivité de ce secteur industriel : diminution des étapes de conception et d’industrialisation, accélération de la mise sur le marché de nouvelles molécules et de nouveaux produits plus performants…

L’intensification des procédés est donc, pour toutes ces raisons, un mouvement fondamental dans l’évolution du domaine des procédés. Fondamental aussi car le développement de systèmes micro-structurés, par exemple, a ouvert la voie au développement en masse de nouveaux produits : nanoparticules, capsules

Aujourd’hui, la question de l’intensification d’un procédé se trouve donc dans une problématique plus large que la simple performance technologique de synthèse chimique. Pour prendre en compte ces nouveaux enjeux, les industriels doivent investir sur des outils d’analyse du cycle de vie adaptés aux projets de la chimie. Et en systématiser l’usage.

Enfin, au niveau territorial aussi, l’industrie des procédés s’associe pleinement aux problématiques de gestion de l’environnement – majoritairement en ce qui concerne les ressources en eau, la gestion des déchets, des effluents – afin de développer des synergies locales.

Par P.T

L’ADEME mise sur le monde agricole pour réduire les émissions de GES

« Cela faisait 10 ans que l’ADEME n’était pas venue au salon de l’agriculture, partage Arnaud Leroy, PDG de l’ADEME. Nous avons des convictions fortes à partager : la transition écologique passera par les territoires et la question alimentaire, donc agricole, est essentielle à la transition écologique ». En effet, l’agence rappelle que l’alimentation, à travers le secteur agricole et l’agroalimentaire, est à l’origine de 25 % des émissions françaises de gaz à effet de serre. En ce sens, l’agence souhaite installer un dialogue avec les consommateurs et les producteurs agricoles.

Le monde agricole et les énergies renouvelables

« Le monde agricole est particulièrement important pour le développement des énergies renouvelables », prévient Arnaud Leroy. En effet, 80 % des éoliennes sont installées en terres agricoles. Hors forêts, plus de 20 % de la production d’énergies renouvelables françaises est liée au monde agricole. « En ajoutant la forêt, on monte tout de suite à 60 %, donc la mobilisation du monde agricole au sens large, y compris forestier, est essentielle dans l’atteinte des objectifs de développement des ENR du pays », complète Arnaud Leroy.

Via les investissements d’avenir, l’ADEME accompagne quelques projets innovants sur l’agrivoltaïsme. L’agence soutient par ailleurs le développement du gaz « vert ». Son scénario national « 100% gaz vert en 2050 » a été décliné en région Aquitaine. « La plus grande région agricole d’Europe peut être autonome en gaz à l’horizon 2050 en mobilisant de façon intelligente les ressources sur le territoire, aussi bien pour la production énergétique que pour la mobilité », assure Arnaud Leroy. L’agence aide à l’émergence de la filière biogaz et du gaz renouvelable en France en accordant des subventions, en accompagnant les porteurs de projet et en participant au fonds d’investissement Eiffel Gaz Vert, doté de 200 millions d’euros, aux côtés de GRTgaz.

Réduire les émissions de CO2 du monde agricole

Tous les scénarios visant la neutralité carbone en 2050 montrent l’importance de la contribution du secteur agricole et agroalimentaire dans son ensemble. « C’est le seul secteur où l’on peut jouer à la fois sur les trois leviers de lutte contre le changement climatique : la réduction des émissions, la substitution des ressources fossiles et le stockage du carbone dans les sols et la biomasse », détaille Jérôme Mousset, chef du service Agriculture et Forêt à la Direction Productions et Énergies Durables de l’ADEME.

« Il est important que l’on avance sur les réflexions et les études car ces sujets vont être au cœur de la négociation de la PAC, complète Arnaud Leroy. Il y a un coup à jouer pour tout l’élevage français, car il est démontré que les prairies sont des puits de carbone vraiment de grande intensité, beaucoup plus que toutes les cultures végétales. »

Aider les filières à s’adapter au changement climatique

L’agence développe les référentiels du label bas-carbone afin de déployer les bonnes pratiques de stockage du carbone dans les sols. « Ce label permet de garantir la quantité de carbone économisé par un acteur et de le valoriser sur le marché de carbone volontaire auprès d’acteurs privés qui souhaitent compenser leurs émissions », détaille Arnaud Leroy.

L’ADEME travaille par ailleurs avec les filières agroalimentaires dans des démarches d’éco-conception avec l’appel à projets « Green go ». La stratégie consiste à améliorer la performance environnementale de leurs produits. Un nouvel appel est en cours jusqu’au 17 juillet 2020.

En parallèle, l’agence a monté un guide pilote pour préparer trois filières à l’évolution climatique : la filière bovine viande en Bourgogne, la filière pomme en Pays de la Loire et la filière maïs en Occitanie. « L’idée de ce guide est d’avoir une stratégie de filière : essayer de caractériser l’évolution du climat dans une région à travers des indicateurs pour voir les problèmes générés sur la production et le cycle de l’eau, explique Jérôme Mousset. Ensuite, nous mettons en place des groupes de travail avec des agriculteurs et des professionnels pour élaborer un plan d’actions concret ». D’autres sujets sont à venir. « En PACA, de nouvelles filières, comme la vigne, demandent de plus en plus à avoir accès à l’irrigation ; il y a une réflexion à avoir sur les cépages, l’évolution des AOP et AOC », ajoute Arnaud Leroy.

Des vaisseaux sanguins artificiels ? C’est possible grâce à l’ingénierie tissulaire

Le collagène est une famille de protéines structurales et c’est de loin la famille de protéines la plus abondante chez les mammifères. Le plus souvent présent sous forme de fibres au sein de la matrice extracellulaire, le collagène constitue en quelque sorte l’échafaudage du corps humain.

Une démarche innovante

En ingénierie tissulaire, il a subsisté pendant longtemps un vieux dogme : celui qui consiste à prendre des cellules et à les disposer sur un échafaudage synthétique pour obtenir un tissu.

“Cette vision était celle de chimistes qui voyaient le rôle du matériau comme central. Or, on sait que même les matériaux synthétiques les plus inertes comme le PTFE provoquent une réaction inflammatoire”, affirme Nicolas L’Heureux, de l’unité « Bioingénierie Tissulaire » de l’INSERM/Université de Bordeaux.

La démarche suivie par son équipe et décrite dans le journal Acta Biomaterialia est particulièrement innovante : “Nous voulions concevoir des tissus ayant une bonne résistance mécanique sans avoir à utiliser un échafaudage synthétique”, explique le chercheur.

Pour cela, ils ont mis au point un procédé permettant de produire beaucoup de matrice extracellulaire riche en collagène, à partir de cellules spéciales, les fibroblastes. Après deux mois de mise en culture, ils récoltent de grands feuillets de matrice extracellulaire qui sont ensuite découpés en rubans.

Bobine de fil de matrice extracellulaire / Nicolas L’Heureux

Ces rubans sont très flexibles, ils peuvent être enroulés ou torsadés pour former des fils. À partir de ces fils, on peut ainsi accéder aux méthodes d’assemblage de l’industrie textile : le tissage, le tricotage, le tressage, le crochet, etc.

Des vaisseaux sanguins artificiels biocompatibles

Cette équipe de l’INSERM travaille sur plusieurs applications. La plus importante de toutes concerne la fabrication de vaisseaux sanguins à partir de ces fils tissés conçus entièrement à base de matrice extracellulaire.

Vaisseau sanguin composé de matrice extracellulaire, en cours de tissage / Nicolas L’Heureux

Les vaisseaux sanguins synthétiques qui existent fonctionnent plutôt bien pour des diamètres assez gros. Néanmoins, la seule solution viable actuellement lorsqu’il s’agit de remplacer des vaisseaux de 2 à 3 mm consiste à prélever une artère saine d’un patient et de la réimplanter.

Nicolas L’Heureux en donne la raison : “Quand le corps humain détecte un corps étranger, il va d’abord essayer de le détruire. Si cela ne fonctionne pas, il va l’isoler du système immunitaire en l’enrobant de collagène (…) Imaginons une prothèse vasculaire synthétique : si ce phénomène se produit à l’intérieur du vaisseau sanguin artificiel, le corps fabriquera du tissu cicatriciel qui viendra boucher le vaisseau si son diamètre est petit.”

Et il ajoute : “Disposer d’un vaisseau préemballé serait fantastique, car aujourd’hui personne n’est prêt à prendre le risque pour un pontage cardiaque avec des produits synthétiques qui fonctionnent mal.”

Un potentiel important

Le remplacement de vaisseaux dégradés et la fabrication de tubes pour les pontages cardiaques ne sont pas les seules applications envisageables. Il n’existe pas encore, par exemple, d’œsophages artificiels.

Nicolas L’Heureux explique : “Lors d’une ablation d’une partie de l’œsophage, la solution la plus courante consiste à recoudre directement l’estomac sur la partie restante. Dans 10 % des cas il y a des complications (…) et le tissu que nous développons permettrait potentiellement de résoudre ce problème. Il a en plus l’avantage d’être modulable par le corps humain qui serait peut-être même capable de reconstruire le tissu musculaire autour de ce produit d’ingénierie tissulaire.”

Même si la mise en culture des fibroblastes ne pose pas de problème et que l’utilisation de procédés automatiques du textile ouvre la voie vers une production industrielle, le chemin est encore long avant de voir apparaître de tels “textiles humains”.

En effet, ces textiles à base de collagène doivent encore être testés sur des animaux avant la mise en place d’essais cliniques. Il faudra enfin prouver qu’il est possible de les produire suivant les bonnes pratiques de fabrication (BPF) des dispositifs médicaux.

Photo Une : /Nicolas L’Heureux

La sobriété énergétique, nouveau mantra du génie des procédés

La réduction de la facture énergétique des procédés de transformation de la matière et des procédés énergétiques est une préoccupation importante aujourd’hui chez les industriels. Non seulement car elle est source de compétitivité, mais aussi parce que la pression écologique est plus forte que jamais.

En France, les industries des transports, des matériaux, et de l’énergie constituent des secteurs dont la croissance reste forte. Pour rester compétitifs, ces derniers doivent aujourd’hui construire des modèles industriels durables. Allègement des matériaux pour le transport, développement de procédés énergétiques plus efficaces, de batteries plus performantes, d’isolation plus efficace pour le tertiaire… Les axes d’améliorations sont nombreux, mais la problématique n’en reste pas moins complexe pour les entreprises, qui doivent faire évoluer leur mode de fonctionnement vers l’autonomie énergétique et la neutralité carbone, idéalement.

Au milieu de ça, le génie des procédés propose des solutions innovantes et très diversifiées qui permettent de solutionner certaines problématiques de sobriété énergétique. A plusieurs titres, le développement de procédés innovants de production de biocarburants fait partie de ces solutions.

Une volonté politique

Il y a quelques jours, le 20 février, le département américain de l’agriculture annonçait sa volonté de porter à 30% – contre 10% aujourd’hui – la part des biocarburants mélangée dans le pétrole brut d’ici à 2050. Une décision forte qui montre la montée en puissance inexorable des biocarburants pour le transport, dans un pays qui a pourtant tourné le dos aux accords de la COP21. En France également cet intérêt se matérialise très concrètement. Le 27 janvier dernier, la ministre de la Transition énergétique et solidaire, Elisabeth Borne, lançait un appel à manifestation d’intérêt pour la production de biocarburants pour l’aéronautique. Des géants français comme Total, Airbus, Safran et Suez planchent déjà sur les contours d’une filière française depuis plusieurs années. Les objectifs affichés – les biocarburants devront représenter 2% des carburants utilisés dans le transport aérien en France en 2023, puis 5% en 2030 – peuvent paraître modestes, mais un mouvement s’est enclenché.

Aujourd’hui, en France, la production de bioéthanol destiné à un usage carburant représente 3% de la surface agricole globale de céréales et de plantes sucrières.

3 biocarburants du futur

Les filières des biocarburants essence (Ethanol, ETBE, bioessence de synthèse, biocarburants de deuxième génération) et des biocarburants gazole (EMAG, biogazole de synthèse) ont ainsi émergé sur le territoire et continuent de se diversifier : les biocarburants du futur sont ainsi déjà en développement, et des procédés innovants font leur apparition.

Par exemple le Futurol, biocarburant issu d’un procédé biochimique de transformation de la biomasse, est arrivé l’année dernière sur les marchés. Ce biocarburant de seconde génération est le fruit de 10 années de développement.

Un autre projet, soutenu par le ministère de la Transition Ecologique et Solidaire, concerne le développement par Total – et 5 autres partenaires –  d’un procédé thermochimique de transformation de la biomasse puis de la synthèse Fischer Tropsch pour produire principalement un biogazole et un biokérosène de synthèse.

Enfin, un projet coordonné par Engie, Gaya, concentre ses efforts sur le développement d’un procédé de gazéification/méthanation pour produire un biocarburant gazeux.

Bien sûr, le développement et la mise sur le marché de ces biocarburants, qui permettent à l’industrie des transports de tendre vers un modèle plus écologique, ne sont qu’un facteur de sobriété énergétique parmi d’autres pour l’activité industrielle. Mais ils illustrent une tendance vers l’intégration de ces solutions dans le mix global. Et la possibilité de continuer à investir en recherche et développement pour mettre au point des procédés encore plus performants.

Par P.T

Revue du Web #131 : les vidéos les plus étonnantes du mois

Un électrolyseur pour détecter les pesticides.

Dans une vidéo, un internaute prétend prouver que l’eau minérale de la marque Cristaline est pleine de pesticides. Cette expérience électrochimique génère l’apparition de dépôts dans la solution. En effet, au bout de quelques secondes, l’eau dans la tasse de droite se trouble et prend une couleur brunâtre. Que prouve réellement cette expérience électrochimique ? D’après les spécialistes, ce test ne révèle rien d’autre que la présence de sels minéraux conducteurs.

Le robot qui imite votre écriture

A l’instar de l’illustre écrivain américain, le robot Hemingway écrit à la main en utilisant un stylo, à la manière d’un humain. Dans la pratique, il suffit de fournir à la machine un modèle, puis celle-ci utilise un algorithme de « machine learning » pour imiter, quasiment à la perfection, la manière d’écrire de son auteur. Au-delà de ses talents d’imitation, Hemingway est capable de composer un texte en 2 minutes alors qu’un individu lambda mettrait quinze minutes.

La France imprime de la peau en 3D

Les sociétés Poietis et LabSkin Creations ont misé sur cette technologie pour concevoir des tissus cutanés humains qui pourraient être utilisés pour répondre aux problèmes de greffes.
La France compte quelques initiatives intéressantes en matière de bio-impression et plus particulièrement d’impression 3D de peau humaine.

Un robot autonome pour garer les voitures

Grâce à un système de robot-voiturier, plus de perte de temps pour chercher une place disponible ou retrouver son véhicule. Bien plus qu’un assistant voiturier, le dispositif révolutionne non seulement la gestion des véhicules sur un parking, mais il permet également de réaliser de véritables économies d’espace grâce à la gestion en multifile des voitures.

Organiser un événement grâce à l’impression 3D

Pour assurer une sécurité maximale, la police a pu établir ses plans tactiques sur un modèle imprimé en 3D du stade Hard Rock Stadium en Floride. Réalisée par des étudiants de la Florida International University, la maquette mesure 1,2 par 1,5 mètres et a nécessité 3 500 heures d’impression.

La plus grande piscine du monde survolée en drone

Au Chili, la piscine d’Algarrobo possède une plage d’un kilomètre de long et contient l’équivalent de 80 piscines olympiques. Survolée par drone, ses dimensions sont encore plus impressionnantes. Construite juste à côté de l’Océan Pacifique, l’eau calme est chauffée à 26 °C toute l’année et les touristes adeptes de sports nautiques affluent.

Le Graal quantique : des calculateurs moins sensibles au «bruit»

Les ordinateurs quantiques ne remplaceront pas nos PC de bureau conçus pour des usages domestiques ou professionnels (bureautique, messagerie…). Par contre, ils seront capables de résoudre des problèmes nécessitant une fantastique puissance de calcul.

Mais paradoxalement, nos ordinateurs « classiques » font moins d’erreurs que les calculateurs quantiques alors qu’ils n’intègrent qu’une mémoire assez limitée et un processeur plus ou moins puissant !

La faute à la « décohérence quantique ». C’est l’un des talons d’Achille des ordinateurs. Depuis plus de 20 ans, des recherches sont menées pour développer un mécanisme de correction d’erreurs : en 1997, Alexeï Kitaev, professeur russo–américain de physique à l’Institut de technologie de Californie et chercheur chez Microsoft, avait déjà travaillé sur ce sujet en s’inspirant de la topologie, branche des mathématiques.

Les technologies quantiques sont en effet extrêmement sensibles aux interactions avec leur environnement (ce qu’on appelle « le bruit ») et les qubits tendent à perdre très rapidement leurs propriétés quantiques (superposition d’états, intrication…). C’est ce que l’on appelle la « décohérence quantique ».

Des enjeux de compétitivité et de souveraineté

D’où l’idée de concevoir des calculateurs quantiques tolérants aux défauts. Appelés aussi « LSQ » – pour « Large Scale Quantum » – , ils ont la lourde tâche d’effectuer des calculs et des modélisations de plusieurs ordres de grandeur plus complexes que ce qui est aujourd’hui envisageable, même avec les supercalculateurs traditionnels.

Pour relever ce défi, un LSQ doit être composé de milliers de qubits logiques. Grâce à un nombre élevé de qubits et à un faible niveau de bruit, ces machines devraient être capables de dépasser de plusieurs ordres de grandeur nos capacités de calcul actuelles.

Ce challenge est à la hauteur des enjeux de compétitivité (temps de mise sur le marché de produits ou applications) et de souveraineté (renseignement et dissuasion).

Mais les processeurs quantiques actuels sont encore petits et sujets à des erreurs. Différents travaux sont menés à travers le monde pour mettre au point un processeur quantique de plus grande taille.

En octobre 2019, une équipe internationale de scientifiques d’Australie, du Japon et des États-Unis avait annoncé avoir conçu un prototype de processeur quantique à grande échelle intégrant la lumière laser.

Des cristaux, spécialement conçus, convertissent la lumière laser ordinaire en une sorte de lumière quantique. Appelée « lumière comprimée », elle est ensuite « tissée » en un état de grappe par un réseau de miroirs, de séparateurs de faisceau et de fibres optiques.

Algorithmes quantiques

D’autres pistes sont étudiées pour construire des « pièges à ions ». Les technologies à base d’ions piégés (maintenus sous vide et suspendus par suspension électrostatique) sont également extrêmement intéressantes, pour d’autres raisons : les qubits produits sont de très bonne qualité.

Enfin, des recherches sont menées (notamment par le Los Alamos National Laboratory) pour concevoir des algorithmes permettant d’effectuer des tâches utiles sur des ordinateurs quantiques « bruyants ».

Pour simplifier, les algorithmes « classiques » sont des listes d’opérations que doit réaliser un ordinateur dans un ordre précis. Un peu comme lorsqu’on suit à la lettre une recette de cuisine.

À la différence de ces algorithmes « classiques », les algorithmes « quantiques » seraient mieux adaptés aux défauts particuliers des calculateurs quantiques. Ils seraient en effet capables d’exécuter davantage d’étapes de traitement dans le délai imparti avant que la fameuse décohérence n’impacte le résultat.

Pour l’instant, il ne s’agit que de travaux en laboratoire. Les calculateurs LSQ ne seraient pas attendus avant 2030.

Quelle place pour le génie des procédés dans l’usine du futur ?

L’usine du futur commence à se conjuguer au présent. Parmi les innovations technologiques – IA, robotique, cobotique, maintenance prédictive… – le domaine des procédés ne fait pas exception. Dans quel but ? La sobriété. Il va s’agir essentiellement de limiter les quantités de matières premières et d’énergie nécessaires aux dits procédés. Mais pas que. La problématique des déchets, la durabilité sont aujourd’hui des facteurs impossibles à négliger pour évaluer l’efficacité d’un procédé.

Un point important est l’extension récente à des dimensions de plus en plus étendues du génie des procédés : de l’échelle nano aux parcs industriels, en passant par les réacteurs, l’usine… Ces dimensionnements adaptés aux besoins sont un défi en soi pour le développement d’usines éco-conçues ayant un impact environnemental le plus faible possible. Mais comment qualifier et quantifier l’impact environnemental des procédés, sur l’air, l’eau, l’environnement, et in fine sur le réchauffement climatique et la pollution ? Comme d’autres process, les retombées environnementales réelles des procédés ont longtemps été sous-estimées, notamment par manque de moyens. C’est moins le cas aujourd’hui. L’analyse du cycle de vie des procédés, qui permet de considérer de manière globale un procédé, a permis de développer une nouvelle vision, celle de «cycle de vie de la matière». Qui a donc remplacé la vision procédé-produit, pas suffisamment représentative de la réalité.

L’intensification des procédés a besoin de l’usine du futur

Cette approche «cycle de vie de la matière» n’est pas nouvelle, mais l’usine du futur permet de lui donner une réalité plus palpable. Et plus centralisée, puisque tous les axes d’innovations se trouvent regroupés en son sein :

Les procédés, qui deviennent doucement mais sûrement des bioprocédés, muent. Leur intensification via des microréacteurs, ou des réacteurs microstructurés a conduit à un changement dans les technologies, permettant d’assurer une production plus localisée et contrôlée.

Gestion fine de la production

Le développement de capteurs de qualité et de quantité, tout au long des lignes de production, permet de tenir compte en temps réel de la variabilité des ressources, d’adapter finement les produits en fonction des demandes des consommateurs (ce qui s’avère très utile dans le secteur très concurrentiel qu’est l’agroalimentaire par exemple).

Cette nouvelle approche des procédés s’illustre d’un bout à l’autre de la chaîne de fabrication/production.

Cela concerne aussi la gestion intelligente des déchets, c’est-à-dire leur valorisation (en biocarburants par exemple). En les intégrant au bilan global de matière dès la conception du produit, les déchets deviennent une matière première à proprement parler. La problématique de leur valorisation devient ainsi partie intégrante du processus de production. Cela n’est pas nouveau, mais la conception de l’usine du futur permet d’optimiser cette approche.

Au final, l’intégration du génie des procédés dans l’usine du futur permet de repenser totalement des processus existants en les intégrant dans des concepts de production globaux. Cela permet d’avoir une vision beaucoup plus réaliste de leur impact réel, d’un bout à l’autre de la chaîne de production. Cela permet également de mieux penser ces procédés de manière cyclique, donnant aux déchets le statut de matières premières. Enfin, la possibilité de calibrer en temps réel les paramètres des procédés (quantité, qualité, personnalisation) permet de les faire évoluer plus facilement dans le temps et d’être toujours plus en phase avec l’innovation.

En une phrase, tout ce qui concerne l’innovation en génie des procédés se matérialise à travers l’usine du futur.

A lire également : L’usine du futur pour les industries de procédés, édité par la Société Française de Génie des Procédés.

Par P.T

Génie des procédés : l’efficacité énergétique au cas par cas

Comment réduire les émissions de gaz à effet de serre liées aux procédés industriels ? C’est une question que se posent les ingénieurs depuis longtemps. D’après l’Ademe, les procédés constituent des «opérations unitaires permettant de réaliser la production industrielle».

Ces opérations unitaires sont très nombreuses. Elles peuvent être assez homogènes au sein d’un même secteur mais diffèrent du tout au tout d’un secteur à l’autre. Toujours d’après l’Ademe, 66 % de l’énergie consommée par l’industrie concerne les procédés. La marge de manoeuvre est donc conséquente.

Quelles sont les variables ?

La quantité d’unités à produire ainsi que l’énergie dépensée pour produire une unité sont les deux facteurs qui permettent d’évaluer l’impact énergétique d’un procédé industriel.

Sans s’étendre ici sur les modalités d’évaluation énergétique d’un procédé, il est évident que ceux-ci peuvent mettre en jeu de nombreux matériaux, transportés, transformés, façonnés, assemblés… Il n’est donc pas pertinent de comparer les différents procédés industriels utilisés dans tous les secteurs qui viennent en premier à l’esprit : agro-alimentaire, pharmacie, chimie, hydrocarbures…

Par contre, la combinaison de trois actions – ensemble ou séparément – permet de mettre en avant les facteurs influant sur la baisse de la consommation énergétique d’un procédé donné :

  • La baisse des quantités produites (à mode de production constant) ;
  • Le transfert d’activité de l’industrie lourde vers l’industrie secondaire ;
  • Une amélioration des procédés de production des matériaux bruts, intermédiaires ou finis.

De fait, l’analyse des procédés industriels repose sur une juste évaluation de ces trois phénomènes. Au-delà, l’intensité énergétique des procédés, au niveau national, dépend en grande partie des orientations de la politique industrielle. Ainsi, un pays peut très bien s’employer à baisser, via l’investissement et l’innovation, son intensité énergétique globale en ce qui concerne les procédés industriels les plus polluants. Si dans le même temps, ce pays décide de développer de nouveaux secteurs industriels, le bilan énergétique global peut s’en trouver nul. Chaque contexte est donc à étudier au cas par cas.

A chaque secteur son contexte

En France, les secteurs pour lesquels les possibilités d’améliorations sont les plus importants sont l’industrie chimique, l’agro-alimentaire, l’industrie pharmaceutique, la production et transformation de l’énergie… En fait, cela concerne des activités – importantes – de transformation de la matière, les plus en amont dans le process industriel.

De fait, le génie des procédés revêt une importance cruciale aujourd’hui, surtout dans sa capacité à améliorer le bilan de process trop énergivores ou polluants.

Les démarches d’amélioration des procédés sont généralement étalées dans le temps. Et complexes. Il est d’abord nécessaire d’avoir une connaissance fine des performances des équipements énergivores existants et qui sont utilisés par les différents procédés considérés.

En premier lieu, l’optimisation du fonctionnement des équipements existants reste le meilleur biais pour réduire la consommation énergétique des procédés.

Ensuite, la récupération de chaleur est un moyen également très efficace d’améliorer ses procédés. Par exemple, la mise en cascade des procédés, qui consiste à récupérer la chaleur en sortie de certains procédés pour en alimenter d’autres, permet d’obtenir de très bons résultats.

Le remplacement des équipements existants par des équipements plus performants est une approche qui est également usuelle, bien que souvent onéreuse.

Enfin, la rupture technologique. Elle consiste à choisir des principes physiques plus performants pour un procédé donné.

L’amélioration des procédés, au niveau énergétique, est donc une entreprise complexe, où chaque cas est unique.

Par P.T

Fabrication additive métallique : des ultrasons pour renforcer la structure des alliages obtenus

La fabrication additive métallique par dépôt sous énergie concentrée (DED) permet d’obtenir des pièces de grande dimension, ou de faire de la réparation, de manière rapide. En contrepartie, cette technologie produit des pièces dont la microstructure et l’état de surface sont plus grossiers qu’avec les technologies de fusion sélective par laser (SLM).

DED : une microstructure anisotrope

Lorsque l’on observe au microscope les pièces obtenues par DED, on remarque la présence de grains de structure colonnaire. Cette particularité est valable pour la plupart des alliages métalliques et est liée à une faible germination des grains, inhérente au procédé. Ceci a 3 conséquences :

  • forte anisotropie ;
  • performance mécanique réduite ;
  • tendance à la fissuration à chaud.

Effets des ultrasons sur la microstructure

Les travaux de cette équipe de chercheurs australiens avaient donc pour objectif de remplacer ces gros grains à la structure colonnaire par des grains fins de structure équiaxiale.

Ils expliquent dans une publication récente pour le journal Nature, avoir réussi à mettre à profit leur longue expérience dans le raffinement de grains des alliages légers par ultrasons. Dans le cas présent, ils ont ainsi utilisé une sonotrode permettant d’obtenir des vibrations à 20 kHz.

L’analyse de la microstructure des échantillons en Ti-6Al-4V (TA6V) obtenus par DED avec et sans ultrasons met en évidence des différences importantes. Les résultats de la comparaison des clichés de microscopie optique en lumière polarisée montrent que la présence des ultrasons permet d’obtenir des grains de forme équiaxiale d’une taille de 100 µm (voir Fig 1).

La différence est plus que notable : sans ultrasons, la taille de ces grains dépasse plusieurs millimètres de longueur pour 0,5 mm de largeur.

Fig 1 : Échantillons de TA6V obtenus par DED : clichés de microscopie optique en lumière polarisée. À gauche, sans ultrasons ; à droite avec ultrasons. Source : RMIT University’s School of Engineering.

Des résultats encourageants

Concrètement, l’utilisation d’ultrasons permet d’améliorer considérablement les propriétés mécaniques. Les essais que les chercheurs ont effectués sur le TA6V indiquent une augmentation de 12 % de la limite d’élasticité et de la résistance à la traction.

Mais il y a plus important encore : leur approche est applicable à d’autres alliages métalliques comme l’Inconel 625. Si le gain de propriétés mécaniques n’est pas précisé, l’effet sur la microstructure semble en revanche similaire.

L’adaptation de cette technique aux procédés industriels pourrait permettre d’obtenir des alliages de structure suffisamment performants pour être utilisables dans les industries les plus exigeantes.

Une aridité renforcée transformera les paysages

« Les écosystèmes ne répondent pas de façon linéaire à la hausse de l’aridité : un petit changement de celle-ci va, à un moment donné, entraîner des grands changements au niveau des écosystèmes », prévient Nicolas Gross, chercheur à INRAE au sein de l’Unité de recherche « Ecosystème Prairial ». Une nouvelle étude parue dans Science, auquel cet expert de l’écologie des zones arides a participé, met ainsi en évidence trois seuils de transition des zones arides.

Une même réponse des végétations selon l’aridité sur toute la planète

« L’aridité est un indice compris entre 0 et 1 qui met en relation la pluviométrie et l’évapotranspiration, traduisant la demande en eau des plantes, rappelle Nicolas Gross. Les milieux arides ont une aridité qui dépasse 0,6, ce qui correspond à des végétations que l’on commence à observer dans le sud de la France en milieu méditerranéen, puis les steppes comme en Patagonie, les savanes africaines, les maquis et des milieux buissonnants, des forêts sèches et enfin, les déserts. »

L’étude a synthétisé des données sur la réponse des écosystèmes à l’aridité à l’échelle de la planète. « L’ensemble des 20 attributs étudiés répondent en trois seuils d’aridité, partage Nicolas Gross. Ces attributs comprennent par exemple la biomasse produite chaque année par les plantes, les réponses écophysiologiques des plantes, des mesures de la photosynthèse, d’agrégation physique des sols, de biodiversité en microbes comme les mycorhizes et les pathogènes des plantes, des relevés de diversité et d’abondance des plantes… »

Trois seuils d’aridité plutôt qu’une réponse linéaire

Le premier seuil arrive à une aridité de 0,54. Il s’agit d’un déclin brutal de la production végétale. Les plantes commencent alors à être réellement limitées par le manque d’eau. « Lorsque l’on passe de végétations tempérées à des végétations méditerranéennes, les plantes réussissent bien à s’adapter à la sécheresse, car elles vont minimiser la taille de leurs feuilles et maximiser la capacité photosynthétique sous contrainte hydrique, explique Nicolas Gross. Cette stratégie de réduction de la surface foliaire atteint une certaine limite écophysiologique lorsque l’on arrive au premier seuil de 0,54, car les feuilles ne peuvent pas devenir infiniment plus petites ». C’est la transition entre la végétation méditerranéenne vers des végétations plus arides telles que retrouvées au sud de l’Espagne ou dans les paysages de steppes nord-africaines.

Une aridité de 0,69 marque l’arrivée du deuxième seuil, avec de multiples changements sur plusieurs variables du sol. « On observe alors une perte des capacités d’agrégation du sol, une hausse de la sensibilité à l’érosion, une baisse de la fertilité, une baisse de la matière organique dans les sols, une disparition de certains microbes comme les champignons mycorhiziens bénéfiques aux plantes et une augmentation de leurs pathogènes », détaille Nicolas Gross. La troisième phase arrive à 0,8 d’aridité, avec un effondrement de l’écosystème. Il n’y a plus de couverture végétale, le sol devient complètement minéral avec une augmentation de l’albédo ; c’est l’arrivée du désert.

Un scénario catastrophe pour l’avenir

À partir de cette découverte, les chercheurs ont exploré les conséquences d’un accroissement des émissions de CO2 tel qu’observé aujourd’hui, selon un scénario d’émissions de gaz à effet de serre « business as usual ». Dans ce scénario connu sous le nom de GIEC RCP8,5, le monde connaît une augmentation des températures jusqu’à 5°C en 2100. Selon les niveaux d’aridité prédits en 2100, la Terre subit des changements drastiques de végétation et de paysage.

L’étude a ainsi permis d’élaborer une carte de vulnérabilité.

Carte de vulnérabilité des zones arides aux changements climatiques. Elle comprend les zones qui pourraient traverser un ou plusieurs seuils décrits selon l’aridité prévue pour 2100 par le GIEC RCP8.5. Source : INRAE.

Les grandes zones potentiellement impactées sont l’Afrique subtropicale, l’Asie et le bassin méditerranéen. « Aujourd’hui, 41 % de la surface terrestre sont des zones arides, renseigne Nicolas Gross. Dans ce scénario, 20 % des surfaces terrestres, quelles qu’elles soient, pourraient franchir au moins l’un de ces trois seuils. »

Lévitation acoustique : où en sont les recherches ?

Inventée dans les années 70 par la NASA pour la manipulation d’échantillons liquides sans contact physique, la lévitation acoustique intéresse de nouveau les chercheurs depuis quelques années. Le principe est le suivant : créer une onde acoustique stationnaire afin de piéger un objet dans les airs, comme s’il était maintenu par des doigts invisibles.

Manipulation acoustique de gros objets : toujours un challenge

Jusqu’à il y a peu, on pensait que la taille des objets que l’on pouvait faire léviter par cette technique devait être, au maximum, égale à la moitié de la longueur de l’onde acoustique utilisée. Sachant que les fréquences inférieures à 20 kHz sont audibles par les humains, la longueur d’onde maximale est de 17,2 mm, ce qui limite la taille des objets à 8,6 mm !

Néanmoins, grâce aux travaux dirigés par le professeur Bruce W. Drinkwater de l’université de Bristol, on sait dorénavant qu’il est possible de faire léviter des objets de taille supérieure. Leur record : faire léviter une boule de polystyrène de 2 cm de diamètre avec des ondes de 40 kHz.

À ce jour, leurs recherches se poursuivent, mais n’ont pas encore conduit à la publication de nouveaux résultats. En outre, en fournissant les plans détaillés de la machine qu’ils ont développée, ils ont ainsi permis à d’autres chercheurs à travers le monde de suivre leur voie.

La lévitation acoustique à la portée de la robotique

Voici un exemple particulièrement parlant. L’équipe de Marcel Schuck de l’ETH Zürich vient de dévoiler une pince robotisée capable de manipuler de petits objets par lévitation acoustique. Directement inspirée des travaux de Bristol, cette pince est constituée de deux hémisphères imprimés en 3D et semble particulièrement intéressante pour la manipulation de précision d’objets fragiles.

En effet, grâce à la lévitation acoustique, il est possible de manipuler des objets de forme variée, sans qu’il soit nécessaire d’utiliser des outillages de précision extrêmement coûteux. Le mouvement de la pièce, déterminé par les ondes acoustiques est ici contrôlé par un logiciel. Marcel Schuck compte faire passer rapidement cette méthode économique au stade de l’industrialisation, d’une part en fournissant des kits de développement pour des clients potentiels, d’autre part par la création d’une startup en 2021.

De la lévitation acoustique à la projection 3D

Voici une application encore plus étonnante, présentée par une équipe internationale, composée de chercheurs de l’université du Sussex, à Brighton, et de Tokyo.

Ils ont réussi une prouesse technique : manipuler de manière extrêmement rapide (4 m/s) et précise une petite bille blanche d’un millimètre de diamètre afin de créer des animations 3D de quelques dizaines d’images par seconde, suffisamment pour tromper l’œil humain.

La lévitation acoustique semble donc avoir un champ d’application très diversifié. Vous désirez vous lancer dans la fabrication de votre propre machine de lévitation acoustique ? Tout est expliqué ici.

Photo de Une : Published by the American Physical Society under the terms of the Creative Commons Attribution 4.0 International license. Acoustic Virtual Vortices with Tunable Orbital Angular Momentum for Trapping of Mie Particles par Asier Marzo, Mihai Caleap, and Bruce W. Drinkwater.
DOI: https://doi.org/10.1103/PhysRevLett.120.044301  

Viande in vitro : un « mythe » ?

Jean-François Hocquette, directeur de recherche à l’INRAE

Jean-François Hocquette est directeur de recherche à l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (INRAE). Au sein du Département Physiologie animale et systèmes d’élevage, à Saint-Genès-Champanelle, près de Clermont-Ferrand, il est expert de l’élevage et de la viande. Après une étude de référence sur la viande in vitro en 2013, il publie avec Sghaier Chriki, enseignant-chercheur à l’ISARA, en février 2020 une nouvelle revue de la littérature scientifique intitulée Le mythe de la viande de culture dans le journal Frontiers in Nutrition. L’article fait le point sur les avancées scientifiques liées au milieu de culture, aux aspects sanitaires et environnementaux, au bien-être animal, à la législation et à la perception du public.

Techniques de l’ingénieur : Comment cultiver de la viande en laboratoire ?

Jean-François Hocquette : Pour cultiver des cellules souches ou des cellules musculaires, il faut un milieu qui apporte tout ce qui est nécessaire pour que les cellules puissent vivre et se multiplier. Il leur faut de l’énergie, des acides aminés, des hormones et des facteurs de croissance. Le sérum de veau fœtal apporté dans le milieu de culture est précieux, car il est riche en hormones et en facteurs de croissance. Pour récupérer ce sérum, on est obligé de tuer la vache et le veau qu’elle porte. Certaines startups souhaitent développer une industrie dédiée pour produire chimiquement tous ces ingrédients. Finalement, de 2013 à aujourd’hui, il n’y a pas eu de changement majeur malgré les effets d’annonces spectaculaires des startups.

On a donc le droit de faire pousser des cellules aux hormones ?

Cela dépend des pays. Dans l’Union européenne, contrairement aux États-Unis, les implants hormonaux ou promoteurs de croissance sont interdits pour les animaux d’élevage. Ainsi, les fabricants de viande de culture ne sont pas autorisés à ajouter des hormones chimiques ou synthétiques dans le milieu de culture pour remplacer ce sérum de veau. En plus, les cellules de culture ne bénéficient pas de la production naturelle d’hormones chez l’animal, puisque la viande de culture n’en sécrète pas. Il faut donc apporter la quasi-totalité des hormones et des facteurs de croissance par la main de l’homme. Comme les implants hormonaux sont interdits en élevage conventionnel, il en va de même pour la viande de culture. Si les startups américaines veulent vendre de la viande de culture en Europe, elles vont devoir se pencher sur cette question.

La viande de culture a-t-elle des atouts environnementaux ?

Il faut de l’énergie pour faire pousser de la viande de culture, car les cellules se multiplient à une température physiologique. Il faut donc chauffer les incubateurs. La consommation et les émissions de gaz à effet de serre dépendent alors de la source énergétique, de l’inertie de chauffage et de la taille des incubateurs. Le chauffage va s’accompagner d’émissions de CO2, alors que les ruminants – les vaches, les moutons – émettent du méthane. Cela fait une sacrée différence car le méthane a un pouvoir de réchauffement plus élevé, mais il a une demi-vie plus courte dans l’atmosphère. Sur le long terme, c’est donc plutôt l’élevage qui serait moins réchauffant par rapport à la viande de culture.

On ne peut pas affirmer avec certitude que la viande de culture va plus ou moins polluer, car elle n’existe pas au stade commercial et industriel. Les derniers travaux montrent toutefois qu’il ne semble pas y avoir d’avantage certain sur l’environnement.

La commercialisation de la viande in vitro, c’est pour bientôt ?

Il y a une appétence journalistique pour ce sujet extrêmement forte. Les journalistes devraient plutôt parler en priorité des autres sujets qui occupent les chercheurs, comme la réduction du gaspillage alimentaire et les nouveaux systèmes d’élevage. Patrick Hopkins, un sociologue américain, a montré qu’il y a un biais dans la façon dont la presse américaine se saisit de cette question. Grâce à une communication très bien rodée, une minorité de startups font beaucoup de bruit médiatique. Finalement, il s’installe l’idée que c’est sur le point d’être commercialisé, ce qui n’est pas le cas. Elles ne sont d’ailleurs qu’une trentaine à travailler sur ce sujet dans le monde.

Propos recueillis par Matthieu Combe

Comment a évolué la consommation électrique française en 2019 ?

 « La consommation française d’électricité est entrée dans une phase de relative stabilité depuis 2010 », prévient le Bilan électrique 2019 de RTE. Corrigée de l’aléa météorologique, cette consommation s’élève à 473 térawattheures (TWh) en 2019. C’est 0,5 % de moins qu’en 2018.

RTE observe une baisse de la consommation structurelle depuis 2010, analogue à celle des autres pays européens. L’entreprise avance trois causes principales : une croissance économique et démographique en berne, une économie qui tend à se tertiariser, ainsi qu’une meilleure efficacité énergétique des bâtiments et des équipements électriques générant une baisse de consommation pour satisfaire le même besoin. En 2019, RTE met en avant une croissance économique encore moins soutenue qu’en 2018 et à son plus bas niveau depuis 10 ans.

Une analyse sectorielle de la consommation

Le secteur le plus consommateur reste celui des entreprises et des professionnels (47%). Il est suivi par le résidentiel avec près de 36 % de la consommation finale d’électricité. Enfin, la grande industrie représente 17% du volume total.

La consommation corrigée des variations saisonnières des PME/PMI, des professionnels, des entreprises et des particuliers reste stable depuis sept ans. Elle subit une légère diminution de 0,5 % entre 2018 et 2019. En plus de la faible croissance économique, cette tendance vient de l‘efficacité énergétique des équipements et du ralentissement de la croissance du parc de nouveaux bâtiments chauffés à l’électricité, lié à la réglementation thermique 2012. « Les services sont de quatre à cinq fois moins consommateurs d’électricité que le secteur industriel à niveau de production équivalent », estime RTE.

La consommation de la grande industrie directement raccordée au réseau public de transport s’élève à 64,3 TWh, en recul de 3% par rapport à 2018. Corrigée des variations saisonnières, la consommation industrielle cache des dynamiques variées selon les secteurs. « Les secteurs de la métallurgie, de l’énergie et de la chimie voient leur consommation électrique augmenter respectivement de +4,8%, de +1,5% et 1,4% par rapport à 2018, détaille le rapport. Les autres secteurs de la grande industrie voient leur consommation électrique diminuer : le secteur de la sidérurgie enregistre la plus forte baisse avec -9,1%, suivi par celui du papier carton avec -7,2%, puis de la construction automobile avec -5% et enfin celui des transports ferroviaires avec -1,3%. »