Née de la volonté des adhérents du Réseau Mesure, cette manifestation est organisée, depuis 2016, en partenariat avec le Collège Français de Métrologie (CFM) et plusieurs partenaires de la formation, du recrutement et de la communication. Ce salon présente l’exhaustivité de l’offre de la Mesure, du monde de la recherche à celui de la production, des solutions actuelles aux perspectives futures.
Cette année, Mesures Solutions EXPO met l’accent sur les solutions de mesure, de métrologie, de capteurs et d’étalonnage. Cet événement touche toute la chaîne de la mesure : les acteurs du process, les ingénieurs, les techniciens de la qualité à la production, en passant par la maintenance et le contrôle, etc.
Au programme :
Des Ateliers Thématiques durant lesquels les exposants sont invités à développer leurs savoir-faire et nouveautés
Un espace emploi consacré à l’échange entre professionnels de la mesure, écoles et acteurs du recrutement
Des conférences et des quizz
Un espace Start Up pour découvrir tous les projets innovants actuels.
A ne pas manquer :
Le Collège Français de Métrologie participera au salon MSE 2022 avec une présence sur l’exposition dans le pavillon « Innovation Métrologie » : cet espace regroupe les sociétés qui souhaitent associer leur marque à l’excellence Mesure et Métrologie.
Le CFM animera des conférences réparties sur les deux journées du salon, avec comme objectifs de présenter des bonnes pratiques mesures, de pouvoir échanger avec les experts présents sur les problématiques industrielles quotidiennes ou plus avancées du processus de mesure.
Hydrocarbures (huiles, caoutchouc, hydrocarbures aromatiques polycycliques ou HAP…), métaux (plomb, zinc, cadmium…), mais aussi éléments chimiques majeurs (chlore, ion magnésium…), ce sont de nombreux polluants présents à la surface des routes. Ils proviennent de l’usure de la chaussée et de la circulation des véhicules. Il suffit ensuite d’une averse pour que ces polluants soient transportés, par ruissellement, dans des cours d’eau. Cette pollution est d’autant plus importante que le trafic routier est dense, à l’image des autoroutes. Si les plus récentes d’entre elles sont systématiquement équipées de bassins de rétention, ce n’est pas le cas des plus anciennes. Jusqu’ici, aucune étude n’a réussi à démontrer, à l’aide d’un indice biologique, l’impact des polluants des eaux pluviales routières sur un cours d’eau. Grâce à une nouvelle méthode¹, le Cerema a réussi à mettre en évidence cette pollution sur un ruisseau situé dans l’Est de la France.
Pour réaliser cette expérimentation, les chercheurs se sont heurtés à une première difficulté : trouver un site parfait avec la présence d’un cours d’eau qui ne fait l’objet d’aucune autre source de pollution, sauf celle provenant d’une route. Après de nombreuses recherches, ils l’ont trouvé le long de l’autoroute A31, à proximité de Thionville, avec la présence d’un ruisseau appelé le Veymerange, un affluent de la Moselle. Ce site respectait également d’autres conditions pour mener à bien ce travail de recherche, comme l’explique Pierre Mazuer, responsable d’activités en biodiversité aquatique au Cerema : « Nous cherchions une route très fréquentée pouvant potentiellement apporter beaucoup de pollution ; c’est le cas de cette portion d’autoroute qui voit circuler en moyenne 65 000 véhicules par jour. Nous voulions aussi un tout petit ruisseau, sinon nous n’aurions pas pu observer l’impact de cette pollution. Et enfin, il fallait que les conditions morphologiques et hydrologiques des stations situées à l’amont et à l’aval des rejets polluants soient identiques. »
Les scientifiques ont eu la bonne surprise de découvrir la présence d’espèces dites « déterminantes » qui caractérisent des ZNIEFF (Zone Naturelle d’Intérêt Écologique, Faunistique et Floristique). Ces zones, recensées par l’État, sont particulièrement intéressantes sur le plan écologique, car elles sont constituées d’espèces animales et végétales remarquables. Un point important, car la mise en évidence d’éléments polluants dans le Veymerange n’est pas réalisée à partir d’analyses chimiques de l’eau, mais par leurs impacts sur le milieu, et en l’occurrence sur les macroinvertébrés (larves d’insectes, vers, mollusques, ainsi que les crustacés…).
Prélever des substrats composés uniquement de pierres dans le fond du ruisseau
L’expérimentation a consisté à effectuer quatre campagnes de prélèvement, deux au printemps et deux en été, entre les années 2019 et 2021. Sur les deux premières campagnes, deux méthodes habituellement utilisées pour tenter d’observer une pollution chronique ont été utilisées, à savoir : l’IBGN (Indice Biologique Global Normalisé), puis un nouvel indice qui le remplace et appelé l’I2M2 (Indice Invertébrés MultiMétrique). « Comme d’autres études réalisées avant nous, ces deux indices n’ont montré aucune perturbation du milieu à l’aval des rejets pluviaux routiers, ajoute Pierre Mazuer. Ces méthodes ne sont pas efficaces, car elles n’ont pas été conçues pour cela. Elles sont employées dans le cadre de la DCE (Directive Cadre sur l’Eau) et ont pour objectif de traduire l’état écologique d’un milieu, mais pas forcément une pollution particulière. »
Sur les deux dernières campagnes de prélèvement, les chercheurs ont alors changé de méthode. Les deux indices normalisés exigent en effet de réaliser des prélèvements au prorata du recouvrement du fond de la rivière. En clair, cela signifie que s’il y a par exemple beaucoup d’herbiers dans la station située à l’amont, et pas du tout dans celle située à l’aval, il sera prélevé beaucoup de placettes d’herbiers à l’amont et aucune à l’aval. Or, la communauté de macroinvertébrés présente dans un herbier n’est pas la même que celle présente dans un fond recouvert d’un autre substrat, par exemple de pierres. « Nous avons décidé de nous affranchir de la méthode nationale en réalisant des prélèvements uniquement de substrats composés de pierres, révèle Pierre Mazuer. Nous l’avons aussi simplifié en réalisant seulement trois prélèvements dans la station amont et trois autres dans la station aval, pour être sûrs qu’ils soient identiques, alors que l’I2M2 exige d’effectuer douze prélèvements sur chaque site. »
Pour l’exploitation des résultats, deux outils couramment employés pour mener à bien ce type de travaux de recherche ont été utilisés. Le premier, appelé l’indice de similarité de Jaccard, consiste à comparer le nombre d’espèces communes entre les stations amont et aval. « Étant donné que nous avons prélevé les mêmes types de substrat et qu’ils sont très proches les uns des autres, car les stations amont et aval ne sont distantes que d’une centaine de mètres, nous aurions dû avoir un nombre d’espèces quasi similaire. Or, l’indice est compris entre 60 et 70 %. Cela nous a alertés, car cela signifie que 30 à 40 % ne sont pas communes entre les deux stations. »
Les chercheurs ont ensuite utilisé un deuxième outil, encore plus discriminant, appelé le taux d’espèces polluosensibles. En s’intéressant uniquement aux espèces présentant une sensibilité particulière à la pollution organique, ils ont observé une chute de plus de 80 % de l’abondance des espèces entre les stations amont et aval. Une preuve supplémentaire de l’impact de la pollution des eaux pluviales issue de cette portion d’autoroute A31 sur le Veymerange.
¹ Les rapports complets du Cerema sur les différents volets de cette étude sont disponibles en cliquant sur ce lien.
Téléviseurs, montres, réfrigérateurs, machines à café… De plus en plus d’appareils domestiques sont dits « connectés ». De nombreux secteurs industriels intègrent aussi ces capteurs connectés pour obtenir en temps réels différentes mesures ou pour optimiser la maintenance de machines et d’automates.
Or, l’intégration de ces appareils a un impact sur la vie privée des consommateurs. Quelles données sont récupérées par ces appareils et sont-elles sauvegardées de façon sécurisée ? Pour les industriels, le déploiement de ces capteurs augmente ce que les experts en cybersécurité appellent la « surface d’attaque ». En clair, plus il y a de logiciels, d’ordinateurs, d’automates et d’objets connectés et plus il y a de potentielles tentatives d’intrusion malveillante dans les réseaux et donc d’exfiltration de données.
Cette semaine, la Commission européenne a sifflé la fin de la récré, car depuis des années, les experts tiraient la sonnette d’alarme : trop d’appareils connectés n’intègrent aucune sécurité des connexions et trop d’éditeurs ne mettent pas en place un niveau de sécurité adapté.
Des autorités de surveillance et des amendes
La Commission a donc présenté sa proposition de loi sur la cyber-résilience, qui vise à protéger les consommateurs et les entreprises contre les produits connectés numériquement dont les caractéristiques de cybersécurité sont insuffisantes. La législation sera obligatoire pour tous les États membres de l’UE. Mais elle aura probablement aussi des répercussions à l’échelle mondiale puisque toute entreprise vendant des produits dans l’UE devra s’y conformer.
La loi a été annoncée en septembre 2021 et s’appuie sur la stratégie de cybersécurité de l’UE de 2020. L’objectif est de faire en sorte que les produits numériques, souvent regroupés sous l’appellation « Internet des objets », soient plus sûrs pour les personnes qui vivent et travaillent dans l’Union européenne, et d’accroître la responsabilité des fabricants en matière de respect des exigences minimales.
Selon une fiche d’information publiée par la Commission européenne, 90 % des produits seront autoévalués par les fabricants. Environ 10 % des produits feront l’objet d’une évaluation par un tiers, en raison de leur caractère critique (interfaces réseau, pare-feu, processeurs, etc.).
Les États membres désigneront des autorités de surveillance du marché qui seront chargées de faire respecter les obligations de la loi sur la cyber-résilience. En cas de non-conformité, ces autorités pourront demander aux opérateurs de mettre fin à la non-conformité et d’éliminer le risque, d’interdire ou de restreindre la mise à disposition d’un produit sur le marché, ou d’ordonner le retrait ou le rappel du produit.
L’IoT, nouvelle cible des pirates
Chacune de ces autorités sera en mesure d’infliger des amendes aux entreprises qui ne respectent pas les règles. La loi sur la cyber-résilience établit des niveaux maximums pour les amendes administratives qui devraient être prévues dans les lois nationales en cas de non-conformité.
Il y a urgence, car les réseaux des entreprises et des industriels ressemblent à des gruyères. Reconnaissons que la tâche n’est pas simple pour les équipes chargées de la sécurité informatique de leur entreprise : comment gérer et surveiller précisément un réseau informatique qui ne cesse de grossir, comme un mille-feuille auquel on ne cesse d’ajouter des couches ?
Les cyberattaquants disposent avec l’IoT d’une porte d’entrée idéale pour s’y infiltrer, disséminer des ransomwares, voler des données ou bien encore lancer des opérations de minage clandestines (cryptojacking). Mais la situation est-elle encore sous contrôle quand 69 % des décideurs informatiques interrogés en France déclarent que leur organisation a constaté une augmentation du nombre d’appareils IoT connectés au réseau d’entreprise en 2020 selon « The Connected Enterprise : IoT Security Report 2021 » de Palo Alto Network, un des poids lourds mondiaux de la cybersécurité.
Preuve que la situation devient explosive, un récent rapport de Nozomi Networks – une entreprise américaine spécialisée dans la protection des réseaux industriels – affirme que les cybercriminels exploitent les capteurs industriels pour lancer des attaques. Selon ce spécialiste, « l’activité des botnets IoT s’est intensifiée au premier semestre 2022 ».
À l’instar de ce qui se passe avec l’informatique où des pirates prennent le contrôle d’ordinateurs (des botnets ou « réseaux zombie »), la finalité des capteurs industriels est également détournée par des cybercriminels pour lancer des attaques DDoS (Distributed Denial of Service, déni de service distribué). Le but est de paralyser l’activité d’un serveur ou d’une ressource web en le submergeant de requêtes.
Comme pour les entreprises, les industriels doivent renforcer leur niveau de sécurité afin d’assurer leur pérennité en appliquant des mesures simples, mais efficaces : mots de passe durcis, segmentation des réseaux, contrôle des accès.
En 2017, après dix années de travail chez Total, Vincent Piepiora décide de reprendre contact avec son ancienne école, Chimie ParisTech – PSL. Ses anciens professeurs lui présentent un nouveau catalyseur de méthanation capable de transformer du CO2 en méthane. Grâce à son expérience dans le domaine de l’énergie et du gaz, Vincent Piepiora est convaincu du potentiel de cette technologie. L’année suivante, il crée la start-up Energo avec l’ambition de développer le procédé puis de le commercialiser. Cet été, l’entreprise, qui compte à présent 8 salariés, vient de franchir une nouvelle étape en étant la première entreprise en France à injecter du gaz de synthèse dans le réseau gazier. Rencontre avec Vincent Piepiora, le fondateur et président d’Energo.
Techniques de l’Ingénieur : Présentez-nous la technologie développée par votre entreprise.
Vincent Piepiora, le fondateur et président d’Energo. Crédit Energo
Vincent Piepiora : Elle consiste à combiner une catalyse hétérogène classique, un procédé très répandu depuis plus de 100 ans pour fabriquer des molécules ou divers produits et qui fonctionne grâce à des catalyseurs dont la fonction est d’accélérer une réaction chimique, avec un plasma froid de type DBD (Dielectric Barrier Discharge). Ce dernier correspond à un état de la matière où l’on excite un gaz en l’ionisant grâce à un bombardement d’électrons à très faible puissance.
Au début de la création de l’entreprise, la technologie était encore au stade du laboratoire et transformait seulement une dizaine de litres de CO2 par heure. Il nous a fallu un an et demi de prototypage pour parvenir à une maîtrise suffisante nous permettant de concevoir un premier prototype démonstrateur semi-industriel en 2019. La principale difficulté de ce changement d’échelle a été de concevoir toute l’ingénierie électrique, mécanique, et l’écoulement des fluides pour fabriquer une cellule catalytique fonctionnant dans un environnement industriel.
Comment avez-vous testé votre démonstrateur ?
Depuis 2020, nous avons commencé à le construire sur une exploitation agricole située dans l’Oise et qui possède une unité de méthanisation. Notre démonstrateur vient capturer le CO2 présent dans le biogaz et l’associe avec de l’hydrogène produit sur place à l’aide d’un électrolyseur afin de fabriquer du méthane. À partir de 2021, nous avons mené des campagnes d’essai qui se sont finalisées cet été par l’injection du méthane de synthèse dans le réseau gazier. Les gaz de synthèse ne bénéficient d’aucun droit à l’injection. Nous avons obtenu une autorisation d’injection à titre expérimental du gaz produit, en association avec une équipe de GRT gaz et GRDF. Cette expérimentation nous a permis de valider la robustesse de notre technologie et son rendement. Ce démonstrateur transforme 2,5 m³ de CO2 par heure, pour une puissance de 30 KW de méthane.
Le démonstrateur semi-industriel construit sur une exploitation agricole située dans l’Oise, possède une unité de méthanisation. Crédit Energo
Quels sont les avantages de votre procédé ?
Notre technologie fonctionne à pression atmosphérique et à basse température (autour de 200 degrés), il est donc plus facile de dimensionner des équipements industriels, car il y a moins de contraintes, notamment sur le plan réglementaire. Le coût d’investissement et d’exploitation est aussi moins important.
Ensuite, étant donné que nous n’avons pas besoin de chauffer, le rendement global de notre procédé est toujours très important, avec une consommation d’énergie inférieure à 1 % comparée celle produite. Dans le cas de la méthanation, nous sommes au-delà de l’équilibre thermodynamique, avec un taux de conversion supérieur à 95 %.
Le procédé possède une meilleure sélectivité qu’une méthanation hétérogène classique puisqu’il produit quasiment uniquement du méthane, à 99,7 % pour être précis ; cela signifie qu’il n’y a pas de sous-produits qu’il serait nécessaire de séparer. Notre procédé est aussi insensible à la plupart des polluants, comme l’oxygène, l’humidité ou les COV (composés organiques volatils) ; il n’y a donc pas besoin de purifier le gaz à l’entrée.
Les catalyseurs ont un volume entre 70 à 100 fois plus petit que ceux actuellement employés dans l’industrie. Il s’agit d’un point très important, car des métaux plus ou moins nobles sont souvent utilisés pour fabriquer les catalyseurs. Étant donné que le réacteur est très petit, le coût de remplacement des catalyseurs est entre 70 et 100 fois plus faibles.
Enfin, le démarrage est quasi immédiat puisque dès qu’on allume le plasma, la réaction se fait dans la seconde.
Quels sont vos débouchés futurs de commercialisation de votre technologie ?
L’expérimentation que nous venons de réaliser avec le démonstrateur de méthanation a uniquement pour vocation de démontrer la validité de la technologie. D’un point de vue économique, transformer de l’électricité en hydrogène puis en méthane n’est pas rentable. Avec notre procédé de méthanation, notre objectif est de valoriser des déchets plastiques ou des déchets bois, en associant notre technologie à de la pyrogazéification, qui permet de produire du syngaz, un mélange de monoxyde de carbone et d’hydrogène, à partir duquel nous pouvons ensuite fabriquer du méthane.
Depuis un an, notre équipe s’est renforcée et compte de brillants chercheurs. En plus du méthane, nous travaillons à la fabrication d’autres molécules d’intérêts. Par exemple, sur des sites produisant du biogaz, notre technologie pourra également produire des biocarburants, comme du biométhanol, et d’autres biocarburants liquides.
Nous sommes aussi capables de transformer l’ammoniac, qui sera dans les 10 prochaines années, un vecteur pour le transport d’hydrogène. Dans le futur, ce gaz sera probablement fabriqué à bas coût dans des endroits du monde où l’ensoleillement est très élevé, comme dans le Sahara. Pour le transporter facilement jusqu’en Europe, l’hydrogène sera transformé en ammoniac puis acheminé sur notre continent. Grâce à notre technologie, nous pourrons gazéifier cet ammoniac en hydrogène à faible coût.
En début d’année prochaine, nous allons construire d’autres démonstrateurs pour démontrer la validité de notre technologie avec ces nouvelles molécules.
Les PFAS sont un fléau. Bien que l’usage du PFOA et du PFOS¹ soit restreint par la convention de Stockholm, les autres PFAS utilisés en remplacement sont malheureusement tout aussi néfastes, poussant un nombre croissant de scientifiques, d’ONG ainsi que les autorités sanitaires à tirer la sonnette d’alarme.
Les PFAS : des molécules polluantes omniprésentes dans l’environnement
En 2019, une étude de l’ANSES révélait que le PFOA et le PFOS avaient été détectés dans 100 % des 744 adultes et 249 enfants testés ! Ce n’est bien évidemment pas un problème français puisque 99 % des habitants de la planète présenteraient des traces de PFOA dans leur sang².
On retrouve même des PFAS jusqu’aux tréfonds de l’Arctique et dans les tissus des ours polaires ou des mammifères marins !
Le caractère bioaccumulable et persistant de ces molécules utilisées depuis les années 1940 n’est donc plus à prouver. Ces molécules doivent leur résistance à la présence d’une liaison entre atomes de carbone et fluor, réputée indestructible par la nature.
Une méthode de dépollution relativement simple
Dans un papier publié récemment dans la revue Science, les chimistes de l’université de Californie (UCLA) ainsi que leurs collègues américains et chinois proposent une solution de décomposition fonctionnant sur une douzaine de PFAS.
Ils ont démontré qu’en utilisant une eau chauffée entre 80 et 120°C ainsi que des solvants et réactifs courants, il était possible de déclencher une réaction chimique permettant de « grignoter » progressivement les PFAS sans émettre de produits nocifs.
La simplicité de mise en œuvre et l’absence de sous-produits nocifs permettent ainsi d’imaginer une utilisation en station de traitement des eaux potables.
La mécanique quantique au secours de la dépollution
Pour cette étude, les chercheurs ont utilisé des techniques expérimentales et des moyens de simulation avancés.
Les simulations ont notamment montré que les seuls sous-produits devaient être le fluorure, le CO2 et l’acide formique, ce qui a été confirmé par d’autres expériences.
Dans un communiqué de presse, Kendall Houk, co-auteur de l’article et professeur à l’UCLA précise l’importance de la simulation dans leurs travaux : « Cela s’est avéré être une série de calculs très complexes qui ont mis au défi les méthodes de mécanique quantique les plus modernes et les ordinateurs les plus rapides dont nous disposons ».
Puis il a ajouté : « La mécanique quantique est la méthode mathématique qui simule toute la chimie, mais ce n’est qu’au cours de la dernière décennie que nous avons été en mesure de nous attaquer à de grands problèmes mécanistes comme celui-ci, en évaluant toutes les possibilités et en déterminant laquelle peut se produire au rythme observé. »
Des travaux prometteurs
Si cette méthode permet pour le moment de dégrader le PFCA, le PFOA et les PFECA, les chercheurs pensent que celle-ci pourrait fonctionner sur la plupart des PFAS qui contiennent des acides carboxyliques.
Ils comptent désormais identifier les points faibles d’autres PFAS et espèrent que ces résultats encourageants pousseront d’autres chercheurs à tester de nouvelles méthodes de dégradation pour les milliers de PFAS.
[1] Les substances les plus connues de la famille des PFAS qui comporte plus de 4 700 molécules
Inutile d’envisager d’emblée de grands plans complexes et des investissements importants pour réduire sa consommation énergétique, car il existe des actions simples et à effet immédiat.
Des actions simples à effet immédiat pour toutes les entreprises
Éclairage nocturne
Ces derniers temps, l’éclairage nocturne des bureaux, commerces, vitrines ou enseignes, a fait beaucoup parler, à juste titre. Alors que l’éclairage est censé être interdit entre 1h et 6h du matin depuis plusieurs années, les consignes ont été peu suivies jusqu’ici et ces mesures n’ont jamais vraiment été respectées.
Les usages numériques peuvent aussi être adaptés. L’ADEME recommande :
de réduire la consommation des appareils informatiques (veille, gestion optimisée des serveurs…) ;
de limiter le nombre d’équipements ;
d’augmenter la température des salles de serveur et récupérer l’énergie fatale des serveurs ;
d’optimiser les usages (moins de vidéos, écoconception logicielle) ;
de réduire ou d’arrêter les systèmes audiovisuels non indispensables.
Chauffage et froid
Diminuer la température de chauffage de 1 degré peut réduire de 7% la consommation. L’ADEME préconise de ne pas dépasser 19°C pour les pièces occupées et 16°C hors période d’occupation. La température peut être abaissée à 8°C dans les pièces non occupées pendant plus de 2 jours.
Il est également recommandé de :
veiller à l’entretien des pompes à chaleur et climatisations réversibles ;
fermer les portes pour limiter les déperditions ou apports de chaleur ;
faire installer des portes sur les meubles frigorifiques dans les commerces alimentaires.
Enfin, l’impact énergétique de la climatisation peut aussi être fortement réduit, car passer d’une température de 22°C à 26°C divise par deux l’énergie consommée !
Quelques recommandations pour l’industrie
Outre les questions relatives au chauffage et à l’éclairage, les industriels sont également concernés, car dans les process industriels, certains postes sont connus pour être particulièrement énergivores.
Air comprimé
On estime à 30 % le taux de fuite moyen des installations d’air comprimé, alors qu’un taux de fuite de 10 % est atteignable¹. De plus, le rendement énergétique des compresseurs dépasse rarement les 20 %, 10 % dans le pire des cas !
Des actions simples peuvent être mises en place :
traquer et colmater les fuites ;
diminuer la pression des soufflettes à 2 bars ;
assurer une aspiration d’air frais en entrée ;
arrêter les compresseurs lors des périodes d’inactivité ;
veiller à l’entretien régulier des filtres.
Optimiser l’utilisation des équipements
Fours, séchoirs, installation de traitement thermique, de ventilation, sont des équipements énergivores qui peuvent être optimisés. Il suffit pour cela de :
régler les températures de consigne ;
optimiser les cycles pour effectuer un maintien en température ;
éviter les redémarrages ;
réduire les pressions des réseaux d’air ou de vapeur ;
mettre l’accent sur la maintenance, en vérifiant l’état des calorifuges.
La mobilisation des salariés est capitale
La mise en place de ces quelques actions simples peut permettre aux entreprises et aux industries de réduire leur consommation, ce qui est bienvenu dans ce contexte de crise énergétique et environnementale.
Néanmoins, l’efficacité de ces mesures dépend également de l’implication des salariés. Ceux-ci doivent être sensibilisés aux enjeux de l’efficacité énergétique et être conscients du coût des gaspillages.
L’ADEME recommande également la mise en place du télétravail lorsque c’est possible, afin de réduire la consommation de carburant et de chauffage. De même, les salariés sont incités à réduire l’impact de leurs déplacements, en privilégiant par exemple le covoiturage ou les transports en commun.
Big Data & AI Paris 2022 est le fruit du regroupement entre deux événements phares de la tech française et européenne : Big Data Paris, rendez-vous clé de la scène big data depuis dix ans, et AI Paris, événement dédié aux avancées de l’intelligence artificielle devenu incontournable en cinq éditions.
Lors de ces deux jours en totale immersion, venez découvrir une vision complète du sujet grâce à trois parcours de conférences complémentaires : stratégie, retour d’expérience et technique. Trouvez la réponse à vos problématiques métiers en échangeant avec les 250 exposants sur place et décelez les dernières technologies et solutions sur le marché à travers les nombreux ateliers et démonstrations.
Au programme cette année :
Les conférences, selon plusieurs parcours différents, comme les parcours “Retour d’expériences” et “Conférences stratégiques” (sur accès payant),
Les ateliers répartis en 6 salles, sous forme de sessions de 30 minutes,
Les sessions Tech qui permettent d’entrer en détails dans les technologies utilisées, pendant 45 minutes,
Les pitchs start-up sur deux scènes dédiées.
Cette année encore, le salon Big Data et IA 2022 vous invite à prendre part à ses trois grands Trophées de l’Innovation décernés dans la catégorie Start-up, la catégorie PME/Grandes entreprises et la catégorie Big Data & AI For Good afin de présenter les projets les plus audacieux et innovants.
La situation est inédite pour RTE, le gestionnaire du réseau de transport d’électricité en France et responsable de l’équilibre offre/demande. Il a présenté plus tôt que d’habitude sa traditionnelle analyse du passage de l’hiver, car le système électrique nécessite dès novembre une vigilance renforcée. Tout le monde s’inquiète en effet d’un possible recours à des coupures de courant et RTE tient à rassurer : ces délestages sont tout à fait évitables si les consignes de réduction de consommation sont adoptées par une majorité de Français.
Trois scénarios d’équilibre
Pour évaluer les risques, RTE a mené son analyse en combinant trois scénarios d’équilibre offre/demande et plusieurs configurations météo allant d’un hiver chaud à un hiver très froid. Les scénarios d’équilibre varient selon différents paramètres que sont le niveau de consommation, la production des différents parcs (nucléaire, hydraulique, solaire, éolien, centrales gaz, fioul et charbon), les moyens d’effacement de consommation (estimé à 3,9 GW) et les échanges transfrontaliers.
Le scénario dit « dégradé » se base sur un niveau de consommation d’électricité similaire aux années pré-Covid et un approvisionnement en gaz tendu au niveau européen qui limiterait la possibilité d’importer de l’électricité de pays voisins (moins de 6,5 GW). Le même effet serait atteint si la disponibilité du parc nucléaire restait basse (actuellement seuls 25 GW sont en fonctionnement et 36 GW sont immobilisés pour cause de maintenance, d’arrêts fortuits, de baisse de puissance ou d’économie de combustibles, et de contrôles ou de réparations en lien avec les problèmes de corrosions sous contrainte).
Le scénario « central » envisage aussi une consommation prolongeant la tendance actuelle, mais prévoit une meilleure disponibilité du parc nucléaire (45 GW en fonctionnement en janvier prochain) et un approvisionnement en gaz suffisant pour faire tourner des centrales électriques et bénéficier d’importations d’électricité de 9 à 12 GW.
Le scénario « haut » imagine une disponibilité encore plus grande du nucléaire (50 GW en janvier) ou une baisse plus importante de la consommation grâce au plan sobriété du Gouvernement.
Dans tous les cas, si la production hydroélectrique a souffert cet été à cause d’un moindre remplissage des stocks d’eau, RTE considère qu’il n’y aura pas forcément de déficit hydraulique cet hiver : l’hydroélectricité sera certes moindre que les années passées, mais les appels de pointe pourront être assurés. Côté nucléaire, la vision de RTE se base sur des données probabilistes qui se révèlent cohérentes (même si un peu moins optimistes) avec les prévisions d’EDF sur la remise en marche des réacteurs arrêtés. Elles confirment, au passage, que les marchés de l’électricité reflètent mal la remontée en puissance du parc nucléaire qui devrait avoir lieu, et que les niveaux de prix à terme devraient en ce sens être plus bas que les niveaux constatés actuellement.
Mobiliser les actions citoyennes
Si les conditions météo s’avèrent contraignantes (chaque degré en moins mobilise 2 400 MW de puissance électrique supplémentaire), RTE sera obligé de mettre en œuvre des mesures de sauvegarde. Les plus classiques, mais très rarement utilisées sont l’interruption d’alimentation d’une dizaine de gros consommateurs industriels (dans un cadre contractuel où ils sont rémunérés pour cela), la baisse de tension du courant de 5 % (relativement transparente pour les ménages) et, en dernier recours, les procédures de délestage. Ces dernières sont des coupures temporaires (deux heures maximum) et tournantes au niveau géographique. Ponctuelles, elles ne concerneraient sur tout l’hiver qu’un total de 10 à 30 heures selon les efforts de sobriété. Surtout, elles ne représentent en rien un black-out, a tenu à préciser plusieurs fois le président du directoire de RTE, Xavier Piechaczyk.
Pour éviter d’en arriver au délestage, RTE lance le dispositif Ecowatt au niveau national afin d’informer un maximum de Françaises et de Français des écogestes supplémentaires à adopter. En impliquant des entreprises, des collectivités, les médias, etc., l’alerte du niveau « Ecowatt rouge » devrait être entendue par une grande majorité. Que devra-t-on faire à ce moment, c’est-à-dire lors des situations les plus tendues ? Toutes les économies d’énergie sont les bienvenues, ainsi que le décalage des consommations pour éviter les périodes les plus délicates (le matin de 8 h à 13 h et le soir de 18 h à 20 h). RTE a chiffré trois actions ayant un important impact.
La baisse de la température de consigne du chauffage électrique d’un degré Celsius, voire deux, peut faire diminuer l’appel de puissance national de 2 à 2,9 GW le matin et le soir. Dans le tertiaire, un meilleur pilotage du chauffage des bâtiments est aussi bénéfique, de l’ordre de 1 à 2,5 GW le matin et de 0,6 à 1,8 GW le soir.
Remplacer les ampoules par des LED, baisser l’éclairage dans le tertiaire et éteindre les lumières présentent aussi un potentiel non négligeable de 0,5 à 1,5 GW.
La modération des appareils de cuisson peut faire gagner 10 % des 6 GW qui sont parfois appelés en hiver pour cet usage.
Au total, RTE estime que les effets de la sobriété et des décalages réguliers de consommation, cumulés à ceux du signal « Ecowatt rouge », peuvent engendrer une baisse de l’appel de puissance de 9 GW le matin et le soir. Soit environ 10 % du niveau de puissance typique du réseau électrique en hiver, ce qui sera crucial afin d’éviter des délestages. Le nombre de fois où ce signal sera activé dépend des conditions météo : dans beaucoup de cas ce sera seulement d’une à trois fois dans l’hiver, selon RTE ; mais dans les situations les plus dégradées, on pourrait monter jusqu’à une trentaine d’activations (voir tableau).
Tableau RTE hiver Ecowatt : Synthèse des différentes configurations possibles cet hiver. Source : RTE
Même si la réalité des tensions sur les approvisionnements en gaz (voir encadré) et de la disponibilité du parc nucléaire reste à vérifier, RTE se veut rassurant. Le gestionnaire fera d’ailleurs un point d’actualisation de son analyse tous les mois. Il en appelle à une action généralisée de solidarité des citoyens : si chacun fournit des efforts, les risques de coupures d’électricité seront plus facilement écartés pour tous.
Quel passage de l’hiver pour le gaz ?
Les gestionnaires des réseaux de transport de gaz, GRTgaz et Terega ont également fait part de leur vision pour l’hiver 2022-2023. En cas d’hiver avec des températures moyennes, le système gazier pourra équilibrer les entrées et les sorties de gaz (autour de 393 TWh), mais devra néanmoins mobiliser toutes les ressources (stockages, importations par réseaux et par terminaux méthaniers). Les stockages de gaz sont déjà remplis à 94 %, ce qui est une bonne nouvelle. Mais si des journées très froides interviennent en début d’hiver, ils seront très sollicités et les déficits de gaz seront alors de 65 GWh par jour. Si les pointes de froid surviennent en fin d’hiver, la situation pourrait être plus critique : en effet, la puissance de soutirage des stockages est de 85 GW jusqu’à un taux de remplissage de 45 % et décroît ensuite. Dans le cas où l’hiver serait globalement très froid, le déficit en gaz atteindrait 16 TWh, soit 5 % de la consommation hivernale. Un manque qui, selon les gestionnaires, est compensable par des actions de sobriété, par l’interruptibilité des industriels volontaires, ou par le délestage de grands consommateurs en dernier recours.
Depuis les années 1980, la stratégie française d’attaque massive sur feux naissants a fait ses preuves. Les surfaces boisées brûlées ont en effet été divisées par cinq entre les périodes 1980-1989 et 2015-2020. Malgré tout, la France doit se préparer à une évolution défavorable du risque, engendrée par le réchauffement climatique ainsi que par l’augmentation de la biomasse forestière. Ces deux dernières années, la France a connu trois des plus grands incendies ayant touché son territoire ces 40 dernières années. Et en 2050, les experts prévoient que près de 50 % des landes et des forêts métropolitaines pourraient être concernées par un risque incendie élevé, contre un tiers en 2010.
Le Sénat vient de publier un rapport d’information¹ relatif à la prévention et à la lutte contre l’intensification et l’extension du risque incendie. Les auteurs de ce rapport dressent ce constat initial : « Si l’efficacité de la stratégie française de lutte est un modèle en Europe et dans le monde, cet atout ne lui suffira plus à faire face à l’augmentation du risque incendie et notamment à l’émergence de feux hors normes ». Pour répondre à ce défi, 70 recommandations sont formulées dans le document et regroupées en 8 axes.
Face à son évolution rapide, les sénateurs recommandent d’élaborer une stratégie nationale interministérielle d’anticipation du risque. Le succès de cette stratégie repose sur une amélioration des connaissances et des données relatives aux feux de forêt et de végétation. C’est pourquoi l’une des mesures conseillées par les rapporteurs est de revenir sur les 500 suppressions de postes de l’ONF (Office national des forêts) prévues d’ici à 2025. Ceci, afin de « rétablir des postes d’agents de la protection de la forêt méditerranéenne et redéployer plus de personnels sur la défense contre les feux de forêt hors de cette zone. »
Inciter les propriétaires à débroussailler leurs terrains
En matière d’aménagement du territoire, un axe de prévention doit consister à mieux réguler l’interface entre la forêt et les zones urbaines pour réduire les départs de feux et la vulnérabilité. « Le débroussaillement constitue une mesure essentielle de prévention contre les incendies, permettant d’en diminuer l’intensité et d’en limiter la propagation », note le rapport. Sur le plan réglementaire, il existe des obligations légales de débroussaillement (OLD), mais celles-ci sont malheureusement trop peu appliquées, puisque le taux de réalisation est souvent inférieur à 30 %. Les sénateurs recommandent donc de rendre la franchise obligatoire dans les contrats d’assurance habitation en cas de non-respect des obligations légales de débroussaillement et d’accroître son montant au-delà de la limite maximale actuellement prévue.
Alors que la biomasse forestière augmente régulièrement depuis les années 1980, moins de la moitié de la croissance annuelle est prélevée. Or, gérer la forêt durablement constitue un des premiers pares-feux. Constatant que la forêt privée, qui représente les trois quarts de la forêt française, est insuffisamment gérée, l’une des mesures phares du rapport consiste à abaisser le seuil d’obligation des documents de gestion durable pour la forêt privée à 20 hectares, contre 25 à ce jour.
Au cours de leur travail d’auditions, les sénateurs ont observé que les maires souhaiteraient gérer davantage la forêt pour prévenir les feux, mais le fait que les propriétés sont très morcelées et possèdent de multiples statuts (forêt usagère, biens de section) complique leur tâche. Les rapporteurs préconisent donc « d’instaurer un droit de préemption des parcelles de forêt présentant un enjeu au regard de la défense des forêts contre l’incendie, au profit des communes s’engageant à intégrer la parcelle au régime forestier. »
Prescrire la réalisation des travaux agricoles la nuit
La mobilisation du monde agricole est aussi un axe important dans la prévention des incendies. En créant des discontinuités de végétation, les activités pastorales et agricoles jouent en effet le rôle de pare-feu protégeant la forêt. Sauf que cette interface forêt/terres agricoles est également exposée au risque. Les rapporteurs recommandent de permettre au préfet de prescrire la réalisation des travaux agricoles (moissons…) la nuit en cas de fort risque incendie.
Étant donné que 90 % des feux sont d’origine humaine, la sensibilisation des usagers est aussi un axe essentiel sur lequel il est important d’agir. Parmi leurs recommandations, les sénateurs conseillent de « mobiliser le budget des collectivités territoriales pour recruter, former et équiper des jeunes du Service national universel (SNU), afin de prévenir et de sensibiliser les usagers en forêt lors des périodes à risque. »
La lutte contre l’augmentation du risque incendie passera également par l’augmentation des moyens matériels pour y faire face. Car la flotte française semble aujourd’hui insuffisante pour relever ce défi. Il convient donc « d’augmenter le budget de la protection civile pour permettre l’acquisition de moyens aériens (avions et hélicoptères) à la hauteur du risque et s’appuyer, en tant que besoin, sur la location d’appareils », indique le rapport.
Enfin, lorsque ni la prévention ni la lutte n’ont permis d’éviter un sinistre, vient l’étape du reboisement, nécessitant une aide financière de l’État et une réflexion sur les essences à planter, qui doivent concilier adaptation à la station forestière et résistance aux incendies. Les sénateurs conseillent de « conditionner l’aide de l’État à des choix d’essences et de gestion adaptés au risque incendie (par exemple en maintenant des pares-feux, en expérimentant des corridors de feuillus ou une moindre densité de peuplement). »
¹ Le rapport d’information a été rédigé par les sénateurs et la sénatrice suivants : M. Jean Bacci, Mme Anne-Catherine Loisier, M. Pascal Martin et M. Olivier Rietmann
À l’origine, lorsque les chercheurs de l’Institut FEMTO-ST¹ ont commencé à développer un robot baptisé MiGriBot capable de manipuler des objets micrométriques, leur objectif était surtout de le miniaturiser. « Nous voulions participer à la transformation industrielle, et au passage à l’industrie 4.0, confie Redwan Dahmouche, maître de conférences à l’université de Franche-Comté et responsable de l’équipe de ce projet de recherche. En créant des systèmes de production miniaturisés, on réduit leur empreinte écologique en réalisant notamment des économies d’énergie, mais aussi en matériels et donc en ressources naturelles. » S’ils ont gagné leur pari, puisque la structure du robot n’occupe qu’une surface de 20 mm² par 20, ils ont aussi réussi à concevoir le robot de prise et de dépose le plus rapide au monde. Car en le miniaturisant, un robot va automatiquement plus vite, puisque sa vitesse est corrélée à sa masse.
MiGriBot tenant un composant de montre mécanique, rubis de 150 μm de côté. Crédit : université de Franche-Comté
MiGriBot est capable de réaliser 720 opérations complexes par minute. En sachant qu’une opération consiste à saisir un objet, le soulever, le déplacer, le reposer, le relâcher, puis à revenir à sa place initiale. En comparaison, les robots industriels de prise et dépose les plus rapides actuellement en service ne dépassent pas les 250 cycles par minute. Avant l’institut FEMTO-ST, d’autres équipes de recherche ont elles aussi tenté de développer un robot miniature très rapide. Par exemple, en 2018, le robot de l’université de Harvard égalait la vitesse de MiGriBot, mais ne possédait que trois degrés de mobilité et n’intégrait pas la fonction de préhension. Plus récemment, en 2020, l’université de Tokyo a conçu un robot capable d’effectuer les mêmes opérations que MiGriBot, mais sa vitesse ne dépasse pas 72 opérations par minute. « Le déplacement de ce robot est aussi limité à 60 micromètres, alors que MiGriBot se déplace sur une distance de 600 micromètres. Cela signifie que notre robot va 10 fois plus vite sur une distance 10 fois plus importante », souligne le chercheur.
Pour atteindre une telle performance, le robot MiGriBot possède plusieurs particularités. Tout d’abord, il s’agit d’un robot parallèle, puisqu’il possède quatre bras, par opposition aux robots sériels qui n’en possèdent qu’un seul. Grâce à cette architecture, il est possible de fixer tous les actionneurs à la base du robot, ce qui permet d’alléger toute la structure robotique. « L’intérêt ici est d’obtenir une structure mobile très légère, alors que s’il faut déplacer la structure mobile et l’actionneur, cela a pour effet d’augmenter sa masse et donc d’impacter sa vitesse », ajoute Redwan Dahmouche. Autre particularité : alors que chez tous les robots, la pince est un élément extérieur qu’il est nécessaire d’ajouter, ici le bras intègre d’office cet outil. « En intégrant la pince au niveau de la structure robotique, nous sommes parvenus à encore davantage alléger la structure mobile ».
MiGriBot tenant un axe de mouvement d’horlogerie. Crédit : université de Franche-Comté
Les chercheurs ont aussi dû résoudre un obstacle, celui de l’articulation mécanique, puisqu’à cette échelle, il n’en existe tout simplement pas. Face à cette difficulté, ils ont créé une articulation miniature en polymère (le polydiméthylsiloxane – PDMS). Quant aux actionneurs, ils ont aussi la particularité d’être piézoélectriques, ce qui les rend plus rapides. Au final, MiGriBot est capable de manipuler des micro-objets à peine visibles à l’œil nu allant de 40 micromètres à plusieurs centaines de micromètres. Grâce à sa vitesse et à sa compacité, plus de 2 000 robots peuvent être placés sur 1 m² pour réaliser plus d’un million d’opérations par minute.
Des applications dans l’industrie horlogère, l’instrumentation médicale et l’aérospatial
Ce robot servira à assembler des systèmes micro-électro-mécaniques et optiques, de types MEMS (Microsystèmes électromécaniques) et MOEMS (Microsystèmes opto-électro-mécaniques), utilisés dans l’industrie de l’électronique où les besoins en cadence de travail sont de plus en plus élevés. Il pourra permettre d’augmenter les cadences afin d’améliorer la productivité et la compétitivité des industriels, ce qui pourra favoriser la relocalisation de la production en Europe, en Amérique du Nord et dans les pays à haut coût de main-d’œuvre. Des applications dans l’industrie horlogère, l’instrumentation médicale, l’aérospatial, ainsi que dans d’autres domaines sont aussi possibles.
MiGriBot tenant une petite fleur. Crédit : université de Franche-Comté
Pour l’instant, il s’agit d’un prototype de laboratoire, classé au sixième rang sur l’échelle TRL (Technology readiness level) qui en compte neuf. Le passage au stade industriel devra être réalisé par une start-up ou un industriel. En attendant, le laboratoire FEMTO-ST va poursuivre ce travail de recherche. « L’une des pistes va être de l’adapter pour aller dans le domaine des nanotechnologies, afin d’assembler des nanocapteurs. Actuellement, ce robot est équipé de quatre rallonges qui ont pour fonction d’amplifier ses mouvements. En les retirant, nous aurons les mêmes mouvements, mais 10 fois plus précis, et beaucoup plus rapides, mais aussi avec une amplitude 10 fois moins importante, c’est-à-dire de 60 micromètres », déclare Redwan Dahmouche.
(1) L’institut FEMTO-ST est une unité mixte de recherche, placée sous la tutelle principale du CNRS et de l’Université Bourgogne Franche-Comté (UBFC) et aussi de l’université de Franche-Comté (uFC), de l’École Nationale Supérieure de Mécanique et des Microtechniques (SUPMICROTECH-ENSMM) et de l’Université de Technologie Belfort-Montbéliard (UTBM)
Le risque n’existe pas encore, mais ce sera certainement le cas dans moins de dix ans ! Avec l’arrivée des ordinateurs quantiques, nos échanges sur l’Internet et toutes les données sensibles qui sont stockées dans le cloud ou sur des serveurs seront décryptables.
En 1994, l’informaticien américain Peter Shor¹ a montré qu’avec un ordinateur quantique, on pouvait factoriser des nombres premiers qui auront des milliers voire des millions de chiffres. Une avancée majeure, mais aussi très angoissante. Alors que les meilleurs algorithmes actuels ont besoin de millions de millions d’années pour factoriser un nombre de 600 chiffres, un ordinateur quantique ne mettrait que quelques… minutes.
En clair, toutes les données critiques des entreprises et des administrations n’auraient plus de secrets pour les États maîtrisant l’informatique quantique ! Face à ce danger, la communauté scientifique travaille depuis plusieurs années sur des solutions permettant d’assurer la confidentialité des données.
Deux pistes sont retenues : la cryptographie quantique et la cryptographie post-quantique. La première permet de transporter des clés de sécurité sans qu’elles soient violables pendant leur transport. La seconde a pour objectif de se prémunir des capacités de déchiffrement que l’algorithme de Shor donnera aux possesseurs d’ordinateurs quantiques.
Accord de licence CNRS-NIST
D’où la décision du National Institute of Standards and Technology de lancer, en 2017, un appel international à contributions afin d’identifier les meilleurs candidats aux futurs standards de cryptographie post-quantique. Au final, cette agence gouvernementale américaine n’en a retenu que quatre.
La solution Crystals-Kyber a été retenue pour le chiffrement et l’échange de clés, tandis que Crystals-Dilithium, Falcon et Sphincs+ ont été validés pour la signature. Et les chercheurs français sortent largement du lot.
En particulier, deux des solutions finalistes pourraient s’appuyer sur des familles de brevets déposées dès 2010 par les enseignants-chercheurs Philippe Gaborit et Carlos Aguilar-Melchor (Université de Limoges et laboratoire CNRS Xlim), et détenues conjointement par le CNRS et l’Université de Limoges.
« Soucieux de l’intérêt général d’un processus de standardisation à vocation mondiale, le CNRS et l’Université de Limoges, soutenus par France Brevets, se sont entendus sur les termes d’un accord de licence (signé le 5 juillet 2022, NDLR) dont les parties prenantes se félicitent. L’accord permet ainsi de valoriser une propriété intellectuelle issue des résultats de la recherche publique française », explique le CNRS dans un communiqué annonçant cet accord avec le NIST.
Un algorithme déjà craqué !
De son côté, l’équipe Crystals (qui a développé deux protocoles de cryptographie distincts) compte des scientifiques majoritairement européens, dont Damien Stehlé, enseignant-chercheur en informatique à l’École normale supérieure de Lyon.
Falcon a été conçu par dix scientifiques de l’université de Rennes, l’université Brown (États-Unis), IBM, NCC Group, Thales et OnBoard Security. Quant à Sphincs+, il a été créé par dix-neuf chercheurs européens (Pays-Bas, Allemagne, Autriche, Belgique, Danemark), l’université de l’Illinois à Chicago, l’Academia Sinica (Chine), mais aussi par des équipes appartenant à des entreprises parmi lesquelles Cisco Systems, Google et Cloudflare.
La preuve, début août, des chercheurs de l’université belge KU Leuven (Katholieke Universiteit Leuven) ont annoncé avoir craqué SIKE (Supersingular Isogeny Key Encapsulation), l’un des quatre algorithmes de chiffrement recommandés par le NIST. Sans utiliser un ordinateur quantique, mais un PC avec un seul cœur d’un processeur Intel Xeon, sorti en 2013…
En un mot, le NIST a privilégié la facilité d’usage au détriment d’une réelle sécurité à long terme.
Votée pendant l’été, la loi Pouvoir d’achat prévoit de nombreuses dispositions pour protéger les Français face à la crise énergétique et assurer la sécurité d’approvisionnement pour l’automne et l’hiver prochain. Mais le Réseau action climat, fédération de 26 associations nationales et 10 associations locales impliquées dans la lutte contre le changement climatique, dénonce pour sa part des « mesures climaticides », qui font la part belle aux énergies fossiles.
La loi prévoit en effet la possibilité de maintenir ou de réactiver les deux dernières centrales à charbon. Si celle de Cordemais (Loire-Atlantique) est encore en activité, celle de Saint-Avold (Moselle) a fermé en mars 2022 et pourrait redémarrer provisoirement. Elle prévoit surtout l’installation d’un terminal méthanier flottant au large du Havre, grâce à des dérogations aux règles environnementales. Selon l’article 30 de la loi, son exploitation est pour l’instant bornée à une durée maximale de cinq ans.
Un projet méthanier pour 2023
Le projet permettra d’injecter « jusqu’à 5 milliards de m³ de gaz naturel par an dans le réseau national » soit « environ 60 % du gaz russe importé par la France en 2021, ou environ 10 % de la consommation annuelle française », explique la Préfecture de la Seine-Maritime dans un communiqué.
Les premiers travaux d’aménagement du quai et de construction de la canalisation de raccordement, conduits respectivement par TotalEnergies et GRTgaz, devraient démarrer à l’automne 2022, sous réserve d’obtention des autorisations administratives nécessaires. Ils devraient s’achever à l’été 2023, pour une mise en service à partir de septembre 2023.
Si l’exploitation devait déroger aux règles environnementales, l’exploitant du terminal devrait toutefois fournir une étude sur les impacts environnementaux associés à l’exploitation du terminal méthanier flottant comprenant les émissions de gaz à effet de serre directes et indirectes, atteintes à la biodiversité et de consommation d’eau et d’autres ressources naturelles, dans un délai de six mois à compter de sa mise en service.
Des dérogations conditionnées par le Conseil d’État à une réserve inédite
Saisi par deux recours émanant respectivement de plus de soixante députés et de plus de soixante sénateurs, le Conseil d’État autorise les deux dispositions par sa décision n°2022-843 DC du 12 août 2022. Il a toutefois eu recours à une « réserve d’interprétation formulée en des termes inédits », selon ses propres mots. Cette solution permet de valider la disposition, mais à condition qu’elle soit interprétée ou appliquée de la façon indiquée par le Conseil d’État dans sa décision.
Ainsi, le Conseil d’État juge que « la préservation de l’environnement doit être recherchée au même titre que les autres intérêts fondamentaux de la Nation ». Par ailleurs, « les choix destinés à répondre aux besoins du présent ne doivent pas compromettre la capacité des générations futures et des autres peuples à satisfaire leurs propres besoins ».
C’est pourquoi les dérogations au Code de l’environnement pour le terminal gazier ne pourraient être appliquées qu’en cas de « menace grave sur la sécurité d’approvisionnement en gaz ». Le rehaussement du plafond d’émissions de gaz à effet de serre applicable à certaines installations de production d’électricité, nécessaires pour l’exploitation des centrales au charbon, ne pourrait pour sa part advenir « qu’en cas de menace sur la sécurité d’approvisionnement en électricité de tout ou partie du territoire national ».
Le Réseau Action Climat regrette une « totale dérogation avec le droit commun ». La fédération d’ONG regrette la mise en place d’une infrastructure qui « pose inévitablement des risques directs pour la sécurité et la santé des travailleurs et des habitants, alors même que les terminaux méthaniers sont régulièrement le théâtre d’accidents graves ».
Faut-il en priorité lutter contre l’inflation ou contre le bouleversement climatique ? Les Français sont-ils prêts à faire des efforts pour passer une période de pénurie énergétique ? Afin de répondre à ces questions, l’association Destin Commun a réalisé une enquête auprès d’un échantillon de 2 193 personnes représentatif de la population française. Son analyse de la situation repose sur un précédent travail qu’elle a mené pour montrer les fractures au sein de la société française, divisées en six types de famille : les Militants désabusés, les Stabilisateurs, les Libéraux optimistes, les Attentistes, les Laissés pour compte et les Identitaires.
Des privations face à l’inflation
La complexité du monde actuel plonge la population dans l’incertitude. Après la crise sanitaire qui a fragilisé les économies mondiales, la guerre en Ukraine se superpose à une crise majeure d’approvisionnement en énergie et en matières premières agricoles. S’ajoutent les effets du changement climatique, durement éprouvés cet été, entre canicules, sécheresses et incendies. Difficile dans ce contexte d’y voir clair pour l’avenir, ces crises se traduisant aujourd’hui par une forte inflation. Les Français ont d’ailleurs du mal à comprendre la hausse des prix (65 % d’entre eux) alors que ce phénomène semble mieux saisi dans d’autres pays (Pologne, Allemagne, Royaume-Uni). La Russie est accusée par les Français de causer la spirale inflationniste, mais quasiment au même niveau que le gouvernement français et les entreprises du secteur de l’énergie et du pétrole. Cette défiance envers les acteurs politiques et économiques est complétée d’une suspicion un peu moins forte, mais néanmoins réelle envers le monde de la finance, de l’Union européenne, voire de groupes d’intérêts cachés.
Il n’en reste pas moins que la hausse des prix pèse sur le quotidien des Français dont 57 % disent éprouver des difficultés et 16 % se jugeant en grande difficulté. 85 % des interrogés sont donc inquiets de l’impact économique de l’inflation. Les plus fragiles sont les plus touchés et multiplient les privations, notamment en restreignant leur budget énergie et transport, en réduisant les loisirs, en modifiant leurs vacances, en achetant des produits alimentaires de moins bonne qualité, en sautant des repas ou en repoussant des soins médicaux (voir graphe). Six Français sur dix pensent aussi devoir limiter leur chauffage l’hiver prochain. Face à cette crise qui leur semble durable, 65 % d’entre eux pensent que le climat social va se dégrader, avec des grèves de grande ampleur dans les prochains mois. 40 % se disent même très favorables à la reprise du mouvement des Gilets jaunes.
Réponses du panel de Français à la question «S’agissant de votre foyer, parmi les actions suivantes, quelles sont celles auxquelles vous avez recours pour faire face à l’augmentation du coût de la vie?» (plusieurs réponses possibles).
Approche équitable de la sobriété
Parmi les causes de la crise, les Français identifient également la dépendance aux énergies fossiles, particulièrement chez ceux que Destin Commun qualifient de Militants désabusés et de Stabilisateurs. Certaines idées proches de théories du complot apparaissent aussi chez les Identitaires et les Laissés pour compte, qui estiment que l’augmentation du prix du pétrole et du gaz fait partie d’un plan gouvernemental pour forcer le passage aux énergies renouvelables (respectivement à 68 % et 56 %).
Néanmoins, une majorité de Français en appelle à l’intervention de l’État soit pour sauvegarder le pouvoir d’achat (hausse des salaires, bouclier tarifaire sur l’électricité et le gaz, plafonnement des factures d’énergie, prolongation de la remise à la pompe), soit pour aller dans le sens de la transition écologique (gratuité ou baisse des prix des transports publics, prime ou prêts à taux zéro pour investir dans des dispositifs d’économies d’énergie). 72 % souhaitent aussi une accélération du développement des énergies renouvelables. Cette reconnaissance des énergies vertes fait toujours l’objet d’un clivage avec un appel parallèle à l’énergie nucléaire plus ou moins fort selon les orientations politiques.
À l’inverse, l’idée de rationnement énergétique est la moins plébiscitée. À l’heure où la Première ministre Élisabeth Borne lance un plan de sobriété, le principe de limiter la consommation a encore du mal à passer. En écho aux propos controversés du Président sur « la fin de l’abondance », on voit que se joue là un enjeu de justice sociale et de redistribution des richesses : 48 % des personnes interrogées pensent que ce sont les plus riches qui doivent faire le plus d’efforts. D’ailleurs, l’enquête montre que les Français sont favorables à une augmentation des impôts sur les bénéfices des entreprises dans le domaine de l’énergie (à 73 %) et pour les personnes ayant des revenus élevés (à 67 %).
Pour finir, le jugement des Français est ambivalent sur la priorité à accorder au pouvoir d’achat ou au climat. 40 % d’entre eux sont d’accord pour repousser les engagements sur le climat, le temps d’aider les gens à affronter l’augmentation du coût de la vie. Mais 60 % des Français reconnaissent qu’en s’éloignant des objectifs climatiques, on ne ferait que maintenir notre dépendance à des pays comme la Russie et on ne ferait que décaler dans le temps la hausse des factures d’énergie. Une situation qui paraît inextricable, mais qui pourrait trouver une issue dans le regain d’intérêt des Français pour une réponse collective (à 44 % soit +7 points par rapport à fin 2021).
Nicolas Sangouard est physicien-chercheur CEA et travaille à l’institut de physique théorique. Il est spécialiste de l’optique et de l’information quantique et participe notamment aux développements des communications quantiques et du calcul quantique.
Techniques de l’Ingénieur : Même si l’ordinateur quantique n’est pas encore une réalité, les entreprises et les états doivent anticiper ces menaces dès maintenant ?
Nicolas Sangouard : Si l’on se réfère à la technologie développée par Google ou IBM, il faudrait un ordinateur quantique avec des millions de qubits pour déchiffrer ces protocoles. Or, d’ici la fin de cette année, IBM prévoit de lancer une machine quantique avec un peu plus de 1 000 qubits. Il faudra donc encore plusieurs années avant que l’ordinateur quantique ne soit capable de réaliser une telle tâche. Mais les physiciens et les ingénieurs travaillent activement sur ce problème de montée en échelle.
En particulier, nous avons déjà démontré que si l’on disposait d’une mémoire quantique (utilisée notamment pour les communications quantiques), nous pourrions casser le système RSA avec un processeur quantique qui ne disposerait plus que de 10 000 qubits. Pour passer de 1 000 à 10 000 qubits, l’échelle de temps se réduit considérablement par rapport à la montée en échelle vers des millions de qubits.
Par ailleurs, il y a des données, en particulier celles liées à la santé, que nous souhaitons conserver sur une très longue période. Actuellement, nous ne pouvons pas garantir la sécurité de ces données contre des attaques quantiques lorsqu’elles sont transmises entre mon généraliste et un hôpital par exemple. Je ne sais pas combien de temps il faudra pour développer un ordinateur quantique de grande taille. Mais étant donné les progrès auxquels nous avons assisté ces dernières années, je peux imaginer que d’ici 5 ou 10 ans, nous pourrons disposer d’une telle machine capable de casser la sécurité des protocoles actuellement utilisés. Cela signifie que si mes données de santé sont conservées cryptées jusqu’à ce qu’un ordinateur quantique soit disponible, elles pourront être publiquement révélées dans 5 ou 10 ans. Voilà une technologie qui n’existe pas encore, mais qui représente déjà une menace aujourd’hui.
C’est la raison pour laquelle la mise en œuvre d’un nouveau concept de distribution quantique de clés a été lancée il y a 5 ans ?
L’idée même d’utiliser du quantique pour sécuriser les communications date des années 1980. Et en 1991, l’idée est apparue sous une formulation qui est très proche de l’expérience que nous avons réalisée. Pour comprendre l’idée sous-jacente à la cryptographie quantique, il faut s’appuyer sur la notion d’intrication. Quand deux particules sont intriquées, un principe quantique indique que, lorsqu’on mesure une particule, on va obtenir un résultat aléatoire. Lorsqu’on mesure la seconde particule, on obtient un résultat qui est aussi localement aléatoire, mais parfaitement corrélé au résultat de la première mesure. Ce principe permet d’obtenir une clé ; si l’on répète cette mesure, on obtient deux chaînes de résultats imprédictibles parfaitement corrélés. Cette clé quantique peut ensuite être utilisée pour crypter et décrypter des messages.
Quels sont les avantages de cette distribution des clés ?
Premièrement, la sécurité d’un chiffrage et déchiffrage de données avec cette clé ne repose pas sur la difficulté à résoudre des problèmes mathématiques comme dans le cas de RSA ou de Diffie-Hellmanle. La sécurité est basée sur un principe quantique : celui de la mesure d’états intriqués. Deuxièmement, la sécurité est garantie même lorsque la provenance et le fonctionnement des appareils utilisés pour obtenir la clé ne sont pas connus. En effet, la sécurité repose sur la capacité à démontrer que les personnes qui veulent obtenir une clé disposent d’un état intriqué. Et avec un test dit de Bell, nous pouvons certifier qu’un état est intriqué sans connaître le fonctionnement des appareils utilisés pour générer cette clé. C’est tout l’aspect novateur de nos recherches qui apporte une double sécurité. Nous pouvons non seulement avoir un protocole de cryptographie qui soit très sécurisé, y compris contre des attaques quantiques, mais nous pouvons aussi avoir une sécurité même lorsque les appareils utilisés par un banquier par exemple ne sont pas bien caractérisés et dont le niveau de confiance n’est pas précisé. Si les appareils ne fonctionnent pas correctement, notre protocole ne fonctionnera pas et il indiquera aux utilisateurs qu’ils ne doivent pas les utiliser.
La prochaine étape sera de proposer un système commercialisable, notamment en rallongeant la distance entre les deux appareils avec des systèmes photoniques ?
L’expérience que nous avons mise en place est très compliquée. C’est un prototype, réalisable dans un très petit nombre de laboratoires dans le monde. Pour la commercialisation, nous avons besoin de réaliser cette cryptographie avec des éléments plus simples. D’où l’idée d’utiliser des appareils photoniques commerciaux qui existent depuis des décennies et qui sont capables de générer et de mesurer cette intrication. L’objectif est double : avoir accès à des systèmes beaucoup plus faciles à intégrer dans des réseaux de communication, mais aussi qui permettent d’avoir accès à des taux de clés plus élevés et à des distances plus grandes. Cela va encore demander des années de développement. Les plans quantiques nationaux et européens nous aident à atteindre cet objectif ambitieux.
L’annonce du CEA intervient au moment où le NIST a dévoilé les solutions retenues pour résister au quantique. Votre solution est-elle complémentaire ?
Dans ce champ de recherche, les Européens sont à la pointe, que ce soit pour la cryptographie post-quantique (retenue par l’agence américaine NIST) ou la cryptographie dite quantique comme celle dont nous discutons dans cet entretien. Ces deux voies sont complémentaires, car le post-quantique repose sur des problèmes mathématiques, comme RSA et Diffie-Helmann. Notre solution offre davantage de sécurité et elle est particulièrement adaptée pour sécuriser des données très sensibles sur des périodes très longues. Mais elle est plus difficile à mettre en place.
Un « compteur Linky » du déchet. C’est, en substance, ce qu’a mis au point la start-up toulousaine Akanthas, créée en 2021. « Notre objectif était de digitaliser la production de déchets. La solution que nous avons développée permet ainsi de monitorer tout ce qui est déposé dans une benne. Comme on pourrait le faire avec un compteur connecté pour l’électricité, l’eau ou le gaz, nous venons capturer l’information, mais aussi la transformer et l’analyser afin de permettre aux acteurs du secteur de prendre les meilleures décisions possibles », résume Viviana Contreras Moreno, CEO et co-fondatrice d’Akanthas.
Un capteur connecté
La solution repose ainsi sur un capteur intelligent – et autonome – permettant aux exploitants d’installations de production, de collecte ou de traitement des déchets d’obtenir des informations telles que le taux de remplissage de leurs bennes, la nature des déchets qui y sont déposés, ou encore la présence éventuelle d’éléments indésirables. Un capteur développé par la start-up elle-même, comme le souligne Viviana Contreras Moreno : « En testant, au départ, un matériel disponible sur étagère, nous nous sommes très vite rendu compte qu’il était limitant, notamment sur le plan de l’efficacité énergétique. Nous avons donc conçu notre propre capteur ».
À la manière d’un appareil photo, le dispositif développé par Akanthas réalise un timelapse du contenu des bennes au-dessus desquelles il est installé. Capturées à un rythme régulier, les images sont ensuite analysées via des algorithmes d’intelligence artificielle. « Nous faisons appel à plusieurs modèles d’IA. Ces modèles utilisent les images, mais sont aussi basés sur des données temporelles. Ils permettent donc une interprétation, mais aussi une prédiction », précise Viviana Contreras Moreno.
Des performances déjà élevées, et en constante progression
Le dispositif atteint une précision d’environ 90 % en ce qui concerne la mesure du taux de remplissage des bennes. La reconnaissance des matières reste quant à elle en phase de calibration, comme l’explique la co-fondatrice de l’entreprise : « les performances du système dans ce domaine s’enrichissent au fil du déploiement de la solution auprès de différents clients. Le capteur détecte déjà les principales familles de déchets, mais il reste une marge de progression ». La jeune pousse toulousaine s’est ainsi tournée vers IFP Énergies nouvelles (IFPEN), un acteur majeur de la recherche dans les domaines de l’énergie, du transport et de l’environnement. L’ex-Institut français du pétrole a en effet développé une expertise toute particulière dans le domaine de l’IA et du traitement d’image ; expertise qu’IFPEN va donc mettre à disposition d’Akanthas dans le cadre de son dispositif de soutien à l’innovation des PME et startups. « Cet accompagnement est un réel avantage pour nous, puisqu’il nous permet d’accélérer nos développements autour de l’IA et de l’élargissement des types de matériaux détectés », explique Viviana Contreras Moreno.
Après le bois, le carton ou encore le plastique, la start-up travaille ainsi à la détection de déchets plus spécifiques tels que les isolants ou les plaques de plâtre. De quoi élargir la palette des secteurs auxquels sa solution se destine. « Nous avons une approche sectorielle. Nous travaillons aussi bien avec les producteurs de déchets professionnels, comme le secteur de la manufacture, de l’agroalimentaire, de la construction… qu’avec des opérateurs de gestion des déchets, c’est à dire des collecteurs et recycleurs qui prennent en charge ces déchets pour les valoriser », détaille Viviana Contreras Moreno. Un an après sa création et le déploiement de ses premiers pilotes, l’entreprise compte ainsi déjà six clients. « Nous espérons, d’ici la fin de l’année, dépasser les dix clients, ce qui devrait impliquer le monitoring de deux à trois cents contenants », dévoile la CEO d’Akanthas.
Une offre sur abonnement
Côté modèle économique, Akanthas mise sur l’abonnement, évitant à ses clients des investissements au niveau matériel. La start-up propose ainsi un forfait mensuel incluant le capteur ainsi que les services d’analyse des données qui lui sont associés. Un abonnement qui comprend également les opérations de maintenance nécessaires au bon fonctionnement de la solution, et dont le montant varie en fonction du nombre de bennes ou d’alvéoles de stockage de déchets équipées. « Nous offrons une solution clé en main, très personnalisable en fonction des besoins spécifiques du client », souligne Viviana Contreras Moreno.
Et outre cet abonnement mensuel, Akanthas propose une offre d’accompagnement plus ponctuelle, comme le détaille sa co-fondatrice : « Nous travaillons aussi en mode diagnostic. Cela s’étale en général sur huit semaines, au cours desquelles nous venons installer le matériel puis monitorer l’activité afin d’identifier ce qui ne va pas et émettre ainsi, grâce à notre système et son IA, des recommandations d’actions concrètes. Cela permet de conseiller les acteurs sur les meilleures pratiques, les actions les plus pertinentes à mettre en place sur le terrain ».
Convaincue que les déchets constituent une ressource loin d’être exploitée à 100 %, la dirigeante de la start-up compte ainsi, avec sa solution, agir directement à la source pour les valoriser au mieux. « Une benne sur deux partant des sites industriels et des chantiers voit une partie de son contenu enfouie ou incinérée alors qu’il y a des déchets valorisables à l’intérieur », affirme Viviana Contreras Moreno, soulignant les conséquences financières, mais aussi environnementales que cela engendre. « Nous venons agir à la fois sur la partie financière, opérationnelle, mais aussi environnementale, en permettant le développement de démarches plus durables, intégrées dans l’économie circulaire », conclut la co-fondatrice d’Akanthas.
De quoi « ôter une épine du pied » des acteurs du déchet… « Les déchets sont souvent vus comme tels par l’ensemble des parties prenantes. Notre objectif est donc de venir enlever cette “épine”, d’où le nom de l’entreprise, Akanthas, qui en est la traduction grecque », glisse finalement la dirigeante de la jeune entreprise dont le logo n’est autre qu’un hibou au regard perçant. Un autre symbole utilisé cette fois comme métaphore des performances de son capteur en matière de vision.
Ces travaux ont été réalisés dans le cadre du projet européen SUN-to-LIQUID (H2020 n°654408), dont l’objectif est d’effectuer la mise à l’échelle du processus de production de combustible solaire. Ils marquent un tournant dans la production de kérosène synthétique « propre », notamment pour l’aviation.
Tour solaire en fonctionnement (crédit: IMDEA Energy)
Rendre le secteur de l’aviation plus propre : un défi de taille
On estime que le secteur de l’aviation est responsable d’environ 5 % des émissions anthropiques mondiales de gaz à effet de serre, notamment en raison du CO2 issu de la combustion du kérosène. Par ailleurs, le réchauffement serait également aggravé par le fort pouvoir radiatif des traînées de condensation.
Au-delà de la question du réchauffement climatique, le trafic aérien est également responsable d’une importante pollution de l’air aux particules fines et au NOx (oxydes d’azote). Malheureusement, les mesures actuelles visant à réduire les émissions de CO2 (amélioration de l’efficacité énergétique, agrocarburants, etc.) provoquent une augmentation des émissions de NOx, un effet pervers qui pousse certains chercheurs à préconiser de faire l’inverse, pour des raisons de santé publique !
Si elle ne permet pas d’éliminer le problème de la pollution de l’air ou de se passer des traînées de condensation, l’utilisation de kérosène solaire a au moins le mérite de réduire l’impact sur le réchauffement climatique en se rapprochant d’une certaine neutralité carbone.
Dans un communiqué de presse, Aldo Steinfeld, professeur à l’ETH Zurich, explique : « Grâce à notre technologie solaire, nous avons montré que nous pouvions produire du kérosène synthétique à partir d’eau et de CO2 au lieu de le tirer des combustibles fossiles. La quantité de CO2 émise lors de la combustion du kérosène dans un moteur à réaction est égale à celle consommée lors de sa production dans l’installation solaire. »
Une usine pilote installée en Espagne
C’est en 2017 qu’a commencé la construction de l’usine pilote permettant de démontrer la faisabilité industrielle du procédé. Celle-ci est composée de 169 panneaux réfléchissants (il ne s’agit donc pas de panneaux solaires !) qui redirigent les rayons solaires vers un dispositif appelé réacteur solaire, situé au sommet d’une tour.
Le processus complet est décrit dans un papier publié dans Joule. L’énergie solaire collectée entraîne une succession de réactions thermochimiques de type redox rendues possibles par la présence d’une structure poreuse en oxyde de cérium. Cet oxyde de cérium (qui n’est pas consommé) permet ainsi la conversion de l’eau et du CO2 en gaz de synthèse (syngas) qui est envoyé dans un convertisseur gaz-liquide pour être transformé en carburant liquide.
Un carburant compatible avec les infrastructures aéronautiques existantes
M. Steinfeld, auteur correspondant de l’étude, précise que « cette usine de carburant à tour solaire a été exploitée avec une configuration adaptée à une mise en œuvre industrielle, posant ainsi un jalon technologique vers la production de carburants d’aviation durables. »
Pour le moment, les rendements ne sont pas encore optimisés, loin de là, le rendement observé sur une moyenne de 9 jours de fonctionnement ne dépassant pas 4 %. Les chercheurs travaillent maintenant sur l’optimisation de la structure en oxyde de cérium et développent des méthodes de récupération de la chaleur libérée pendant les cycles d’oxydoréduction.
Entre mai et août 2022, l’ensemble de la production solaire photovoltaïque européenne s’est élevée à 99,4 térawattheures (TWh), en hausse de 28 % par rapport à la même période en 2021. Le solaire photovoltaïque a ainsi assuré sur l’été 12 % de la production électrique de l’Union européenne. C’est plus que l’éolien (11,7 %), que l’hydroélectricité (11 %), mais toujours moins que le charbon (16,5 %). Les analystes du think tank Ember estiment dans un nouveau rapport que cela a permis d’éviter l’importation de 20 milliards de mètres cubes de gaz, soit 29 milliards d’euros d’importations de gaz, au prix actuel.
18 des 27 pays de l’UE ont enregistré de nouveaux records de production solaire cet été. Le solaire prend une part particulièrement importante de la production électrique sur la période aux Pays-Bas (23 %), en Allemagne (19 %) et en Espagne (17 %). Les Pays-Bas remportent la première place, malgré une irradiation du pays plus modeste en tant que pays plus septentrional. Et ce, grâce à une augmentation de 30 % de la capacité installée en 2021, de 11 à 14 gigawatts (GW), note Ember. La France atteint aussi un record, mais reste en retard, avec une part de solaire de 7,7 % dans sa production électrique, derrière la Pologne (8 %).
Miser sur des plans de développement solaire
Alors que les prix du gaz explosent et atteignent leurs propres records cet été, miser sur des plans de développement solaire pourrait finalement s’avérer économique. Le contrat à terme du TTF¹ néerlandais, référence du marché européen du gaz naturel, s’est en effet négocié à son plus haut niveau historique, soit 313 € par mégawattheure (€/MWh) le 29 août, relate Ember. Entre mai et août, il s’est établi en moyenne à 148 €/MWh. Cela représente une hausse de 110 €/MWh par rapport à la même période en 2021 où le prix était de 38 €/MWh. Les prix du gaz pour les contrats portant sur le prochain hiver se négocient actuellement à 242 €/MWh contre 28 €/MWh, ajoute Ember.
Les experts attendent que les records de prix du gaz perdurent pendant encore au moins trois ans. « Il est clair que nous avons besoin d’autant d’énergie solaire que possible, estime Paweł Czyżak, analyste principal chez Ember, cité dans un communiqué. Le Parlement européen a l’occasion idéale de nous la donner en adoptant l’objectif de 45 % d’énergies renouvelables et en plaçant l’Europe sur la voie d’une capacité solaire de 600 GW ou plus d’ici 2030. »
Une croissance solaire qui s’accélère, mais largement insuffisante
La croissance de la production solaire s’accélère. Sur l’été 2022, la hausse de production a atteint 22 TWh, contre +8 TWh en 2021, +10 TWh en 2020 et +2 TWh en 2019. « Cela est en grande partie dû aux augmentations constantes de 15 % d’une année sur l’autre de la capacité solaire installée, de 104 GW en 2018 à 162 GW en 2021, avec 23 GW ajoutés en 2021 seulement », explique Ember.
Mais il va falloir accélérer très rapidement les installations pour atteindre les objectifs d’énergies renouvelables portées par le plan REPowerEU. La proposition de la Commission européenne vise à porter à 45 % la part des énergies renouvelables dans son mix énergétique en 2030. Cela irait au-delà des 40 % prévus à la même échéance par la révision initiale de la directive sur les énergies renouvelables du paquet Fit-for-55.
Le plan REPowerEU encore en discussions vise ainsi à mettre en service, d’ici à 2025, plus de 320 GW de nouvelles capacités de panneaux solaires photovoltaïques. C’est le double de la capacité installée fin 2021. Les nouvelles capacités passeraient à 600 GW d’ici à 2030.
Actuel directeur du laboratoire NS3E (Nanomatériaux pour les systèmes sous sollicitations extrêmes – CNRS/Institut franco-allemand de recherches Saint Louis/Université de Strasbourg), Denis Spitzer est à l’origine de deux procédés baptisés SFE et SFS, pour spray flash evaporation et spray flash synthesis. Permettant respectivement la formation et la synthèse de particules sub-micrométriques, ces approches novatrices se révèlent économiques, sûres et respectueuses de l’environnement. Parallèlement à la mise au point des procédés eux-mêmes, Denis Spitzer et son équipe ont également développé une expertise de pointe en matière d’étude mécanistique du SFE et du SFS, consistant, en substance, à mesurer la taille et de la vitesse des gouttelettes produites. Le chercheur parvient également, grâce à une approche unique combinant techniques de spectroscopie RAMAN et techniques de microscopie à force atomique, à réaliser une caractérisation dite « offline » des particules, c’est-à-dire à en analyser la structure après formation. Autant de percées qui amènent désormais les procédés SFE et SFS sur la voie de l’industrialisation, notamment pour des applications en pharmaceutique et dans le domaine de la transition énergétique. Denis Spitzer nous retrace les grandes étapes qui ont permis la mise au point de ces procédés novateurs. Il nous en révèle également les principes et intérêts majeurs.
Techniques de l’Ingénieur : Comment avez-vous abouti à la mise au point des deux procédés qui vous ont valu cette Médaille de l’innovation ? Quelles ont été les grandes étapes de votre parcours ?
Denis Spitzer, directeur du laboratoire NS3E et lauréat 2022 de la Médaille de l’innovation. Crédits : Frédérique PLAS/CNRS Photothèque
Denis Spitzer : Je suis, au départ, ingénieur chimiste en matériaux. J’ai fait une thèse en physique des explosifs. Je viens en effet du secteur de la défense. L’institut dans lequel j’ai fait ma thèse était déjà celui dans lequel je travaille aujourd’hui : l’Institut franco-allemand de Saint-Louis, dédié notamment à la défense. J’ai quitté l’institut pendant sept ans, pour faire du transfert de technologies : je montais des projets avec des industriels. Je suis retourné à l’Institut de Saint-Louis en 2000. J’ai alors commencé à travailler sur la réduction des tailles de particules, au départ principalement à destination des explosifs. L’intérêt était d’avoir des explosifs moins sensibles, moins dangereux à la manipulation. D’autres découvertes ont ensuite découlé de cette possibilité de faire des particules très fines ; certaines ont d’ailleurs été classifiées, et je ne peux pas en parler.
Je peux toutefois dire qu’il existe un parallèle entre les explosifs et la pharmacie. On a des composés comme la nitroglycérine ou la pentrite qui sont des explosifs très connus et qui sont, au départ, des molécules développées plutôt à des fins médicamentaires, pour faire notamment de la vasodilatation. On s’est rendu compte, souvent accidentellement, qu’utilisées en grandes quantités, ces molécules pouvaient détoner. Les explosifs que l’on utilise aujourd’hui encore dans les missiles ont ainsi, en fait, été découverts par hasard. Mais ces molécules que sont la pentrite ou la nitroglycérine sont encore utilisées dans les médicaments destinés à traiter des pathologies cardiaques. Mes collègues et moi avons commencé, en 2008, à développer des procédés de submicronisation, destinés à produire en continu des particules fines. Nous avons donc commencé avec des explosifs, mais nous nous sommes vite rendu compte que l’on pouvait faire cela également avec des médicaments.
Un premier procédé a ainsi été mis au point : le SFE, pour spray flash evaporation. J’ai ainsi reçu, en 2015, un Grand prix de l’Académie des sciences. Il s’agit d’un procédé de cristallisation de particules de taille très fine. On ne fait toutefois pas de synthèse : les molécules utilisées en entrée du procédé sont simplement obtenues à la sortie sous forme de particules plus fines que dans les procédés classiques.
Nous avons ensuite étendu ce procédé à de la synthèse. Au lieu de ne pas faire interagir les molécules de départ, on les fait réagir les unes sur les autres, afin de faire de nouvelles molécules. On entre ici dans le domaine de ce que nous avons appelé le SFS, pour spray flash synthesis.
Quels sont les principaux intérêts des procédés que vous évoquez, et comment fonctionnent-ils ? Comment sont-ils mis en œuvre, très concrètement ?
En permettant de faire des particules fines, le premier procédé, le SFE, trouve un intérêt particulier dans les médicaments : ils se dissolvent plus facilement, sont davantage biodisponibles et donc plus efficaces à moindre dose. Le SFS quant à lui, qui implique une synthèse, rend possible l’obtention de particules fines, mais permet également de diminuer les températures de synthèse, de réduire le nombre d’étapes, ou encore évite que les particules ne recroissent. Cela permet de produire des particules aussi bien organiques qu’inorganiques, avec ainsi un intérêt majeur pour la transition énergétique. Nous sommes en train d’explorer la synthèse d’oxydes, de céramiques, à destination des cellules solaires, des batteries, des piles à combustible. On ouvre vraiment en ce moment l’étendue des possibilités, ce qui complique bien entendu les choses ! (Rires)
Que ce soit le procédé SFE et SFS, les équipements nécessaires à leur mise en œuvre sont relativement semblables. Leur point commun réside dans le spray flash. Les molécules que l’on ne veut pas modifier dans le SFE, ou les molécules que l’on veut faire réagir pour le SFS, au départ, sont dissoutes dans un solvant. Cette solution est mise sous pression avec de l’azote, à hauteur de 10 à 60 bars. Cette solution est ensuite injectée à travers une buse de spray, dans une chambre d’atomisation qui, elle-même, est maintenue sous vide par une pompe. Pour donner une image, on peut se représenter la lance d’un Kärcher que l’on actionnerait dans une enceinte sous vide.
La chambre d’atomisation est maintenue à environ 5 millibars par les pompes. Comme la solution passe d’une surpression de l’ordre de 40 bars en moyenne à une pression très basse de 5 mbar, on va avoir une détente extrêmement rapide, qui va induire une évaporation du solvant elle aussi très rapide. Le composé dissous va ainsi se solidifier, sous forme amorphe ou cristalline, mais en tout cas sous forme de particules très, très fines. Des procédés concurrents comme le spray drying se déroulent quant à eux dans une chambre à pression atmosphérique, ce qui produit des gouttes d’environ 15 microns. Ce qui se produit avec notre procédé est que les gouttelettes explosent et se fragmentent avant de se solidifier. On atteint ainsi des tailles de gouttelettes, avant évaporation, de l’ordre de 500 nanomètres à 1 micromètre. Comme les gouttelettes avant évaporation sont plus petites, on obtient des particules solides elles aussi plus petites, entre 5 nanomètres et un micron. C’est l’avantage principal du SFE et du SFS.
En ce qui concerne le SFS, la synthèse se fait soit en envoyant des mélanges de molécules devant réagir entre elles par une seule buse, soit en mélangeant deux sprays, via deux buses dont les jets se croisent dans la chambre d’atomisation. Le fait d’avoir des gouttes très petites permet de contrôler les synthèses de manière très fine. La technique permet également l’abaissement des températures de synthèse. Par exemple, certaines céramiques sont obtenues par les techniques classiques à une température de 1 500°C. Avec notre approche, cette température chute à 800 ou 1 000°C.
En matière d’installations, ce que nous avons pour l’instant au laboratoire tient dans une pièce.
On a d’abord de petits réservoirs dans lesquels les solutions sont pressurisées. Ce sont des réservoirs qui font entre 1 et 5 litres. Les chambres d’atomisation font quant à elles de 2 à 100 litres. On a ensuite des filtres permettant de capter les particules, dont le diamètre va de cinq centimètres pour les plus petits, avec une hauteur de quinze centimètres, jusqu’à des filtres d’une quinzaine de centimètres de diamètre pour quatre-vingts centimètres de haut. En amont de cela, on a des pompes, qui sont de plus en plus grandes… Pour augmenter la production, il faut en effet soit augmenter la taille de l’orifice des buses, soit faire du multi-buses. On a alors besoin de pompes capables de maintenir le vide dans la chambre malgré le spray, par exemple, d’un litre et demi de solvant à la minute. Dans l’industrialisation, et c’est ce sur quoi nous travaillons actuellement, les choses seront toutefois un peu différentes de ce que l’on fait en laboratoire : on va condenser davantage le solvant avant les pompes, pour ne pas devoir investir dans des machines trop monstrueuses. Malgré tout, les pompes peuvent ressembler à de véritables stations de pompage.
Nous avons aujourd’hui atteint des capacités de production en laboratoire de cinq cents grammes par heure. L’industrie étudie quant à elle la possibilité d’atteindre deux à dix kilogrammes par heure.
Quel chemin reste-t-il à parcourir pour industrialiser ces procédés ? Sur quelles étapes travaillez-vous actuellement ?
Nous sommes en train de travailler sur deux aspects en laboratoire. Nous tentons de lever des verrous d’industrialisation. Nous travaillons par exemple sur la filtration : filtrer des particules de cette taille n’est pas simple… Nous travaillons aussi sur l’aspect lié aux réservoirs pressurisés. Quand nous avons commencé à travailler sur l’industrialisation du procédé, nous nous sommes rendu compte que l’on ne pouvait pas, lorsque l’on veut faire du continu, se limiter à de très gros réservoirs pressurisés. Deux aspects posent en effet problème : les gros réservoirs pressurisés sont très onéreux, mais ont aussi une contenance finie et ne permettent donc pas de travailler en continu. Il faut les remplir régulièrement. Nous avons trouvé l’astuce en alimentant le réservoir pressurisé par une pompe de gavage, un peu comme celle que l’on peut trouver dans un moteur diesel pour alimenter le système d’injection. Cette pompe de gavage alimente le réservoir pressurisé en pompant la solution qui se trouve à pression atmosphérique. On peut ainsi alimenter en continu le dispositif.
Un autre aspect sur lequel nous travaillons au laboratoire est celui de l’étude mécanistique du SFE et du SFS. Nous mesurons les tailles et les vitesses des gouttes par diffusion dynamique par laser. Nous étudions également une quinzaine de solvants différents, afin d’être en mesure, pour un composé que l’on souhaite sub-microniser, de choisir le bon solvant permettant d’obtenir exactement la taille de particule souhaitée. Nous mesurons également la taille des particules au moment où elles naissent dans le système.
À ces mesures en direct s’ajoute tout un aspect de caractérisation offline, qui consiste à analyser la structure des matériaux une fois qu’ils sont synthétisés ou élaborés par SFE. Nous avons pour cela monté des techniques de spectroscopie RAMAN couplées à des techniques de microscopie à force atomique qui sont tout à fait uniques.
Denis Spitzer et ses collaborateurs ont également développé une expertise en matière d’étude et de caractérisation des particules produites grâce à leurs procédés. Crédits : Frédérique PLAS/CNRS Photothèque
Quelles sont les perspectives d’application des procédés que vous avez développés ?
Un exemple d’application est celui des cellules solaires. On nous demande actuellement de faire des particules d’une taille de 800 nanomètres, à plus ou moins 100 nanomètres près. Les producteurs de cellules solaires cherchent en effet à en augmenter le rendement de conversion, qui plafonne à 25 %. Quand le soleil atteint les cellules, des séparations de charge se produisent sur les particules qui composent ces cellules. Les fabricants se sont rendu compte que pour éviter une recombinaison des charges trop rapide, il faut des particules d’environ 700 à 800 nanomètres. La taille actuelle des particules explique ce plafonnement du rendement aux alentours de 25 %.
La force du SFE et du SFS est leur polyvalence, leur versatilité. On peut donc avoir bien d’autres applications, dans la pharmacie, la transition énergétique… mais nous devons choisir des priorités. Nous sommes aujourd’hui très sollicités par des spécialistes de la transition énergétique. J’ai des sollicitations quasiment tous les jours dans le domaine des batteries, des piles à combustible… Il faut donc arriver à suivre !
Les phases de prématuration permises par le CNRS nous ont justement permis de comprendre que le domaine pharmaceutique était le plus porteur pour le SFE, et qu’il ne fallait pas se lancer dans l’agroalimentaire ou la cosmétique par exemple, faute de valeur ajoutée. La rupture technologique que l’on pouvait apporter n’était pas aussi intéressante.
Actuellement, nous avons un deuxième projet de prématuration pour étudier l’intérêt du SFS. Nous commençons à sélectionner les objectifs les plus stratégiques à traiter.
Nous avons aussi, en quelque sorte, bouclé la boucle, en trouvant des applications possibles du SFE et du SFS dans le domaine de la défense. Nos technologies sont d’ailleurs fortement poussées par la DGA¹ et le ministère des Armées, ne serait-ce que par les capacités de métrologie rapide que l’on développe. S’ajoutent à cela les oxydes et les céramiques, qui peuvent être intéressants d’un point de vue défense pour des aspects liés à la protection, au blindage, mais aussi, à nouveau, à l’énergie. Nous travaillons ainsi sur des compositions pyrotechniques – des nanothermites – qui sont des mélanges d’oxydes et de métaux brûlant extrêmement vite. Ils brûlent d’autant plus vite que les particules sont fines. Cette dualité entre défense et civil m’intéresse beaucoup. C’est souvent comme cela : les choses avancent aux frontières des domaines, et la pluridisciplinarité que nous avons à l’Institut de Saint-Louis, qui regroupe des chimistes, des aérodynamiciens, des mathématiciens… permet vraiment de faire avancer la recherche. Nous travaillons aussi avec une quinzaine de laboratoires extérieurs pour réaliser des tests de batteries, de cellules solaires, ou encore des tests autour de la photocatalyse. On ne peut pas tout faire tout seul, le développement des collaborations est important.
Quand on essaye de valoriser, il faut à la fois se laisser de la liberté pour faire de la recherche, continuer à faire des choses qui a priori n’intéressent personne… Si l’on veut valoriser, il faut tout de même structurer un moment donné. Comme je l’évoquais tout à l’heure, j’ai eu, après ma thèse, l’opportunité de faire du transfert de technologie. Je montais donc des projets pour des industriels. Ce qui me frustrait un peu était toutefois de ne pas pouvoir mener moi-même les projets. J’ai ainsi gardé, inconsciemment sans doute, le souci que la recherche serve un jour. Cela peut faire débat, mais pour moi, toute recherche fondamentale sert un jour. Je suis toujours surpris des possibilités de valorisation de la recherche, et cela me conforte dans ma position. Je trouve cela fantastique. J’ai d’ailleurs beaucoup appris en échangeant avec les autres lauréats de ces médailles de l’innovation du CNRS.
Or, la pénurie d’eau qui a frappé Taiwan en 2021 a révélé les faiblesses de la gestion de ses ressources en eau et la surconsommation due à des prix notoirement bas. Pourtant, l’eau est un élément clé de deux des principaux moteurs économiques de l’île : l’industrie des semi-conducteurs et l’agriculture.
L’utilisation de l’eau est vitale pour la production de semi-conducteurs qui comprend une série d’étapes très complexes. À Taiwan, une importante quantité d’eau a été redirigée de la consommation des particuliers et de l’agriculture vers cette industrie qui est essentielle à de nombreux secteurs d’activité dans le monde.
Par ailleurs, une chaîne de fabrication a besoin d’importantes quantités d’eau hautement purifiée (comme agent de rinçage durant les différentes phases de la fabrication).
Selon Intel, le principal fondeur nord-américain, pour obtenir 1 gallon (3,785 litres) d’eau ultra-pure, il lui fallait dans les années 1990 près de 2 gallons d’eau. Aujourd’hui, 1,1 gallon suffit.
Par ailleurs, l’eau distribuée en usine est également utilisée pour le refroidissement des équipements et des centres serveurs.
Recyclage des eaux usées
Pour des raisons économiques plutôt qu’écologiques, les professionnels du secteur s’attellent pourtant depuis plus de vingt ans à diminuer la quantité d’eau nécessaire à la fabrication d’une puce.
Le recyclage de l’eau dans les usines de semi-conducteurs ne cesse d’augmenter. À titre d’exemple, en Europe, le Franco-italien STMicroelectronics s’est fixé pour objectif de recycler au moins 50 % de l’eau qu’il utilise. Intel semble plus ambitieux puisqu’il annonce qu’il recycle déjà entre 80 et 90 % de l’eau !
L’industrie des semi-conducteurs et les hébergeurs de datacenters envisagent aussi de se déployer dans des zones où l’eau de surface et souterraine reste encore largement disponible.
Concernant les datacenters, différentes pistes sont étudiées pour limiter leur consommation en énergie : refroidissement avec de l’eau de mer comme à Marseille, data center sous-marin, optimisation de la climatisation, recours à des systèmes de sauvegarde moins énergivore, optimisation avec l’intelligence artificielle des calculs intensifs…
L’idée de plonger des datacenters au fond des océans apparaît comme l’une des solutions les plus intéressantes, comme le montre le bilan positif du projet Natick de Microsoft. La fin de la phase 2 de ce projet entamé en 2014 a permis de constater un ratio de 1 pour 8 concernant les pannes serveurs entre ce datacenter immergé et son équivalent terrestre. Les résultats de la phase 2 de ce projet sont en cours d’analyse par Microsoft et le français Naval Group pour améliorer, à terme, les centres de données terrestres.
Tensions internationales
L’eau assez fraîche de l’Écosse (16°C maximum en août près de ces îles…) permet de dissiper plus facilement l’énergie calorifique produite par les ordinateurs avec une moindre élévation de température. Mais surtout, l’efficacité du refroidissement signifie que les centres de données pourraient être déployés dans des mers allant de l’Arctique à l’équateur.
Les Chinois suivent également cette piste et l’ont testée en mai 2021 dans le port de Hainan.
Mais la crise ukrainienne et les tensions entre la Chine et Taiwan pourraient remettre en cause ces initiatives. « Alors que l’entreprise américaine Intel a prélevé en Arizona près de 19,7 millions de mètres cubes en 2020, soit l’équivalent de deux semaines complètes de production d’eau destinée à alimenter la ville de Paris, l’État américain s’apprête à accueillir six usines du Taiwanais TSMC, inquiet à l’évidence des risques sécuritaires grandissants que l’armée chinoise fait peser sur son île », rappelle dans Le Monde Franck Galland, spécialiste des questions sécuritaires liées aux ressources en eau et chercheur associé à la Fondation pour la recherche stratégique.
Produits au sommet de l’atmosphère, les muons se propagent naturellement vers le sol. L’une de leurs particularités réside dans leur capacité à traverser la matière tout en n’étant que très peu absorbés. À la manière des rayons X utilisés en radiographie, ces particules peuvent donc être utilisées pour imager de grandes structures telles que des cavités souterraines ou des équipements industriels. Pour cela, Jacques Marteau, directeur-adjoint de l’Institut de physique des 2 infinis de Lyon, a mis au point avec ses collaborateurs un système permettant, à partir de la détection de muons, de reconstituer l’image d’un objet-cible. Directeur scientifique de Muodim, Jacques Marteau nous présente l’entreprise qu’il a co-fondée et nous en dit plus sur la technologie qu’elle met en œuvre.
Techniques de l’Ingénieur : Muodim est issue de l’Institut de physique des 2 infinis de Lyon¹. Comment a-t-elle vu le jour exactement ?
Jacques Marteau : La start-up Muodim tient en effet ses racines de l’activité de mon laboratoire. En 2008, j’ai reçu des sollicitations de la part de collègues géophysiciens, de laboratoires de Rennes et de Paris, pour développer un système qui permettrait de détecter des particules élémentaires que l’on appelle des muons – je reviendrai en détails ensuite sur le principe – sur des terrains de type volcan. La première cible, à l’époque, était l’étude des caractéristiques du dôme de La Soufrière de Guadeloupe. Leur premier objectif était donc de pouvoir imager cette structure géologique.
Pour remonter un cran en arrière, il se trouve que nous avions développé depuis le début des années 2000, une chaîne de détection pour une expérience de physique des particules, qui consistait à détecter une autre particule élémentaire, le neutrino. La rencontre des besoins et des compétences à un instant T a donc fait que nous avons développé des détecteurs de terrain pour aller sur des dômes de volcans actifs. Cela remonte donc aux environs de 2008.
Nous avons ainsi établi, grâce à cette collaboration, un fort lien interdisciplinaire entre la physique des particules, qui est mon domaine de spécialité, et les géosciences.
Après les volcans, nous nous sommes intéressés à ce qui se passait dans les couches géologiques situées au-dessus d’un laboratoire sous-terrain. Nous avons suivi un parcours académique classique : monté des projets, obtenu des financements, fait des publications… Et puis, de fil en aiguille, à partir des années 2015, et plus encore en 2017, j’ai commencé à recevoir des demandes de la part d’industriels et d’autres acteurs privés pour essayer d’évaluer les performances de notre technologie pour les grandes structures industrielles, par exemple pour les hauts-fourneaux, les centrales nucléaires, ou encore les fours. Ces grandes structures industrielles cherchaient une solution d’imagerie pour des problématiques variées, qui allaient de l’identification d’un contenu, jusqu’à des problématiques d’encrassement de tuyaux d’écoulement.
Nous avons donc commencé à établir nos premiers contrats de prestation pour de grands groupes industriels, et puis la demande s’est intensifiée à tel point que, en discutant avec nos tutelles, on nous a conseillé de créer une structure adéquate.
Il a fallu près de trois ans pour monter la start-up, afin notamment de trouver la bonne équipe : le bon investisseur, les bons conseillers scientifiques… Je me suis appuyé sur le réseau académique que j’avais tissé, composé d’anciens étudiants, d’anciens doctorants ou post-doctorants, d’anciens collègues ingénieurs avec qui j’avais développé des projets académiques. Et puis une rencontre s’est faite et a été un peu l’élément déclencheur. Une rencontre post-Covid… J’ai rencontré mon associé actuel Christophe Pichol-Thievend, entrepreneur depuis 25 ans, travaillant dans le domaine du conseil technique et de l’audit dans le milieu industriel.
Les choses se sont ainsi accélérées début 2021. La machine s’est mise en route : nous avons posé les statuts de la start-up à l’été 2021. Nous avons ainsi signé nos premiers contrats dans le cadre du projet du Grand Paris Express, qui utilise notre technique d’imagerie embarquée sur les tunneliers pour faire de la reconnaissance à l’avancement. Cela permet de prévenir les risques liés au creusement et évite ainsi d’endommager la machine.
Depuis, nous avons signé des contrats avec d’autres grands groupes, tels que Razel-Bec et des entreprises qui préfèrent garder la confidentialité. Notre ambition, pour les deux années post-création, est de multiplier les preuves de concept, les cas d’usages, pour pouvoir éduquer le marché à cette nouvelle technologie et voir quelles sont les voies porteuses. Cela nous permettra, ensuite, d’avoir une offre commerciale concurrentielle et intéressante par rapport à d’autres techniques présentes sur le marché.
Comment fonctionne, concrètement, la technologie que vous avez développée ? Que sont ces fameux « muons » que vous évoquez ?
La tomographie par muons, ou muographie, consiste, comme son nom l’indique, à réaliser des images à partir de muons. Cela fonctionne grosso modo comme la radiographie, sauf que nous avons remplacé les rayons X par les muons : des particules traversent un milieu et sont plus ou moins arrêtées par ce milieu en fonction de sa densité. Les zones les plus denses arrêtent plus efficacement les particules que les zones les moins denses. Quand on place un détecteur après le milieu, on compte, en fonction des directions, là où les particules ont été les plus arrêtées, et on reconstruit une image en fonction de la densité. C’est une densitométrie, de la même façon qu’une radio montre les os, très denses, qui arrêtent les rayons X. Ces rayons ne seraient pas assez pénétrants pour traverser de grosses structures. Nous les remplaçons donc par les muons, des particules naturellement générées dans l’atmosphère.
Il se trouve en effet que la Terre est bombardée en permanence par le rayonnement cosmique primaire, des particules élémentaires très énergétiques, qui proviennent de l’explosion dans l’Univers d’étoiles, de supernovæ… Une première couche de l’atmosphère sert donc « d’airbag » : les particules élémentaires rencontrent les noyaux d’oxygène et d’azote, cela va initier des réactions nucléaires, qui génèrent à leur tour de nombreuses particules secondaires, parmi lesquelles on trouve donc nos fameux muons. Ils sont ainsi produits au sommet de l’atmosphère et se propagent vers le sol. Ils parcourent donc une dizaine de kilomètres et ont une propriété qui nous intéresse beaucoup : ils peuvent traverser la matière sans être trop absorbés par celle-ci.
En termes de propriétés, il s’agit, en quelque sorte, de gros électrons. Ils appartiennent à la même famille. Ils sont simplement 200 fois plus massifs, ce qui fait qu’ils interagissent moins avec la matière qu’ils rencontrent que les électrons. Ils peuvent ainsi voyager des centaines de mètres, voire des kilomètres dans la roche avant d’être totalement absorbés.
Ces particules présentes naturellement dans l’atmosphère ont aussi l’avantage d’être disponibles 24/24h, 7/7j, avec un flux relativement bien connu d’un point de vue théorique, que l’on mesure depuis près d’un siècle. Ce sont ainsi ces particules que nous utilisons, en combinaison avec les détecteurs que nous avons développés au sein du laboratoire, pour regarder à l’intérieur des objets. Voilà le principe de la muographie.
Comment ces détecteurs fonctionnent-ils ?
Le principe de la détection est le suivant : on prélève un peu d’énergie à la particule lorsqu’elle traverse la matière du détecteur. On capte cette énergie sous la forme d’un rayonnement lumineux, que l’on appelle « lumière de scintillation », émise grâce à un matériau spécial constituant un scintillateur. On piège cette lumière, que l’on guide ensuite vers une chaîne opto-électronique plus classique dans laquelle on a des photodétecteurs.
Chaque fois qu’une particule traverse un pixel de notre détecteur, une tache lumineuse apparaît. Il suffit donc de mettre des plans de détection parallèles pour pouvoir regarder l’ensemble des pixels traversés par la particule et les mettre en coïncidence temporelle grâce à des horloges très précises, de l’ordre de la nanoseconde. L’alignement de ces pixels nous permet de reconstituer la trajectoire de la particule incidente. On sait ainsi de quel endroit de la cible elle est issue. On effectue donc un comptage, direction par direction, du nombre de particules que l’on reçoit. On compare cela avec le nombre de particules que l’on aurait dû recevoir si l’obstacle n’avait pas été présent ou si sa densité avait été différente. Ces comparaisons nous permettent de remonter à la distribution de matière la plus probable reproduisant les données que l’on a obtenues.
Quel est le temps nécessaire pour obtenir une image ?
Cela varie en fonction des spécificités de chaque cas, mais pour donner des ordres de grandeur, quand on fait l’image du dôme d’un volcan tel que La Soufrière de Guadeloupe, il faut compter de l’ordre d’un mois. Quand on est dans les galeries souterraines du métro de Paris, où l’on n’a qu’une cinquantaine de mètres de matière, on arrive à faire des images à une échelle de temps qui est de l’ordre de l’heure. Si l’on descend à une échelle encore inférieure, avec des structures beaucoup plus fines, telles que la pile d’un pont, on n’est alors plus qu’à quelques minutes.
On a donc un spectre à la fois de résolution spatiale et de résolution temporelle qui est extrêmement vaste, et très dépendant du cas d’usage. La résolution spatiale va du millimètre voire en dessous, jusqu’à des cubes d’une dizaine de mètres de côté, dans le cas d’un volcan par exemple.
Des conditions environnementales particulières sont-elles nécessaires pour pouvoir mettre en œuvre la technique ? Y a-t-il éventuellement des risques de perturbations ?
La technologie est totalement immune aux bruits environnementaux divers et variés. Les seules choses qui peuvent éventuellement être gênantes sont les perturbations standards d’un équipement électronique, des champs magnétiques très intenses par exemple.
En revanche, comme on détecte des particules qui viennent de l’atmosphère, d’en haut, on ne peut voir qu’au-dessus de l’horizon du détecteur. Il doit donc toujours être placé soit sur le côté soit en dessous de sa cible.
L’autre contrainte est que nous utilisons une méthode totalement passive. C’est, certes, un énorme avantage, car nous n’envoyons aucun signal qui pourrait perturber les systèmes que l’on regarde – ce qui nous permet d’inspecter des systèmes fragiles, sensibles – mais nous sommes aussi totalement dépendants de ce que la nature nous envoie… Par exemple, si l’on devait aller chercher, disons, du pétrole à des profondeurs extrêmement importantes, on aurait extrêmement peu de signal.
Quelles sont justement les applications possibles de la muographie ?
Nos champs d’application essentiels concernent notamment l’imagerie grand volume, l’imagerie de systèmes qui sont opaques à toutes les autres techniques, tels que les ultrasons ou la méthode de gammamétrie, ou encore l’imagerie de volumes dangereux. Nous procédons en effet à l’installation d’un détecteur qui nous permet de regarder la cible depuis un endroit éloigné ; on n’est pas obligé d’être directement à son contact. La technique ne nécessite pas non plus la présence d’un opérateur 24/24h, puisque l’acquisition de données est automatisée et que les muons sont disponibles en permanence. Cela nous permet ainsi d’assurer un suivi temporel des contenus, encore une fois sans intervention du moindre opérateur pour déplacer une sonde ou autre. Tout cela est donc idéal pour les zones dangereuses, comme les zones Seveso ou radioactives.
Le flux de muons souffre-t-il d’une éventuelle variabilité ? Comment composez-vous avec cette contrainte dans ce cas ?
Il y a, en effet, à cause des variations de la pression atmosphérique, c’est-à-dire de la hauteur de la colonne d’air, une certaine variabilité de l’intensité du flux de muons. Elle est toutefois relativement faible, de l’ordre de quelques pour-cent. C’est quelque chose que l’on compense, que l’on connaît. Le flux est sinon très bien calibré, relativement isotrope quels que soient les points de la surface du globe où l’on effectue la mesure. Il dépend toutefois également un peu du flux géomagnétique et de l’altitude. Mais tout ceci reste bien connu et contrôlé.
Concrètement, à quoi ressemble le détecteur ? Quelle est par exemple sa taille ?
Sa taille est de l’ordre d’un mètre de côté. Cela n’est pas limité par le savoir-faire ou une quelconque contrainte technique, c’est tout simplement dû au fait que nous souhaitons pouvoir le manipuler aisément sur le terrain, ce qui est possible avec un appareil de cette taille. Ils peuvent aussi être plus petits si l’on n’a pas besoin d’une grande profondeur de champ, voire plus grands si besoin.
Vous poursuivez toujours actuellement des travaux de développement technologique. Pouvez-vous nous en dire un peu plus ? Sur quoi portent-ils ?
Il y a toujours une obsession qui consiste à améliorer la résolution d’un détecteur. Nous essayons donc de trouver des « trucs et astuces » pour améliorer les résolutions spatiales et temporelles, sans forcément multiplier le nombre de pixels, qui aboutit en effet à l’augmentation de la consommation du dispositif. Nous avons toujours en ligne de mire le fait que notre solution se destine à des terrains qui ne sont souvent pas dotés d’électricité ni de moyens de communication. Il nous faut donc travailler pour rendre nos appareils le plus autonomisables possible, prévoir leur alimentation à l’aide de panneaux solaires ou de petites éoliennes. Nous cherchons donc à augmenter la résolution de nos appareils tout en gardant une consommation raisonnable.
Muodim n’est ainsi pas uniquement une entreprise de prestation, mais aussi une entreprise de R&D. Les cas d’usages sur lesquels nous nous positionnons pour l’instant sont ceux qui représentent pour nous des possibilités en matière de recherche et développement : développement de nouvelles méthodes, mise au point de nouveaux algorithmes ou de nouveaux détecteurs…
Il est évident qu’avec ce type de problématique – qui conjugue celles liées à la physique des particules et celles liées à l’imagerie, telles que les aberrations – l’intelligence artificielle et le machine learning ont quelque chose à apporter. Nous sommes donc très intéressés par ces sujets. Nous sommes en effet tributaires de ce que la nature nous envoie. Il nous faut donc absolument « rentabiliser » chaque muon détecté, afin d’en extraire un maximum d’informations. C’est vraiment un champ de développement permanent, continu, que nous tenons à conserver chez Muodim.
Quels enseignements tirez-vous de cette aventure entrepreneuriale qui vous a amené à figurer parmi les quatre lauréats de la Médaille de l’innovation 2022 décernée par le CNRS ?
Il y a quelque chose qui me tient vraiment à cœur… Techniquement et scientifiquement, le projet était mûr il y a trois ou quatre ans. Mon retour d’expérience est que cela n’a été possible qu’à partir du moment où le facteur humain a trouvé la bonne dimension. J’ai constitué Muodim avec une équipe composée de personnes qui ne sont pas forcément les plus évidentes de prime abord. D’autres scientifiques étaient très pertinents dans le domaine, mais ne partageaient pas les mêmes valeurs, ne poursuivaient pas les mêmes objectifs. Nos valeurs sont en effet avant tout éthiques. Nos objectifs consistent essentiellement à recruter de jeunes docteurs de manière à leur offrir des débouchés. Nous réinvestissons nos bénéfices en cherchant à valoriser le capital humain. C’est là qu’est la capacité d’innovation, le réservoir des compétences. Cela est très important et cela n’a pas de prix. L’humain est donc la valeur cardinale de Muodim, qui fait que le projet a démarré à un moment donné et pas avant. J’ai notamment été en contact avec des investisseurs, qui étaient très bien, mais qui avaient des ambitions démesurées en termes financiers, quel que soit le prix à payer au niveau humain, et c’était une chose que je ne voulais pas.
Tout cela s’éloigne de la technique, mais a selon moi au moins autant de valeur.
Plus de 60 000 hectares ont brûlé en France depuis le début de l’année, avec des incendies particulièrement violents cet été. Alors que le changement climatique menace de multiplier les feux de forêt, la société d’analyse de risques climatiques Callendar met en garde contre la multiplication des risques d’incendie sur les sites Seveso. Ces sites industriels utilisent ou stockent des matières dangereuses.
« 316 sites classés Seveso [dont 187 sites Seveso classés ‘seuil haut’, soit le niveau de dangerosité le plus élevé, ndlr] sont suffisamment proches de forêts pour être menacés en cas d’incendie en France métropolitaine », calcule l’étude. C’est près d’un quart des installations industrielles dangereuses en métropole.
Un risque incendie de plus en plus important
L’étude repose sur l’indice Forêt Météo (IFM), l’indicateur de référence au niveau européen pour l’évaluation du risque incendie depuis 2007. Il prend en compte la température, les précipitations, l’humidité de l’air et la vitesse du vent. « En 2050, dans un scénario d’émissions médian [RCP 4.5 du GIEC, ndlr], trois quarts des 316 installations Seveso françaises situées à proximité de zones boisées seront exposées à un risque d’incendie élevé au moins 10 jours par an, contre un tiers en 2000 », alerte l’étude. En moyenne, le risque d’incendie à proximité de ces installations augmentera de « 50 % environ ».
Nombre d’installations exposées au moins 10, 30 et 60 jours par an à un risque d’incendie élevé en 2000 et en 2050 dans un scénario d’émissions médian. Crédit : Callendar.
Si l’augmentation du risque d’incendie augmente trois fois moins vite dans un scénario optimiste (RCP2.6), il diffère peu en 2050 dans un scénario d’émissions très élevées (RCP8.5). L’étude précise : « En revanche, l’aggravation du risque serait beaucoup plus marquée dans la seconde moitié du siècle dans ce scénario d’émissions très élevées. À l’horizon 2080, le nombre moyen de jours à risque élevé d’incendie se stabilise dans les scénarios d’émissions très réduites et médianes, mais continue à augmenter jusqu’à 35 jours par an en moyenne dans le scénario d’émissions très élevées. »
Une évolution géographique des risques
Le risque incendie atteindra de nouvelles régions jusqu’ici épargnées. « Le sud-est de la France restera la région la plus exposée, mais les risques augmenteront substantiellement dans le centre et le sud-ouest, ainsi qu’en région parisienne », prévoit l’étude.
Là où ce risque était « historiquement négligeable », Callendar invite les exploitants, les services de secours et l’État à se préparer à ce nouveau risque. La société propose notamment un outil en ligne gratuit pour évaluer l’évolution du risque incendie avec le changement climatique sur foret.climint.com.
Cultivées en deux dimensions dans des boîtes de Petri, les cellules ont une réponse qui diffère de celle observée naturellement dans un organisme. En observant des « perles de saveur » – petites sphères de gelée enfermant des aliments, inventées par un chef espagnol –, le Dr Pierre Nassoy, directeur de recherche au CNRS, a eu l’idée de transposer l’innovation gastronomique pour la mettre au service de la culture cellulaire. Il est ainsi le co-inventeur de la technologie C-Stem, procédé de culture biomimétique permettant la production de masse de cellules souches, destinées à des thérapies pour des maladies telles que Parkinson. Co-fondateur et membre du conseil scientifique de TreeFrog Therapeutics, Pierre Nassoy revient pour nous sur la création de l’entreprise et nous détaille le fonctionnement de la technologie qu’elle met en œuvre ainsi que ses applications.
Techniques de l’Ingénieur : Quel a été votre parcours avant la création de TreeFrog Therapeutics ? Qu’est-ce qui vous a amené à co-fonder cette start-up ?
Pierre Nassoy : Je me suis surtout intéressé, au départ, à la physico-chimie. C’est en effet dans ce domaine que j’ai fait mon doctorat. J’ai ensuite effectué un post-doctorat en biophysique. J’étudiais la rupture de liaisons moléculaires individuelles. Après, j’ai obtenu un poste au CNRS, à l’Institut Curie, à Paris, dans un laboratoire qui s’appelle « Physico-chimie Curie ». Ce labo avait une forte tendance à l’interdisciplinarité, et notamment une forte interaction avec les biologistes. J’ai ainsi commencé à travailler notamment sur les propriétés physiques des membranes de cellules : comment elles s’étalent, comment elles adhèrent… À ce moment-là, la plupart des travaux en biologie étaient faits dans des boîtes de Petri. Les cellules étaient donc déposées en monocouches, en deux dimensions, sur du plastique. Or, des travaux commençaient à émerger, montrant que le plastique, substrat très rigide, et le dépôt en deux dimensions entraînaient une réponse différente des cellules par rapport à leur situation naturelle, dans un organisme. Des tests de médicaments de chimiothérapie ont par exemple montré une absence quasi totale de corrélation entre l’efficacité des molécules sur des cellules en 2D, et celles testées sur des souris… De là a émergé une volonté de développer des systèmes non pas 2D, mais des reconstructions tridimensionnelles, de manière à mimer un peu mieux l’organisation des cellules dans les organismes. À ce moment-là, un peu par hasard, j’avais eu connaissance de l’existence des « perles de saveur », développées par le chef d’un restaurant à Barcelone, Ferran Adrià. Je me suis demandé si l’on ne pourrait pas remplacer la nourriture contenue dans ces petites billes de gelée par des cellules, et fabriquer ainsi de petites « boules » de cellules.
L’objectif était alors de créer un modèle de microtumeur. Nous avons pour cela mis en œuvre des techniques de microfluidique, qui permettent de réaliser des coques creuses en mettant en contact deux fluides a priori miscibles, mais qui ne vont pas trop se mélanger étant donné la petite dimension à laquelle on travaille. Nous avons donc cherché à développer un système de coextrusion microfluidique, afin de parvenir à former une coque de gelée avec, à l’intérieur, des cellules libres et non pressées par la gelée. Si on les enferme comme une purée de framboise dans une gelée, les cellules vont en effet être directement au contact, et donc répondre différemment. Nous avons ainsi développé ce système de coextrusion, qui est au centre de l’innovation, puisqu’il nous permet de créer des micro-tissus en encapsulant des cellules. Ces micro-tissus peuvent être soit pathologiques, pour mimer les tumeurs, soit sains, pour un travail sur des cellules-souches…
TreeFrog Therapeutics a finalement été créée en 2018, avec l’objectif premier d’amplifier facilement des cellules souches, pour en produire en grandes quantités et fournir ainsi très facilement la source cellulaire utile à la médecine régénérative.
Pouvez-vous nous en dire un peu plus sur ce système de coextrusion microfluidique ? De quels éléments est-il composé ? Comment fonctionne-t-il ?
Nous avons au départ fabriqué le système d’encapsulation en verre, puis en utilisant une imprimante 3D, par stéréolithographie. En fonction de la vitesse, on arrive à former des gouttes, un peu comme les perles de saveur que j’évoquais précédemment, d’une taille d’environ 3 millimètres. Or, dans le corps humain, aucune cellule n’est située à plus de 0,2 mm d’un vaisseau sanguin. Si on place une cellule au-delà de 200 micromètres d’une source d’oxygène, elle finit par mourir. Nous avons donc cherché à créer des objets plus petits, de façon à former des microtumeurs ou des micro-tissus. Pour y parvenir, nous avons exploité un phénomène connu de longue date, qui s’appelle l’instabilité de Plateau-Rayleigh, qui dit que si l’on forme un jet de liquide, comme lorsque l’on ouvre en grand un robinet, celui-ci n’est pas stable. Il se fragmente spontanément en petites gouttelettes. Nous envoyons donc les fluides très vite dans des capillaires, de manière à former un jet qui a la dimension du capillaire dont il est issu. Il va alors se fragmenter en gouttelettes qui ont elles aussi la dimension du capillaire. On forme ainsi 5 000 gouttelettes par seconde, soit 300 000 par minute. Chaque capsule mesure entre 200 et 300 micromètres et les cellules se trouvent dispersées à l’intérieur. Avec le temps, les cellules vont se regrouper, former un agrégat que l’on appelle un sphéroïde, ou un organoïde. Au bout de plusieurs jours, après divisions, les cellules vont finir par remplir entièrement la capsule.
Nous avons aussi essayé d’encapsuler une seule cellule. Il y a en effet un gros intérêt à cela : en cancérologie, cela permet de former des tumeurs monoclonales. Si on a une mutation sur une cellule, on veut en effet pouvoir la détecter, l’analyser précisément. Le problème est que les cellules aiment être à plusieurs. Beaucoup de cellules, notamment les cellules souches, ont absolument besoin d’avoir des voisines. Si on les laisse seules, elles meurent. Ça n’est donc pas possible pour tout.
Quelles sont les applications possibles de cette technique d’encapsulation ?
La première application a été celle de la cancérologie, avec la formation de modèles de microtumeurs. Très rapidement, nous nous sommes dit que nous pouvions aussi former des micro-tissus sains pour la médecine régénérative. On peut par exemple former des sortes de « micro-foies » simplifiés, à partir d’hépatocytes. À chaque fois que nous présentions cela lors de conférences, nous recevions des suggestions d’autres types cellulaires : de l’os, des neurones… Nous nous sommes donc dit, finalement, que le mieux serait de partir des cellules qui sont à l’origine de toutes les cellules de l’organisme, c’est-à-dire les cellules souches. Après les avoir encapsulées, amplifiées et donc en ayant formé des agrégats multicellulaires de cellules souches, il est en effet possible de les différencier en cellules de foie, de neurone, de muscle…
En 2006, un chercheur japonais, Shinya Yamanaka, a découvert ce que l’on appelle les cellules souches induites à la pluripotence [ou IPS, pour induced Pluripotent Stem cells, NDR]. Il a trouvé un cocktail de molécules permettant de faire une reprogrammation, de faire « remonter le temps » à des cellules, de peau par exemple, pour les transformer en cellules souches. Elles ont quasiment les mêmes propriétés que les cellules souches embryonnaires. Le CSO¹ de TreeFrog Therapeutics, Maxime Feyeux, a justement fait sa thèse sur ces cellules souches induites à la pluripotence.
Lorsque l’on met ces cellules souches dans des capsules, elles « poussent » de manière particulière : pas sous la forme d’agrégats, mais sous forme de « ballons », ce que l’on appelle des cystes. Une fois qu’elles ont poussé, nous appliquons in capsulo les protocoles de différentiation chimique.
Si je prends l’exemple des neurones, on peut, grâce à notre technique, obtenir au bout de 24 jours des boules composées uniquement de cellules neuronales – environ un millier – qui expriment de la dopamine. Une des activités de l’entreprise s’est donc développée autour de ces « braincaps », avec un premier essai clinique en ligne de mire pour 2024 dans la maladie de Parkinson.
Outre cette maladie, nous travaillons dans le domaine des maladies cardiaques et métaboliques. Et nous venons aussi de signer un contrat avec la biotech américaine Umoja, dans le domaine de l’immuno-oncologie.
Au fait, pourquoi ce nom de « TreeFrog » Therapeutics ?
C’est loin d’être anecdotique, en effet ! « Tree », l’arbre, représente l’arbre de la pluripotence. Une représentation sur laquelle on trouve les cellules souches embryonnaires, au niveau des racines, qui deviennent ensuite, au fil de la montée vers la cime, pluripotentes, totipotentes, multipotentes… Ensuite elles se différencient et donnent des cellules de types précis, réparties sur les branches de ce fameux « arbre ».
Et « Frog », enfin, est là pour souligner le côté « français » ! (Rires) La grenouille est ainsi devenue en quelque sorte un symbole de la start-up ; nous l’avons d’ailleurs installée comme fresque dans nos locaux…
Peu coûteuses et autonomes, ces « feuilles artificielles » pourraient aussi alimenter en carburant des îles éloignées et éviter l’évaporation de l’eau des canaux d’irrigation.
Les carburants solaires : utiliser la photosynthèse pour produire des carburants
Si la production de carburant synthétique à partir des rayons du soleil n’est pas une idée nouvelle, le développement de ces technologies semble s’accélérer. Les projets se multiplient et certaines technologies arrivent à maturité, à l’image du projet européen SUN-to-LIQUID. Celui-ci a ainsi abouti à la production de kérosène synthétique à partir de CO2, d’eau et d’énergie solaire et la première usine de production industrielle du monde devrait voir le jour en 2023.
Pour ce qui est de la production de carburant solaire, l’une des solutions serait alors d’imaginer des dispositifs flottants sur l’eau, ce qui permettrait d’éviter la multiplication de fermes au sol.
Défi : réduire au maximum le poids de ces dispositifs photoélectrochimiques pour les rendre flottants
Cela fait plusieurs années que l’équipe du professeur Erwin Reisner de Cambridge travaille sur le sujet des carburants solaires. En 2019, ils ont ainsi mis au point un prototype de feuille artificielle. Néanmoins, ce dispositif constitué de substrats en verre épais et de revêtements de protection contre l’humidité avait l’inconvénient d’être lourd et volumineux.
Dans un communiqué de presse, le Dr Virgil Andrei, du département de chimie Yusuf Hamied de Cambridge et co-auteur principal de l’étude, l’affirme : « Les feuilles artificielles pourraient réduire considérablement le coût de la production de carburant durable, mais comme elles sont à la fois lourdes et fragiles, il est difficile de les produire à grande échelle et de les transporter. »
Le Dr Reisner a ensuite ajouté : « Nous voulions voir dans quelle mesure nous pouvions réduire les matériaux utilisés par ces dispositifs sans affecter leurs performances.
Si nous parvenons à réduire suffisamment les matériaux pour qu’ils soient assez légers pour flotter, cela ouvre la voie à de toutes nouvelles possibilités d’utilisation de ces feuilles artificielles. »
Pour les chercheurs, trouver un moyen de déposer des absorbeurs de lumière sur des substrats légers constituait ainsi un défi d’autant plus grand qu’il fallait également les protéger contre les infiltrations d’eau. Pour la nouvelle version de leur feuille artificielle, les chercheurs se sont alors inspirés des techniques de miniaturisation de l’industrie électronique.
L’étude publiée dans Nature présente le processus employé. L’équipe a utilisé des oxydes métalliques en couches minces et des matériaux de type pérovskites, qui ont été déposés sur des feuilles de plastique et de métal flexibles. Les dispositifs ont ensuite été recouverts de couches de carbone hydrofuges de l’ordre du micromètre afin d’empêcher la dégradation par l’humidité. Au final, ils ont obtenu un dispositif qui, non seulement, fonctionne, mais ressemble aussi à une vraie feuille.
Des dispositifs compatibles avec les techniques de fabrication modernes
Cette étude a permis de démontrer que les feuilles artificielles sont compatibles avec les techniques de fabrication modernes, ce qui représente une première étape vers l’automatisation et la mise à l’échelle de la production de combustible solaire.
Des améliorations seront bien entendu nécessaires avant d’arriver au stade du développement commercial, mais les chercheurs imaginent déjà des applications, comme l’alimentation en carburant d’établissements côtiers, d’îles éloignées ou encore de bassins industriels.
L’événement phare du mois d’août 2022, le début de la mission Artemis, a finalement fait chou blanc. En effet, le décollage du SLS (Système de Lancement Spatial), prévu le 29 août, a été repoussé jusqu’à nouvel ordre, pour des raisons techniques. Une nouvelle fenêtre de tir est prévue pour le vendredi 2 septembre, sans plus de précisions pour le moment.
C’est durant le remplissage des réservoirs de carburants que le problème est survenu. Un contretemps technique pas si inattendu dans les rangs de la Nasa. En effet, le système de purge s’est avéré défectueux. Son rôle est de maintenir les moteurs à une température idéale de fonctionnement, et il aurait dû être testé avant. Cela n’a pas été le cas, et les possibilités d’échec durant ce test s’en trouvaient donc plus importantes. Au final, le problème détecté n’est pas structurel mais lié à la température du carburant, le propergol, extrêmement froid à l’état liquide, ce qui a entraîné un dysfonctionnement de la purge.
La mission Artemis, qui a coûté plus de 4 milliards de dollars à la Nasa, revêt une importance capitale, puisqu’elle doit notamment propulser la capsule Orion en orbite lunaire, pour préparer le retour de l’homme sur la Lune. C’est le but de ce premier lancement, à la différence près que les astronautes à bord d’Orion seront des mannequins.
Le Russie consomme son divorce avec l’Europe sur le spatial
Les événements se déroulant en Ukraine depuis plusieurs mois ont isolé la Russie sur la scène internationale comme jamais auparavant. Le secteur de la coopération spatiale en est un exemple frappant. Ainsi, la Russie, quelques jours après avoir annoncé son renoncement quant à sa participation sur le projet ISS à partir de 2024, a présenté une maquette de sa propre station spatiale nationale, Ross. Une réorientation stratégique claire, qui s’accompagne d’un rapprochement avec la Chine.
Pour rappel, l’ISS est en fin de vie. L’arrêt de son fonctionnement est prévu pour 2024, même si la Nasa assure depuis quelques mois que la station pourrait encore rendre des services jusqu’en 2030.
Voici une vidéo, en russe, revenant sur la présentation de Ross :
Première détection de CO2 dans l’atmosphère d’une planète
Le télescope spatial James Webb est désormais au travail, après quelques mois à régler et étalonner ses appareils de mesure. Et le moins que l’on puisse dire, c’est que tous les capteurs du télescope fonctionnent à plein régime. Dernier exemple en date le 22 août, avec des images de Jupiter, et un niveau de détail jamais obtenu auparavant : on visualise ainsi les aurores de Jupiter, jusqu’ici jamais observées.
Le James Webb a, quelques jours plus tard, transféré des images de l’exoplanète WASP-39-b, proche de la Terre tout en étant située en dehors de notre système solaire. Ces images montrent de manière irréfutable que l’atmosphère de cette planète contient du CO2. Une information capitale pour établir la présence passée de formes de vie sur les planètes observables, notamment par le télescope James Webb.
Plus gros consommateur d’énergie en France, le secteur du bâtiment est au premier plan pour mener à bien la transition énergétique. La rénovation des logements et bâtiments d’usage tertiaire est la priorité afin d’abaisser leur consommation d’énergie sur le long terme. L’État et les collectivités territoriales se doivent d’être exemplaires, mais la réalisation de travaux à grande échelle et au bon niveau de performance peine encore à se concrétiser. Des dispositifs d’incitation et de soutien existent pour les collectivités, comme celui des Certificats d’économie d’énergie, mais leur complexité exige un minimum de compétences pour les utiliser. Autant les grandes villes ont des moyens d’ingénierie, autant les autres en sont parfois dépourvues.
Une étude sociologique permet de mieux comprendre les schémas décisionnels dans ces petites et moyennes communes, afin de trouver des pistes d’amélioration. Réalisée sur un petit échantillon (37 entretiens dans 9 communes ayant réalisé des travaux de rénovation), l’étude est qualifiée par ses auteurs « d’exploratoire », mais n’en est pas moins éclairante sur la « boîte noire de la décision de rénovation interne aux communes ».
Diverses situations
En premier lieu, l’analyse du rapport des communes à la rénovation énergétique des bâtiments publics fait apparaître une typologie des attitudes, selon que l’énergie est un sujet secondaire ou majeur, et selon la plus ou moins grande considération du long terme dans le projet politique des élus : les indifférentes, les divergentes, les opportunistes et les engagées de la transition (cf. schéma). Ces quatre profils discernés par les auteurs ne correspondent en aucun cas à des tailles de ville ou à des couleurs politiques. Les communes peuvent d’ailleurs évoluer d’un profil à l’autre, car c’est un long parcours qui les amène à considérer l’enjeu de la rénovation, fait d’expériences dont certaines, par des biais réglementaires (plan énergie climat territorial) ou volontaires (dispositif Cit’ergie), sont considérées par les auteurs comme des « accélérateurs de maturation ». La diversité des situations vient aussi des jeux d’acteurs entre le maire, ses adjoints, les services techniques, des prestataires extérieurs, les utilisateurs des bâtiments, etc. Ces jeux, moins présents dans les petites communes où le maire est souvent seul, mais bien réel dans les communes moyennes, peuvent conduire à des choix peu favorables à la rénovation énergétique performante. Mais lorsque c’est le cas, le recours à des solutions d’ingénierie externe est nécessaire, vu les compétences et le temps nécessaires à la construction des projets (cf. encadré).
Typologie des attitudes des communes vis-à-vis de la rénovation énergétique. Source : Brisepierre Gaëtan, Hamon Viviane, Joly-Pouget Mathilde, 2021. Sociologie de la décision de la rénovation énergétique des communes.
Difficile financement
Autre constat, lorsqu’un projet de rénovation est acté, il va dépendre de quatre dimensions pour rendre la performance bien réelle. En premier, le choix du bâtiment n’est pas toujours fait sur des considérations techniques optimales. Les enjeux politiques (valeur identitaire d’un lieu, engagements du maire dans son programme, etc.) sont tout aussi importants. Ceci explique en partie le choix prépondérant de rénovation des écoles. Deuxièmement, la chasse aux subventions est un véritable sport de combat pour construire un solide plan de financement. Dans le maquis des aides, les petites communes sont défavorisées pour tirer leur épingle du jeu. Mais dans tous les cas, le bouclage du dossier financier par un emprunt est l’ultime recours, les collectivités ayant peu de capacités d’emprunt et préférant l’autofinancement. Ensuite, les arbitrages opérés pendant la programmation et la réalisation des travaux peuvent conduire à modifier l’ambition de performance énergétique. Ceci est particulièrement vrai si le projet concerne un bâtiment occupé. La maîtrise de cet enjeu va dépendre du type de marché que la commune choisira pour la conduite du projet. Quatrième dimension, celle de « l’après-rénovation ». Une fois la rénovation finie, le projet n’est pas terminé : le suivi des consommations d’énergie, la vérification de l’atteinte des objectifs et du confort des usagers, etc. sont autant de nouvelles étapes à franchir pour faire d’une rénovation une réussite. Un bon retour d’expérience est l’occasion pour les élus et les services de la commune d’être mis en confiance pour se lancer dans d’autres actions.
Plusieurs dispositifs d’ingénierie
L’étude des auteurs est l’occasion de pointer plusieurs manières pour les communes d’aborder l’accès à un dispositif d’ingénierie externe. Dans leurs études de cas, ils en ont identifié cinq. Trois d’entre eux font partie de solutions de délégation, où la maîtrise d’ouvrage est déléguée soit auprès d’une société publique locale dont les collectivités sont actionnaires (la SPL Oser en Auvergne-Rhône-Alpes dans ce cas), soit auprès d’un opérateur privé via un contrat de performance énergétique, soit par un groupement de commandes (souvent par les syndicats d’énergie). Deux autres dispositifs font appel à l’assistance à maîtrise d’ouvrage : un programme de la Banque des territoires qui permet aux communes d’accéder à des produits financiers dédiés à la rénovation énergétique ; des services mutualisés d’accompagnement énergétique (issus de programmes de Conseillers en énergie partagée) actuellement renforcés par le programme ACTEE de la FNCCR qui permet le recrutement d’un économe de flux.
Tous les bateaux sont confrontés au fouling, ce phénomène naturel de colonisation spontanée de la partie immergée de la coque par différents types d’organismes (bactéries, algues unicellulaires, algues vertes…). Il rend difficilement manœuvrables les bateaux et augmente la consommation de carburant de ceux fonctionnant à moteur. Pour retarder ce processus, la technique la plus couramment employée consiste à appliquer une peinture antifouling sur la carène. Celle-ci contient des biocides et se révèle donc nocive pour l’environnement. Son usage est d’ailleurs limité par des décrets. Face à ce problème, la société suédoise Rentunder AB a développé une solution alternative qui s’inspire des stations de lavage automobile.
Vue aérienne d’une station de lavage de bateaux. Crédit G&G Boatwash
Le procédé est purement mécanique et repose sur des balais-brosses, dont la rotation a pour action de retirer le fouling. Installé dans des ports, il se présente sous la forme d’un U avec des pontons flottants disposés sur trois côtés. Le bateau rentre par celui ouvert, puis une porte se ferme derrière lui, selon le même principe que les portes sectionnelles des garages automobiles. Des brosses horizontales viennent alors se positionner de chaque côté de la carène pour la nettoyer et s’adaptent automatiquement à sa forme. Ce procédé est adapté aux bateaux ne dépassant pas 6 mètres de long et un tirant d’eau (distance verticale entre la ligne de flottaison et le bas de la quille) de 2,4 m. Une brosse supplémentaire sert également à nettoyer la ligne de flottaison, et sous la coque, des brosses montées sur des vérins ont pour fonction de nettoyer la quille.
Un bassin de rétention se trouve positionné sous les brosses pour collecter les déchets qui sont ensuite pompés, puis filtrés, avant d’être évacués vers un centre de tri spécialisé. « Au départ, des éclats de peinture antifouling se détachent avec les organismes, mais l’objectif à terme est de ne plus utiliser de peinture et de nettoyer régulièrement la carène avec cette machine » explique Gaël Minier, Président de G&G Boatwash, la société qui importe cet équipement en France et dans plusieurs pays limitrophes.
La station de lavage peut s’adapter à la profondeur des ports
Cet équipement a remporté le concours d’innovation au dernier salon nautique de Paris dans la catégorie Service. Pour l’instant, une seule machine est installée en France, aux Sables-d’Olonne. Elle a d’abord été montée et testée en Suède, puis démontée pour être transportée sous la forme de module vers son lieu de destination. L’ensemble pèse un peu moins de 5 tonnes, et le transport est assuré à l’aide de deux semi-remorques ou deux containers. « Ce système de brossage est robuste et pèse 800 kg, ajoute Gaël Minier. La machine standard a un tirant d’eau de 3,2 m, mais il est possible de l’adapter selon les différentes profondeurs des ports. Les moteurs hydrauliques et les flexibles contiennent une huile biodégradable afin de ne pas polluer l’eau en cas de fuite. »
La rotation des balais-brosses sur la carène a pour action de retirer le fooling. Crédit G&G Boatwash
Ce procédé nécessite un nettoyage régulier de la carène, dont la fréquence dépend du type d’eau. Pour des bateaux navigants sur des lacs ou dans des eaux froides comme celles situées en Suède, il est nécessaire de laver la coque deux fois par an. Dans les eaux de la zone atlantique, le nettoyage doit être effectué entre 6 à 7 fois par an, et dans des eaux chaudes comme celles de Miami, il doit être réalisé tous les mois. Par contre, le procédé n’est pas adapté aux bateaux restés par exemple deux ans à l’eau et sur la coque desquels sont collés 100 kg de moules.
En dépit de la nécessité de ce nettoyage régulier, ce procédé se révèle malgré tout économique, selon Gaël Minier : « Il ne coûte pas plus cher que le coût de l’application d’une peinture antifouling réalisée par le propriétaire de son bateau, car il faut compter le grutage, le ponçage et la peinture. Et il coûte moins cher que la solution professionnelle d’application d’une peinture antifouling sur un chantier naval. » Aux Sables-d’Olonne, le lavage à l’unité coûte entre 40 à 210 euros selon la taille des bateaux, et il est possible de s’abonner à un nombre de nettoyages illimité à l’année pour un tarif démarrant à 300 euros, pour les bateaux mesurant 6 mètres, à 1 750 euros, pour ceux atteignant 16 mètres.
Ce nettoyage prend peu de temps, environ un quart d’heure. Il présente l’avantage de garder la coque des bateaux en permanence propre et permet ainsi de réaliser des économies de consommation de carburant. Actuellement, la machine est pilotée par un opérateur à l’aide d’une télécommande wi-fi, mais le fabricant suédois poursuit ses travaux de recherche et de développement pour rendre la station totalement autonome, à l’image des stations de lavage automobile.
Dresser des « cartes d’identité » épigénétiques des cellules. C’est l’objectif sur lequel travaille One Biosciences. Outre les mutations de l’ADN, les mécanismes épigénétiques peuvent en effet, dans de nombreux cas de cancers, expliquer la progression des tumeurs et les processus de résistance aux chimiothérapies. Pour parvenir à établir ces cartes d’identités cellulaires individuelles, l’entreprise fait notamment appel à des techniques dites de « microfluidique », permettant d’encapsuler chacune des cellules d’un tissu et donc, in fine, d’en séquencer chacune des molécules d’ARN. C’est ce que nous explique Céline Vallot, directrice de recherche CNRS au laboratoire Dynamique de l’information génétique : bases fondamentales et cancer (CNRS/Institut Curie/Sorbonne Université), co-fondatrice de la start-up One Biosciences et lauréate de la médaille de l’innovation 2022 du CNRS.
Techniques de l’Ingénieur : Comment avez-vous abouti à la création de cette start-up ?
Céline Vallot, co-fondatrice de la start-up One Biosciences et lauréate de la médaille de l’innovation 2022 du CNRS. Crédit : Frédérique PLAS/CNRS Photothèque
Céline Vallot : Cela fait cinq ans que je dirige une équipe de recherche à l’Institut Curie. Mon équipe travaille sur le sujet des mécanismes de résistance aux chimiothérapies dans les cancers du sein. Pour étudier ces mécanismes de résistance, nous avons travaillé sur différents types d’approches que l’on appelle « en cellule unique ». Certaines préexistaient, d’autres sont intégralement le fruit de notre propre développement. Ces approches en cellule unique permettent d’interroger et de dresser la carte d’identité de toutes et de chacune des cellules présentes dans une tumeur et son environnement. Cela permet de comprendre avec une forte granularité ce qu’il se passe : quelle est l’identité des acteurs présents, mais aussi, si l’on a accès à plusieurs prélèvements au cours du temps, quelle est l’évolution de cet écosystème et quels pourraient être les mécanismes de la résistance que l’on observe.
À partir de cela, l’idée, en créant One Biosciences, a été de transformer l’essai, de pousser l’utilisation de ces technologies encore plus près de la réalité des échantillons de patients, en permettant notamment, par exemple, de pouvoir interroger de petits échantillons congelés, qui ne sont d’habitude pas très faciles à étudier. L’objectif de l’entreprise est à la fois d’avoir une expertise pour obtenir des données de haute qualité à partir de ces échantillons, mais aussi de développer une capacité d’analyse de données. Ces technologies produisent en effet des centaines et des centaines de gigaoctets de données par patient. L’idée était donc d’avoir à la fois la partie expérimentale et la capacité d’analyse que l’on avait au laboratoire, et de la transférer à One Biosciences pour pouvoir, à plus grande échelle, étudier de plus larges cohortes d’échantillons de patients. La création de l’entreprise a ainsi eu lieu en juillet 2020 et les premiers employés sont arrivés en janvier 2021.
À quel stade de développement l’entreprise se situe-t-elle aujourd’hui ?
Nous avons déjà deux programmes de recherche engagés, notamment un sur le cancer de l’ovaire, sur lequel nous avons déjà communiqué. L’entreprise est déjà bien financée : nous avons levé à peu près 7 millions d’euros et avons actuellement six employés.
Grâce à nos partenariats, nous avons déjà accumulé beaucoup de données en cellule unique propres – que nous sommes en train d’analyser – et nous essayons d’ouvrir d’autres aires thérapeutiques.
Concrètement, en quoi consiste cette approche d’analyse en cellule unique ? Quelles en sont les principales étapes ?
Il y a deux cas de figure. L’échantillon du patient peut tout d’abord nous arriver directement en sortie de bloc opératoire, sans avoir été congelé ou manipulé. On est alors en « dissocié » : on récupère, en laboratoire, les cellules individuelles contenues dans cet échantillon. Nous utilisons différents types d’équipements, soit de microfluidique, qui permettent de former des micro-gouttelettes pour encapsuler chaque cellule individuelle, soit des robots, que nous utilisons beaucoup chez One Biosciences… Ces robots à haute précision nous permettent en effet de distribuer les cellules dans les puits présents sur des plaques.
Autre cas de figure : si l’échantillon est congelé, nous mettons en œuvre des protocoles que nous avons spécialement développés pour pouvoir préparer cet échantillon et en extraire une partie. Une fois cette étape franchie, nous essayons de collecter tous les produits d’expression des gènes dans ces gouttes ou dans ces puits, afin de les mesurer et de les séquencer. C’est là que nous allons produire une grande quantité de données puisque nous allons lire tous les ARN qui sont produits par chacune des cellules, sachant que l’on étudie des milliers de cellules à la fois, contenant chacune des dizaines de milliers d’ARN…
Une fois ces gigaoctets de données acquis, nous passons à la partie ingénierie des données, à la partie véritablement analytique. Une équipe de One Biosciences est chargée d’aller extraire les informations, de les nettoyer, mais aussi de les modéliser pour essayer d’en tirer des cibles thérapeutiques potentielles et/ou des biomarqueurs.
Pourquoi séquencer l’ARN produit dans les cellules, plutôt que leur ADN ? Quels sont les intérêts de cette approche ?
L’ADN permet plutôt de lire les mutations, alors que l’ARN permet de lire vraiment le comportement de la cellule, ce qu’elle est en train de faire à un instant t. Cela nous donne beaucoup d’informations sur son comportement, sur la manière dont elle réagit aux traitements également. Nous nous sommes aperçus que beaucoup de mécanismes de résistance à des traitements ou de causes de maladies n’étaient pas dus à des mutations. Ça n’est donc pas dans l’ADN que l’on va trouver cette information. L’ARN permet d’avoir une information plus globale du comportement de la cellule.
Plusieurs brevets ont été déposés. Sur quoi portent-ils ?
Céline Vallot est également directrice de recherche CNRS au laboratoire Dynamique de l’information génétique : bases fondamentales et cancer (CNRS/Institut Curie/Sorbonne Université). Crédit : Frédérique PLAS/CNRS Photothèque
Nous avons des brevets portant sur deux licences de logiciels qui ont été déposés, afin de protéger la manière dont nous analysons les données et de pouvoir transférer cela du CNRS et de l’Institut Curie à One Biosciences.
J’avais également, initialement, déposé d’autres brevets, qui ne sont toutefois pas dans le giron de l’entreprise.
Vous évoquiez le sujet de la microfluidique, comment mettez-vous en œuvre cette technique ? Dans quel(s) but(s) ?
Nous utilisons des équipements commerciaux qui nous permettent de générer un flux aqueux, qui, en rencontrant un flux d’huile, va permettre de créer des gouttes. Leur taille est optimisée, ainsi que la fréquence de leur production, pour pouvoir être certain qu’il y a une cellule, au maximum, qui va être emprisonnée dans chacune de ces gouttes. La plupart d’entre elles, à 90 %, sont vides, pour être sûr que les 10 % restants ne contiennent bien qu’une seule cellule. Cela permet de créer, en moins d’une demi-heure, une suspension de dizaines de milliers de gouttes avec une cellule individuelle dans 10 % d’entre elles environ, et donc des milliers de réactions en parallèle. Ceci dans le même volume qu’une seule réaction telle qu’on la réalisait auparavant.
La puissance de ces approches en microfluidique réside dans leur débit et dans leurs capacités à aller isoler des cellules individuelles dans des gouttes séparées.
Au-delà des cancers, quelles sont les perspectives d’applications que vous entrevoyez ?
D’une manière globale, toutes les maladies « complexes », c’est à dire, en gros, toute pathologie qui n’a pas été expliquée jusqu’à présent. Nous nous intéressons par exemple au rein, et nous avons d’autres pathologies dans notre radar… Notre grille de lecture est la suivante : dès lors qu’il n’y a pas eu d’explication précédente, mais aussi dès lors qu’il y a un côté « hétérogène » de la maladie, c’est-à-dire que plusieurs populations de cellules sont impliquées, alors nous voyons l’intérêt d’utiliser des approches en cellule unique. Elles nous permettent en effet de comprendre l’hétérogénéité des prélèvements cliniques et leur évolution au cours du temps.
Les méthodes de reconstruction des récifs coralliens actuelles sont peu adaptées à une utilisation à grande échelle et leurs approches ne sont pas assez holistiques. La méthode proposée ici fait intervenir des technologies avancées comme l’eADN, l’impression 3D de céramique et l’imagerie 3D.
Les récifs coralliens sont partout
Contrairement aux idées reçues, les récifs coralliens ne sont pas réservés aux eaux chaudes et peu profondes des régions tropicales, puisqu’on en a récemment découvert dans les profondeurs de la Méditerranée et au large de la Norvège.
Les récifs coralliens ont une importance capitale, car la variété de la biodiversité des récifs coralliens vaut largement celle des forêts tropicales de Nouvelle-Guinée et d’Amazonie. Ces récifs abriteraient, dans le Monde, près de 2 millions d’espèces différentes !
On estime même qu’un quart des poissons de nos océans, dont des espèces que nous consommons, grandissent dans ces récifs. Préserver les récifs coralliens apparaît comme vital et plusieurs solutions complémentaires existent : ralentir leur déclin, notamment en réduisant l’impact des activités humaines et utiliser des techniques de restauration avancées.
Les technologies 3D au secours des récifs coralliens
Les techniques habituelles de restauration artificielle ont du mal à reproduire la structure 3D complexe des habitats coralliens. De plus, compte tenu de la taille des récifs à restaurer, le passage à l’échelle « production industrielle » apparaît souvent comme problématique.
Dans un article récemment publié dans le journal Science of the Total Environment, une équipe de chercheurs issus de quatre des principales universités israéliennes présente une nouvelle méthode de restauration utilisant les technologies 3D.
Le processus qu’ils ont développé consiste tout d’abord à effectuer des milliers de photographies sous-marines du récif. Les données numériques collectées sont ensuite traitées en laboratoire, ce qui conduit à la création d’un modèle 3D extrêmement précis du récif.
L’analyse de ce modèle permet ensuite de calculer la forme du récif et d’estimer la manière dont elle favorise l’évolution de la diversité des espèces.
Les chercheurs utilisent également une méthode appelée ADN environnemental (eDNA) pour collecter les informations génétiques précises sur les organismes abrités dans le récif.
L’ensemble de ces données sont ensuite incorporées dans un algorithme 3D afin de construire un modèle paramétrique interactif qui s’adapte à l’environnement étudié.
Dernière étape : reproduire un récif en céramique par impression 3D à partir de ce modèle.
L’impression 3D de structures céramiques biomimétiques
Les récifs coralliens naturels sont des assemblages de matériaux calcaires obtenus par biominéralisation. La technique d’impression 3D employée ici utilise une céramique poreuse qui répond aux besoins idéaux en matière de construction et de restauration.
Dans un communiqué de presse, le professeur Ezri Tarazi (Israel Institute of Technology) précise : « L’impression tridimensionnelle avec des matériaux naturels facilite la production d’unités très complexes et diverses, ce qui n’est pas possible avec les moyens habituels de production par moules. »
Processus d’impression 3D de céramique permettant de reproduire la structure de récifs coralliens (Crédits : Haim Zinger, Ofer Berman)
Un modèle adaptable à d’autres types de récifs
Si la méthodologie développée par les chercheurs est basée sur la structure naturelle des récifs coralliens du sud d’Israël, dans le golfe d’Eilat, elle est néanmoins applicable à d’autres environnements marins.
Ainsi, les chercheurs affirment que cette étude répond à deux besoins essentiels pour sauver les récifs coralliens :
trouver des solutions innovantes de restauration rapide à grande échelle ;
recréer la complexité naturelle des récifs coralliens, en termes de taille et de formes, pour favoriser la biodiversité.
Selon Ofer Berman, doctorant et co-auteur de l’étude : « L’utilisation de l’impression tridimensionnelle permet une grande liberté d’action dans la réalité des solutions basées sur des algorithmes, et l’assimilation d’une production durable pour le développement de la réhabilitation marine à grande échelle. »
Les chercheurs espèrent ainsi que les récifs imprimés en 3D qu’ils sont en train d’installer dans le golfe d’Eilat leur permettront d’étendre le champ d’application de cette innovation à d’autres écosystèmes récifaux du monde.
Avec un marché de l’énergie sous tension, il est primordial d’être en veille et de rester au fait des tendances de celui-ci. Dans ce contexte, il est essentiel de se participer à ces deux événements consacrés à l’énergie et aux nouvelles technologies.
GAZELEC représente la meilleure information possible sur les achats d’énergies. En effet, depuis la flambée des prix du gaz et de l’électricité en 2021, le sujet apparaît dans toutes les conversations, de quoi mettre le point sur cette problématique lors du congrès, notamment avec l’arrivée de la guerre en Ukraine qui amplifie cette crise énergétique.
Au programme de cette édition
Une journée de congrès mixte Gaz & Elec qui portera sur des sujets tels que la décarbonation, le biométhane ou encore la place du gaz et le mix énergétique est organisée le 11 octobre.
Puis le 12 octobre, la journée est dédiée à l’électricité.
Et le 13 octobre est une journée de formation à la carte.
D’autre part, le congrès HORIZON HYDROGENE est l’événement parfait pour tous les acteurs de l’hydrogène. Pendant les 48h d’interventions dans 4 salles différentes, les opportunités de vous informer, de débattre, de faire une veille complète sur les dernières innovations et projets, sont multiples.
N’hésitez plus et prenez part à cet évènement professionnel, référence de l’hydrogène en France, pour retrouver 600 professionnels autour d’expériences, de présentations de projets, des démonstrations innovantes sur l’espace Hynnovation, des modules de formations techniques et pédagogiques et bien plus encore.
A l’occasion de ces événements, Techniques de l’Ingénieur vous fait profiter de réduction sur chaque congrès en cliquant ici GAZELEC et HORIZONS HYDROGENE.
Pour plus d’informations, n’hésitez pas à consulter les sites suivants :
Fruit de quatre ans de travaux de recherche et développement, le procédé d’enduction mis au point par l’entreprise tricentenaire Guyenne Papier fait appel à un ingrédient principal tout à fait naturel : l’eau. L’entreprise a également veillé à exclure toute substance controversée, comme les résines fluorées ou certaines nanoparticules. Déclinée en différents produits aux propriétés ciblées – barrière à l’eau, à la graisse, thermoscellabilité… –, cette gamme contient par exemple « Greenbee », un papier enduit 100 % biosourcé et compostable. Sans le moindre gramme de plastique, « Greenbee » se révèle thermoscellable, mais aussi capable d’arrêter la graisse, et peut ainsi être utilisé pour des applications telles que l’emballage de sachets de thé. Céline Procop, PDG de Guyenne Papier, nous en dit plus sur cette référence ainsi que sur les autres produits de la gamme, et revient également en détail sur leur mise au point.
Techniques de l’Ingénieur : Les origines de Guyenne Papier sont très anciennes. Quelle est l’histoire récente de l’entreprise ?
Céline Procop : Les origines du site industriel que nous occupons remontent effectivement à plus de trois cents ans. Nous avons fabriqué du papier jusque dans les années 80, période à laquelle la performance industrielle, l’ouverture des frontières, la capacité des Chinois à faire mieux que nous… nous ont obligés à nous re-concentrer sur un cœur de métier plus stratégique, et à monter en gamme. Nous ne sommes aujourd’hui plus un fabricant de papier, mais ce que l’on appelle un « coucheur-enducteur ». Nous achetons de la matière papier et nous la traitons en surface pour lui donner des propriétés particulières, qui ne peuvent pas être acquises sur une machine à papier directement en ligne de production et qui ne peuvent pas non plus être obtenues par un imprimeur en amont.
Après quatre ans de travail de R&D, vous avez abouti au développement d’un procédé d’enduction permettant de transformer un papier conventionnel en papier d’emballage. Quelles ont été les principales étapes de ce projet ?
L’industrie papetière s’est fait exclure du monde de l’emballage dans les environs des années 1980-90, puisque l’emballage plastique offrait soudainement plein de propriétés intéressantes : à la fois des propriétés de conservation, d’imprimabilité, de résistance ou d’étirement. Du coup, le monde papetier s’est réorienté plutôt vers la communication, l’art graphique. Bien avant cela, le papier faisait pourtant partie du quotidien en matière d’emballage. On se souvient tous des sacs en papier dans les magasins avant qu’ils soient remplacés par du plastique… Guyenne Papier a fabriqué des produits destinés à l’emballage pendant des dizaines d’années. Au fur et à mesure, nous nous sommes aperçus que les clients se faisaient de plus en plus rares.
Avec la loi AGEC¹, la Single use plastic directive², et plus globalement la prise de conscience de l’impact du plastique, qui n’est parfois pas bien recyclé, on a vu arriver un retour du papier pour l’emballage.
Le papier est certes joli et recyclable, mais c’est aussi une matière poreuse, pas thermoscellable… qui n’a donc pas toutes les caractéristiques d’un film plastique. Nous avons ainsi entamé il y a maintenant presque cinq ans un profond travail de R&D pour voir ce que nous pouvions faire, en tant que coucheur-enducteur, pour ajouter au papier un traitement de surface permettant de lui conférer des propriétés qu’il n’a pas au départ. Nous avons réussi à rendre notre matière papier thermoscellante, barrière à la graisse, à l’eau et à l’humidité. Tout cela à un niveau de performance qui, dans certains cas, est identique à celui des films plastiques.
Nous avons réussi à relever ce défi, qui, au départ, ne paraissait pas évident d’un point de vue technologique. D’autant plus que nous avons choisi dès le départ de ne pas aller vers le chemin le plus facile, c’est-à-dire de ne pas utiliser de produits chimiques controversés dans nos sauces d’enduction.
Quels sont ces produits controversés que vous évoquez ?
Il existe aujourd’hui des produits chimiques qui permettent d’arriver à des niveaux de performance intéressants, mais qui sont controversés. Nous évitons donc la résine fluorée, les procédés de type PVdC qui peuvent se révéler perturbateurs endocriniens, mais aussi les PVA, des nanoparticules qui peuvent se retrouver dans les rivières et les océans, ainsi que le polyéthylène, qui ferait que nos produits ne seraient pas mono-matériaux.
Nous n’avons donc pas choisi la route la plus simple, au contraire… C’est pour cela que nous avons eu besoin de temps. Mais aujourd’hui nous avons mis au point des produits qui ont des performances et des propriétés de barrière et de thermoscellabilité très diverses, pour différentes applications, et qui peuvent ainsi constituer des alternatives réelles et concrètes aux emballages plastiques.
Sans révéler de secret industriel, comment êtes-vous justement parvenus à donner au papier toutes ces propriétés ?
L’industrie a plein de ressorts et de capacités… En revanche, la pression du marché et les réalités économiques font que les industriels ne mettent pas forcément en avant leurs meilleurs produits, ou ceux qui sont le plus respectueux de l’environnement. Ça n’était en tout cas pas le cas à l’époque où nous avons lancé ce projet. Nous avons donc fait un gros travail de partenariat avec nos fournisseurs – fournisseurs de matière, fournisseurs de produits chimiques – pour qu’ils se donnent eux-mêmes du mal et ressortent de leurs tiroirs des produits qu’ils avaient inventés par le passé, mais qu’ils n’avaient pas voulu mettre en avant pour des problématiques de coût, de volume minimum etc. Nous avons donc pris le parti de réaliser une grande part du travail en partenariat avec nos fournisseurs. Il s’agissait de recherche appliquée en amont.
Concrètement, comment le procédé est-il mis en œuvre ?
J’ai tendance à donner cet exemple trivial, mais qui est très parlant : c’est comme étaler de la confiture sur une tartine… Nous achetons « le pain », c’est-à-dire le papier, et nous avons une grosse machine qui va venir étaler la « confiture » sur ce « pain ». Notre ingrédient de base est l’eau. Tous nos produits sont des mélanges de produits chimiques de natures diverses mélangés avec de l’eau, qui est le composant principal.
Quels produits avez-vous développés sur la base de procédé ? À quelles applications se destinent-ils ?
Le plastique est une matière fantastique… Pour arriver à être aussi bon que le plastique, c’est donc très compliqué. Il est en train de se passer quelque chose d’assez révolutionnaire en matière de consommation. Nous avons été habitués, en tant que consommateurs, à des produits avec un cahier des charges surqualitatif. Les biscuits, par exemple, n’étaient auparavant pas emballés dans des films plastiques. Si on ne les mangeait pas rapidement, ils ramollissaient… Aujourd’hui, si l’on achète des biscuits, non seulement ils sont contenus dans une boîte en carton, mais en plus ils sont emballés dans un film plastique, qui permet des DLC [dates limites de consommation, n.d.r.] de plusieurs mois. Cette dynamique est, dans certains cas, surqualitative. Nous avons donc découpé notre gamme de produits [baptisée Sunibarrier, n.d.r] pour cibler certaines propriétés d’importance. Dans certains cas, il faut une barrière à l’humidité très importante. C’est ce qu’offre notre produit appelé « Ladybee », qui permet des DLC importantes. Il a aussi une propriété intéressante : sa thermoscellabilité est très importante. Cela est très avantageux pour les industriels sur les lignes d’emballages, car cela permet le maintien des cadences.
Un autre produit de notre gamme, « Universalbee », permet quant à lui d’emballer des matières liquides ou humides et même du gras : barquettes de salade, de carottes râpées, gobelets… Ce que « Ladybee » n’est pas capable de faire.
Enfin, le produit « Greenbee » bénéficie quant à lui d’un traitement de surface basé sur une molécule que l’on retrouve telle quelle dans la nature. Ce produit 100 % biosourcé est ainsi parfaitement biodégradable et possède des propriétés de barrière à la graisse et de thermoscellabilité. Il est adapté à des utilisations courtes ou immédiates, par exemple le papier d’emballage de charcuterie ou de sachets de thé. Il se jette dans le bac jaune et peut même être composté.
Quid, justement, de la recyclabilité de ces différents produits ?
Aujourd’hui, tous les papiers complexés avec du polyéthylène – c’est globalement 90 % de ce que l’on trouve quand on a un emballage papier – sont des perturbateurs de tri. Ils sont aussi gênants pour les fabricants de papier recyclé, qui se retrouvent en effet avec des chaînes longues de polymères qui perturbent leurs procédés de broyage de fibres. Même si les papiers complexés avec du polyéthylène sont dits recyclables, ce ne sont quand même pas des produits très bien accueillis par les recycleurs.
Nos produits, à l’inverse, sont tout simplement entièrement solubles dans l’eau. Contrairement au polyéthylène, nos chaînes de polymères sont très courtes, leur dégradation dans l’eau est donc immédiate. Les particules sont récupérables dans des filtres : on est au-dessus de la nanoparticule, ce qui évite leur disparition dans les eaux des stations d’épuration, mais on est bien en-dessous des chaînes de polymères de polyéthylène.
En matière de coût, où vos produits se situent-ils ?
C’est forcément beaucoup plus cher… Indiscutablement. Nous offrons une solution alternative qui, à ce jour, ne pourra pas remplacer d’office tous les volumes d’emballage réalisés à partir de plastique. Il me semble toutefois y avoir une remise en question à faire, à plein d’égards, sur la manière dont on fabrique et dont on emballe aujourd’hui les produits. C’est un travail collaboratif à mener à la fois avec les transformateurs et les emballeurs finaux. Il y a en effet certainement des optimisations à faire en matière d’emballage. C’est-à-dire que là où aujourd’hui deux types d’emballages se cumulent, nos produits peuvent peut-être permettre de se passer de l’un des deux.
Au-delà de ce projet aujourd’hui abouti, avez-vous prévu d’autres travaux de R&D ?
Oui, bien sûr ! On n’en est aujourd’hui qu’au début de ce que l’on peut découvrir. On a certes des produits qui sont au point, qui sont commercialisés et qui font l’affaire. Au fur et à mesure de l’avancée des choses, nous sommes toutefois confrontés à de nouvelles exigences qui nous permettent de réfléchir à de nouveaux produits.
Nous sommes par exemple en train de sortir une quatrième sous-gamme, un papier « Thermobee », dont la seule ambition est d’être thermoscellant avec une petite barrière à l’eau et qui justement est un produit de volume, dont le modèle économique est plus favorable encore et qui est parfait pour remplacer le papier complexé avec du polyéthylène.
Au-delà du travail de développement et de mise sur le marché de vos produits, vous vous consacrez également à certains engagements… Pouvez-vous nous en dire plus à ce sujet ?
Nous avons un engagement très fort notamment en faveur de l’industrie dans sa globalité. C’est en effet grâce à l’industrie, en France, que l’on peut envisager une certaine autonomie, grâce à des produits qui peuvent faire une vraie différence. Je suis une grande amoureuse de l’industrie pour toutes ces raisons. Je suis donc ravie que l’industrie soit en passe de retrouver ses lettres de noblesse.
Nous avons ainsi des engagements à plusieurs niveaux. Je pars tout d’abord du principe qu’une entreprise doit être poreuse à son environnement immédiat, dans la ville ou le village où elle est située. Nous faisons donc beaucoup de choses en collaboration avec des artistes locaux, des associations…
Plus globalement, nous soutenons des associations telles que Globice et Chelonia, qui se consacrent à la protection de l’environnement, et plus particulièrement à celle des baleines et des tortues. Ces espèces sont en effet directement touchées par la problématique du plastique. Je tiens toutefois à ne pas le décrier, à ne pas opposer les choses, car je pense que le plastique aura toujours sa place parmi nous, mais dans des proportions peut-être plus raisonnables.
Il nous semble en tout cas important de montrer qu’il peut y avoir des produits alternatifs.
[1] Loi anti-gaspillage pour une économie circulaire
[2] Directive sur les plastiques à usage unique : depuis juillet 2021, une directive européenne interdit de mettre sur le marché des pailles, des assiettes ou encore des couverts en plastique à usage unique au sein de l’UE.