Renforcer les engagements pour éviter les +3,1°C

Selon le dernier rapport du GIEC, le monde doit inverser la courbe des émissions mondiales de gaz à effet de serre (GES) « avant 2025 au plus tard » pour espérer limiter le changement climatique sous la barre des 1,5°C, mais aussi des 2°C. Pourtant, les émissions mondiales devraient atteindre 41,6 milliards de tonnes de CO2, en hausse de 2,4 % sur une année, selon le dernier bilan du Global Carbon Project. Cela nous mène tout droit vers un réchauffement hors des clous avec l’Accord de Paris.

Par ailleurs, le Rapport 2024 sur l’écart entre les besoins et les perspectives en matière de réduction des émissions, élaboré par le PNUE, enfonce le clou. Ce rapport suit l’écart persistant entre la trajectoire que prennent les émissions mondiales de GES avec les engagements actuels des pays nécessaires pour limiter le réchauffement climatique sous la barre des 2°C.

Il ne peut être plus clair : « Dans l’état actuel des choses, les contributions déterminées au niveau national (CDN ou National Determined Contribution, NDC) actuelles laissent entrevoir une hausse de la température mondiale de 2,6 à 2,8°C au cours de ce siècle. Pire encore, les politiques actuellement en place ne suffisent pas à atteindre ces CDN. Si rien ne change, nous nous dirigeons vers une hausse de la température de 3,1°C. »

De nouveaux engagements plus ambitieux ?

Dans le cadre de l’Accord de Paris, les pays ont pris l’engagement de réduire leurs émissions via les contributions déterminées au niveau national (CDN). Les Parties à l’Accord de Paris doivent dévoiler de nouvelles CDN en 2025, avant la COP30 qui aura lieu au Brésil. Elles courront jusqu’en 2035 ou 2040, suivant la préférence des pays.

Pour se mettre sur la voie des 1,5°C de réchauffement, les nouvelles CDN devront collectivement réduire de 42 % les émissions de gaz à effet de serre d’ici 2030, indique le PNUE. À l’horizon 2035, les émissions doivent diminuer de 57 %. « Cela signifie que nous devons réduire nos émissions de 7,5 % chaque année jusqu’en 2035, un chiffre qui augmentera avec chaque année d’inaction », préviennent les auteurs du PNUE.

Si cela reste techniquement possible, cela reste « un défi gigantesque qui nécessite une mobilisation mondiale », précise le rapport. L’action doit passer par des investissements massifs dans l’énergie solaire et éolienne, dans les forêts, dans la rénovation énergétique des bâtiments, des transports et de l’industrie. Cela nécessitera une coopération internationale avec « une nouvelle architecture financière mondiale et une action vigoureuse du secteur privé », soulignent les auteurs.


 

Après les JO, la vidéosurveillance algorithmique joue les prolongations

Ce n’est une surprise pour personne. L’expérimentation de la surveillance algorithmique (appelée aussi « vidéo augmentée ») durant les JO de Paris va se généraliser progressivement, tout en douceur. La Préfecture de Police l’avait d’ailleurs testée lors d’un concert de Depeche Mode en mars 2024 à l’Accor Arena de Bercy.

Dans une tribune publiée le 19 octobre dernier dans le quotidien Le monde, Yoann Nabat et Élia Verdon, cofondateurs de l’Observatoire de la surveillance en démocratie, précisaient en effet que la formulation du texte de l’article 10 de la loi du 19 mai 2023 était très large.

De quoi favoriser sa généralisation comme le fichage des empreintes génétiques. « Instauré à la fin des années 90 uniquement pour les auteurs de crimes sexuels, il s’applique aujourd’hui à tous les délits et crimes, même sans condamnation », rappelle Yoann Nabat, qui est également maître de conférences en droit privé et sciences criminelles à l’université Bordeaux Montaigne.

Pas d’efficacité prouvée

Ce texte parlait d’une « expérimentation », autorisant la mise en œuvre de la vidéosurveillance algorithmique afin d’assurer la sécurité des manifestations « sportives, récréatives ou culturelles (…) particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ».

Selon la CNIL, la vidéo augmentée désigne « des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique, en temps réel et en continu, des images captées par la caméra ».

Cette intelligence embarquée repose sur un algorithme qui automatise l’analyse des images captées par caméras, jusqu’à présent réalisée par des opérateurs vidéo au sein de centres de supervision urbains (CSU). Pour les grosses métropoles, la raison officielle est que le grand nombre de caméras déployées nécessite d’automatiser la surveillance.

Le problème est que ces dispositifs n’ont jamais prouvé leur efficacité. « Il n’y a pas à ma connaissance, d’expérimentations qui ont donné lieu à une publication, un rapport, quelque chose qui puisse véritablement étayer un peu l’efficacité de ces dispositifs », constate Yoann Nabat.

Une étude commanditée par la gendarmerie nationale concluait « à un apport très marginal de la vidéosurveillance dans la résolution des enquêtes judiciaires, mais aussi dans la dissuasion ».

Ces dispositifs font débat en France et donnent lieu à différentes plaintes. Trois plaintes collectives ont même été déposées devant la CNIL contre le ministère de l’Intérieur par la Quadrature du Net.

Créée en 2008, cette association, qui promeut et défend les libertés fondamentales dans l’environnement, avait aussi déposé un recours devant le tribunal administratif d’Orléans et une plainte devant la CNIL. Cette ville expérimentait le couplage entre vidéosurveillance et détection sonore.

La tentation est d’autant plus grande pour les municipalités d’associer différentes technologies que le lien entre vidéosurveillance « classique » et vidéosurveillance algorithmique est minime.

« Les logiciels qui supervisent ces caméras dans les centres de sécurité urbains sont généralement équipés de dispositifs algorithmiques, de reconnaissance, etc. Il suffit d’appuyer sur un bouton pour activer la vidéo augmentée », souligne Yoann Nabat.

Or, selon la CNIL, la surveillance algorithmique est illégale et elle doit respecter le RGPD, car il s’agit de traitement de données à caractère personnel. Malgré cela, ces dispositifs devraient continuer à être déployés en toute opacité (le ministère de l’Intérieur ne communiquant pas sur leur nombre).

« Une poignée d’éditeurs et industriels (Thales, Idemia, Neuroo, Datakalab, Two-I, Evitech, NDLR) vont évidemment continuer à développer leurs solutions. D’autres acteurs vont s’y mettre et les mairies vont les acheter. Ça va devenir un argument sécuritaire », déclare Yoann Nabat.

Non, les coquillages ne sont pas un puits de carbone, mais émettent du CO2

Alors que les bivalves (huîtres, moules, palourdes…) sont traditionnellement considérés comme une source de CO² en raison de leurs processus de respiration et de calcification, certaines études récentes suggèrent qu’ils pourraient servir de puits de CO², à l’image des forêts ou des algues. Cette nouvelle hypothèse a fait progressivement son chemin, au point d’envisager sérieusement l’intégration du secteur de la conchyliculture dans le marché du carbone afin de lui attribuer des subventions ou des crédits, car il contribuerait à la capture du CO². Un article publié dans Reviews in Aquaculture vient contredire cette nouvelle interprétation sur le rôle des bivalves dans la lutte contre le changement climatique.

Des scientifiques de l’Ifremer, du CNRS, de l’Université de Gothenburg en Suède et du Laboratoire de radioécologie de l’Agence Internationale d’Énergie Atomique de Monaco ont examiné 51 articles scientifiques qui étudient le lien entre les coquillages et le CO². Ils ont identifié que 36 d’entre eux considéraient que la fabrication des coquilles consomme du CO², mais que leurs conclusions reposaient sur une conception erronée de la chimie des carbonates. Selon eux, le principal malentendu réside dans l’idée que le carbone des coquilles proviendrait du CO² atmosphérique.

Or, « la majeure partie du carbone contenu dans la coquille, sous la forme de carbonate de calcium, provient d’ions carbonate ou bicarbonate issus du processus d’érosion à long terme des roches », écrivent les auteurs de cette étude. À court terme, c’est-à-dire sur une échelle de temps inférieure à 10 000 ans, la production de carbonate de calcium n’accélère pas l’altération ni la capture du CO2 atmosphérique. Pire encore, la respiration et la calcification, à l’origine de la fabrication de la coquille, libèrent du CO² dans l’eau et augmentent donc sa concentration dans l’océan. Au final, ce processus a pour effet de réduire la capacité des océans à stocker le CO² atmosphérique et contribue au changement climatique.

Face à ce constat, les chercheurs recommandent deux solutions. La première consiste à renvoyer les déchets de coquilles dans l’eau de mer après leur consommation, car leur stockage sur terre ne contribue pas à la séquestration du CO². Leur dissolution dans l’eau a au contraire pour effet d’absorber le CO² et compense donc les émissions résultant de la calcification. « Actuellement, la plupart des coquilles sont incinérées, ce qui entraîne une augmentation de la concentration de CO² dans l’atmosphère. Par conséquent, le sort des coquilles après la consommation de chair doit être pris en compte », recommandent les experts de cette étude.

De nombreux services écosystémiques sont rendus par l’élevage de bivalves

La deuxième solution consiste à cultiver des algues en association avec des coquillages, car leur processus de photosynthèse transforme le CO² en biomasse. Cette co-culture devrait permettre de capturer une partie du CO² excédentaire lié à l’élevage. « Le développement de ces deux solutions ouvre de belles perspectives pour réduire la production de CO² de la conchyliculture. Bien que l’élevage de bivalves ne soit pas un puits de CO², il ne faut pas pour autant entraver son développement futur, car ils comptent parmi les sources de protéines animales les moins émettrices de CO². »

Les auteurs de cette étude vont également plus loin et mettent en avant l’importance d’évaluer les efforts visant à lutter contre le changement climatique dans un contexte plus large qui inclut la préservation de la santé écologique, des services écosystémiques et de la biodiversité. « À cet égard, l’élevage de bivalves fournit de nombreux services tels que la filtration et la clarification efficaces de l’eau de mer, la régulation des cycles nutritifs et de l’eutrophisation, et la création d’habitats pour diverses espèces. Par conséquent, l’impact positif global des bivalves sur les écosystèmes marins en fait un élément important de l’aquaculture durable qui ne doit pas être occulté par le fait qu’ils sont des sources de CO². »

Les scientifiques recommandent donc par exemple de poursuivre la conservation des récifs d’huîtres naturels menacés, car ils contribuent à des services écosystémiques essentiels et servent d’habitats pour la biodiversité. « La conservation de ces récifs est également justifiée du point de vue du CO², car ils constituent potentiellement un réservoir enterré de carbone organique qu’il convient d’empêcher de refaire surface et de devenir ainsi une source supplémentaire de CO². »

Les influstriels : un collectif d’influenceurs qui veut sortir l’industrie de l’ombre

Emilie Le Douaron, co-fondatrice (avec Aurélien Gohier, COO de Start Industrie, et Olivier Lluansi, Professeur de Chaire au Conservatoire des arts et métiers) du collectif et professionnelle du marketing a accepté de répondre à nos questions.

Émilie Le DOUARON, Les influstriels
Emilie Le DOUARON, Co-fondatrice du collectif Les influstriels (crédit : cabinet MITI)

Emilie Le Douaron est la dirigeante du cabinet MITI, spécialisé en marketing industriel.

Elle est aussi co-fondatrice et animatrice du collectif d’influenceurs industriels appelé « Les influstriels ».

Le collectif est mobilisé autour de 5 thématiques :

  • Accélérer l’émergence d’un ​nouvel imaginaire autour ​de l’industrie
  • Mettre en valeur et ​contribuer à plus ​d’inclusion et de diversité
  • Soutenir l’industrie ​responsable et circulaire
  • Valoriser les savoir-faire et ​les produits de notre tissu industriel
  • Montrer les mobilisations ​territoriales dans leur ​diversité​

Techniques de l’Ingénieur : D’où est partie l’idée de créer un collectif d’influenceurs industriels ?

Emilie Le DOUARON : Au sein du cabinet MITI, nous avions une liste de personnes à suivre, composée de profils particulièrement influents sur LinkedIn, mais aussi dans les médias spécialisés. Au départ nous l’utilisions pour notre veille personnelle et celle de nos clients.

À force d’échanges, la liste s’est peu à peu consolidée. Elle contient désormais une multitude de personnalités venant d’univers très différents. Or, on a constaté que ces personnalités qui semblaient avoir peu de points communs étaient en réalité ravies d’échanger sur des sujets comme l’acceptabilité sociale de l’industrie, les solutions pour remédier aux tensions de recrutement, notre compétitivité à l’international…

Avec Aurélien et Olivier, les co-fondateurs du collectif, nous nous sommes donc dit : pourquoi ne pas poursuivre ces discussions et capitaliser sur toute cette bonne énergie ? Comme le salon Global Industrie 2024 arrivait, c’était l’endroit parfait pour approfondir la question « Comment augmenter la visibilité de l’industrie via le levier d’influence digitale ? »

Après des échanges passionnants au GI 2024, nous en avons conclu que le levier d’influence digitale reste très peu utilisé dans le B2B et encore moins dans l’industrie, un domaine qui souffre d’un fort déficit de communication.

Pour la suite, l’idée était donc de trouver des moyens de maximiser notre impact et porter certains sujets de manière plus efficace. Un 2e rendez-vous a alors été organisé en mai, dans les locaux de Bpifrance. Il faut dire que Bpifrance nous suit d’assez près, car François-Xavier de Thieulloy, Expert Industrie du futur chez Bpifrance, est aussi membre du collectif (en son nom).

Cette seconde session a pris la forme d’un gros brainstorming autour d’un « cercle d’or ». Elle peut être considérée comme un élément fondateur du collectif, puisque des questions cruciales ont été traitées : que veut-on faire ? Quel est notre rôle ? Qu’est-ce que nous ne sommes pas ?

Pouvez-vous nous dire ce que fait, ou ne fait pas, le collectif des influstriels ?

Avant d’aller plus loin, je dois préciser que le collectif n’est ni un lobby ni un outil de promotion destiné aux entreprises !

Et soyons clairs, il existe déjà énormément d’actions et d’événements en faveur de l’attractivité de l’industrie. Le collectif ne veut pas non plus se substituer à des organisations ou des syndicats qui mettent en place ce type d’actions.

Notre rôle est plutôt de venir se greffer sur ces initiatives, événements professionnels ou campagnes de communication[1], pour mettre en avant certains aspects. Par exemple, début septembre, Lyon a accueilli la 47e Compétition Mondiale des Métiers, connue sous le nom de « WorldSkills 2024 ». Or, nous avions constaté que ces jeux olympiques des métiers souffrent d’un manque de visibilité auprès de certains publics, ce qui est paradoxal pour un événement qui a accueilli plus de 60 000 jeunes et qui est ouvert à tous.

Sur cet événement, le collectif a voulu cibler « les trous dans la raquette », vis-à-vis des campagnes de communication déjà en place. Avec l’équipe de communication Worldskills France, nous avons donc identifié que les parents des élèves de l’enseignement secondaire sont un public assez peu touché, alors que les jeunes le sont beaucoup plus, via les réseaux sociaux comme TikTok ou Instagram.

Cette cible « parents » est justement celle que le collectif peut atteindre via les réseaux professionnels comme LinkedIn. Sur ce réseau social, nous leur disons : l’industrie ce sont des carrières, des niveaux de salaires plus élevés que dans d’autres secteurs qui semblent faire rêver, qu’il y a des métiers porteurs de sens tournés vers l’avenir, etc. Toutes ces actions sont bien entendu construites en accord avec les organisateurs avant d’être lancées.

Pour nos prochaines mobilisations, la même méthode sera appliquée, c’est-à-dire trouver comment aider les organisateurs des événements à maximiser leur impact, sur les thématiques que le collectif veut traiter puis les pousser sur les réseaux, par des posts instructifs pour le lecteur, riches des expériences de chaque membre du collectif. Par ailleurs, je précise qu’il n’y a pas de comité de validation des posts et que les membres sont libres de publier ou pas !

Vous êtes donc intervenus à Lyon qui est une grande ville. Comptez-vous intervenir sur tout le territoire ?

Les membres du collectif veulent aller vite, faire mieux et être présents partout. Nous voulons que « partout » soit un mot au cœur de nos actions, car c’est dans les territoires qu’il y a le plus besoin d’une industrie forte.

Chaque fois qu’une grosse entreprise s’implante dans un territoire, c’est une nouvelle opportunité de créer du lien social et d’apporter de la cohésion. Bien qu’il se passe plein de choses intéressantes à Paris et dans les grandes métropoles, ce sont les territoires qui ont le plus besoin de notre aide.

Le collectif est tout jeune. Que prévoyez-vous pour l’avenir ?

À l’avenir, nous souhaiterions élargir notre champ d’action en dehors de LinkedIn, qui reste un petit microcosme, en nous associant à d’autres événements, pas forcément professionnels d’ailleurs. Nous allons devoir élargir les canaux, les modes de mobilisation et la diversité des profils au sein du collectif, en intégrant notamment des personnes pour qui LinkedIn n’est pas le meilleur endroit pour prendre la parole.

Pour ce qui est de 2025, nous avons déjà quelques idées en tête, comme initier à des ateliers qui aideront les dirigeants et dirigeantes de l’industrie à plus prendre la parole. Nous leur disons : « Ce sont vous, dirigeants et dirigeantes, ainsi que vos équipes, qui parlez le mieux de l’industrie, car vous êtes sur le terrain. Il est important que vous sortiez de l’ombre et le collectif va vous y aider. »

Bien entendu, pour accélérer, nous allons devoir consolider notre organisation ! En effet, le collectif est né il y a seulement quelques mois et nous n’avons pas encore de statut juridique. Nous réfléchissons donc à la meilleure manière de nous structurer pour le début de l’année 2025, ce qui nous permettra, à plus long terme, d’être encore plus ambitieux et impactants.

Les Influstriels


[1] Exemples de campagnes :  Avec l’industrie « On a un avenir à fabriquer », le « tour de France de l’industrie » de la FrenchFab, etc.

Ingénieur en bureau d’études : 6 cartes à jouer

Voici la sélection d’articles et de fiches pratiques pour mener à bien vos projets industriels, disponible jusqu’au 24 Novembre 2024 :

Bonne lecture !

 

 

De la médecine à la bioinformatique, il n’y a qu’un pas… franchi par Élodie Germani

C’est au détour d’un stage dans un laboratoire de recherche en mathématiques appliquées qu’Élodie Germani, qui se destinait initialement à une carrière de médecin, s’est découvert une passion pour la bioinformatique. Une révélation qui la conduira finalement vers une thèse, au cours de laquelle elle mène des travaux à l’interface entre l’informatique et la médecine, portant sur les usages de l’intelligence artificielle pour la recherche expérimentale en imagerie médicale. Docteure depuis septembre dernier, elle a entretemps entamé un parcours de post-doctorat à Bonn, en Allemagne.

Techniques de l’Ingénieur : Quel a été le parcours qui vous a menée jusqu’à ce doctorat en physique ?

Élodie Germani : Mon parcours est assez atypique. Le lycée a pour moi été une étape clé. En seconde, j’ai dû prendre une décision quant à mon orientation, à une époque où l’on parlait encore de bac S, ES et L. Depuis toute petite, j’étais attirée par les sciences, la médecine, mais aussi le journalisme ou encore l’écriture. J’avais donc face à moi une très large palette de choix possibles. J’ai aussi, à ce moment-là, commencé à douter de mes compétences. J’ai failli m’orienter vers un bac STMG (Sciences et technologies du management et de la gestion, n.d.l.r.), car j’avais au départ un peu peur de ne pas réussir dans une filière scientifique… C’est pourtant finalement la voie que j’ai choisie, et qui m’a amenée jusqu’à un baccalauréat scientifique, que j’ai obtenu avec mention « très bien ». Je me suis alors à nouveau trouvée confrontée au même dilemme : que faire maintenant ? J’ai finalement opté pour des études de médecine, sans trop me poser de questions… Ça n’est qu’en quatrième année que je me suis rendu compte que, même si j’adorais ce que j’apprenais, certains aspects de ce futur métier de médecin ne me correspondraient pas : le contact avec les patients, le fait d’être toujours dans l’action… J’avais besoin d’un métier plus posé. J’ai donc commencé à exprimer mes doutes à ma famille, mais aussi à mes enseignants.

L’un de mes professeurs de l’Université de Versailles Saint-Quentin-en-Yvelines m’a alors suggéré d’entamer un double cursus médecine-sciences, et m’a même orientée vers un laboratoire de recherche susceptible de m’accueillir en tant que stagiaire.

C’est comme cela que j’ai eu l’opportunité de faire un stage de recherche au sein d’une structure de l’Université Paris-Descartes (désormais Université Paris Cité, n.d.l.r.) : le laboratoire de mathématiques appliquées MAP5. Ce fut une expérience de quelques semaines seulement, mais elle m’a permis de rencontrer mon mentor, qui m’a initiée en un temps record à la programmation, au machine learning… Cela a été pour moi une vraie révélation, un électrochoc !

J’ai alors postulé à différents masters en bioinformatique, et j’ai finalement choisi celui de l’Université de Rennes. Cela ne devait être qu’une année de césure, avant un retour à la médecine. Mais cela m’a tellement plu que j’ai finalement choisi de me consacrer entièrement à la bioinformatique. J’ai alors enchaîné avec un master 2, puis une thèse de doctorat, que j’ai soutenue en septembre dernier.

Avez-vous le sentiment que votre genre a eu un impact sur le déroulement de ce parcours que vous venez de décrire ? Si c’est le cas, a-t-il été plutôt un frein, un handicap, ou au contraire un atout, un levier qui vous a permis d’avancer ?

J’ai justement beaucoup réfléchi à cette question dernièrement. J’en suis finalement arrivée à la conclusion que cela avait à la fois eu des impacts positifs et négatifs. Positifs tout d’abord, car être une femme m’a ouvert des possibilités auxquelles je n’aurais pas forcément eu accès si j’avais été un homme : des actions réservées aux femmes, visant à rétablir une forme d’égalité.

En mon for intérieur, j’ai toutefois aussi ressenti, en tant que femme, une sorte de syndrome de l’imposteur, dont j’ai eu du mal à me débarrasser, en évoluant dans ce milieu très masculin de l’informatique. Je me suis donc efforcée de ne plus penser que je n’en étais arrivé là que parce que je suis une femme – pour les quotas – et que mes travaux, mes compétences, valaient moins que ceux d’un homme. Cela a été un vrai obstacle pour moi, et cette charge mentale permanente a même eu des impacts sur ma santé.

Quels travaux avez-vous menés au cours de ces trois années de thèse ? Quel(s) résultat(s) marquant(s) mettriez-vous plus particulièrement en avant ?

J’ai travaillé à l’interface entre l’informatique et la médecine, sur des usages de l’intelligence artificielle pour l’imagerie médicale, et plus précisément pour la recherche expérimentale en imagerie médicale.

Il y a quelques années, on a en effet assisté à l’émergence d’une crise de la reproductibilité dans le domaine de la recherche expérimentale, qui a mis en lumière le fait qu’une grande partie des résultats publiés étaient peu robustes, peu fiables, peu généralisables, et parfois même tout simplement faux ! Ça a notamment été le cas au cours de la crise sanitaire…

J’ai donc travaillé sur des systèmes d’intelligence artificielle visant à proposer des solutions aux chercheurs afin que, au moment de la conception de leur protocole de recherche expérimentale, ils fassent appel à des méthodes plus fiables et plus robustes. Ceci, afin qu’ils puissent obtenir in fine des résultats eux aussi plus fiables et plus robustes.

Le projet qui m’a menée à ma première publication était un travail autour de l’IRM fonctionnelle cérébrale (IRMf), une modalité d’imagerie dans laquelle on étudie l’activité du cerveau. Différents types d’études peuvent être menés à l’aide de cette méthode. J’ai, pour ma part, travaillé sur une étude de décodage, visant à identifier une activité donnée menée par un participant, ou un stimulus reçu, à partir des données d’IRMf. J’ai proposé une solution aux chercheurs visant à rendre ces études de décodage plus robustes, et à ce qu’elles fournissent des résultats plus facilement généralisables entre différents individus, en réutilisant des données présentes sur des plateformes publiques.

Ce mouvement de la « science ouverte » me tient d’ailleurs particulièrement à cœur. Les chercheurs sont de plus en plus nombreux à mettre à disposition publiquement les données issues de leurs travaux, qui sont, malheureusement encore très peu réutilisées. J’ai montré que, même si cette réutilisation n’est pas forcément évidente, de par notamment l’hétérogénéité des données, on pouvait justement tirer parti de leur caractère hétérogène, de leur variabilité, pour qu’ensuite les études construites à partir de ces données soient plus robustes et généralisables.

J’ai par ailleurs aussi pu commencer à travailler sur des applications de l’IA davantage liées à la pratique clinique, notamment pendant une période de mobilité internationale que j’ai passée au Canada, à Montréal. Ce travail, qui a consisté à évaluer la reproductibilité et la robustesse d’une étude utilisant de l’imagerie médicale en association avec des techniques d’apprentissage automatique pour prédire l’évolution de la maladie de Parkinson, a lui aussi fait l’objet d’une prépublication.

C’est vers ce type de travail davantage lié à des applications cliniques que je compte désormais me diriger. Il reste en effet encore énormément de problématiques qui freinent le développement de l’usage de systèmes d’IA dans le domaine imagerie médicale.

Notamment, sans doute, celle de l’explicabilité des résultats apportés par ces algorithmes d’IA… ?

C’est effectivement une problématique majeure en médecine, sur laquelle je ne travaille pas directement, mais dont j’entends énormément parler. C’est un sujet qui pose encore problème : les médecins ont besoin de pouvoir comprendre pourquoi un modèle d’IA leur apporte un résultat donné, pour un patient donné, et de s’assurer que ce résultat n’est pas affecté par un biais quelconque.

Vous avez, vous le disiez, soutenu votre thèse en septembre dernier… Quelle sera la suite de votre parcours ?

J’ai débuté, le 1er octobre dernier, un contrat post-doctoral à l’Université de Bonn, en Allemagne.

Je continue à travailler sur ces problématiques liées à l’utilisation de modèles d’IA en imagerie médicale, mais, comme je l’évoquais, pour des applications plus directement liées à la pratique clinique. Je vais plus particulièrement me pencher sur les aspects liés à la sécurité de l’utilisation de l’IA, mais aussi sur la question de la qualité des données, notamment dans les milieux à faibles ressources, qui manquent souvent de moyens humains.

Quelles perspectives ce Prix Jeunes Talents France 2024 LOréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 9 octobre dernier ouvre-t-il pour vous et la poursuite de votre carrière ?

Ce prix va tout d’abord m’offrir davantage de visibilité. Quand j’ai envoyé ma candidature, je n’avais d’ailleurs pas pris la mesure de la reconnaissance que cela allait m’apporter ! J’enchaîne aujourd’hui les interviews avec l’impression d’être une célébrité ! (Rires.) C’est vraiment chouette, et cela va m’aider à montrer que mes travaux ont de l’importance. J’espère aussi pouvoir contribuer à réduire par la même occasion les craintes du grand public autour de l’IA.

Je pense que ce prix va aussi m’aider, dans la suite de ma carrière, à décrocher des financements. C’est un vrai « plus » sur un CV, qui peut avoir un impact important par la suite.

Sur le plan des relations, ce prix m’ouvre aussi de nouvelles perspectives, ne serait-ce qu’en m’ayant permis de rencontrer les 34 autres lauréates. Nous avons passé trois jours de séminaires toutes ensemble. Pendant ce séjour, j’ai d’ailleurs pu nouer un lien privilégié avec l’une d’entre elles, et nous allons lancer un projet de recherche ensemble !

Ce prix m’a donc d’ores et déjà permis de vivre des choses très positives, et il m’a, en plus, aidée à gagner en maturité, à tout de suite pouvoir entrer dans le vif du sujet de mon post-doc[1], notamment sur des aspects tels que les demandes de financements, la création de projets… Ce prix a été une vraie accélération pour moi, il m’a boostée d’une façon incroyable !

Une question subsidiaire, pour terminer… Avez-vous éventuellement en tête un exemple de figure féminine marquante à vos yeux, de l’Histoire des sciences, ou du monde scientifique contemporain ?

En ce qui concerne les grandes figures du passé, j’aurais évidemment tendance à citer Marie Curie… ! Mais c’est une personnalité actuelle que j’admire encore davantage, que je suis sur les réseaux, et qui est un vrai modèle pour moi : Cassie Kozyrkov, spécialiste de l’IA passée notamment par Google. C’est une femme qui m’a beaucoup inspirée quand j’ai commencé à travailler dans ce domaine. J’ai écouté toutes ses conférences, tous ses podcasts… Elle est pour moi le symbole de l’empowerment des femmes, et un vrai role model !

 


[1] Post-doctorat

Un référentiel pour mesurer et réduire l’impact environnemental de l’IA

Les systèmes sollicitant une IA (Intelligence artificielle) sont très énergivores. Pour fonctionner, ils ont besoin d’importantes capacités de calcul afin de s’entraîner sur des milliards de données, ce qui nécessite des serveurs puissants. Une requête à ChatGPT nécessite par exemple 10 fois plus d’énergie en moyenne qu’une simple recherche sur Google. Selon l’AIE (Agence internationale de l’énergie), la consommation électrique mondiale des secteurs de l’IA et des datacenters pourrait plus que doubler en 2026, comparée à 2022, et atteindre 1 050 Twh (térawattheure), soit l’équivalent de la consommation électrique du Japon.

Sur une initiative d’Ecolab, le laboratoire de l’innovation du Commissariat Général du Développement Durable (CGDD), l’Association française de normalisation (AFNOR) vient de publier une méthodologie pour évaluer l’effet d’un service d’IA sur l’environnement. En plus de fournir un premier référentiel opérationnel pour quantifier son impact, le document vise à fournir des clés pour éviter les pièges et aller dans le sens d’une IA frugale.

La méthode a été élaborée selon une approche globale, c’est-à-dire qu’elle couvre toutes les ressources numériques mobilisées pour permettre de délivrer le service. À commencer par les centres de données (serveurs, baies de stockage, équipement réseau) qui permettent l’hébergement et le traitement des données numériques. Viennent ensuite les infrastructures réseaux qui assurent la transmission des données vers les utilisateurs. Et enfin les terminaux (smartphones, ordinateurs, téléviseurs, autres) dont le rôle est l’exploitation, la réception et la consultation des contenus.

L’ensemble du cycle de vie d’un système est pris en compte, depuis sa conception jusqu’à sa mise en service, en passant par son développement. Plusieurs indicateurs environnementaux sont inclus, parmi lesquels l’épuisement des ressources naturelles (minéraux et métaux), de même que celles en eau, car d’importantes quantités sont nécessaires pour réguler la température à l’intérieur des datacenters.

L’IA ne doit pas devenir une réponse systématique à tous les besoins

Outre les effets directs, les impacts indirects sont également évalués, par exemple celui appelé « effet rebond » qui prend en considération cette situation : quand l’efficience d’une IA la rend moins coûteuse et plus facile à embarquer, son utilisation peut augmenter et au final, son impact environnemental sera plus important. Ou encore, l’effet d’obsolescence lié au renouvellement accéléré d’un système d’IA suite à l’arrivée d’une nouvelle génération de service numérique.

Le référentiel propose aussi un ensemble de bonnes pratiques à adopter pour tendre vers un système d’IA frugale. Il est notamment recommandé de choisir et de développer une solution pour répondre spécifiquement à un besoin, en considérant également toutes les alternatives à l’IA. Cette dernière ne doit pas devenir une réponse systématique et doit avant tout être considérée comme « un type de solution dont l’intérêt et l’impact doivent être évalués et comparés à d’autres solutions plus classiques pour identifier la solution la plus pertinente, notamment sur le plan environnemental », recommandent les auteurs de ce guide.

Pour tendre vers plus de frugalité, il est aussi possible de réutiliser des algorithmes déjà entraînés puisque de nombreuses plateformes de modèles en Open Source existent et permettent de facilement trouver des modèles déjà opérationnels sur des tâches spécifiques. Il est également possible de partager ses modèles au sein de la communauté et de les rendre accessibles, par exemple via la plateforme HuggingFace.

La compression de données est également une solution à retenir, puisque diminuer le volume de stockage est un facteur de réduction de la consommation énergétique. Cette stratégie peut être appliquée lorsque les algorithmes d’IA n’utilisent qu’une partie des données ou une version dégradée de celles-ci, par exemple une image en plus basse résolution que celle stockée. De la même manière, « après la mise hors service d’un service d’IA, si la suppression des données n’est pas envisageable, les compresser peut être un compromis intéressant entre le fait de capitaliser sur les données d’exploitation du service et le fait de garder une approche frugale. »

France à +4°C : la canicule de 2003 sera routinière

Dans un climat stabilisé autour des années 2000, une canicule comme celle de 2003 ne se produirait en moyenne qu’une fois tous les 250 ans environ. Mais dans une France réchauffée de 4°C, cet événement météorologique ne serait plus du tout exceptionnel. C’est la conclusion d’une étude récente de Callendar, start-up spécialisée dans l’évaluation des risques climatiques.

Vers une banalisation des canicules extrêmes

La canicule d’août 2003 a marqué les esprits par son intensité et ses conséquences dramatiques. Ce pic de chaleur sans précédent a causé une surmortalité de 48 %, une baisse générale des rendements agricoles et un recul de l’activité économique. Avec le réchauffement climatique de l’époque, un tel événement restait exceptionnel, avec une probabilité d’apparition d’environ 0,4 % par an. Son occurrence théorique était d’une fois tous les 250 ans.

Mais dans un scénario de réchauffement de 4°C en moyenne en France métropolitaine, l’étude montre que la canicule de 2003 deviendrait la norme dans de nombreuses grandes villes françaises. À Paris, un tel événement se produirait en moyenne quatre fois par décennie. À Marseille, Nice et Montpellier, des vagues de chaleur comparables ou supérieures à la canicule de 2033 se produiraient presque chaque année. À Lyon et Toulouse, on en observerait environ cinq par décennie.

Ces vagues de chaleur deviendraient donc beaucoup plus fréquentes, plus longues et plus sévères. Dans certaines régions, elles pourraient ainsi perdurer plus de deux mois, rendant leur gestion encore plus complexe. « Le coût sanitaire, social, financier et environnemental de telles canicules pourrait être immense », prévient l’étude.

Les défis de l’adaptation

Les défis liés à l’adaptation sont particulièrement importants dans «des secteurs, comme la construction, l’urbanisme ou les infrastructures, où les transformations sont très lentes », souligne l’étude. La transformation des infrastructures, de l’agriculture, du travail, des systèmes de santé, des modes de vie seront notamment incontournables pour faire face à ces canicules extrêmes.

Callendar rappelle l’intérêt de réduire rapidement les émissions de gaz à effet de serre pour limiter l’intensité et la fréquence de ces canicules. Toutefois, même en limitant le réchauffement climatique sous la barre des 2°C au niveau mondial (2,7°C en France métropolitaine), les vagues de chaleur seraient beaucoup plus fréquentes qu’aujourd’hui. « Le respect de l’Accord de Paris ne permet pas d’éviter la multiplication des vagues de chaleur, mais la fréquence des canicules les plus sévères, équivalentes ou supérieures à 2003, resterait environ deux fois inférieure à celle projetée pour un réchauffement de 4°C. » Dans ce contexte, la canicule de 2003 se produirait environ deux fois par décennie à Paris.

Des pistes pour réduire les émissions de gaz à effet de serre de l’élevage en France

Après les transports, l’agriculture est le deuxième poste d’émissions de gaz à effet de serre en France, presque à égalité avec l’industrie et la construction. Avec ses 18 millions de bovins, 14 millions de porcins et 158 millions de volailles, le secteur de l’élevage représente 59 % de ces émissions. Réduire ces rejets est un enjeu important pour atteindre notamment l’objectif de neutralité carbone à l’horizon 2050. L’Inrae vient de publier un document dans lequel il recense, entre autres, tous les projets de recherche et les pistes développées pour réduire ces émissions.

Et en premier, celles de méthane, deuxième contributeur à l’effet de serre en France après le CO2 et dont le pouvoir réchauffant est 80 fois plus élevé. L’agriculture représente 71 % de ces émissions en France et l’élevage est le principal poste, en particulier les ruminants du fait de leur processus biologique de digestion, appelé la méthanogenèse. Les microorganismes hébergés dans le rumen des bovins produisent en effet du méthane, un sous-produit de la fermentation des aliments.

La piste la plus étudiée pour réduire les émissions des bovins consiste à modifier la composition de leurs rations. Si le pâturage des bovins représente un levier important pour y contribuer, la distribution de fourrages complémentés par un concentré riche en céréales et oléagineux est aussi une solution à retenir et peut permettre de réduire les émissions de méthane jusqu’à 20 %. Les chercheurs sont allés plus loin et ont calculé que l’apport de certains compléments alimentaires à base d’algues rouges ou d’acides gras issus d’oléagineux comme le lin, pourrait réduire les émissions jusqu’à 40 %.

Baisser les périodes improductives des animaux

La génétique est un autre axe en cours d’étude, car elle représente une part estimée à environ 15 % dans la variabilité des émissions de méthane des bovins. Les scientifiques sont parvenus à prédire cette composante génétique à partir notamment de l’analyse du lait de chaque vache. Dès l’année prochaine, les organismes de sélection pourront inclure le critère de production de méthane dans leurs schémas de sélection des animaux. En attribuant un poids de 20 % à ce critère dans le schéma de sélection, il serait possible de baisser d’environ 10 % les émissions de méthane en 10 ans de sélection et de 30 % dans 30 ans.

Autre axe de recherche, cette fois-ci indirect : la gestion du troupeau. L’idée ici est de réduire les périodes improductives des animaux, en débutant par exemple plus tôt la reproduction, avec des mises-bas à deux ans. En évitant de nourrir trop longtemps des génisses qui ne produisent pas encore de lait, cette conduite pourrait permettre de réduire les émissions de méthane des vaches d’environ 10 %. Une autre solution consiste à allonger le nombre de lactations des vaches, plutôt que de les remplacer dès que la génération suivante arrive à maturité.

Près de 300 fois plus réchauffant que le CO2, le protoxyde d’azote (N2O) est un autre gaz à effet de serre émis par l’élevage, le troisième contributeur en France. L’agriculture est le principal émetteur, puisque environ 86 % des émissions nationales proviennent notamment de la fertilisation des sols par les engrais azotés, qu’ils soient minéraux ou issus des effluents d’élevages. En plus du N2O, ces procédés de fertilisation sont également les principales sources d’émissions d’ammoniac (NH3), un gaz précurseur de particules fines.

Certaines techniques d’épandage ont été identifiées comme pouvant provoquer une émission massive de protoxyde d’azote et d’ammoniac, entre autres lorsque les effluents sont en contact avec l’air. Notamment, celle nommée le splashing, qui consiste à employer une buse palette pour projeter les effluents à longue distance dans les champs. Les chercheurs préconisent à présent leur dépôt direct sur le sol grâce à des pendillards ou leur enfouissement par injection dans le sol ; deux techniques qui peuvent réduire jusqu’à 90 % les émissions d’ammoniac.

Remplacer le tourteau de soja par des acides aminés de synthèse

Représentant entre 65 et 95 % de l’impact environnemental d’un animal d’élevage, la fabrication des aliments est un autre domaine sur lequel intervenir pour en limiter les effets. Pour comprendre cet impact, il suffit d’analyser la ration des porcs, constituée de 70 % de céréales (blé, maïs, orge, triticale), mais aussi de 15 % de tourteaux (colza, soja, tournesol). Or, ces derniers sont fréquemment importés et issus de zones déforestées, comme c’est le cas du tourteau de soja provenant du Brésil.

Au cours d’une expérimentation, les scientifiques ont remplacé ce tourteau de soja par des acides aminés de synthèse. Résultat : même si la croissance des animaux a ralenti, une meilleure valorisation de l’azote a été observée par ces derniers. Ce changement de formulation a aussi permis de réduire d’environ 20 % l’impact sur le changement climatique. Ce gain a pu être calculé grâce à une base de données baptisée ECOALIM, que l’Inrae publie depuis une dizaine d’années, et qui évalue les impacts environnementaux des matières premières utilisées dans la formulation des aliments.

Un dernier levier consiste à améliorer l’efficacité alimentaire des porcs, c’est-à-dire leur capacité à convertir l’aliment qu’ils consomment en gain de poids. Elle peut être obtenue grâce à une sélection génétique des animaux présentant ce caractère ainsi qu’à l’optimisation nutritionnelle des rations en fonction des besoins nutritionnels individuels des animaux. Grâce à l’apport d’aliments ajustés à leurs besoins spécifiques et optimisés en termes d’impacts environnementaux, les scientifiques ont calculé qu’il serait possible de réduire de 5 % à 9 % l’impact environnemental des animaux en fonction de leur profil génétique.

Revue du Magazine d’actualité #9 : du 4 au 8 novembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Trump réélu : un avertissement pour l’industrie européenne

Avec la réélection de Donald Trump, l’Union Européenne se prépare à un nouveau choc économique. Entre menaces d’augmentation des droits de douane et tensions commerciales avec la Chine, les conséquences pour l’industrie européenne pourraient être considérables. Face à cette nouvelle ère d’isolationnisme américain, l’Europe doit renforcer son autonomie industrielle et sa cohésion pour protéger son économie.
Les défis de l’industrie européenne

REACH 2025 : vers une révision ambitieuse pour encadrer les substances chimiques en Europe

La Commission européenne prévoit de simplifier le règlement REACH pour une gestion plus rapide et efficace des substances chimiques. Avec un accent sur les PFAS et une meilleure coordination entre législations, cette réforme vise à renforcer la sécurité sanitaire et environnementale tout en soutenant la compétitivité des industries chimiques européennes.
Les changements en matière de substances chimiques en Europe

Taxe carbone mondiale pour le transport maritime, de l’UE vers le Monde ?

Alors que l’Union européenne a déjà intégré le transport maritime dans son marché carbone, l’idée d’une taxe carbone mondiale gagne du terrain au sein de l’Organisation maritime internationale. L’objectif : financer la transition écologique du secteur et réduire ses émissions de gaz à effet de serre, qui représentent 3 % des émissions mondiales.
L’UE ouvre la voie vers une taxe carbone mondiale pour le maritime ?

Les gobelets en carton peuvent-ils vraiment être sans plastique ?

Face aux critiques et aux exigences croissantes de réduction du plastique, les fabricants de gobelets en carton innovent pour allier performance et durabilité. Mais est-il vraiment possible de garantir une solution 100% sans plastique tout en préservant étanchéité et recyclabilité ?
L’étanchéité sans plastique ? 

Une approche combinant HPC, IA et calcul quantique pour découvrir des médicaments

Avec ses avancées en calcul quantique et en intelligence artificielle, Qubit Pharmaceuticals accélère la découverte de nouveaux médicaments, ouvrant la voie à des traitements plus sûrs et efficaces. Grâce à son émulateur de qubits Hyperion-1, la deeptech parisienne prépare l’avenir de la médecine assistée par des technologies hybrides alliant puissance de calcul et précision quantique.
L’avenir de la médecine par le quantique

 

Bientôt une taxe carbone mondiale pour le transport maritime ?

Le commerce maritime représente à lui seul 3 % des émissions mondiales de gaz à effet de serre. C’est plus que l’aviation commerciale (2,6 %), pourtant on en parle moins alors que le problème de fond est le même : décarboner les modes de transport.

Mais à l’instar du secteur aérien, l’OMI s’est récemment engagée à atteindre la neutralité carbone en 2050. L’OMI a d’ailleurs relevé ses ambitions, puisqu’en 2018 l’objectif n’était que de 50 % de réduction pour 2050. Sur le papier, les choses avancent donc dans le bon sens. Expérimentation de nouveaux carburants décarbonés, normes pour réduire l’intensité carbone des carburants, modification des coques, réduction de la vitesse, incitations économiques…, de nombreux leviers sont ainsi envisagés.

Une transition nécessaire, mais qui va coûter cher

Comme toujours, lorsqu’on parle de transition (climatique, énergétique, économie circulaire, numérique…), la clé du succès est dans le financement. Car le coût, à l’échelle globale, sera colossal. Selon la CNUCED[1], « la décarbonisation de la flotte mondiale d’ici à 2050 pourrait coûter entre 8 et 28 milliards de dollars par an, auxquels s’ajouteraient 28 à 90 milliards de dollars par an pour l’infrastructure des carburants neutres en carbone. »

Pour ne rien arranger, si cette taxe entraîne une hausse trop élevée des frais de transport, l’économie mondiale en sera forcément affectée : on parle de 0,08 % de PIB dans le pire des cas, ce qui équivaudrait tout de même à une perte de 80 milliards de dollars supplémentaires !

Une taxe qui ne fait pas l’unanimité, mais les négociations progressent

La mise en place d’une taxe carbone implique d’évaluer les émissions de CO2 des navires et d’établir une tarification de ces émissions. Les émissions de CO2 deviennent donc coûteuses, ce qui incite les compagnies maritimes à investir dans des pratiques permettant de réduire leurs émissions. Les revenus générés peuvent alors être réinvestis pour financer la décarbonation.

Voilà pour le principe. Mais une telle taxe soulève beaucoup de questions et suppose que les membres de l’OMI arrivent à se mettre d’accord sur le montant de la taxe et sur le fléchage des recettes. Surtout que la taxe carbone, sujet défendu par la France, comme par de nombreuses ONG, ne fait pas encore l’unanimité.

En fait, tout dépend de la situation des pays. De manière logique, les pays qui dépendent fortement du commerce maritime sont souvent plus réticents. D’un côté, les exportateurs de matières premières, notamment en Amérique latine, ont peur de perdre des parts de marché. De l’autre, les pays qui dépendent des importations et exportent peu, typiquement les États insulaires, sont rarement favorables.

Mais voyons les choses positivement : l’idée d’une taxe carbone fait son chemin. En effet, lors des discussions qui ont eu lieu à l’OMI en mars 2024, seulement 34 pays sur les 176 États membres de l’OMI y étaient favorables. Lors des négociations de septembre, ils étaient 39 !

La taxe carbone européenne est déjà une réalité

En 2022, les députés européens ont voté l’élargissement du marché carbone au transport maritime, dans le cadre du Pacte vert de l’UE. Depuis le 1er janvier 2024, le transport maritime est donc inclus dans le système d’échange de quotas d’émission (ETS) de l’Union européenne.

En adoptant ce système d’échange, l’UE ouvre ainsi la voie vers le déploiement d’un système plus global. Car il ne faut pas oublier que 84 % du trafic maritime passe par l’UE, les États-Unis et la Chine. De fait, la responsabilité des grandes économies est forte en matière d’émissions et elles doivent montrer l’exemple pour convaincre les autres pays d’adopter cette solution.

Mais l’équation est complexe, et les paramètres à considérer sont nombreux pour arriver à un consensus international. En attendant, les travaux se poursuivent. Ils aboutiront à un rapport qui sera présenté en avril 2025, lors de la prochaine réunion MEPC 83.

[1] Conférence des Nations Unies sur le commerce et le développement

Sanofi mise tout sur les nouvelles thérapies

Médicament le plus vendu en France, le Doliprane va passer sous le contrôle d’un fonds d’investissement américain, CD&R. En effet, le groupe Sanofi a formalisé le 21 octobre dernier la cession de 50% de sa filiale Opella, qui produit ce médicament. L’Etat, en entrant au capital d’Opella – via Bpifrance – à hauteur de 150 millions d’euros, veut garantir le maintien des emplois sur le territoire, ainsi que la production en France de 250 millions de boîtes de Doliprane par an pendant les cinq prochaines années, au moins. 

Il faut savoir que cette cession ne concerne pas que le doliprane, mais également l’Aspegic, le Mucosolvan, Maalox, entre autres.

Au-delà des réactions indignées du personnel politique, comparant cette cession à celle d’Alstom il y a quelques années, il faut tenter de comprendre quelle est la stratégie de Sanofi sur le long terme. 

Depuis plusieurs années, Sanofi a affiché une stratégie claire, à savoir la volonté de regrouper tous les produits grand public au sein d’une même filiale. Avec la volonté d’être en mesure de développer ces produits, avant de finalement décider de cesser cette filiale à CD&R. 

Le groupe Sanofi, qui est passé du troisième rang mondial au septième ces dernières années, veut se concentrer sur le développement de nouveaux médicaments d’immunothérapie ou pour la lutte contre le cancer par exemple, qui sont beaucoup plus stratégiques pour le futur du groupe que ne le sont les médicaments délivrés sans ordonnance. La vente d’opella vient illustrer cette stratégie, en permettant au groupe français de financer la recherche sur ces nouveaux médicaments, qui coûte très cher. 

Il faut également avoir à l’esprit que la production de Doliprane en France n’est pas aujourd’hui stratégique pour le pays. En effet, le principe actif du médicament, le paracétamol, n’est aujourd’hui pas produit sur notre territoire, mais en Chine et aux Etats-Unis. Sur ce point, l’Etat agit, puisque la première usine de production de la matière première nécessaire à la fabrication du paracétamol ouvrira près de Toulouse, l’année prochaine.

Pour ainsi dire, les nombreuses gesticulations politiques observées ça et là dans les médias français au cours des jours qui ont suivi l’annonce de la cession d’Opella quant à la perte de souveraineté sur la production de Doliprane sont plus symboliques que pertinentes. Le besoin de Doliprane sur le territoire reste tributaire du bon vouloir de la Chine et des Etats-Unis, qui nous fournissent les matières premières. Le travail effectué sur le territoire consiste à encapsuler ces matières premières pour les vendre.

Sur la stratégie de Sanofi, à savoir se concentrer sur le développement de thérapies nouvelles, la décision apparaît nécessaire pour rester compétitif au niveau mondial, mais sans aucune garantie de pouvoir y parvenir. On se souvient que Sanofi avait interrompu ses recherches sur le développement d’un vaccin à ARN messager pendant la crise du COVID 19, dépassé dans la course par ses concurrents Pfizer et Moderna. 

Reste désormais à savoir si le géant pharmaceutique français réussira son pari, au sein d’un contexte concurrentiel international infernal.

L’élection de Donald Trump, nouveau signal d’alerte pour l’industrie européenne

Si la première élection de Donald Trump, en 2016, avait sidéré l’ensemble de la scène internationale, les résultats annoncés hier ne constituent qu’une demi-surprise. 

Au-delà des raisons qui expliquent la victoire du candidat républicain, tentons de comprendre quelles pourraient être les conséquences de son élection pour l’économie et l’industrie européennes. D’abord, il est important de préciser qu’au-delà de son élection, Donald Trump peut aujourd’hui compter sur une majorité à la chambre des représentants, au sénat et à la cour suprême. Autrement dit, ce dernier va être en mesure de mettre en place la politique isolationniste et climatosceptique – entre autres – évoquée pendant la compagne électorale, les contre pouvoirs étant limités.

Dès son premier mandat, Donald Trump avait fait état du peu de cas qu’il fait de l’Union Européenne, affichant un mépris et une connaissance très limitée du fonctionnement des institutions européennes. Durant cette campagne, le nouveau Président républicain a notamment affirmé qu’il « aimait les mots “droits de douane” » : au programme, l’augmentation des droits de douane de 10 à 20 % sur l’ensemble des produits importés aux Etats-Unis, et un tarif spécial pour la Chine, avec 60 % de droits de douane. Il est à noter que Joe Biden avait lui aussi, de manière plus parcimonieuse, pratiqué des augmentations de droits de douane sur certains produits chinois, comme les véhicules électriques, les panneaux solaires, l’acier, les minerais critiques.

Cette augmentation généralisée des droits de douane serait sans commune mesure avec celles pratiquées lors du premier mandat de Donald Trump, qui avaient entraîné des réponses proportionnées de la part de l’Europe et de la Chine. Elle entrainerait la violation des règles édictées par l’OMC – ce qui n’aboutirait pas forcément à des sanctions à l’encontre des Etats-Unis – et des réactions européennes et chinoises encore difficiles à prévoir. 

Pour l’Europe, qui affichait l’année dernière un excédent commercial de 156 milliards d’euros avec les Etats-Unis, le coup pourrait s’avérer très dur. L’augmentation des droits de douane de 20 % rendrait beaucoup plus coûteuses les importations de produits européens pour les entreprises américaines. Ces dernières baisseraient donc mécaniquement, de près d’un tiers dans certains secteurs, comme ceux des machines, des véhicules et des produits chimiques, qui représentent à eux trois près de deux tiers des exportations européennes vers les Etats-Unis. 

Aussi, la guerre commerciale à venir entre les Etats-Unis et la Chine aura forcément des conséquences énormes sur le marché européen. Si Donald Trump met en place des droits de douane prohibitifs sur les importations chinoises, ces derniers se verront dans l’obligation de réorienter leurs exportations vers l’UE, obligeant cette dernière à protéger son marché en mettant en place des mesures fortes pour réguler l’afflux de marchandises venues de Chine. Engageant ainsi une guerre commerciale généralisée, dont l’issue aurait forcément des conséquences désastreuses pour l’économie européenne, notamment pour l’industrie allemande, déjà en grande difficulté.

Face à ces projections inquiétantes, que peut faire l’Europe ? Pour limiter la dépendance européenne aux Etats-Unis, le vieux continent doit tout d’abord s’autonomiser en termes de défense. C’est le premier pas nécessaire pour rendre possible des renforcements industriel et technologique indispensables pour la survie économique du Vieux continent. 

Le Président Macron, en appelant le chancelier allemand Olaf Scholz juste après la nouvelle de la victoire de Trump, a voulu montrer que seule une Europe unie pourra faire face aux défis à venir. Plus que jamais, l’élection de Donald Trump est un signal quant à la nécessité, qui préexistait déjà pour l’Europe, de développer une industrie forte et pérenne.  Pour exister dans la guerre économique à venir.

 

Un nouveau procédé miracle pour recycler les déchets plastiques ?

Le polyéthylène et le polypropylène sont des polymères classés dans la catégorie des polyoléfines et qui constituent les deux tiers des déchets plastiques post-consommation dans le monde. Le premier se retrouve dans la plupart des sacs en plastique à usage unique et le second sert à fabriquer, entre autres, des pièces pour l’industrie automobile (pare-chocs) ou des composants pour des appareils électroménagers. Environ 80 % de ces plastiques finissent dans des décharges, sont incinérés ou simplement jetés dans les rues, se retrouvant souvent sous la forme de microplastiques dans les cours d’eau et les océans. Le reste est recyclé en plastique de faible valeur, transformé en matériaux de terrasse, en pots de fleurs et en couverts…

Des chercheurs de l’université de Berkeley en Californie ont développé un procédé catalytique pour recycler ces deux polymères afin de les transformer en gaz hydrocarbonés réutilisables pour la fabrication de nouveaux plastiques. Leurs travaux, publiés dans la revue Science, ouvrent la voie à la création d’une économie circulaire de ces plastiques, réduisant ainsi la nécessité de fabriquer de nouveaux plastiques à partir du pétrole, qui génère des gaz à effet de serre.

Le procédé développé est capable de décomposer les sacs en polyéthylène en monomère de propylène, pouvant ensuite être recyclé pour fabriquer des plastiques en polypropylène. Pour cela, deux catalyseurs solides sont utilisés. Le premier, à base de sodium sur alumine, est capable de casser ou de craquer efficacement divers types de chaînes de polymères de polyoléfine, laissant l’un des deux morceaux avec une double liaison carbone-carbone réactive à l’extrémité.

Un deuxième catalyseur, à base d’oxyde de tungstène sur silice, vient ensuite ajouter un atome de carbone à l’extrémité de la chaîne au gaz d’éthylène, qui circule en permanence dans la chambre de réaction pour former une molécule de propylène. Ce dernier processus, appelé métathèse d’oléfine, laisse derrière lui une double liaison à laquelle le catalyseur peut accéder de manière continue jusqu’à ce que la chaîne entière soit convertie en propylène.

La même réaction se produit avec le polypropylène pour former une combinaison de propylène et d’un hydrocarbure appelé isobutylène. Ce dernier est utilisé dans l’industrie chimique pour fabriquer des polymères destinés à des produits allant des ballons de football aux cosmétiques, ainsi que pour fabriquer des additifs pour essence à indice d’octane élevé.

Le recyclage à grande échelle représente un véritable bond en avant à franchir

Selon les chercheurs, les deux catalyseurs ont été capables de transformer avec une efficacité de près de 90 % un mélange presque égal de polyéthylène et de polypropylène, en propylène et isobutylène. Et lorsque le polyéthylène ou le polypropylène se retrouvent seuls, le rendement atteint des niveaux encore plus élevés. L’avantage du procédé est qu’il n’utilise pas d’eau et nécessite moins d’énergie que d’autres méthodes de recyclage. Il est même « plus efficace que la fabrication de nouveaux plastiques, dits vierges », affirment les auteurs de ces travaux de recherche.

Interrogé dans le Los Angeles Times, Neil Tangri, directeur scientifique et politique de l’Alliance mondiale pour les alternatives aux incinérateurs, une organisation environnementale internationale, émet quelques réserves quant à la future industrialisation de ce procédé. « Mon avertissement principal est que passer d’une analyse en petits lots en laboratoire à un fonctionnement à grande échelle dans des conditions réelles… c’est un énorme bond en avant, explique-t-il. Il n’est donc pas certain que nous allons voir ce passage à la production commerciale d’ici un an ou deux. »

De plus, même si la température nécessaire à la catalyse (plus de 600 degrés) est inférieure à celle de la pyrolyse ou du craquage, le procédé nécessite néanmoins beaucoup d’énergie et « crée donc potentiellement une empreinte carbone assez importante », estime-t-il. En outre, cette température est celle « à laquelle les dioxines ont tendance à se former. »

Enfin, il considère que le tri et le nettoyage nécessaires au bon fonctionnement de ce procédé lorsque les plastiques sont contaminés, ainsi que sa consommation d’énergie auront pour effet de surenchérir le coût de ce plastique recyclé, qui ne pourra pas être mis sur le marché à un prix compétitif comparé à un plastique vierge.

Les gels de nanocristaux de cellulose sous l’œil de Lise Morlet-Decarnin

Attirée par la recherche et passionnée de physique, Lise Morlet-Decarnin a débuté en 2021, dans le cadre de sa thèse, des travaux visant à étudier les propriétés de fluides complexes au comportement étonnant : les gels de nanocristaux de cellulose. Un travail qu’elle a achevé en juillet dernier, en décrochant au passage un titre de Docteure en physique. Fière, en tant que physicienne, d’avoir pu avancer dans un monde très masculin, elle va désormais poursuivre son parcours au Danemark, où une entreprise lui a laissé carte blanche pour monter son propre laboratoire de recherche.

Techniques de l’Ingénieur : Quel a été le parcours qui vous a menée jusqu’à ce doctorat en physique ?

Lise Morlet-Decarnin
Hormis une « très mauvaise expérience » vécue en classe préparatoire, Lise Morlet-Decarnin n’a pas eu de difficultés à évoluer dans un milieu réputé très masculin. – © Fondation L’Oréal – Clémence LOSFELD et Richard PAK

Lise Morlet-Decarnin : J’ai obtenu mon bac scientifique en 2014. Je suis alors entrée en classe préparatoire, au Lycée Blaise-Pascal de Clermont-Ferrand. J’ai commencé par une première année avec une spécialisation en physique-chimie. En deuxième année, j’ai poursuivi en « PC* » (la « PC étoile » désigne une classe prépa scientifique, NDLR). J’ai alors passé les concours une première fois. Je ne savais pas exactement vers quoi me diriger… (Rires). Ça n’est qu’après avoir passé les concours que j’ai découvert l’existence des Écoles Normales Supérieures (ENS) et que je me suis rendu compte que c’était finalement ce qui me correspondait le mieux. Il ne s’agit pas, en effet, d’écoles d’ingénieurs, mais d’écoles formant à la recherche. Or, c’était vraiment faire de la recherche qui me passionnait, pas tant que de faire de l’ingénierie. J’ai donc repassé les concours, dans l’espoir d’accéder à l’une de ces ENS. J’ai ainsi été admise à l’ENS de Lyon. C’était en 2017. J’ai alors débuté une formation en quatre ans, en spécialité physique. J’ai obtenu mon master en 2021. Je suis ensuite entrée en thèse, et j’ai finalement obtenu mon doctorat en juillet dernier.

Avez-vous le sentiment que votre genre a eu un impact sur le déroulement de ce parcours que vous venez de décrire ? Si c’est le cas, a-t-il été plutôt un frein, un handicap, ou au contraire un atout, un levier qui vous a permis d’avancer ?

J’ai, tout au long de mon parcours, très souvent été la seule fille de ma classe. Pourtant, de manière générale, je n’ai pas ressenti l’impact de mon genre sur le déroulement de mon cursus. Je n’ai jamais eu le sentiment que l’on me considérait différemment parce que je suis une fille, ni en bien ni en mal.

J’ai quand même eu une très mauvaise expérience… En classe préparatoire, j’ai en effet été confrontée à un professeur de physique pour qui il n’était tout simplement pas envisageable qu’une femme pratique cette discipline et entre à l’ENS. Il a tout fait pour que je renonce à cet objectif et m’a mis des bâtons dans les roues. Ça a donc été un obstacle difficile à surmonter, tant sur le plan psychologique que pratique. Paradoxalement, cela m’a aussi beaucoup motivée : j’ai tout fait pour parvenir à apprendre un maximum par moi-même, lui montrer ainsi qu’il avait tort et que je pouvais réussir. Finalement, cela a contribué à me donner confiance en moi et à me rendre fière : je voulais le faire, je l’ai fait et il avait tort !

Que sont ces « gels de nanocristaux de cellulose » sur lesquels vous avez travaillé ? Et quel était justement l’objet des travaux que vous avez menés dans le cadre de votre doctorat ?

Tout d’abord, les « gels » sont des fluides complexes, qui présentent un comportement intermédiaire entre liquide et solide. Ce comportement s’apparente tantôt à l’un, tantôt à l’autre de ces états de la matière selon la façon dont on sollicite ces gels, mais aussi en fonction de l’échelle de temps à laquelle on les observe.

Les gels sur lesquels j’ai travaillé sont des gels composés de nanocristaux de cellulose. La cellulose est une molécule naturelle, extraite des plantes ou de certaines bactéries. Elle est par exemple utilisée pour faire du papier. À la différence près que j’ai, pour ma part, utilisé une forme particulière de cellulose, une petite partie seulement de la longue molécule formant la fibre de cellulose. Cette partie est organisée de manière très régulière, et forme donc ce que l’on appelle des nanocristaux, là où les autres parties de la fibre sont dites « amorphes ».

Une fois extraits, par hydrolyse acide par exemple, ces nanocristaux de cellulose prennent la forme de petits bâtonnets, qui mesurent une centaine de nanomètres de longueur, pour quelques nanomètres de diamètre. Ils ont par ailleurs la particularité d’être chargés négativement en surface et sont aussi très solides ; ils ne se déforment pas. Lorsqu’on les met en présence d’eau et de sel, ils vont donc s’organiser à la faveur d’interactions. C’est ainsi qu’ils forment un gel : un matériau qui, comme je le disais, peut se comporter tantôt comme un liquide, tantôt comme un solide.

Ils ont donc des caractéristiques mécaniques très intéressantes, mais ça n’est pas tout : leurs propriétés optiques leur confèrent également un intérêt. Ils permettent en effet de former ce que l’on appelle des cristaux liquides, bien connus, par exemple, pour la fabrication d’écrans LCD.

Au cours de ma thèse, je me suis davantage intéressée à leurs propriétés mécaniques. J’ai notamment essayé de comprendre comment ces gels se comportent mécaniquement, mais aussi pourquoi ils se comportent comme ils le font. J’ai étudié à l’échelle microscopique la façon dont ils s’organisent, et les interactions qui s’établissent entre eux. C’est ce que l’on appelle de la « rhéologie », l’étude de la façon dont ces matériaux réagissent mécaniquement quand on leur fait subir une contrainte.

Si vous n’aviez à en citer qu’un, quel résultat marquant de vos travaux mettriez-vous en avant ?

L’un des résultats qu’il me semblerait intéressant de mettre en avant est que, soumis à une contrainte de cisaillement – quand on les secoue –, ces gels sur lesquels j’ai travaillé deviennent liquides, mais finissent par reprendre leur état initial. Et cela à l’infini, avec à chaque fois un retour exactement au même état initial. J’ai pu montrer, grâce à mes travaux, cette absence de dégradation, mais aussi le fait que la dynamique de reconstruction de ces gels s’accélère si l’on ajoute du sel. En outre, quelle que soit la quantité de sel ajouté, on va toujours re-former le même gel, en passant par le même chemin. Cette universalité est assez intéressante sur le plan des applications : cela offre en effet la possibilité d’avoir soit un processus très lent – ce qui peut s’avérer nécessaire dans certains cas de figure –, soit au contraire très rapide, pour l’impression 3D par exemple. Si l’on imprime à l’aide d’un gel de nanocristaux de cellulose, on a naturellement envie que ce gel tienne rapidement, ne s’écoule pas, tout en n’obstruant pas la buse de l’imprimante…

Quelles applications vos travaux pourraient-ils justement avoir ?

À terme, on pourrait notamment imaginer, dans le domaine de l’optique que j’évoquais, de produire des matériaux plus respectueux de l’environnement, car biosourcés et biodégradables.

Cela pourrait aussi mener à bien d’autres applications, dans des domaines très variés, notamment en faisant de ces gels des précurseurs de matériaux solides : dans l’emballage, pour remplacer certains plastiques, dans le domaine de l’impression 3D, du moulage… Leur solidification pourrait alors se faire tout simplement par séchage, ou par congélation. Il est d’ailleurs intéressant d’étudier ces processus, pour voir comment les propriétés du gel se transmettent au matériau solide.

Le fabricant de rasoirs Gillette a même déposé un brevet concernant la fabrication de lames de rasoir à partir de nanocristaux de cellulose !

Pour pouvoir mettre en œuvre ces applications très diverses, il est donc crucial de parvenir d’abord à comprendre très précisément le matériau, pour pouvoir ensuite en contrôler très finement les propriétés.

Vous avez soutenu votre thèse en juillet[1]. Avez-vous déjà des pistes quant à la suite de votre parcours ?

J’ai décroché un poste dans une entreprise, au sein de laquelle je vais pouvoir monter mon propre laboratoire. Il s’agit d’un fabricant danois de filtres à base de cellulose, qui sont utilisés pour purifier différents types d’huiles industrielles : huiles de lubrification moteur, huiles caloporteuses… Ces huiles sont pour la plupart issues de la pétrochimie, et ne sont donc pas biodégradables. En captant leurs impuretés, les filtres permettent de les réutiliser et donc de réduire leur impact sur l’environnement.

Cette entreprise menait, certes, des travaux de R&D sur les huiles en tant que telles, mais pas encore sur les filtres permettant, justement, de les purifier. J’ai donc carte blanche pour créer mon laboratoire au sein de cette entreprise et y lancer des travaux de recherche très fondamentale, visant à mieux comprendre le pouvoir filtrant de cette cellulose et à améliorer ensuite ces filtres, en y ajoutant éventuellement d’autres produits naturels, ou en structurant simplement de manière différente la cellulose…

Comment accueilliez-vous ce Prix Jeunes Talents France 2024 L’Oréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 9 octobre dernier ? Quelles perspectives cela ouvre-t-il pour vous et la poursuite de votre carrière ?

Ce prix nous offre à chacune une grande visibilité. C’est donc positif pour nous, lauréates, mais aussi pour toutes les jeunes filles en général : en obtenant ce prix, nous montrons en effet qu’en tant que femmes, rien ne nous empêche de réussir une carrière scientifique au même titre qu’un homme.

Nous avons aussi pu bénéficier, dans le cadre de ce prix, de formations autour notamment de la lutte contre les stéréotypes de genre. Il me semble important d’en avoir conscience, pour agir nous-mêmes sur ce volet-là. Nous avons aussi suivi une formation en leadership, qui m’a permis de prendre davantage confiance en moi et d’oser aller plus loin pour prendre un poste à responsabilités.

L’aspect financier[2] n’est, bien entendu, pas négligeable non plus ! Cela va, pour ma part, me permettre de déménager au Danemark pour me lancer dans la nouvelle aventure professionnelle qui m’attend là-bas.

En plus de la recherche, j’aime aussi beaucoup la vulgarisation. Ce prix va donc aussi me permettre de me former à cette discipline. Mon objectif est de parvenir à communiquer de manière plus efficace. J’ai d’ailleurs lancé aux côtés de mon petit frère – qui fait du cinéma d’animation – une chaîne YouTube de vulgarisation, qui s’appelle « Bon, en gros ». Notre objectif est de produire des vidéos de 5 à 10 minutes répondant chacune à une question du quotidien liée à la physique. Ces vidéos d’animation s’adresseront aussi bien aux débutants qu’aux amateurs plus éclairés. Je jouerai sur cette chaîne le rôle de la physicienne, ce qui permettra, au passage, de montrer que la physique n’est pas réservée qu’aux garçons ! Notre première vidéo sera consacrée aux lasers…

Avez-vous éventuellement en tête une idée d’action, de stratégie, de solution… qu’il vous semblerait pertinent de mettre en œuvre pour renforcer la place et la visibilité des femmes dans le monde scientifique ?

Même si je n’ai pas vraiment eu à en subir les conséquences personnellement, je m’aperçois en effet aujourd’hui que les stéréotypes liés au genre existent. Il me semble donc crucial de sensibiliser les filles de tout âge à cette problématique, de l’école primaire jusqu’au lycée. Et ceci, partout, y compris en zone rurale, en proposant par exemple des rencontres et échanges avec des femmes scientifiques. Cela permet en effet aux petites filles de poser toutes les questions qui leur passent par la tête, mais aussi de leur montrer qu’il ne faut pas s’autocensurer, que l’on peut y arriver si l’on est motivée.

Il me semble aussi intéressant de permettre aux filles de visiter des laboratoires de recherche. Il existe notamment, en région lyonnaise, l’initiative « Sciences, un métier de femmes », à laquelle j’ai eu l’occasion de contribuer, qui permet chaque année à 500 lycéennes de l’Académie de Lyon d’être accueillies au sein d’une structure de recherche, d’échanger avec des femmes scientifiques et de toucher du doigt la réalité du travail dans un laboratoire.

Une question subsidiaire, pour terminer… Avez-vous éventuellement en tête un exemple de figure féminine marquante à vos yeux, de l’histoire des sciences, ou du monde scientifique contemporain ?

Je trouve important, particulièrement pour les filles, d’avoir des role models mais, personnellement, je n’en ai pas eu. C’est plus par moi-même que je me suis aperçue que j’étais intéressée par de nombreuses disciplines scientifiques, autant que par la littérature d’ailleurs… Ce sont plutôt mes parents qui m’ont aidée et poussée à faire ce dont j’avais envie. Ils m’ont souvent incitée à essayer, à tout tenter pour atteindre mes objectifs, m’ont donné confiance en moi, sans jamais chercher à influencer le choix de mon parcours d’études. Cela a été très important pour moi.


[1] https://www.ens-lyon.fr/PHYSIQUE/presentation/soutenances/soutenance-lise-morlet-decarnin

[2] La Fondation L’Oréal accorde une dotation de 15 000 € aux doctorantes, et de 20 000 € aux post-doctorantes.

Vers une révision du règlement REACH sur les substances chimiques en 2025

Entré en vigueur depuis 2007, le règlement REACH (Registration, evaluation, authorization of chemicals), qui encadre la fabrication et l’utilisation des substances chimiques dans l’Union européenne, a souvent été critiqué pour la lenteur et la complexité de ces processus d’évaluation. Du point de vue des entreprises, il est également jugé onéreux, puisqu’il coûterait environ 2,5 milliards d’euros par an, même si ce chiffre est à comparer aux bénéfices potentiels sur la santé humaine et l’environnement, estimés à environ 100 milliards d’euros sur une période de 25-30 ans.

Lors de son discours prononcé au moment de sa réélection à la tête de la Commission européenne, Ursula von der Leyen a annoncé sa volonté de créer un nouveau cadre afin de simplifier ce règlement, tout en prenant en compte les substances PFAS (Per- et polyfluoroalkylés) dites éternelles. Dans ses réponses aux questions des eurodéputés, Stéphane Séjourné a détaillé la manière dont il compte réviser le règlement REACH en 2025, dans le cadre du Pacte pour une industrie propre (Clean industrial deal).

Le commissaire européen désigné pour la Prospérité et la Stratégie industrielle a annoncé que « le paquet s’efforcera de créer un cadre réglementaire plus efficace qui permette d’éliminer plus rapidement les substances nocives du marché tout en offrant une plus grande certitude d’investissement à long terme aux entreprises chimiques européennes de premier plan. » Plus concrètement, il a défini quatre priorités pour y parvenir.

Tout d’abord, il souhaite mettre en place des chaînes d’approvisionnement innovantes en créant un cadre qui favorise « la transition vers de nouvelles solutions vertes et numériques », mais aussi des « produits chimiques sûrs, circulaires et durables ». Ensuite, il compte simplifier et rationaliser la législation REACH, notamment en revoyant le double système d’autorisations et de restrictions afin de réduire considérablement les besoins d’autorisations individuelles. En basant l’approche sur des restrictions plus larges, il va être possible, selon lui, de prendre des décisions plus rapidement et de manière plus transparente, sans pour autant compromettre le niveau élevé de protection de la santé et de l’environnement.

Éviter les incohérences et les doublons entre les différents textes législatifs

Un autre axe concerne la cohérence des politiques réglementaires, qui actuellement peuvent créer des incohérences et des doublons entre les différents textes législatifs. « Nous avons besoin d’une meilleure coordination aux niveaux européen et national et d’une approche plus globale pour garantir que la charge cumulative ne freine pas la compétitivité et le potentiel d’innovation de l’UE », explique Stéphane Séjourné. Il s’engage donc à encourager et à faciliter « les discussions précoces entre les autorités européennes et nationales sur les priorités communes et les mesures politiques les plus appropriées pour les produits chimiques afin de garantir l’alignement entre REACH et d’autres textes législatifs. »

Enfin, en matière de PFAS, il souhaite apporter rapidement des éclaircissements sur le processus de restriction de ces produits chimiques, compte tenu du grand nombre de cas de contamination des sols et de l’eau, y compris de l’eau potable. Alors que la Commission a déjà pris des mesures importantes pour contrôler les risques, il a annoncé son intention « d’interdire les PFAS dans les utilisations par les consommateurs, comme les cosmétiques, les matériaux en contact avec les aliments et les vêtements d’extérieur. » Mais qu’en l’absence d’alternatives adéquates en termes de performances et de sécurité, il « soutiendra leur utilisation dans les applications industrielles, en particulier les plus critiques, dans des conditions strictement contrôlées jusqu’à ce que des substituts acceptables soient trouvés, […]. »

En charge également de ce dossier, Jessika Roswall, la candidate désignée au poste de commissaire européen à l’Environnement, a de son côté annoncé être favorable à cette révision du règlement REACH, pour que celle-ci «  simplifie et modernise le cadre réglementaire afin d’accroître la compétitivité durable et la sécurité dans l’UE, et assure la protection de la santé humaine et de l’environnement. »

Gobelets en carton 100% sans plastique : est-ce possible ou pas ?

Le reportage de France 5 à l’origine de la polémique est disponible ici.

L’émission n’a pas tardé à faire réagir le COFEPAC (Comité Français de l’Emballage Papier Carton) qui a dénoncé « les multiples manipulations de l’information » présentées dans le reportage et une volonté de donner (encore une fois) une image caricaturale et négative des sites industriels.

De son côté, l’entreprise CEE Schisler Packaging Solutions, accusée à tort, dans le reportage, d’utiliser un film plastique en surface de son gobelet carton Earth Cup® s’est également vivement défendue.

Mais au-delà de la polémique, revenons sur la nécessité ou pas, d’utiliser des matières plastiques dans la fabrication de gobelets en carton.

Pourquoi le carton n’est pas utilisable seul

Le carton est un matériau formidable, mais il présente des fonctions barrières moins performantes qu’un plastique. En effet, parce qu’il est composé de fibres de cellulose, le carton est naturellement perméable à l’eau, aux graisses et à l’oxygène. Dans ce cas, comment fabriquer des gobelets en carton étanches ?

Pendant longtemps, la solution a consisté à enduire le gobelet d’une fine couche de plastique, généralement en polyéthylène (PE) ou en PLA. Mais soyons clairs. Si les gobelets multicouches classiques sont recyclables dans la filière papier carton, la présence du film plastique complique le recyclage.

Par ailleurs, en France, la teneur maximale en plastique est réglementée par l’arrêté du 24 septembre 2021. La teneur maximale autorisée était de 15 % au 1er janvier 2022 et celle-ci est passée à 8 % au 1er janvier 2024. Mais au 1er janvier 2026, la loi va, de fait, imposer la suppression de ces films, puisque le taux maximal sera (en théorie) de 0 %.

Earth Cup : un gobelet carton « sans film plastique », mais qui contient bien une quantité minime de polymères

Ça peut sembler être un détail technique, mais il ne faut pas confondre ajout d’une pellicule plastique et fonctionnalisation d’une surface par un polymère thermoscellant. Dans le premier cas, le revêtement est un film, c’est-à-dire un matériau « massif », entièrement composé d’une couche de plastique de quelques dizaines de micromètres d’épaisseur.

Dans le second cas, celui d’Earth Cup, il y a déposition de polymères acryliques, en petite quantité. Mais quelle est la différence ? Acrylique, PE ou PLA sont tous des plastiques, non ? En fait, c’est bien plus complexe qu’il n’y paraît, car le terme « plastique » est extrêmement vague et trompeur.

En effet, il y a des plastiques issus du pétrole, mais aussi des plastiques biosourcés. Et certains plastiques sont biodégradables, mais pas forcément dans tous les milieux, alors que d’autres ne le sont pas du tout.

C’est justement l’avantage du gobelet Earth Cup. En plus d’être recyclable dans le flux des papiers et cartons (la faible quantité de plastique ne perturbe pas le process de recyclage), Earth Cup est aussi compostable à domicile, puisqu’il a obtenu la certification OK Compost Home. Le gobelet Earth Cup a même obtenu la certification « Biodégradable et Non toxique » en milieu marin !

Moins de jetable, plus de réutilisable, mais en gardant la tête froide

Toutefois, il faut se rendre à l’évidence, à l’ère de l’économie circulaire, le tout jetable n’est pas non plus une solution. Il est bien évidemment important de revenir à un certain bon sens, c’est-à-dire utiliser des gobelets jetables, qu’ils soient en plastique ou en carton, uniquement lorsque l’utilisation d’une tasse, d’un verre ou d’une gourde n’est pas possible.

Car n’oublions pas la règle des 5R : avant de chercher à Recycler ou Rendre à la terre, c’est-à-dire composter, la priorité est d’abord de Réduire les déchets et de Réutiliser au maximum.

Néanmoins, il n’est pas constructif de sans cesse opposer les solutions (plastique VS carton, recyclable VS biodégradable) et stigmatiser les pratiques (jetable VS réutilisable).

Mais il est surtout triste de s’en prendre à des entreprises françaises transparentes, qui font un réel effort pour proposer des solutions innovantes, certifiées et contrôlées, alors qu’en France circulent des tonnes de gobelets en carton d’importation qui ne font pas l’objet de contrôles…

Taper sur les industriels français qui innovent et respectent la loi n’est donc bon pour personne, pas plus pour l’économie du pays que pour l’environnement.

BE 5.0 Industries du futur : le rendez-vous industriel du Grand Est

le Salon 5.0 Industries du Futur réunit chaque année à l’automne tous les profils d’acteurs concernés par l’industrie du futur : grands groupes, PME, start-up, plateformes technologiques et laboratoires, écoles et universités, structures de financement et d’accompagnement, etc…

Avec comme fil conducteur l’IA, les quatre conférences plénières réuniront des experts de premier plan pour faire la lumière sur son rôle d’accélérateur des transformations pour les industries et les territoires. L’IA est un sujet devenu majeur, voire structurant, dans tous les secteurs industriels : elle optimise les processus et améliore le suivi de la production. Ces conférences plénières présenteront des usages de l’IA en entreprise, montreront ses apports pour être plus performant en cybersécurité et partageront les visions d’acteurs leaders qui y recourrent pour relever les défis industriels, numériques et environnementaux.

Les 4 plénières de BE 5.0 Industries du Futur décryptent les défis de l’IA et de la décarbonation :

  • L’IA, un levier de productivité et d’innovation pour l’industrie, mardi 26/11 à 10h30
  • Les enjeux des transformations industrielles : vision stratégique et leviers opérationnels, mardi 26/11 à 15h00
  • Combiner IA et cybersécurité : stratégie pour une industrie plus sûre et résiliente, le 27/11 à 10h30
  • L’IA au service des enjeux de décarbonation, le 27/11 à 14h00

En parallèle, d’autres conférences sur l’IA sont organisées par les exposants :

  • IA et maintenance prévisionnelle de batteries Li-ion (INSA Strasbourg) le 26/11 à 10h30
  • Découvrez 4 projets IA réussis qui ont boosté les PME/ETI (ARAÏKO) le 26/11 à 14h00
  • IA : faites avancer vos projets avec les grandes écoles (ALSACE TECH) le 26/11 à 14h00
  • Boostez l’industrie grâce aux IA OrgAInize – HumIA (ICAM Strasbourg le 27/11 à 11h30
  • Intégration de l’IA : automatisation, fusion de données, edge computing avec un système DAQ de comptable pour le contrôle qualité (ADDIS-DATA) le 27/11 à 11h30
  • Révolutionnez vos contrôles avec l’IA (CETIM) le 27/11 à 14h00

Pour plus d’informations, rendez-vous sur le site de l’évènement www.industriesdufutur.eu

Qubit Pharmaceuticals : un pas de plus sur le chemin du calcul quantique

Robert Marino, PDG de Qubit Pharmaceuticals
Robert Marino est le P.-D.G. de Qubit Pharmaceuticals depuis sa création en mai 2020. © Qubit Pharmaceuticals

« On se dirige, pas à pas, vers l’informatique quantique. » Voilà le constat que nous exposait, début 2021, Robert Marino, P.-D.G. de la jeune pousse Qubit Pharmaceuticals. Depuis sa création en 2020, la deeptech parisienne concentre ses efforts autour de la simulation et de la modélisation moléculaire accélérées par le calcul hybride – une approche mêlant calcul haute performance (HPC[1]) et calcul quantique – avec un objectif central : découvrir de nouveaux médicaments.

Face à cette perspective d’essor de l’informatique quantique qu’évoquait son dirigeant, la start-up a ainsi, depuis ses débuts, choisi de prendre les devants… « Il nous faut dès aujourd’hui préparer la transition quantique, pour être en capacité de répondre aux besoins de nos clients, le moment venu », nous expliquait en effet, en 2021 toujours, le même Robert Marino.

Près de quatre ans plus tard, force est de constater que Qubit Pharmaceuticals a vu juste, comme en témoignent les avancées majeures qu’elle a réalisées et sur lesquelles elle a levé le voile l’été dernier, dans le cadre d’une conférence de presse organisée au sein de la Pépinière Paris Biotech Santé Cochin qui l’héberge. « Des résultats assez exceptionnels, qui permettent désormais d’envisager, à court terme, l’utilisation de l’informatique quantique en production », comme l’a annoncé, dès le préambule de cette rencontre estivale avec la presse, Robert Marino.

Émulation : les qubits avant les qubits

Outre ses travaux de recherche appliquée, centrés sur la co-conception de molécules thérapeutiques aux côtés de CRO[2] françaises (lire en encadré ci-dessous), l’entreprise qui compte aujourd’hui une soixantaine de collaborateurs poursuit un important programme de recherche plus fondamentale dans le domaine du calcul haute performance et de l’informatique quantique, et dispose d’ailleurs pour cela de son propre cluster de calcul, implanté au nord de Paris. Un outil particulièrement puissant – composé de plus de 200 GPU[3] – qu’elle exploite ainsi à la fois pour ses besoins en matière de calcul haute performance et d’entraînement d’algorithmes d’IA, mais aussi pour une application directement liée à l’informatique quantique : l’émulation de qubits.

« Il est en effet possible d’émuler un ordinateur quantique sur un ordinateur classique », schématise Jean-Philip Piquemal, Professeur à Sorbonne Université, co-fondateur et directeur scientifique de Qubit Pharmaceuticals. Une possibilité qui a ainsi conduit la deeptech à développer son propre émulateur : Hyperion-1. « Il nous semblait en effet important de ne pas attendre et de commencer dès maintenant à développer les logiciels qui tourneront, demain, sur de véritables ordinateurs quantiques », souligne Jean-Philip Piquemal.

Grâce à cet outil, l’entreprise est ainsi notamment parvenue, comme elle l’a annoncé en fin d’année dernière, à émuler 40 qubits dits « logiques », ces assemblages de qubits physiques permettant d’en corriger les erreurs – et elles sont nombreuses – découlant notamment du phénomène de décohérence quantique.

40 qubits logiques… Très loin encore des quelque 250 pressentis comme nécessaires pour résoudre avec exactitude l’équation de Schrödinger et parvenir ainsi à déterminer, aussi fidèlement que par l’expérience, certaines propriétés de petites molécules telles que le dihydrogène (H2), ou l’hydrure de lithium (LiH). « C’est ce qu’on appelle la précision chimique : atteindre un résultat de calcul indifférenciable de l’expérience », éclaire Jean-Philip Piquemal.

Le calcul hybride, un pari gagnant

Et pourtant, Qubit Pharmaceuticals y est parvenue, comme elle l’a dévoilé à l’occasion de cette rencontre avec la presse organisée en juillet dernier. Et ce, d’ailleurs, sans même exploiter le plein potentiel de son émulateur Hyperion-1 : une vingtaine de qubits lui a en effet suffi – une trentaine, tout au plus, pour certaines molécules – comme nous l’explique son directeur scientifique : « Tout le monde pensait qu’il faudrait des centaines, voire des milliers ou des dizaines de milliers de qubits… Avec la technologie hybride d’Hyperion – qui permet en quelque sorte de faire le tri dans les différentes sous-parties d’un calcul complexe et de les orienter, en fonction de l’intérêt que cela peut avoir au niveau de la rapidité d’exécution, soit vers du HPC, soit vers du calcul quantique –, nous avons pourtant montré que cela était possible avec dix fois moins de qubits que prévu ». Une sorte de « raccourci » sur le chemin qui mène à la précision chimique via le calcul quantique, pour reprendre l’intitulé d’une prépublication décrivant, par le menu, ces résultats et la méthode employée par les chercheurs de Qubit Pharmaceuticals et de Sorbonne Université pour y parvenir. « Or, si l’atteinte des 200 qubits dans une machine reste un vrai challenge, ça l’est moins pour une vingtaine ! », souligne Jean-Philip Piquemal.

Cette percée a ainsi valu à la deeptech de décrocher un financement de 8 millions d’euros dans le cadre du plan France 2030. De quoi poursuivre le développement d’Hyperion-1 et continuer ainsi à tracer sans attendre la voie à des solutions qui tourneront, demain, sur de véritables ordinateurs quantiques. « L’émulation de qubits nous permet de ne pas avoir à attendre la disponibilité de ces machines “physiques” pour mettre au point nos algorithmes », rappelle en effet à nouveau Jean-Philip Piquemal. Mais ça n’est pas tout : comme le conclut le Professeur de Sorbonne Université, « cela nous permet aussi de participer, aux côtés de leurs constructeurs, à la conception de ces futures machines, en définissant dès maintenant le nombre de qubits dont nous aurons réellement besoin ».

Conception de molécules thérapeutiques assistée par ordinateur : une approche en forte accélération

Au cours de la dernière décennie, l’utilisation d’outils de conception de molécules thérapeutiques assistée par ordinateur – basés, notamment, sur des algorithmes d’IA – a connu un véritable essor, comme en témoigne le P.-D.G. de Qubit Pharmaceuticals, Robert Marino : « Aujourd’hui, près de 10 % des molécules qui font l’objet d’essais cliniques ont été découvertes grâce à des outils d’IA et, plus largement, de conception assistée par ordinateur ».

La technologie de Qubit Pharmaceuticals permet de simuler les interactions entre molécules
La technologie développée par Qubit Pharmaceuticals permet notamment de simuler les interactions entre molécules. © Qubit Pharmaceuticals

Une montée en puissance accompagnée d’un changement d’approche : utilisés hier a posteriori pour comprendre l’effet – ou l’absence d’effet – d’une molécule à partir de données expérimentales, ces outils le sont aujourd’hui davantage a priori, en amont des synthèses.

Si la façon dont elle est mise en œuvre évolue donc sensiblement, la conception de molécules thérapeutiques assistée par ordinateur reste, malgré tout, assez largement centrée autour de cibles traditionnelles, à commencer par des protéines, telles que les kinases. Des biomolécules pour lesquelles les données expérimentales – indispensables à l’entraînement d’algorithmes d’IA – sont en effet foisonnantes. Un état de fait que Qubit Pharmaceuticals a décidé de prendre à contrepied… « Notre positionnement consiste, en effet, à aller chercher des cibles nouvelles – notamment l’ARN – pour lesquelles on ne dispose aujourd’hui que de très peu de données, alors qu’il existe un fort besoin médical insatisfait, expose Robert Marino. Nous avons pour cela développé des méthodes reposant sur trois piliers technologiques très complémentaires – le calcul hautes performances, l’IA, et l’informatique quantique – qui nous permettent, d’une part, de simuler et de valider les molécules, mais aussi, d’autre part, d’en générer de nouvelles. »

De quoi réduire, selon le dirigeant, d’un facteur 10 à 20 le nombre de synthèses et de tests biologiques nécessaires à la validation de molécules thérapeutiques nouvelles. Des candidats médicament qui, dans le cadre des travaux menés par Qubit Pharmaceuticals, se destinent essentiellement, pour l’heure, au traitement de certains cancers et maladies chroniques inflammatoires.


[1] Pour high performance computing.

[2] Contract research organization, ou société de recherche contractuelle : entreprise spécialisée dans la prestation de services dans le domaine de la recherche biomédicale à destination, notamment, de l’industrie pharmaceutique.

[3] Graphics Processing Unit : processeur graphique.

Revue du Magazine d’actualité #8 : du 21 octobre au 1er novembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Adaptation climatique : vers des études de vulnérabilité obligatoires pour les grandes entreprises

Encourager les grandes entreprises à mener des études de vulnérabilité et des plans d’adaptation est une première étape avant de les y obliger, de façon à renforcer leur résilience face à un climat à +4°C d’ici 2100. Ce e troisième plan national d’adaptation au changement climatique vise à protéger infrastructures et population, en préparant chaque secteur aux impacts du réchauffement.
Quel plan pour une adaptation résiliente ?

Biodiversité en Europe : déclin alarmant ou inquiétude exagérée ?

Le débat autour de l’effondrement de la biodiversité en Europe fait rage : alors que certains minimisent la situation, les scientifiques confirment un déclin préoccupant des espèces. Qu’en est-il vraiment ?
Voyons ce qu’en dit la science

Un nouveau matériau pour piéger le CO2 de l’air ambiant

Face au défi climatique, des chercheurs de l’université de Californie ont mis au point le COF-999, un matériau organique poreux capable de capter efficacement le CO2 directement de l’air ambiant. Stable et performant, il pourrait bientôt jouer un rôle essentiel dans la lutte contre les émissions de carbone.
Matérialiser le CO2 atmosphérique

Cyberattaques : les hôpitaux, cibles privilégiées des gangs de ransomwares

Faible sécurité et données personnelles précieuses : en 2023, les établissements de santé sont devenus une cible de choix pour les cybercriminels. Ces attaques coûtent en moyenne 2,2 millions de dollars par incident, tandis que le modèle de double extorsion, de plus en plus courant, amplifie les risques et les pertes.
Des raisons de s’acharner sur la santé

Surveillance en temps réel pour un suivi des matériaux avec une cartographie 3D

Mise au point par la start-up Touch Sensity, une technologie permet de suivre en temps réel les interactions physiques subies par les matériaux de diverses structures (réservoirs, avions, trains, etc.), offrant une cartographie 3D précise. Cette solution est une alternative abordable aux technologies traditionnelles de surveillance industrielle et pourrait s’appliquer aux réservoirs d’hydrogène.
Suivi en temps réel de l’état des matériaux

Un sous-marin autonome pour veiller sur les éoliennes offshore

Un sous-marin autonome piloté par IA, change la donne de l’inspection des éoliennes en mer. Capable de descendre à 3 000 mètres, il délivre des vidéos 4K et des reconstructions 3D ultra-précises, optimisant ainsi la maintenance préventive des parcs offshore.
Outils autonomes pour surveillance sous-marine

L’effondrement de la biodiversité en Europe est-il une réalité ?

Cet article du Point a fait couler beaucoup d’encre pour une excellente raison : il a été publié le 20 octobre, c’est-à-dire la veille de l’ouverture de la 16ᵉ conférence des Parties à la Convention des Nations unies sur la diversité biologique (CDB). Or pour ses détracteurs, le porte-parole d’Action Écologie véhicule un discours dénialiste et scientifiquement faux.

Effondrement de la biodiversité : est-ce une question d’échelle ?

Selon le porte-parole d’Action Écologie, les chiffres inquiétants qui sont portés par des ONG comme WWF sont « une manière de noyer le poisson ». Exemple : « La taille moyenne des populations d’animaux vertébrés sauvages (dans le monde) a chuté de 73 % en seulement cinquante ans. »

Pour lui, il serait possible d’avoir une autre lecture de ces chiffres, à plus petite échelle. Pour justifier son propos, il s’appuie sur un autre indicateur de WWF qui indiquait, en 2012, une évolution positive de la biodiversité de 31 % dans les « pays riches » entre 1970 et 2008, alors que celui-ci reculait en parallèle de 30 % à l’échelle mondiale.

Mais il y a un problème avec ces chiffres : ils ne sont pas comparables et donc trompeurs, car ils masquent les extinctions massives qui se sont produites avant 1970. Selon Louise O’Connor, écologue et biologiste de la conservation à l’Institut international d’analyse des systèmes appliqués (IIASA), « la biodiversité en 1970 en Europe était déjà plus basse que celle d’il y a 500 ans. »

Au-delà de cette bataille de chiffres, dans les faits, certaines espèces reculent et d’autres reviennent (lynx ibérique, daim, etc.) ou n’ont pas été menacées (sangliers, cervidés, etc.) et on ne peut que s’en féliciter !

Mais en matière de biodiversité il est important de prendre un certain recul, car l’interprétation des chiffres est toujours délicate et il est facile de sortir des chiffres de leur contexte.

Qu’en disent les spécialistes ? Selon l’IPBES (groupe international d’experts sur la biodiversité sous l’égide de l’ONU), « la biodiversité de l’Europe et de l’Asie centrale connaît un fort déclin continu. »

De son côté, le Muséum d’histoire naturelle rappelle sur son site « qu’un quart des oiseaux d’Europe ont disparu ces 30 dernières années et que 80 % des insectes ailés ont chuté en l’espace de 40 ans en Europe. »

Comment exposer des faits graves sans faire de catastrophisme ?

Soyons clairs : la biodiversité dans le monde est en déclin et l’Europe n’échappe pas à ce constat, la science est formelle sur ce point.

Suite à la polémique, le Porte-parole d’Action Écologie a néanmoins nuancé ses propos, en assurant ne pas nier le consensus scientifique, mais en ajoutant « qu’il ne faut pas sans cesse reprendre les arguments pour alimenter le feu de la catastrophe. »

Son point de vue est intéressant, car il sous-entend que trop parler du problème peut l’aggraver. Mais comme il est contre-productif d’accuser le thermomètre lorsqu’on a de la fièvre, il est tout aussi contre-productif de vouloir minimiser l’ampleur d’un problème, quitte à en faire un tabou.

Malheureusement, nous allons bel et bien vers une sixième extinction de masse. Ce sont des mots forts, qui font peur, certes, mais qui traduisent une réalité, pas une opinion, aussi anxiogène soit-elle !

Car proposer des mots « plus doux » ne rendra pas la situation moins catastrophique pour autant. Malgré les efforts de conservation et les multiples initiatives pour protéger les écosystèmes, nombre d’entre eux sont toujours menacés. Gardons espoir : ils le seront peut-être moins à l’avenir, mais en attendant, des espèces continuent à disparaître en masse, y compris en Europe, à cause des engrais, des pesticides, de l’urbanisation et du réchauffement climatique.

Il ne faut pas oublier que la science ne fait pas de politique, elle se contente d’établir des faits, mais leur interprétation ne regarde que nous. Nous avons donc le choix entre écouter la science ou regarder ailleurs.

Climat : des études de vulnérabilité obligatoires pour les entreprises

Jusqu’au 25 décembre prochain, le Gouvernement met en consultation son troisième plan national d’adaptation au changement climatique (PNACC) sur le site www.consultation-pnacc.ecologie.gouv.fr. Ce plan comprend 51 mesures et plus de 200 actions, afin de protéger la population et les infrastructures face au changement climatique, garantir la résilience des territoires et des secteurs économiques, dans une France à + 4 °C en 2100.

Des études de vulnérabilité bientôt obligatoires

Le PNACC souhaite lancer des études de vulnérabilités pour cartographier les risques et vulnérabilités des principales infrastructures de santé, de transports, du système énergétique et de communication électronique. La SNCF et EDF ont commencé ces études et l’objectif est de les finaliser en 2025. « Les études de vulnérabilité vont être un grand axe de ce plan d’adaptation pour essayer d’avoir à la fin une cartographie assez précise des risques et des vulnérabilités des différentes infrastructures comme les établissements de santé, les infrastructures de transport, les infrastructures de sécurité, afin de planifier au mieux l’adaptation », confirme le cabinet d’Agnès Pannier-Runacher, ministre de la Transition écologique.

Cette disposition deviendra bientôt obligatoire pour les plus grandes entreprises. « L’étude de vulnérabilité sera progressivement obligatoire pour les grandes entreprises et les entreprises stratégiques, à commencer, dès 2025, par les grandes entreprises gérant des infrastructures de transport et d’énergie et, dès 2026, pour les opérateurs d’importance vitale [entités publiques ou privées qui exploitent ou utilisent des installations indispensables au pays] », précise le PNACC.

Des plans d’adaptation obligatoires pour certains

Les plans d’adaptation ne seront toutefois obligatoires que pour certains secteurs. Dès février 2024, les anciens ministres de l’Économie et de la transition écologique, Bruno Le Maire et Christophe Béchu, avaient demandé à toutes les grandes entreprises essentielles pour le fonctionnement des systèmes énergétiques et de transport « un plan d’adaptation au réchauffement climatique pour assurer que ces équipements vitaux résistent aux fortes chaleurs, inondations, tempêtes et sécheresses ».

Concernant le réseau électrique basse tension, le plan dévoilé le 25 octobre prévoit que la « majorité des ouvrages sensibles aux vagues de chaleur seront remplacés d’ici 2040 ». De son côté, l’industrie de transformation du bois devra élaborer un « plan d’action pour l’adaptation » au plus tard en 2029. Et les stations de montagne et de sports nautiques devront s’y mettre encore plus rapidement. « À compter de 2025, tout soutien public dans les stations, que ce soit en montagne ou sur le littoral, sera conditionné à la réalisation d’un plan d’adaptation au changement climatique selon la TRACC [trajectoire de référence d’adaptation au changement climatique, scénario à + 4 °C] », indique le PNACC. C’était une recommandation de la Cour des comptes pour améliorer la résilience des stations de montagne.

Pour les autres secteurs, « l’appropriation des enjeux de l’adaptation par les entreprises sera encouragée à travers des actions de sensibilisation-formation réalisées par les Chambres de commerce et d’industrie (CCI) et les Chambres des métiers et de l’artisanat CMA), l’animation d’un groupe de travail inter-filières au sein du Conseil national de l’industrie (CNI) et le lancement de la plateforme numérique “Mission Transition écologique” », indique le PNACC.


Crédit visuel de une : image générée sur Firefly

Salon BE 5.0 : explorez l’Industrie du Futur avec 10 articles exclusifs

Ces articles explorent une variété de thématiques essentielles, allant de l’intelligence artificielle à la cybersécurité, en passant par la robotique et les nouvelles méthodes de maintenance. Ils offrent un aperçu des innovations qui façonnent l’industrie d’aujourd’hui et de demain.

Plongez au cœur de l’innovation :

  1. Détection automatique de défauts en tomographie par intelligence artificielle 
  2. Plateformes de développement faible coût pour la domotique, la robotique et le prototypage des systèmes embarqués
  3. Processeurs à grand nombre de cœurs (manycores) 
  4. Optimiser les performances thermo-hydrauliques d’échangeurs de chaleur
  5. Entreprise du futur et transitions numérique, énergétique et écologique
  6. La maintenance prédictive-prévisionnelle-intelligente pour l’industrie 4.0
  7. Matériaux pour l’impression 3D 
  8. Cartographie des risques – Méthodologies et applications 
  9. Robotique collaborative industrielle : veille sectorielle et technologique 
  10. Risques en cybersécurité de l’IoT – Panorama des principales menaces

Les fluides viscoplastiques, c’est fantastique ! Kindness Isukwem en quête de leurs applications industrielles

Originaire du Nigeria, Kindness Isukwem a choisi la France en 2018 pour y poursuivre son parcours d’études supérieures. Un choix qui l’a finalement conduite à se lancer, en France toujours, dans un doctorat en mécanique des fluides, au sein du Centre de mise en forme des matériaux, de Mines Paris – PSL : e CEMEF. Pendant trois ans, elle s’est ainsi attelée à des travaux de recherche fondamentale portant sur l’étalement de fluides viscoplastiques. Après avoir soutenu sa thèse le 25 octobre dernier, elle aspire désormais à mettre à profit ses découvertes dans des applications industrielles.

Techniques de l’Ingénieur : Quel a été le parcours qui vous a menée jusqu’à ce doctorat en mécanique des fluides ?

Kindness Isukwem, docteure en mécanique des fluides
Docteure en mécanique des fluides, Kindness Isukwem est par la même occasion très sensible à la question de l’accès des femmes aux carrières scientifiques. © Fondation L’Oréal – Clémence LOSFELD et Richard PAK

Kindness Isukwem : Une grande partie de mon parcours scolaire et étudiant s’est déroulé au Nigeria, jusqu’à l’obtention de ma licence en ingénierie mécanique. C’est en 2018 que j’ai pris le chemin de la France pour y effectuer un master en mécanique computationnelle, à l’École Centrale de Nantes. J’ai également suivi, dans la foulée, un master spécialisé dans le domaine des matériaux, à Mines Paris – PSL. Enfin, en 2021, j’ai débuté un doctorat au sein du Centre de mise en forme des matériaux (CEMEF), également rattaché à Mines Paris – PSL[1], mais basé quant à lui à Sophia Antipolis, dans le Sud de la France.

Avez-vous le sentiment que votre genre a eu un impact sur le déroulement de ce parcours que vous venez de décrire ? Si c’est le cas, a-t-il été plutôt un frein, un handicap, ou au contraire un atout, un levier qui vous a permis d’avancer ?

Malheureusement, la plupart du temps, être une femme a pour moi représenté une difficulté. À de nombreuses reprises, à l’école et dans mes études, j’ai été confrontée à des stéréotypes de genre, remettant en question mes capacités intellectuelles et ma légitimité en tant que femme scientifique.

Des difficultés que vous êtes malgré tout parvenue à surmonter, en devenant docteure en mécanique des fluides… Quel est justement l’objet des travaux que vous avez menés dans le cadre de votre doctorat ?

Ma thèse avait pour objectif d’étudier les mécanismes physiques qui régissent la déformation de gouttes de fluides complexes – des fluides « viscoplastiques » – lorsqu’ils percutent trois grands types de surfaces : solides, liquides et gazeuses. Ces fluides viscoplastiques ont pour particularité de se comporter tantôt comme un solide, tantôt comme un liquide. Leur comportement peut donc drastiquement changer. En outre, en fonction des surfaces percutées, ils donnent naissance à des formes très variées. Lorsque ces gouttes frappent la surface de l’eau, par exemple, elles peuvent former des capsules, des structures qui peuvent notamment être utilisées dans l’industrie pharmaceutique pour encapsuler des médicaments.

Un autre grand domaine d’application possible de mes travaux est celui de l’impression 3D et de la bioimpression. Dans ce cas, l’une des questions majeures qui se posent est : « Peut-on contrôler l’étalement de ces gouttes ? ». C’était l’un des objectifs de ma thèse : chercher à prédire la déformation de ces gouttes.

Vous évoquiez la notion de « fluides viscoplastiques » et décriviez leurs propriétés particulières… Ne s’apparentent-ils pas à ce que l’on appelle les « fluides non newtoniens » ?

Exactement ! Les fluides non newtoniens ont des caractéristiques qui varient en fonction de la contrainte qu’ils subissent. Ils peuvent être visqueux, mais devenir liquides lorsque cette contrainte dépasse un certain seuil. D’autres, au contraire, se comportent comme des solides et ne se déforment quasiment pas. Une autre de leurs propriétés, plutôt complexe, est la thixotropie : dans le cas des gouttes auxquelles je m’intéresse, certaines peuvent, a priori, ne pas se déformer, mais finalement commencer à s’écouler si on leur laisse un peu de temps.

Un exemple fameux est celui du mélange eau-fécule de maïs, n’est-ce pas ?

En effet, c’est un exemple très célèbre de fluide non newtonien. Mais il existe aussi de nombreux autres fluides courants qui le sont : le ketchup, la mayonnaise, le beurre de cacahuètes…

Vous avez soutenu votre thèse le 25 octobre dernier[2]. Quelle sera la suite de votre parcours ?

J’aimerais continuer à travailler dans ce vaste domaine de l’étude des fluides non newtoniens, mais davantage sur des applications concrètes. Les travaux de modélisation des mécanismes physiques de déformation que j’ai menés jusqu’à maintenant s’apparentaient plutôt, en effet, à de la recherche fondamentale. Mais, comme je l’évoquais, ces modèles et les propriétés qui en découlent peuvent être utilisés pour des applications industrielles. C’est donc vers cela que j’aimerais me tourner.

Comment accueilliez-vous ce Prix Jeunes Talents France 2024 L’Oréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 9 octobre dernier ? Quelles perspectives cela ouvre-t-il pour vous et la poursuite de votre carrière ?

Je n’y crois toujours pas ! (Rires.) Il s’agit en effet d’un prix particulièrement prestigieux. Je suis donc très heureuse d’en être lauréate, et très reconnaissante envers la Fondation L’Oréal, ainsi qu’envers l’UNESCO… et le jury de l’Académie des Sciences également, bien sûr !

Ce prix est une initiative vraiment exceptionnelle à mes yeux. S’occuper du problème de la sous-représentation des femmes dans le domaine des sciences et technologies et le secteur de l’ingénierie reste en effet crucial. Il y a encore beaucoup de chemin à parcourir pour donner à notre travail de femmes scientifiques sa juste valeur et montrer que nous sommes capables d’atteindre le même niveau d’excellence que certains hommes. Notre genre ne devrait pas être un frein vers l’excellence.

Ce prix, pour moi comme pour toutes les autres femmes exceptionnelles que j’ai pu rencontrer à cette occasion, nous offre l’opportunité de montrer au plus grand nombre ce dont nous sommes capables. C’est aussi une bonne source d’inspiration, pour chacune d’entre nous, mais aussi pour les autres.

Avez-vous éventuellement en tête une idée d’action, de stratégie, de solution… qu’il vous semblerait pertinent de mettre en œuvre pour renforcer la place et la visibilité des femmes dans le monde scientifique ?

Comme je l’ai dit tout à l’heure, les stéréotypes liés au genre ont la vie dure ! Ils remettent fondamentalement en question ce que les femmes sont capables de faire dans le domaine scientifique. Selon moi, un moyen de lutter contre cela consiste à sensibiliser le plus grand nombre – tout le monde même – à ces questions. À commencer par les jeunes filles, qui sont encore trop nombreuses à croire qu’il n’est pas possible pour elles de s’engager dans un parcours scientifique. La Fondation L’Oréal mène d’ailleurs des actions en ce sens, telles que le programme Pour les filles et la Science, qui vise à favoriser l’orientation des lycéennes vers des filières scientifiques. Durant la semaine de la remise de ce prix Jeunes Talents France 2024 L’Oréal-UNESCO Pour les Femmes et la Science, nous sommes d’ailleurs nous-mêmes allées à la rencontre de jeunes filles dans leurs écoles pour témoigner de nos parcours respectifs, mais aussi échanger avec elles en tête-à-tête et répondre à leurs questions concernant les STEM[3].

Au-delà de ça, je pense que j’ai aussi, au niveau personnel, un rôle à jouer. Je connais en effet des gens autour de moi qui ont encore à l’esprit ces stéréotypes liés au genre que j’évoquais. Il me semble donc important d’agir à ma petite échelle, dans mon entourage immédiat, pour faire changer les mentalités. Ce prix que je viens de recevoir va d’ailleurs être un bon moyen pour moi de montrer que mon travail a de la valeur, et que personne ne devrait nous détourner, nous, femmes scientifiques, de nos ambitions.

Une question subsidiaire, pour terminer… Avez-vous éventuellement en tête un exemple de figure féminine marquante à vos yeux, de l’histoire des sciences, ou du monde scientifique contemporain ?

Je pense que tout le monde va faire référence à Marie Curie ! (Rires.) Mais c’est mon cas également : je pense qu’il s’agit-là d’une femme scientifique vraiment exceptionnelle. En tant que femme, elle a su persévérer dans son parcours à une époque, il y a un siècle, où cela était encore plus difficile qu’aujourd’hui, où les sciences restaient un monde quasi exclusivement masculin. Par rapport à elle, nous avons aujourd’hui la chance d’avoir davantage de soutien et des personnes qui nous poussent à croire en nos rêves, mais aussi à faire du mieux que nous puissions pour insuffler le changement.


[1] CNRS, Mines Paris – PSL, Université Paris Sciences et Lettres.

[2] https://www.cemef.minesparis.psl.eu/actualite/soutenance-de-these-de-kindness-isukwem/

[3] Science, technology, engineering, and mathematics : science, technologie, ingénierie et mathématiques (STIM).

Les thèses du mois : « Secteurs agricole et textile : comment faire plus avec moins d’eau »

Pour notre dossier d’octobre, « Secteurs agricole et textile : comment faire plus avec moins d’eau », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Impacts du système agricole sur la soutenabilité des aquifères du territoire Seine-Normandie en contexte de climat changeant : état quantitatif et qualitatif des eaux souterraines
Nicolas Gallois
Projet de thèse en Géosciences et géoingénierie, depuis le 30/09/2024
Centre de Géosciences

Quels leviers économiques pour inciter à une gestion maîtrisée des ressources en eau tout en assurant un équilibre budgétaire. Le cas du système Neste.
Maxime Roussel
Projet de thèse en Sciences économiques, depuis le 10/06/2024
Laboratoire : G-EAU – Gestion de l’Eau, Acteurs, Usages

Apports des scénarios de changement d’occupation et d’usages des sols pour les acteurs locaux : une évaluation temporelle appliquée à la gestion de l’eau et de l’environnement à des échelles fines
Roberta Rigo
Thèse de doctorat en Géographie, soutenue le 25/05/2023
Laboratoire : Littoral- Environnement- Télédétection- Géomatique

Comment se forme et se transforme une politique publique de sobriété hydrique ? Le cas du service public de l’eau potable en France
Pascale Tugayé
Projet de thèse en Sciences de Gestion depuis le 30/09/2024
Groupe de recherche en management (Nice)

Optimisation de la consommation d’eau dans les papeteries
Olivier Kester
Projet de thèse en Génie des Procédés, des Produits et des Molécules, depuis le 27/04/2023
Laboratoire réactions et génie des procédés

Extraction des teintures d’eaux usées de décoloration d’un procédé de recyclage chimique des textiles
Anastasiia Silina
Projet de thèse en Mécanique, énergétique, génie des procédés, génie civil depuis
le 01/04/2024
Laboratoire de Génie et Matériaux Textiles

Estimation et contrôle pour un système de bioréacteurs interconnectés pour la réutilisation des eaux usées traitées en agriculture.
Mahugnon Dadjo
Projet de thèse en Mathématiques et Modélisation, depuis le 01/09/2022
Laboratoire : Mathématiques, Informatique et STatistique pour l’Environnement et l’Agronomie

Impact sur des sols agricoles et des plantes de l’irrigation par des effluents textiles traités
Sourour Mzahma
Thèse en Sciences de la Terre et de l’environnement soutenue le 22/02/2024
Institut Terre Environnement (Strasbourg)

Gestion des milieux aquatiques et prévention des inondations : les insuffisances d’un cadre institutionnel et juridique face aux réalités géographiques
Jean-Charles Amar
Thèse de doctorat en Droit Public, soutenue le 28/11/2023
Centre de recherches et d’études administratives de Montpellier

L’implicite reconnaissance du principe de solidarité écologique en droit de l’urbanisme
Thomas Solan
Thèse de doctorat en Droit Public, soutenue le 22/03/2024
Centre de droit économique et du développement

Gérer l’eau pour mieux la préserver, un enjeu majeur pour une ressource de moins en moins durable

Un extrait de « L’eau à l’ère des transitions numérique, énergétique et écologique », par Jean-Pierre DAL PONT, Sophie ALTMEYER

Les mers et les océans couvrent 71 % de la surface terrestre. Ils sont inséparables de la vie humaine.

L’eau s’évapore des mers et des océans puis se dissipe dans l’atmosphère, avant de retomber sur les continents. Les précipitations peuvent ensuite être stockées dans les sols, reprises par les racines et évapotranspirées par les diverses végétations, ou bien s’écouler dans les rivières, fleuves et nappes. La ressource annuelle d’eau douce renouvelable est estimée à 40 000 km3, soit environ 5 600 m3 par habitant.

Ressources et usages de l’eau

Sous l’effet conjugué de la croissance démographique, du développement socio-économique et de l’évolution des modes de consommation, l’utilisation de l’eau dans le monde augmente annuellement d’environ 1 % depuis les années 1980. La demande mondiale en eau devrait continuer d’augmenter à un rythme similaire jusqu’en 2050 (soit 20 % à 30 % de plus que le niveau actuel d’utilisation), et ce principalement en raison de la demande croissante de l’industrie et des ménages.

Avec 70 % des consommations, l’agriculture est la première source d’utilisation de l’eau dans le monde. Les terres équipées pour l’irrigation couvrent 325 millions d’hectares, soit 20 % des terres cultivées, et fournissent à elles seules 40 % de la production agricole. Entre 1973 et 2013, la superficie irriguée a augmenté de plus de 60 %. La consommation française en eau est de 16 milliards de m3/an, répartie à parts égales entre l’eau potable, l’arrosage, l’irrigation agricole et l’industrie (énergie exclue).

L’industrie est le deuxième plus grand consommateur d’eau dans le monde. Les plus gros consommateurs industriels d’eau sont les secteurs de la chimie, du papier-carton et de l’agroalimentaire. Chaque produit consommé a, en effet, nécessité des quantités non négligeables d’eau lors de chacune des étapes de sa production.

Les menaces sur l’eau

L’activité humaine et les ouvrages construits par l’homme ont souvent des répercussions sur les écosystèmes. Ainsi les grands barrages réduisent, sur le réservoir, le volume d’eau total disponible pour l’évaporation.

Les zones humides ont, elles, perdu au cours du XXe siècle les deux tiers de leur superficie en France.

La pollution de l’eau, essentiellement d’origine anthropique, est également un problème majeur de l’humanité. Les mers et les océans sont ainsi devenus le réceptacle de tous les rejets de notre société de consommation, comme en témoignent ces « continents » qui dérivent au gré des courants marins, constitués de résidus des matières plastiques (pneumatiques, particules issues des machines à laver le linge…).

Plus de 80 % de l’eau provenant des activités humaines est rejetée dans le milieu naturel sans traitement et est donc source de pollution. Les pays riches comme les pays pauvres connaissent des niveaux élevés de pollution de l’eau. Les nappes phréatiques, surexploitées, n’ont plus la capacité de se renouveler.

La pollution diffuse provient de multiples petites sources de pollution. Elle est souvent peu visible et les origines peuvent être difficilement identifiables. Toutefois, elle détériore la qualité des masses d’eau. Les principaux polluants concernés (nitrates, produits phytopharmaceutiques et matières en suspension) rejoignent les milieux aquatiques de façon indirecte, par ou à travers le sol, sous l’influence des précipitations ou des irrigations. Les matières organiques, substances azotées, métaux et métalloïdes présentent également un risque extrême.

Les sources de pollution peuvent rejoindre le milieu, soit par un rejet ponctuel (accident, rejet d’une usine dans un cours d’eau, marée noire…), soit de manière diffuse (engrais et produits phytosanitaires agricoles, médicaments, peintures…).

La rapidité d’une pollution de l’eau varie selon son origine. La pollution atmosphérique mettra ainsi dix jours pour contaminer le sol. En revanche, il faudra un certain temps pour que « le pic » de pollution décroisse et beaucoup plus longtemps pour que l’eau retrouve son aspect originel.

L’eau et le changement climatique

Du fait de sa répartition inégale dans le monde et des effets du changement climatique qui accentuent les épisodes de stress hydrique, l’eau revêt une importance géopolitique qui croît encore avec l’augmentation de la population mondiale. L’accès à l’eau représentera ainsi dans les années à venir une source de conflits frontaliers grandissante.

Une étude estime ainsi que l’humanité ne doit pas dépasser neuf limites pour ne pas compromettre les conditions favorables dans lesquelles elle a pu se développer et pour continuer à vivre dans un écosystème sain. En 2015, trois de ces limites sont déjà dépassées.

Au niveau de l’eau, des défis colossaux se dressent pour les humains :

  • pallier les manques d’assainissement et d’accès à l’eau potable ;
  • pérenniser l’accès à une eau en quantité et de qualité, en trouvant notamment des solutions pour lutter contre les micropolluants ;
  • imaginer des modes de fonctionnement moins gourmands en eau, que ce soit pour l’agriculture ou l’industrie ;
  • créer des territoires résilients aux évènements extrêmes pour surmonter des épisodes d’inondations ou encore de canicules, qui se multiplieront avec le changement climatique ;
  • préserver les écosystèmes et la biodiversité.

Les progrès récents dans le domaine du numérique ouvrent de larges perspectives dans les modes de gestion des réseaux d’eau et des services urbains et permettent d’envisager des solutions pour répondre aux évolutions des années à venir, notamment la détection et l’identification d’une fuite d’eau dans les canalisations avant compteur. Sur le terrain, les principaux outils de détection des fuites sont la sectorisation et l’écoute acoustique du réseau.

La raréfaction de la ressource entraîne le besoin de trouver de nouvelles sources d’approvisionnement. La réutilisation des eaux sur site industriel est déjà assez couramment mise en œuvre mais la REUSE (réutilisation de l’eau usée traitée) est encore peu pratiquée. En France, moins de 1 % des eaux usées épurées sont réutilisées. En Europe, l’Italie avec 8 % et l’Espagne avec 14 % sont ainsi loin devant. Par ailleurs, certaines zones où la ressource en eau est faible ont déjà largement mis en œuvre des technologies pour réutiliser leurs eaux usées.

Pour sa part, la France devrait connaître un déficit en eau potable de 2 milliards de m3 par an à l’horizon 2050 pour les secteurs de l’alimentation, de l’agriculture et de l’industrie.

Quelles réglementations ?

La directive-cadre sur l’eau fixe comme objectif de rétablir – ou de maintenir lorsque c’est déjà le cas – le bon état des milieux aquatiques, c’est-à-dire des cours d’eau, des plans d’eau, des eaux littorales et des eaux souterraines. Elle vise à protéger la santé des personnes des effets néfastes de la contamination des eaux destinées à la consommation humaine en garantissant la salubrité et la propreté de celles-ci.

La gestion de l’eau est conduite à l’échelle des bassins versants des grands fleuves européens, y compris de manière transfrontalière lorsque ces fleuves traversent plusieurs pays. En France, les plans de gestion prennent la forme de schémas directeurs d’aménagement et de gestion des eaux (SDAGE).

Les coûts de l’eau potable et de l’assainissement sont pris en charge par les utilisateurs de l’eau potable. Par ailleurs, les usagers de l’eau et des milieux aquatiques participent financièrement aux actions de préservation et d’amélioration de l’état des milieux aquatiques, en particulier par le biais de taxes.

Enfin, la LEMA (loi sur l’eau et les milieux aquatiques) crée quant de nouveaux outils de lutte contre la pollution de l’eau et l’altération du fonctionnement des milieux aquatiques, en particulier une « police de l’eau » unique, qui renforce le rôle des collectivités dans la gestion des services publics de l’eau et de l’assainissement.

La capture du CO2 de l’air par un nouveau matériau organique

Pour espérer atteindre les objectifs de limitation du réchauffement climatique à 1,5°C, il faudra être capables de capter le dioxyde de carbone (CO2) de l’air extérieur. Pour le moment, les technologies de capture du CO2 sont uniquement efficaces sur des sources de carbone concentrées, comme les gaz d’échappement des centrales. Les concentrations dans l’air ambiant sont, quant à elles, des centaines de fois moindres.

Quel nouveau matériau durable pourrait permettre de répondre à un tel défi technique ? Selon les chimistes de l’université de Californie à Berkeley (États-Unis), la réponse se nomme COF-999. Dans un article paru le 23 octobre 2024 dans le journal Nature, le premier auteur et doctorant Zihui Zhou ainsi que ses collègues présentent ce matériau organique prometteur…

COF-999 : le renouveau de la capture du CO2 atmosphérique

À l’origine de cette découverte, on trouve l’un des coauteurs du papier scientifique, le professeur de chimie à l’université de Californie à Berkeley Omar Yaghi. Il est connu pour être l’inventeur des COFs (covalent organic frameworks, ou « structures organiques covalentes ») et des MOFs (metal-organic frameworks, ou « structures organométalliques »), des structures cristallines dont les pores régulièrement espacés permettent l’adsorption (fixation de molécules sur un substrat) de gaz. Il y a deux ans de cela, le laboratoire d’Omar Yaghi met au point le MOF-808, un matériau comportant des amines adsorbant efficacement le CO2. Malheureusement, après plusieurs centaines de cycles d’adsorption-désorption, le matériau finit par casser. La faute incomberait à l’instabilité du MOF-808 en milieu basique. Problème : les amines le composant et lui permettant de capter le CO2 sont des bases…

Le nouveau matériau poreux, COF-999
Le nouveau matériau poreux, COF-999, décoré de polyamines captant les molécules de CO2 (boules bleues et oranges). Crédits : Chaoyang Zhao/UC Berkeley.

C’est ainsi que Zihui Zhou et son équipe de recherche ont pris le relais en tentant de trouver un matériau plus résistant. Ils ont ainsi synthétisé un COF abritant en ses pores des polyamines : le COF-999. Sa capacité de capture de CO2 dans l’air (ici 400 ppm, contre 426 dans l’atmosphère actuelle) atteint 0,96 mmol/g dans des conditions sèches, et 2,05 mmol/g avec 50 % d’humidité. Dans cette dernière configuration, pour une salle à température ambiante (25°C), le matériau a atteint sa capacité moyenne en seulement 18 minutes, et s’est rempli en près de 2 heures. Avec juste 200 g de COF-999, il serait possible de capter jusqu’à 20 kg de CO2 par an, soit autant qu’un arbre ! Pour s’assurer de sa solidité, plus d’une centaine de cycles d’adsorption-désorption ont eu lieu à l’air libre à Berkeley, sans qu’aucune perte de performances ne soit à déplorer. Le COF-999 pourrait d’ores et déjà être employé dans un système de capture, notamment pour les émissions de raffineries ou les zones de stockage souterraines.

Pompes à chaleur : le prix de l’électricité déterminant pour relancer le marché

Les industriels des pompes à chaleur alertent depuis plusieurs mois sur la crise qu’affronte le secteur. Selon l’Association européenne des pompes à chaleur (EHPA), les ventes de pompes à chaleur ont chuté de 47 % en Europe au cours des six premiers mois de 2024, par rapport à la même période en 2023. En cause : un moindre soutien des politiques nationales et un prix du gaz avantageux par rapport à l’électricité.

L’association de promotion des pompes à chaleur met en avant leurs bénéfices dans la lutte contre le changement climatique. « Les 24 millions de pompes à chaleur actuellement installées en Europe permettent d’éviter la consommation de 5,5 milliards de mètres cubes de gaz, soit 1,6 % de la consommation annuelle totale de gaz de l’UE », avance-t-elle. De quoi éviter l’émission de 45 millions de tonnes de CO2 chaque année. Si l’Europe atteignait 60 millions de pompes à chaleur installées en 2030, le Vieux continent éviterait l’émission de 112 millions de tonnes de CO2 et 13,7 milliards de mètres cubes de gaz chaque année.

Soutenir l’électricité plutôt que le gaz

Dans une communication publiée le 21 octobre, l’EHPA souligne que dans la plupart des pays, le gaz est subventionné par les gouvernements. Cela lui permet d’éviter les taxes sur le carbone et de le maintenir à un prix artificiellement bas par rapport à l’électricité. Paul Kenny, directeur général de l’Association européenne des pompes à chaleur, incite les gouvernements à agir et appelle la nouvelle Commission européenne à publier le plan d’action tant attendu de l’UE sur les pompes à chaleur. « Pour garantir la compétitivité à long terme de l’Europe et éliminer le charbon, le pétrole et le gaz du secteur du chauffage et de la climatisation, nous devons de toute urgence inverser le ralentissement du marché des pompes à chaleur », insiste-t-il.

Au cœur de la crise énergétique, lorsque le prix du gaz a atteint des records, c’est justement là que les ventes de pompes à chaleur étaient les plus importantes. « Cependant, cela n’a pas duré et aujourd’hui, dans une grande partie de l’Europe, l’électricité coûte plus de 2,5 fois plus cher par unité que le gaz », analyse l’EHPA. « L’électricité devrait être au maximum environ deux fois plus chère que le gaz pour qu’une pompe à chaleur – qui ne consomme qu’une petite quantité d’électricité pour fonctionner – soit un bon investissement. »

Ratio prix électricité/gaz pour le premier semestre 2024
Ratio prix électricité/gaz pour le premier semestre 2024. Ce ratio doit être au maximum de 2 pour que les pompes à chaleur soient rentables, estime l’EHPA. Graphique EHPA, données Eurostat

En Finlande, en Norvège et en Suède, le gaz est très peu présent et l’utilisation des pompes à chaleur est répandue. Paul Kenny, prévient : « Les pompes à chaleur sont essentielles pour mettre fin à la dépendance de l’Europe aux importations de combustibles fossiles, essentielles pour parvenir à un système énergétique souverain et sûr, isolé des acteurs étrangers et de leur utilisation des prix de l’énergie comme arme de guerre. Mais cela n’arrivera pas si cela coûte trop cher aux consommateurs et aux entreprises. Si les gouvernements de l’UE prennent au sérieux la souveraineté énergétique, la compétitivité et la durabilité, ils doivent veiller à ce que les prix de l’énergie favorisent les pompes à chaleur. »

« La réciprocité des réglementations est un enjeu essentiel pour la pérennité de la filière textile »

Pour obtenir les caractéristiques d’un produit textile, il faut le mettre dans de l’eau et la chauffer, en recommençant ces processus plusieurs fois. La problématique de l’ennoblissement est donc à la fois d’ordre hydrique et énergétique.

La problématique de l’usage de l’eau pour l’ennoblissement est quelque chose sur lequel l’Union des Industries Textiles travaille beaucoup depuis longtemps, en particulier parce que l’industrie textile française n’est pas très florissante, et la réduction des coûts via des méthodes économes en eau est à la fois un enjeu de sobriété, mais aussi de compétitivité essentiel.

Sophie Frachon, responsable Développement durable et RSE au sein de l’UIT, a expliqué à Techniques de l’Ingénieur en quoi la sobriété hydrique est une problématique qui n’est pas nouvelle pour l’industrie textile, et comment le manque criant de contrôles sur les produits textiles importés plombe la filière française.

Comment s’illustre la baisse des ressources en eau au niveau de la filière textile ?

Sophie Franchon : Pour prendre en exemple l’histoire récente, il y a eu en 2023 des épisodes de sécheresse très importants en France avec des arrêtés sécheresse et même des interdictions totales de prélèvements, une situation dans laquelle les usines textiles n’ont d’autres choix que de se mettre totalement à l’arrêt. En même temps, la mise en place du Plan eau a eu un impact au niveau national. Il a été demandé à toutes les filières industrielles de mettre en place un plan de sobriété hydrique.

Au niveau des comités stratégiques de filières ont été mises en place des actions, que ce soit pour la filière mode et luxe, la filière cuir, arts de la table ou textile. La filière textile avait de l’avance sur ces problématiques liées à l’eau, par nécessité : le contexte morose de la filière a depuis longtemps forcé cette dernière à mettre en place des stratégies pour économiser l’eau, à des fins de compétitivité économique.

Nous avons la chance d’avoir un centre technique très actif au niveau de la filière textile, avec lequel nous collaborons beaucoup, et qui fait de la recherche principalement sur l’aspect ennoblissement, qui concentre à lui seul l’immense majorité des consommations d’eau de la filière.

Quelles sont les technologies développées pour économiser l’eau ?

Notre centre technique fait de la recherche – sur des procédés de teintures utilisant peu voire pas d’eau – couplé avec un programme, Révolutions énergétiques, travaillant sur l’aspect énergétique de l’ennoblissement, puisque l’eau utilisée est chauffée, et de nombreux procédés utilisent de la vapeur. De nombreux industriels participent à ces programmes et mettent en place des solutions pour aller vers plus de sobriété énergétique.

Avec le CSF mode et luxe, qui est en retard sur la filière textile sur la problématique de sobriété hydrique, nous avons commencé par quelque chose qui peut paraître anodin : la détection des fuites. C’est le premier pas pour économiser l’eau, et la limitation des fuites permet souvent aux industriels d’améliorer significativement le bilan hydrique de leurs activités.

Ensuite, il y a les financements. De nombreuses aides existent, mais sont très compliquées à obtenir : nous sommes donc là pour les aider à obtenir ces financements, qui peuvent par exemple leur permettre de renouveler leurs machines.

Les réglementations en vigueur aujourd’hui en Europe et sur d’autres continents diffèrent largement en ce qui concerne la production textile. Comment remédier à cela ?

C’est la base de notre combat. Les réglementations française et européenne sont très strictes. La quasi-totalité de nos ennoblisseurs sont soumis aux réglementations ICPE, nous nous battons donc pour qu’il y ait une réciprocité sur cet aspect réglementaire, pour contrer les pratiques qui sont par exemple aujourd’hui autorisées dans les pays lointains. Ces derniers ne sont pas soumis aux mêmes règles que les nôtres, notamment à la réglementation Reach, mais au-delà de ça, les réglementations qui leur sont imposées en tant qu’exportateurs. Quand ces dernières ne sont pas respectées et quand certains industriels utilisent des produits interdits, cela n’est pas sanctionné puisque les contrôles sont quasi inexistants.

Ainsi, au-delà de nos coûts de fabrications qui sont plus chers, la question de la réciprocité est un enjeu essentiel pour la pérennité de la filière.

Ce qui est difficile, parce que le contrôle des produits textiles implique de les tester en laboratoire pour connaître la nature des substances utilisées pour leur fabrication, et donc la mise en place de moyens importants en termes de matériel et logistiques.

Quels projets sont mis en place aujourd’hui pour aller vers une plus grande sobriété énergétique de la filière textile ?

Il y a des projets de recherche menés au niveau international auxquels la France participe, comme le projet DRYE, qui vise le développement de traitements des textiles par voie sèche là où sont encore aujourd’hui utilisés des traitements par voie humide. Ces traitements innovants permettent d’économiser entre 66 et 80 % de consommation d’eau, avec des technologies de chimie totalement différentes de celles en place aujourd’hui. Aussi des technologies à base de mousse se développent, qui permettent d’économiser, pour certaines d’entre elles, jusqu’à 100 % d’eau.

Comment ces projets sont-ils appréhendés par les acteurs de la filière ?

Les donneurs d’ordre sont souvent réticents à l’idée de mettre en œuvre ces technologies innovantes, même quand elles ont prouvé leur efficacité. En effet, ces derniers ont développé des technologies avec lesquelles ils sont familiers, et qui leur donnent des résultats – teinture, aspects, propriétés, résistance aux lavages… – dans lesquels ils ont confiance. Il faut donc que les ennoblisseurs qui développent de nouvelles technologies parviennent à convaincre leurs clients que les technologies qu’ils utilisent ne vont pas avoir d’impact négatif sur la qualité des produits, ce qui n’est pas simple. Cela dit, les industriels avec lesquels nous collaborons jouent le jeu et testent ces nouvelles technologies, cela va dans le bon sens.

Enfin, quels projets mettez-vous en place pour favoriser le développement de l’utilisation des fibres naturelles par les acteurs de la filière ?

Nous avons créé un pôle fibres naturelles, pour la laine, le coton, le lin et le chanvre, avec les créateurs de mode, pour que ces derniers se saisissent de ces matières. Là encore, il faut que les contrôles soient renforcés pour que les textiles produits avec ces matières puissent être compétitifs et de qualité. Aujourd’hui, de nombreuses plateformes web permettent de commander des vêtements en lin importées de pays lointains sans aucun contrôle. Nous avons fait l’expérience en faisant analyser un vêtement vendu comme étant 100 % lin, qui in fine ne contenait que 40 % de lin et 60 % de coton. Qui plus est, les matières comme le lin sont souvent traitées massivement avec des produits chimiques en Chine, chose que nous ne faisons pas en France. Il y a donc une nécessité de renforcer drastiquement les contrôles.

Propos recueillis par Pierre Thouverez