Aujourd’hui, les investissements, qu’ils soient publics ou privés, sont passés au filtre des critères ESG pour évaluer leur impact environnemental, social et de gouvernance… et in fine la pertinence de l’investissement. L’Union Européenne est d’ailleurs en train de légiférer sur ces questions, en mettant en place des réglementations très techniques. Par exemple, la SFDR va obliger les sociétés de gestion à s’expliquer sur leurs politiques d’investissement et leur politique environnementale, et à justifier, chiffres à l’appui, en quoi leur stratégie est efficace.
Autre exemple, le règlement de taxonomie, qui va obliger les sociétés privées à justifier et expliquer leurs stratégies, à la lumière des objectifs environnementaux actuels. Le but étant de donner plus de transparence aux investisseurs, et de favoriser le financement de projets à impact.
En effet, les nouvelles réglementations listent des catégories d’armes dites controversées. Parmi elles, on va trouver des armes comme les mines anti personnelles, qui font déjà l’objet d’engagements au niveau européen depuis longtemps.
Nous allons également trouver des champs d’action comme celui de la dissuasion nucléaire. Ainsi, les pays qui possèdent aujourd’hui l’arme nucléaire, qui sont membres du traité de non prolifération, peuvent craindre de voir les investisseurs déserter leur secteur d’activité.
Ainsi, les critères ESG pourraient lourdement pénaliser des entreprises françaises (et européennes) évoluant dans le secteur de la défense. Ou ayant une partie de leur activité liée, par exemple, à la dissuasion nucléaire. C’est le cas dans l’hexagone où de grands groupes comme Ariane, Dassault, Naval Group, Thalès (…), impliqués d’une manière ou d’une autre dans la dissuasion nucléaire nationale. Ces derniers pourraient se voir privés de nombreux investissements, si leurs activités sont hors des clous ESG.
Comme on l’imagine, de nombreux débats se font aujourd’hui autour de l’implication réelle d’entreprise dans les activités « exclues » des investissements.
Mais qui décide de l’exclusion de telle ou telle activité ? Aujourd’hui, ce sont majoritairement des agences de notation extra financières, et des ONG qui conseillent les fonds d’investissement sur ces questions.
Un exemple, parmi d’autres, de la difficulté de migrer vers des modèles plus vertueux écologiquement sans laisser des pans entiers de notre industrie sur le carreau. Surtout si d’autres pays, tels que les Etats-Unis par exemple, continuent à investir massivement dans leur armement défensif.
Les médecins s’attendent à une explosion du nombre de cancers dans les prochaines années. L’amélioration du diagnostic est donc capitale pour accompagner cette évolution sociétale. Laurent Duraffourg, cofondateur et président de la société Admir, a choisi de prendre à bras le corps le sujet. « Nous nous sommes donné pour mission d’accélérer par cent le diagnostic du cancer », annonce-t-il.
Pour améliorer ce diagnostic, Admir développe un instrument d’analyse du tissu qui sera présenté au CES de Las Vegas du 6 au 8 janvier 2023, puis au SPIE Photonics West à San Francisco du 28 janvier au 2 février.
Diagnostiquer le cancer en une heure
Pour bien comprendre, il faut revenir aux bases. Laurent Duraffourg explique : « Le diagnostic est fait à partir d’une biopsie [un prélèvement d’un petit morceau de tissu, ndlr]. Cette biopsie est coupée en fines tranches. Ces tranches de tissu sont préparées chimiquement, puis sont observées avec des machines plus ou moins complexes. Le diagnostic peut ainsi durer entre 2 et 21 jours. C’est extrêmement long et engorge la chaîne diagnostic. »
Avec les méthodes actuelles, plusieurs analyses sont nécessaires à la réalisation d’un diagnostic robuste. « Sur l’observation d’une lame, on a à l’heure actuelle un taux d’identification de 75 %, détaille Laurent Duraffourg. Cela oblige le médecin à multiplier les analyses. » Avec son nouvel instrument, l’entreprise avance trois engagements forts : un diagnostic en une heure, une réduction du coût d’analyse de 50 % minimum et un taux d’identification correct du type de tumeurs dans le tissu supérieur à 90 %.
Ce nouvel instrument pour le marché clinique est « une sorte de scanner laser qui vient sonder le contenu biochimique du tissu », explique Laurent Duraffourg. Le tout sans utilisation de réactifs chimiques. « On a une analyse qui se fait en une minute et qui permet de situer les tissus sains ou cancéreux et identifier les types de tissus cancéreux », assure-t-il. Admir est un spin-off du CEA ; le système a été développé durant plus de 5 ans au sein du CEA. « La machine est un prototype industriel que l’on souhaite figer d’ici 2 ans », partage son président. Ses concepteurs réfléchissent déjà à étendre la technologie à l’analyse bactériologique et au diagnostic de maladies infectieuses.
Créée en 2008, Global Bioenergies a débuté ses activités par un long travail de recherche et développement. L’objectif des fondateurs de l’entreprise était en effet de développer un procédé permettant de convertir des ressources d’origine végétale en une brique élémentaire à la base de nombreux produits – l’isobutène – et ce par fermentation. Un défi quand on sait qu’aucune bactérie ne produit naturellement cette substance… L’équipe R&D de Global Bioenergies s’est ainsi attelée à la modification de bactéries, qu’elle est finalement parvenue à doter d’une nouvelle voie métabolique, permettant aux microorganismes de produire, à partir de sucres, la fameuse molécule d’isobutène. Ce verrou technologique ainsi levé, l’entreprise construit en 2017 un démonstrateur, qui a permis de valider la technologie à une échelle supérieure à celle du laboratoire.
La première unité commerciale tout juste lancée par l’entreprise – dont L’Oréal est le premier actionnaire – se destine au marché de la cosmétique, mais Global Bioenergies vise aussi, à l’horizon 2028, le secteur de l’aviation, avec la production d’un carburant dit « durable », moins délétère pour le climat que ses équivalents issus du pétrole. C’est ce que nous explique Marc Delcourt, directeur général de Global Bioenergies.
Techniques de l’Ingénieur : Comment Global Bioenergies a-t-elle vu le jour ? Quelles ont été les principales étapes franchies en matière de R&D ?
Marc Delcourt, directeur général de Global Bioenergies. Crédit Y. Soulabaille
Marc Delcourt : L’entreprise a été créée en 2008 par Philippe Marlière et moi-même, deux scientifiques du domaine de la biologie industrielle. L’idée de départ consistait à développer un procédé de conversion des ressources végétales – sucres, céréales, déchets agricoles et forestiers… – en l’une des briques élémentaires de la pétrochimie, l’isobutène. C’est un gaz aujourd’hui dérivé du pétrole, à partir duquel on fait plein de choses : de l’essence, du kérosène, des plastiques, ainsi que des produits dans la chimie fine, notamment la cosmétique.
Nous avons commencé à travailler sur ce procédé en 2009. Nous avons d’abord réalisé une preuve de concept, puis une validation en laboratoire, puis en pilote et enfin en démonstrateur. Aujourd’hui la technologie est mature, nous avons lancé une première unité commerciale située à Pomacle près de Reims, dont le démarrage a eu lieu il y a quelques semaines, et qui permet de produire de l’isobutène, certes à un prix encore élevé… Mais sa production nous permet de servir le marché de la cosmétique, et plus particulièrement le marché du maquillage, qui utilise massivement un composé dérivé de l’isobutène pour ses produits longue tenue.
En parallèle, nous continuons à améliorer le procédé dans notre laboratoire de R&D situé sur le site de Genopole, à Évry.
Global Bioenergies a annoncé début décembre le succès de la montée en échelle de la production de son unité commerciale située à Pomacle, près de Reims.
Comment le procédé de transformation que vous évoquez fonctionne-t-il ?
Il repose sur l’utilisation de bactéries, à qui on a « appris » à produire de l’isobutène, ce qu’elles ne font pas naturellement. Pour cela, il nous a fallu modifier leur « logiciel », leur métabolisme, afin qu’elles convertissent les sucres en isobutène. Cet isobutène peut ensuite à son tour être converti en d’autres composés pour différentes applications. C’est le premier procédé au monde qui permet de transformer des ressources végétales en un gaz grâce à des bactéries ; le procédé est un hybride entre biologie et pétrochimie.
Une fois produit, l’isobutène est comprimé et refroidi pour passer à l’état liquide. Nous le conditionnons dans de grosses bouteilles comparables à des bouteilles de butane, sauf qu’elles font trois cents kilos…
Ensuite, nous utilisons des technologies conventionnelles issues de la pétrochimie pour fabriquer différents composés, et notamment l’isododécane : trois molécules d’isobutène accrochées les unes aux autres. Cette molécule huileuse possède des propriétés de volatilité qui sont parfaites pour la cosmétique. Elle est donc idéale pour les produits de maquillage longue tenue, dont l’isododécane représente 25 à 50 % du volume.
C’est la raison pour laquelle vous avez décidé de vous lancer dans un premier temps sur ce marché en particulier…
Absolument ! C’est un marché de niche parfaitement adapté.
Quand on réalise la montée en échelle d’un procédé, il faut y aller par étape et trouver des marchés correspondant à chacune d’elles. Notre feuille de route est définie en fonction de quatre horizons.
Le premier nous a conduits à lancer notre propre gamme de maquillage longue tenue, Last, à partir des premières tonnes d’isododécane que nous avons produites en démonstrateur. Pour la première fois, nous avons pu combiner longue tenue et naturalité à plus de 90 %.
Le deuxième horizon est celui de l’usine que nous venons de démarrer, et qui nous permettra de produire à l’échelle supérieure : de l’ordre de 15 tonnes d’isododécane par an, que nous vendrons aux acteurs de la cosmétique tels que L’Oréal, notre premier client et actionnaire. Une tonne d’isododécane permet de produire 500 000 unités de maquillage longue tenue.
Pouvez-vous nous décrire le fonctionnement de l’usine que vous venez de mettre en route ?
Cette usine met en œuvre une variante de la technologie, dite « deux étapes », moins gourmande en investissements. La technologie s’appuie en effet sur une première étape réalisée par un sous-traitant, qui consiste à transformer les sucres en une molécule intermédiaire. La substance intermédiaire est ensuite envoyée vers notre unité de Pomacle, où nous la mettons en présence d’une deuxième souche bactérienne. Ces bactéries transforment ainsi la substance en isobutène. Stocké dans des bonbonnes, l’isobutène est ensuite envoyé chez un troisième acteur de la chaîne, qui transforme l’isobutène en isododécane, qui est ensuite purifié et désodorisé.
Au-delà de cette première unité, quels sont vos projets en matière de déploiement industriel ? Quelle diminution de coûts espérez-vous ainsi atteindre ?
L’unité suivante, ce que nous appelons notre horizon 3, est aujourd’hui au cœur de nos préoccupations. Il repose lui aussi sur la variante « deux étapes » du procédé. Il s’agira de réduire les coûts de manière drastique par les économies d’échelles et par l’intégration de toute la chaîne sur un seul site.
Pour donner quelques repères : l’horizon 2 que nous venons de démarrer nous permet d’atteindre un coût de production de l’ordre de 500 € le kilo. Pour un produit de maquillage, cela n’engendre toutefois qu’un surcoût de l’ordre d’un euro par rapport à une substance issue de la pétrochimie.
Pour l’usine de l’horizon 3, prévue pour 2025, l’idée est d’élargir nos marchés à l’ensemble de la cosmétique et du soin. Le repère de coût sera alors d’environ 50 € le kilo, soit dix fois moins.
Enfin, l’horizon 4, vers 2028, concernera les carburants. Le repère prix sera encore divisé par 10 grâce aux économies d’échelles – nous visons une capacité de production de 30 000 tonnes par an – et au recours à la voie directe de la technologie. Il nous reste encore des efforts de R&D à mener pour atteindre cet horizon.
Nous avons par ailleurs déjà réalisé une joint-venture, IBN-One, avec le sucrier Cristal Union, dans l’objectif de construire cette future unité à proximité d’une sucrerie, qui alimentera ainsi notre usine en mélasse de betterave.
Dans cette perspective de production de carburant, quels seraient les avantages par rapport, par exemple, au bioéthanol qui existe déjà sur le marché ?
Le bioéthanol se destine uniquement aux véhicules à essence. Or, on constate que ce marché se dirige de plus en plus vers l’électrique. Nous avons donc choisi de nous focaliser sur les carburants aériens : les SAF, pour sustainable aviation fuel, ou en français « carburants d’aviation durables ». Notre objectif est donc de créer en France une unité capable de produire ce type de carburant, et ce à l’horizon 2028, afin de répondre aux besoins de ce marché naissant.
En matière d’émissions de CO₂, cela permettra une diminution par trois de l’empreinte carbone par rapport aux filières pétrolières. En plus de ses rejets de CO₂, l’aérien participe en effet au réchauffement via les traînées des avions. Or, les biocarburants tels que celui que nous fabriquerons produiraient moins de traînées de sillage que les carburants fossiles. Ils devraient donc permettre de réduire de manière plus importante encore le réchauffement climatique.
D’après le recensement de la plate-forme Cloudscene, 2 701 centres de données étaient implantés aux États-Unis au mois de septembre 2022. Le pays domine très largement le classement mondial puisque l’Allemagne arrive loin derrière avec 487 installations. Elle est suivie par le Royaume-Uni (456), la Chine (443) et le Canada (328). Avec 264 datacenters, la France se classe au 8e rang (207).
Mais comment répondre à la demande croissance des usages numériques sans dénaturer les périphériques des villes avec la construction de nouveaux datacenters ? Et comment réduire la facture énergétique de ces installations alors que la guerre en Ukraine entraîne une explosion des tarifs ?
Différentes solutions sont déployées ou testées par des hébergeurs français (datacenter immergé et placé sous un bâtiment) ou des géants de l’informatique comme Microsoft (datacenter sous-marin). Les options sont multiples.
Mais à part aménager un datacenter au milieu d’un désert, ces rouages essentiels au numérique doivent être au plus proche des besoins, c’est-à-dire des grandes agglomérations. Or la forte densité de la population entraîne une flambée du prix des terrains. Le foncier est devenu un critère déterminant dans la localisation d’un tel bâtiment.
Un datacenter à 30 mètres de profondeur
En partenariat avec Eccus, promoteur suisse de solutions de stockage et de production en souterrain, APL Data Center, société spécialisée dans le conseil, l’ingénierie et l’exploitation de datacenters, propose une solution alternative en France et Suisse : l’Eco-caverne.
Profitant de l’expertise d’Eccus en matière d’ingénierie dans les ouvrages souterrains à usage industriel, l’Eco-caverne offre la possibilité à une entreprise de créer ou compléter sa surface d’hébergement informatique sur un terrain déjà construit ou en zone saturée.
Des datacenters souterrains pour réchauffer des bâtiments. Copyright: APL
Parfaitement étanche, cette solution peut s’insérer à 30 mètres de profondeur sous des constructions existantes. La durée des travaux et d’installation des équipements est identique à celle d’un datacenter classique, soit environ 18 mois.
« Avec notre partenaire Eccus, nous avons travaillé pendant un an à la conception de datacenters qui soient exploitables par des entreprises ou des hébergeurs de données en colocation. Notre datacenter fonctionne comme les autres, avec des accès et des adductions dédoublés et une accessibilité facile grâce à deux monte-charge qui sont l’équivalent d’un conteneur maritime », explique Sébastien Ollier, Directeur BU Conseil & Ingénierie d’APL Data Center.
20 % moins cher qu’un datacenter traditionnel
D’un point de vue économique, cette solution présente des atouts intéressants. « Il y a actuellement une tension sur le foncier dans les villes à forte densité et les prix des parcelles deviennent très élevés. En creusant sous le bâtiment d’une entreprise par exemple, nous faisons des économies sur le coût du terrain. Par ailleurs, comme il s’agit d’une construction souterraine, les délais administratifs sont beaucoup plus courts, car l’empreinte visuelle et aérienne est plus faible », précise Sébastien Ollier.
Le coût global peut être inférieur de 20 % à un datacenter classique, car la méthode de construction d’Eccus a été optimisée pour être rapide et économique. Mais surtout, cette solution permet d’exploiter la chaleur produite par les serveurs et autres équipements informatiques.
Grâce au procédé dérivé des gares de métros, l’Eco-caverne peut être réalisée en milieu urbain ou périurbain, ce qui favorise la récupération et la valorisation de la chaleur des équipements présents dans les datacenters pour alimenter toutes sortes d’infrastructures situées directement au-dessus de l’installation.
Les deux partenariats ont donc développé des techniques afin de réutiliser la dissipation de la chaleur des équipements pour la restituer à un réseau à proximité ou au maximum à 100 mètres. Par exemple, un datacenter d’une taille de 2 000 m² est capable de fournir 22 GWh/an, soit les besoins en chaleur de 2 000 appartements.
La bibliothèque du campus LyonTech-la Doua où a eu lieu la remise des prix
Au total, 15 équipes, composées de 3 à 6 étudiants, ont défendu les couleurs de leur université ou école. La finale a vu s’opposer les équipes de l’Ecole Centrale de Lyon, de l’ENTPE, de l’INSA de Lyon, de l’Université Claude Bernard Lyon 1 et des IUT de Lyon 1 : IUT Lyon 1 Site de Villeurbanne Gratte-ciel, IUT Lyon 1 site de Villeurbanne Doua et IUT Lyon 1 site de Bourg-en-Bresse.
Les questions étaient certes difficiles, mais en cas de trou de mémoire, le site Techniques de l’Ingénieur était d’un vrai secours puisque toutes les réponses pouvaient y être retrouvées… quelque part dans les 10 000 articles !
Le travail préparatoire réalisé en amont par les représentants des bibliothèques universitaires, des écoles ou centres de documentation a été remarquable tant pour la motivation des étudiants, pour leur formation et leur « entraînement » à aller chercher tout type d’information dans les articles fondamentaux, les quiz des articles interactifs ou encore le Magazine d’actualité et le Dictionnaire Techniques Multilingue.
L’ENTPE, l’Ecole Centrale de Lyon et l’Université Claude Bernard Lyon 1 sur le podium
L’équipe IntellgENTPE de l’ENTPE, composée de Laetitia Clément, Judith Laine-Battegay, Pol Venturaramos, guidée par sa capitaine Victoria Yang, remporte le 1er prix, à savoir un week-end à Paris.
Diplôme remis à l’équipe gagnante du défi T.I.
En deuxième position, l’équipe Bazar, représentant l’école centrale de Lyon, avec Gaëtan Parc, Maxime Boquillon, Xiu-Heng Hua, Paul Lacroix, et de son capitaine Valentin Chazalon, remporte un escape game à Lyon.
Enfin, avec sa troisième place, l’équipe Microbio ça se tient – YM qui rassemblait Luce Faysse, Pierre-Alexandre Pastouriaux, Inès Yousfi, Alice Guillmot, Etienne Pujoset sous la houlette de sa capitaine Ines Tguafaiti, a fièrement défendu les couleurs de l’Université Claude Bernard Lyon 1.
Un prix de l’équipe la plus fair-play aurait pu être remis à “éclair de génie biologie” puisque ses membres, Laure Ferrand, Camille Tardy, Inès Pedarre et la capitaine Kenza Mazue sont venues assister à la remise des prix pour féliciter leurs camarades lauréats.
Un CerT.I. pour tous les participants
Chaque participant au Défi T.I., quelle que soit la position de son équipe, a gagné l’opportunité de valider un CerT.I., reste à valider le test de connaissance associé, mais les quiz d’entraînement devraient les aider.
Le certificat obtenu peut être affiché sous forme de badge sur LinkedIn ou un CV, fort utile pour se démarquer lors d’une recherche de stage pour un premier emploi !
Un robot mou inspiré de la chenille et se mouvant au gré des fluctuations de température. Voilà le concept visé par les chercheurs de l’université Johns Hopkins de Baltimore, aux États-Unis. Une telle invention pourrait donc se passer de tout l’attirail de câbles, de batteries ou de n’importe quelle source d’énergie externe. Une classe de matériaux en particulier semble prometteuse : celle des hydrogels thermosensibles réversibles. Il s’agit de gels à base d’eau qui se gonflent et se dégonflent en fonction de la température, entre 30 et 60°C. Les gelbots imaginés par les scientifiques américains promettent de multiples applications potentielles. Ils pourraient ainsi ramper à l’intérieur du corps humain, en vue d’une délivrance ciblée de médicaments, ou bien se changer en appareils maritimes et patrouiller en surveillant la surface des océans à travers le globe…
Une « chenille-robot » sensible à la température
Le gelbot de l’université Johns Hopkins se compose d’un certain nombre de segments bicouche, reliés par des liaisons suspendues. La première partie du matériau bicouche est en poly(N-isopropylacrylamide)(pNIPAM) thermosensible actif, qui subit une transformation réversible autour de 32°C en milieu aqueux. Sous 32°C, le polymère est gonflé. Une fois sa température de transition franchie, il devient hydrophobe et se replie sur lui-même afin de limiter la surface de contact avec l’eau. D’où sa torsion si caractéristique qui rappelle fortement une chenille ! La seconde partie du gelbot est, elle, en polyacrylamide (pAAM) passif. Tous les gelbots de laboratoire ont été réalisés à l’aide de l’impression 3D. Leur production en masse à l’avenir serait donc facile à mettre en place.
Les gelbots ont la consistance d’oursons en guimauve. Crédit: Aishwarya Pantula/Johns Hopkins University
Des travaux précédents sont déjà parvenus à faire ramper un robot en hydrogel dans une direction voulue. Quoi de neuf donc avec celui mis au point par les chercheurs de Baltimore ? Cette fois, la surface où la « chenille » doit se déplacer n’a pas été conçue expressément dans le but de la guider. Un résultat obtenu grâce à de nombreuses simulations et modifications des paramètres expérimentaux : rigidité des liaisons suspendues, nombre de segments bicouche, design du gel… En conséquence, des asymétries spontanées apparaissent dans les forces de contact entre le substrat et l’hydrogel. Ce dernier peut alors se mouvoir d’avant en arrière en ondulant à la manière d’une vague, comme décrit dans l’article paru le 14 décembre 2022 dans Science Robotics. Mais les scientifiques ne comptent pas s’arrêter en si bon chemin. Ils souhaitent désormais tester des formes d’hydrogels inspirés de vers et d’organismes marins, et pourquoi pas même leur incorporer des caméras et autres capteurs.
Actuellement, les déchets inertes collectés par les déchetteries, et que l’on nomme plus communément les gravats, sont peu recyclés. Ils sont soit valorisés pour le réaménagement des carrières ou alors éliminés directement dans des installations de stockage de déchets inertes. Dans le cadre de l’appel à projets INNOV’R de l’Ademe, un projet baptisé ReFeR-BTP1 vise à concevoir un matériau alternatif à partir de ces déchets pour aménager des plateformes d’activité économique, et notamment servir de couche de remblais en vue de construire de futurs bâtiments et des parkings attenants. L’objectif final étant de participer à la préservation des ressources naturelles non renouvelables, au développement d’une société du recyclage, et de contribuer à la décarbonation des matériaux du BTP.
Les déchets inertes collectés dans le cadre du projet sont constitués de 92% de matériaux recyclables. Crédit : Cerema
Dans un premier temps, un diagnostic du gisement d’une quinzaine de déchetteries publiques et de quatre déchetteries destinées aux professionnels a été réalisé. Elles sont toutes situées dans le secteur de Valence, au sud de la région Auvergne Rhône-Alpes. Résultat : il apparaît que 92 % de ces déchets inertes peuvent être recyclés. Ils sont principalement composés de parpaings, de blocs de béton, de briques de terre cuite, de céramiques, de terres excavées graveleuses,… « La part restante est constituée, entre autres, de plâtres, un matériau qui ne fait pas partie de la catégorie des déchets inertes, ainsi que d’autres éléments indésirables tels que du bois et du plastique, explique Laurent Eisenlohr, chef de groupe Economie circulaire et Matériaux au Cerema. Face à la présence de ces matériaux, nous avons travaillé avec les gestionnaires de ces déchetteries afin de leur expliquer notre démarche et qu’ils améliorent leur tri. »
Le matériau alternatif issu du broyage et concassage de déchets inertes. Crédit : Cerema
Dans un second temps, ces déchets inertes, représentant plus de 10 000 tonnes, ont été triés, puis concassés en grave recyclée au moyen d’un concasseur mobile. Des échantillons ont été prélevés et des essais en laboratoire ont été réalisés pour caractériser ce matériau alternatif. D’un point de vue mécanique et géotechnique, ses performances ont été jugées suffisantes pour servir de couche de terrassement à de futures plateformes d’activité. « Au début, on se demandait s’il serait nécessaire de procéder à un traitement particulier pour obtenir ce matériau alternatif, confie l’expert du Cerema. Mais après concassage et criblage, on s’est aperçu que ses performances étaient suffisantes pour ces usages dans le génie civil. On observe à la fois la présence de matières fines, intermédiaires, moyennes et plus grossières pour obtenir un matériau stable. Et aucun gonflement n’a été noté. »
Le projet va rentrer dans une phase expérimentale
Les composés de ce matériau alternatif étant classé dans la catégorie des déchets, des tests sont actuellement en cours pour évaluer son impact sur le plan environnemental et sanitaire. Si les déchets inertes ne sont pas triés correctement, le principal risque pourrait se situer au niveau de la présence de plâtres. Des teneurs en sulfate non négligeables pourraient alors être observées et impacter d’une part les performances mécaniques du matériau, avec des risques de gonflement. Et d’autre part, sur le plan environnemental, contaminer des nappes d’eau situées à proximité à cause de l’eau de pluie qui traverserait le matériau et se chargerait en sulfate.
Le projet ReFeR-BTP va se poursuivre l’année prochaine et s’étendre à de nouvelles déchetteries. Ce matériau alternatif va aussi faire l’objet d’une expérimentation en conditions réelles et être utilisé sous deux bâtiments. « Pendant un an, nous allons suivre l’évolution de ses performances : sa stabilité, sa durabilité, l’absence de gonflement ou de dommages sur les dalles de béton sur la couche de remblais, poursuit Laurent Eisenlohr. À terme, ce matériau alternatif pourrait se substituer aux matériaux issus de carrière, et donc réduire la pression sur les ressources non renouvelables. Notre objectif est de parvenir à créer des filières locales pour permettre de réduire le temps de transport de ces matériaux pondéreux, pour diminuer les émissions de gaz à effet de serre et au final l’empreinte carbone liée à leurs usages. »
1 Le projet ReFeR-BTP réunit, autour du groupe Cheval, plusieurs partenaires du domaine du BTP : le groupe Delmonico-Dorel, spécialisé dans les matériaux de construction, l’entreprise Valorsol, filiale dédiée à la collecte et la valorisation des déchets, le cluster Indura en charge de promouvoir l’innovation des infrastructures, ainsi que le Cerema.
Quandela vient de lancer le premier service en ligne européen donnant accès à ses ordinateurs quantiques assemblés et hébergés dans ses locaux de Massy. Créée en 2017, la start-up est issue du Centre de Nanosciences et de Nanotechnologies (Université Paris-Saclay) où a été développée pendant une vingtaine d’années une technologie unique pour la fabrication de sources de lumière quantique. Ces émetteurs permettent d’émettre des bits quantiques photoniques à de très haut débit et sur de longue distance.
Avec Mosaiq, les scientifiques, les acteurs industriels et les entreprises peuvent accéder à plusieurs processeurs pour des calculs allant jusqu’à 5 qubits photoniques. En utilisant la suite logicielle Perceval de Quandela, les professionnels peuvent développer et exécuter des algorithmes sur un véritable processeur quantique photonique (QPU).
Ce nouveau service en ligne d’informatique quantique a été utilisé pour la première fois par des chercheurs et des étudiants de toute l’Europe, participant à un hackathon quantique organisé par Quandela à la Sorbonne début novembre.
Quantum as a Service
Mais ce sont surtout les industriels qui pourraient être les plus intéressés. « Nous allons pouvoir utiliser de nouvelles méthodes pour résoudre des problèmes que nous ne savons pas encore résoudre. Nous travaillons par exemple avec une filiale d’Airbus pour développer des nouveaux matériaux, plus légers et plus solides pour l’aviation », explique Valérian Giesz, patron de Quandela.
« Notre plate-forme a aussi la particularité d’être modulaire, ce qui va permettre des mises à jour continuelles des performances des calculateurs. En effet, au fil des évolutions et des avancées technologiques, nos clients pourront en bénéficier sans avoir à changer complètement de machines et ainsi pour des investissements complémentaires réduits », précise Pascale Senellart, cofondatrice de Quandela.
Quandela vise les 12 qubits disponibles en ligne d’ici à la fin de 2023, chaque qubit photonique supplémentaire doublant la puissance de calcul de l’ordinateur quantique.
Avec cette première en Europe, la start-up française entend bien rivaliser avec les poids lourds américains et canadiens dans l’offre de « Quantum as a Service ». Elle est constituée de simulateurs, d’émulateurs ou de processeurs quantiques qui peuvent être utilisés via le cloud.
En 2016, IBM avait connecté un petit ordinateur quantique au cloud. Des programmes simples ont ainsi pu être construits et exécutés sur le cloud. Un an plus tard, des chercheurs de la start-up californienne Rigetti Computing avaient démontré le premier accès programmable au cloud en utilisant la bibliothèque Python pyQuil.
Le Quantum Insider a répertorié treize des principales entreprises proposant des services de cloud computing quantique en 2022 parmi lesquels IBM, Google, mais aussi les Européens Quantum Inspire et AQT.
Caractériser les fonds marins qui bordent nos côtes est un enjeu important pour mieux connaître les habitats marins et leur biodiversité. Actuellement, la principale technique consiste à faire intervenir un plongeur, muni de bouteilles d’oxygène et d’une caméra, qui va filmer le fond de la mer. Cette méthode présente des limites, car il est difficile d’observer de vastes zones de manière exhaustive et de répéter cette opération à intervalles réguliers. Au final, elle ne répond pas réellement aux besoins croissants de conservation des écosystèmes. Basée à Nice, la start-up DEESS a imaginé une tout autre solution : envoyer un essaim de micro-drones sous-marins pour photographier le fond des mers. Elle vient de remporter le concours d’innovation Octo’pousse organisé par l’Ifremer. L’institut va ainsi apporter des moyens humains, financiers, et matériels pour développer ce projet.
« Dans le fond de la mer, on a peu de visibilité et il est difficile de prendre des photos au-delà de 5 mètres, explique Yannick Penneçot, cofondateur de la start-up. Notre idée est de faire intervenir des micro-drones qui vont prendre des photos entre 3 et 5 mètres du fond. Ils vont se déplacer côte à côte, à environ 4 mètres de distance, et avancer en même temps afin de couvrir de grandes surfaces de manière exhaustive. » Pour positionner ces engins sous l’eau, des drones survoleront la surface de l’eau et auront pour rôle de les guider. Pour cela, ils seront équipés de sonars et vont émettre des ondes acoustiques qui vont se réfléchir sur les micro-drones sous-marins. Ils pourront ainsi les faire avancer à la même vitesse et veiller à ce qu’ils ne dérivent pas à droite ou à gauche, avec le risque de se télescoper. Les micro-drones seront quant à eux capables de savoir à quelle distance du fond marin ils sont positionnés, et pourront s’ajuster automatiquement pour éviter les obstacles liés au relief.
Toutes les photographies prises par les engins sous-marins seront ensuite combinées entre elles pour former une sorte de mosaïque. À l’aide d’un traitement photogrammétrique, une technique de reconstruction numérique en 3D, une carte du relief du fond marin va pouvoir ainsi se dessiner. Et pour identifier les espèces vivantes présentes, des algorithmes d’intelligence artificielle seront utilisés. « Il existe déjà des algorithmes de reconnaissance d’espèce à partir de photos et vidéos, préciseYannick Penneçot. Nous allons les développer avec l’aide de l’Ifremer et notre objectif est de reconnaître de manière automatique tous les organismes benthiques[1] : étoiles de mer, oursins, coquillages… afin de réaliser des cartes de densité d’espèces et d’habitats. Nous pourrons par exemple identifier la posidonie, ce sont ces grands herbiers sous-marins, qui sont d’excellents marqueurs de la biodiversité et de la qualité de l’eau. »
Une centaine de drones sous-marins pour cartographier 1 km² par heure
Dans le cadre du concours de l’Ifremer et en partenariat avec ce dernier, la start-up a 18 mois pour faire la preuve de concept de cette technologie. Son intention est de démontrer la faisabilité de ce dispositif avec 4 à 6 drones sous-marins. Ceux-ci devront être capables de travailler de manière indépendante, sans être pilotés par un humain, et de jumeler la navigation avec de la photogrammétrie. À terme, si cette technologie fonctionne, elle pourrait être déployée à plus large échelle : « on pourrait imaginer faire intervenir une centaine de drones, espacés de 4 mètres et donc avec une fauchée de 400 mètres, et qui avancent à une vitesse de 2,5 km par heure afin de cartographier 1 km² en une heure », détailleYannick Penneçot.
Dans le futur, ce nouveau dispositif pourrait servir aux biologistes à collecter de plus en plus de données sur les fonds marins pour réaliser des études d’impact environnemental. « Aujourd’hui, si vous voulez implanter des éoliennes quelque part, les technologies existantes ne permettent pas une couverture exhaustive, analyseYannick Penneçot. Les données sont donc parcellaires, et à un point donné, on peut très bien ne rien observer, alors que 30 mètres plus loin, du vivant est bien présent. Avec une couverture photogrammétrique complète, les biologistes auront une vision exhaustive du fond marin et des décisions éclairées pourront ensuite être prises. Face à une implantation d’infrastructure, on pourra connaître exactement ses conséquences sur l’écosystème. »
[1] Du grec « benthos » qui signifie profondeur, les fonds marins, mais aussi des lacs, des rivières. Les espèces benthiques vivent sur le substrat et dans son voisinage immédiat.
Fondée en 2019, la start-up a mis au point, après trois ans de R&D, une technologie baptisée IA-Leakmited, un système de localisation de fuites d’eau assisté par intelligence artificielle. Les algorithmes d’IA développés par Leakmited permettent en effet d’isoler automatiquement le périmètre d’un réseau le plus à risque de fuites, réduisant ainsi le temps et les coûts dédiés à leur recherche. Pour fonctionner, le système s’appuie sur la combinaison de données propres au réseau d’eau – année de pose, matériau des canalisations… – et de données environnementales issues notamment d’images satellites. L’IA-Leakmited a ainsi été entraînée sur une base de données unique qui répertorie les critères de plus de 600 000 fuites et de plus de 300 000 km de réseau. Les probabilités sont ensuite cartographiées, afin d’augmenter l’efficacité du processus de recherche. Le système réduit ainsi jusqu’à 70 % le périmètre des zones d’intervention et indique aux équipes d’intervention des gestionnaires de réseau les endroits précis où déployer les capteurs de détection.
La technologie a d’ores et déjà été testée et adoptée par plusieurs gestionnaires de réseaux en France, en Italie, au Portugal et au Royaume-Uni, comme nous l’explique Hubert Baya Toda, CEO et co-fondateur de l’entreprise actuellement en pleine levée de fonds.
Techniques de l’Ingénieur : Quelles sont les raisons qui vous ont conduit à créer Leakmited ?
Hubert Baya Toda : Il s’agit principalement de raisons personnelles. J’ai été sensibilisé très tôt à la problématique de l’eau. Je viens du Cameroun, et j’y ai en effet vécu des périodes de coupures… C’est donc tout naturellement que je me suis intéressé à ce domaine. Lorsque j’ai achevé mon MBA[1] à HEC[2], j’avais l’ambition de me lancer dans une voie professionnelle qui me permettrait d’avoir le plus d’impact possible. Ayant toujours en tête cette problématique de l’eau, j’ai décidé d’emprunter cette voie.
Par ailleurs, très concrètement, l’entreprise a pu voir le jour grâce au programme Entrepreneur First[3], que j’ai suivi à Station F fin 2018. Dans le cadre de ce programme, j’ai pu travailler à l’identification des acteurs du secteur, de leurs besoins… Bref, maturer le projet, tout en étant accompagné par des professionnels du domaine. Une première phase de trois mois m’a permis de m’assurer qu’il y avait un véritable intérêt à développer une solution autour des réseaux d’eau potable. S’est ensuivie la création de l’entreprise en 2019 et une seconde phase de R&D assez intense, menée de 2019 à fin 2021. Il nous a ensuite fallu commencer à constituer une base de données et apprendre le métier de la recherche de fuite, en travaillant avec des opérateurs sur le terrain. Cela nous a permis de comprendre quels étaient les critères précis à prendre en compte, quels étaient les critères de performance d’un réseau. Entre fin 2021 et mi-2022, nous nous sommes penchés sur la question du modèle économique. Une fois que l’on a l’IA, il faut en effet réfléchir à la meilleure façon de l’amener au client et de la monétiser. À cette grosse phase de réflexion économique se sont ajoutés des tests de nos modèles d’IA. Ces tests se sont achevés en juin de cette année. Nous avons donc trouvé la bonne méthode, et nous sommes désormais plutôt dans une phase d’accélération commerciale.
Quelles ont été les principales étapes de la phase de R&D que vous évoquez ?
Il y a eu trois grandes étapes. La première a consisté à poser le problème : quel est l’indicateur et que souhaitons-nous améliorer ? Tout le monde peut trouver une fuite… Il suffit de marcher le long du réseau. Mais ce qui importe vraiment est l’efficacité, le nombre de fuites trouvées par kilomètre. Nous voulions donc parvenir à la plus grande efficacité possible, c’était vraiment un élément clé pour nous.
La deuxième étape a été une réflexion autour des variables. Il fallait en effet que les variables que nous allions définir pour résoudre le problème soient utilisables par un maximum de clients. En France, on entend souvent dire que les réseaux d’eau atteignent un rendement de 80 %… En réalité, cela est assez polarisé : les zones rurales dépassent rarement les 60, 70 %, alors que les zones très urbanisées peuvent bénéficier d’un rendement de plus de 85 %. Pour résoudre le problème, nous devions donc concentrer notre réflexion sur les zones rurales. Or, ces zones souffrent généralement d’un manque de données sur leurs réseaux, elles n’ont parfois même pas d’historique de fuites. Nous devions ainsi choisir des variables les plus universelles possibles. Le cadre dans lequel nous définissions nos variables devait être le plus scalable[4] possible. Nous devions également éviter d’avoir à en demander trop au client : si on lui demande une liste de données longue comme le bras, il ne va pas s’en sortir ! Il fallait donc trouver le moyen de lui demander le strict minimum.
Enfin, la troisième et dernière étape a été celle du travail en conditions réelles. Nous nous sommes rendus sur le terrain, où nous avons appris ce qu’est, concrètement, la recherche de fuites : observer les débits, étudier leurs divergences, les comparer à différents moments… Nous nous sommes aussi aperçus que les réseaux constitués de canalisations en fonte étaient différents de ceux composés de plastique. Cette phase de terrain menée aux côtés des collectivités a vraiment été une étape clé.
Ces trois grandes étapes ont donc constitué le socle de notre travail de R&D. Ensuite, nous avons pu nous lancer dans des tests, dans des itérations, qui nous ont permis de trouver les bonnes variables.
Vous avez finalement abouti à une technologie que vous avez baptisée IA-Leakmited. Comment fonctionne-t-elle ? Quels résultats permet-elle d’obtenir ?
L’IA-Leakmited est un protocole qui regroupe plusieurs choses. Elle utilise des variables environnementales et des variables liées au patrimoine en lui-même. On ne demande que très peu de choses au client : l’année de pose des différents éléments de son réseau, leur diamètre et le matériau dans lequel ils sont fabriqués. Nous demandons aussi lorsqu’ils sont disponibles un historique de fuites et d’interventions. Sur cette base, nous pouvons ensuite ajouter une multitude de variables environnementales. Par exemple, si l’on sait où passe une canalisation, on peut la replacer dans un contexte urbain : le niveau d’urbanisation de la zone est-il important ou pas ? Nous pouvons pour cela notamment nous baser sur l’imagerie satellite. Ce type de données environnementales nous permet de définir le contexte dans lequel évolue la canalisation.
Ensuite, il faut procéder à un apprentissage. Il nous a donc fallu constituer une base de données la plus large possible. Il fallait que nous puissions avoir le plus d’exemples possible, sinon nous n’allions pouvoir trouver que certaines fuites spécifiques. Il nous fallait une multitude d’exemples différents. Nous avons réussi à constituer une base de données qui représente actuellement 600 000 fuites sur 300 000 kilomètres de réseau. Et elle évolue toujours… Grâce à cela, nous apprenons à nos algorithmes à prédire les risques de fuite.
La dernière étape, qui est fondamentale, consiste donc à faire de la prédiction chez un nouveau client. Pour cela, nous devons prendre les données brutes de ce client et les adapter à un format requis pour faire des prédictions. J’ai évoqué tout à l’heure la question des données manquantes, il peut par exemple s’agir de l’absence de données sur l’année de pose des canalisations. Comment faire ? Nous avons en fait mis en place des protocoles de mise en forme pour permettre à l’IA de travailler sur les données, quelle que soit leur exhaustivité.
L’IA-Leakmited regroupe donc ces trois éléments : les variables descriptives, le protocole d’entraînement et le protocole de mise en forme des données des clients.
Quel est le degré de maturité de cette technologie ?
L’outil a déjà été testé dans quatre pays, dans quatre environnements très différents : en France, bien sûr, mais aussi en Angleterre sur le réseau londonien, en Italie dans les villes de Florence et de Barberino, ainsi qu’au Portugal. Nous avons ainsi obtenu un indicateur précieux, qui est la taille du réseau que nous sommes capables d’isoler pour trouver le maximum de fuites. Actuellement, nous savons que notre système est capable de cibler une zone correspondant à 30 % du réseau et qui concentre à elle seule 70 à 80 % des fuites. Évidemment, plus les données de départ sont bonnes, plus la zone isolée peut être restreinte, de l’ordre de 20 % du réseau seulement par exemple.
À partir de là, nous avons défini des produits. Le premier s’appelle Sprint. Il s’agit d’un service rapide de recherche de fuites. Cela permet de réduire de près de 70 % les pertes. Nous avons aussi développé un deuxième produit qui s’appelle Smart, qui consiste cette fois en une surveillance permanente du réseau, et donc en l’installation de capteurs acoustiques qui « écoutent » le réseau. D’une manière conventionnelle, il faut en moyenne quatre capteurs par kilomètre. Mais grâce à notre outil, on peut se contenter d’un seul appareil par kilomètre de réseau. Cela réduit donc drastiquement l’investissement nécessaire, et permet de démocratiser cette méthode auprès des zones rurales, ou de certains pays qui n’ont pas les mêmes moyens que les grandes villes.
Très concrètement, comment les résultats sont-ils présentés aux gestionnaires de réseaux ? Quels sont les coûts de vos différentes offres ?
L’offre Sprint permet au client de suivre en temps réel l’évolution du travail de recherche de fuites qui est mené. De même avec l’offre Smart : le client voit en direct le déploiement des capteurs sur une interface, une plate-forme web.
En matière de coûts, notre solution Sprint se situe autour de 200 à 250 euros par kilomètre de réseau, avec une garantie de performance. Nous définissions en effet un seuil en dessous duquel nous ne sommes pas rémunérés ! Pour l’offre Smart, il faut prendre en compte tous les aspects qu’elle regroupe : le dimensionnement des capteurs, leur déploiement, et leur éventuel redéploiement. L’IA peut en effet nous permettre de faire évoluer au fil du temps ce réseau de capteurs. Si le client dispose de ses propres capteurs, le coût de notre offre n’est alors que de quelques euros. Mais nous proposons aussi du leasing, pour les clients qui ne disposent pas de leur propre matériel. Le coût global se situe alors autour d’une vingtaine d’euros par capteur et par mois.
Quels sont vos objectifs en matière de développement commercial ? Avez-vous d’autres produits à l’étude ?
Nous avons déjà quasiment multiplié par sept notre chiffre d’affaires par rapport à l’année dernière. Nous espérons continuer sur cette lancée l’année prochaine. Nous avons des demandes concrètes et nous nouons de plus en plus de partenariats. Une société de recherche de fuite distribue par exemple déjà notre solution en Italie. L’offre Smart que j’évoquais est par exemple utilisée par Veolia dans la ville de Rouen. Et d’autres projets vont arriver : nous travaillons également en collaboration avec la Saur et Suez. Nous travaillons aussi avec les collectivités, comme Rouen et Besançon. Nous avons une équipe commerciale depuis quelque temps.
Nous avons franchi le stade de pilote, nous sommes véritablement dans une phase d’usage en conditions réelles. Nous poursuivons bien entendu une réflexion pour améliorer nos produits et en créer d’autres, mais ce que nous proposons est d’ores et déjà très mature sur le plan technologique, y compris sur des cas très complexes, lorsque les données sont lacunaires. Faire une IA de laboratoire n’est pas vraiment un problème… Le défi était l’industrialisation, à destination de clients réels !
En ce qui concerne nos produits, maintenant que nous pouvons aider nos clients à trouver les fuites, nous cherchons désormais à les aider à mieux rénover leur réseau. Nous travaillons donc au développement d’un outil capable de produire un jumeau numérique d’un réseau. Cela va permettre de réaliser des simulations de rénovations, d’obtenir des recommandations quant à la manière la plus pertinente de conduire cette rénovation afin de réduire le plus possible le risque de fuites, toujours grâce à l’IA. Cela permettra de faire des réparations virtuelles, et de voir quel impact cela aura sur le réseau dans les années qui suivent… Grâce à notre IA, nous voulons créer un environnement virtuel qui permettra aux exploitants de mesurer le potentiel de réduction de risque de leurs futurs investissements. Nous espérons pouvoir concrétiser ce projet au cours de l’année prochaine. Nous sommes pour l’instant en phase de bêta-tests : trois de nos clients sont déjà bêta-testeurs. Je pense que nous pourrons lancer ce jumeau numérique en fin d’année prochaine.
Thrasos a été fondée à Saint-Malo (Ille-et-Vilaine) par Mahieddine Chergui. Ingénieur en industries laitières diplômé de l’ENSAIA[1], il possède ainsi une expérience de plus de quinze ans dans le domaine de l’hygiène et optimisation des nettoyages industriels. Ce passé l’a ainsi amené à un constat : le manque de rigueur scientifique dans les process. Pour y remédier, l’actuel président de Thrasos a ainsi développé avec ses équipes une solution logicielle assurant deux grandes fonctions : l’optimisation des nettoyages, synonyme d’économies et de gain de temps, ainsi que la modélisation 3D des encrassements des circuits, permettant ainsi de mieux les localiser. De quoi, notamment, garantir une sécurité sanitaire maximale sur les installations, tout en évitant les sur-nettoyages.
Alors que débute tout juste sa commercialisation, en premier lieu auprès d’industriels de l’agroalimentaire, la solution FS-Guard pourrait également trouver sa place dans le secteur des industries pharmaceutique et cosmétique.
Mahieddine Chergui nous en dit plus sur l’entreprise qu’il a fondée et qui vient par ailleurs de lever pas moins d’un million et demi d’euros…
Techniques de l’Ingénieur : Quel parcours vous a mené à la création de Thrasos ?
Mahieddine Chergui : J’ai, à la base, une formation d’ingénieur dans le secteur laitier ; j’ai fait l’ENSAIA Nancy. J’ai travaillé pendant une quinzaine d’années pour le compte d’un fournisseur de produits d’hygiène destinés aux NEP[2], entre autres. J’ai notamment travaillé à leur optimisation. À l’issue de ces quinze années, je suis arrivé à la conclusion que ces installations souffraient de deux problèmes majeurs. Le premier tient au fait que le nettoyage est la seule opération unitaire[3], aujourd’hui dans une usine, à être quasi intégralement sous-traitée. Cela est assez étonnant, sachant qu’il s’agit d’une garantie de sécurité des aliments… Le deuxième aspect qui m’a amené à créer Thrasos est que ces nettoyages manquaient de rigueur scientifique. L’empirisme est certes l’une des bases de la science, mais cette approche atteint vite ses limites. Lorsque l’on parle de nettoyage, cela implique naturellement de parler d’encrassements. Or, l’approche empirique est très limitée pour permettre d’éliminer ces encrassements : ils se produisent dans des circuits que l’on ne peut pas inspecter à l’œil nu. D’où l’idée de développer Thrasos avec une approche à la fois pure player, et beaucoup plus scientifique.
Pour remédier aux problèmes que vous évoquez, vous avez développé une solution baptisée FS-Guard. Comment fonctionne-t-elle ?
Notre approche débute systématiquement par une phase d’analyse et d’audit de l’installation de NEP. Nous réalisons une évaluation qualitative de la NEP en suivant les recommandations de l’EHEDG[4]. Thrasos fait d’ailleurs partie de la fondation, et je suis moi-même membre du groupe de travail sur les NEP. Nous analysons donc l’installation de nettoyage avec une approche très rigoureuse, pour réaliser une véritable qualification, consignée dans un rapport.
Nous récupérons ainsi des données qui nous permettent de paramétrer notre logiciel. Ces données sont, en fait, des programmes de nettoyage, à partir desquels nous récupérons des informations telles que l’état de vannes, de pompes, de capteurs… Notre algorithme se charge ensuite d’analyser tout cela très finement afin d’exécuter le meilleur nettoyage possible sur chaque ligne, en fonction de sa configuration. Cela permet de gagner beaucoup de temps. L’algorithme analyse aussi l’historique des nettoyages et il ajuste le process de nettoyage en cas de défaillance de l’un des paramètres. L’algorithme apprend au fur et à mesure.
Tout cela résume le premier volet de FS-Guard, qui est, si je puis dire, le niveau 1. Cela permet à l’industriel d’obtenir une optimisation et une véritable expertise sans faire appel à des intervenants extérieurs.
Le deuxième niveau de notre solution concerne quant à lui la modélisation des encrassements. Nous avons développé une brique technologique à ce sujet, dont le brevet est en cours.
Elle permet, notamment sur des échangeurs thermiques, de modéliser les encrassements et l’efficacité des nettoyages. L’idée était d’utiliser une technique non invasive : nous n’utilisons pas de capteurs. C’est ce qui nous distingue. Nous réalisons en fait un jumeau numérique de l’installation, qui reprend tous les paramètres de production, les formats des échangeurs, les paramètres du fluide qui circule en production, ses caractéristiques physico-chimiques notamment, ainsi que les paramètres de nettoyage. Nous mettons ainsi en œuvre une analyse assez poussée. Les premiers résultats que nous avons obtenus sont d’ailleurs très bons. Entre les résultats de nos modélisations et l’encrassement réel observé sur le terrain, la fiabilité est de l’ordre de 80 à 85 %.
À quels domaines de l’industrie votre solution se destine-t-elle ?
Aujourd’hui, nous nous concentrons sur le domaine agroalimentaire, car il s’agit de notre cœur de métier, c’est là où se trouve l’essentiel de notre expertise. C’est aussi là que se trouvent le plus de NEP. Bien évidemment, d’autres industries suscitent notre intérêt : l’industrie pharmaceutique, l’industrie cosmétique, notamment, ressemblent sous bien des aspects à l’agroalimentaire ; on a des vannes, des tuyaux, des cuves… Et tout cela est connecté à des NEP pour assurer un nettoyage des installations.
Quel est le degré de maturité de votre solution ? Quels sont vos objectifs tant en matière de calendrier que de modèle économique ?
Les deux briques technologiques qui composent FS Guard sont prêtes. Nous avons déjà plusieurs preuves de concept industrielles installées, dans l’industrie laitière et dans le domaine de la boisson. Nous avons d’ailleurs déjà commencé à commercialiser la solution auprès de certains clients. 2023 sera vraiment l’année de lancement à grande échelle.
La solution sera disponible sur abonnement, en « SaaS[5]-like ». C’est-à-dire pas totalement en SaaS : nous avons d’abord, comme je le disais, une phase d’audit, au forfait, puis un abonnement pour la solution logicielle en tant que telle. La sécurité est par ailleurs au cœur de nos préoccupations. Nous sommes ainsi accompagnés par une société de cybersécurité sur toutes les étapes de développement et de déploiement.
Concrètement, comment les industriels pourront-ils accéder aux informations fournies par votre solution ? Sera-t-elle dotée, par exemple, d’une interface web ?
Exactement ! L’industriel disposera d’une plate-forme, accessible à plusieurs niveaux en fonction des utilisateurs au sein de l’usine : opérateur, responsable d’atelier etc. Cette plate-forme leur permettra d’accéder à tout l’historique de l’installation de nettoyage, aux optimisations réalisées, aux gains obtenus sur le plan pratique mais aussi économique. Nous avons d’ailleurs nos propres indicateurs permettant d’évaluer l’efficacité des optimisations d’un site à l’autre. Cela sera notamment bénéfique pour les grands groupes agroalimentaires, qui mènent souvent de nombreuses optimisations sur différents sites. Notre solution va permettre aux directions en charge de ces sujets d’adopter les mêmes schémas d’optimisation quel que soit le site. Il ne faut en effet pas standardiser les nettoyages en tant que tels, car chaque circuit est différent, mais standardiser leurs optimisations.
Quelles économies un industriel peut-il espérer obtenir grâce à votre solution ?
Même si cela sera très variable d’une usine à l’autre, nos premiers résultats obtenus sur un important site laitier montrent une économie d’eau d’environ 40 % sur les premiers lavages, et de 50 % sur les consommations énergétiques.
Optimiser à l’excès les nettoyages ne pourrait-il pas aboutir à un accroissement des risques sanitaires liés aux installations, notamment sur le plan microbiologique ?
Nous travaillons bien évidemment en étroite collaboration avec les directions qualité des sites. Les process de nettoyage obtenus après optimisation sont validés selon les procédures en vigueur dans ces usines. Notre approche va d’ailleurs plus loin que ce qui est fait actuellement pour lutter contre les risques microbiologiques : aujourd’hui, il n’y a pas de quantification des encrassements ; il n’y a donc pas non plus de quantification de l’élimination du dépôt. L’approche est toujours « a posteriori » : on lave ; on définit des paramètres de productions, souvent de manière plus ou moins aléatoire, puis on regarde les résultats d’analyse microbiologique… Dans un monde parfait, où tout serait maîtrisé, on n’aurait jamais de problèmes bactériologiques. L’actualité nous montre malheureusement que ça n’est pas le cas… Les nettoyages ne sont en effet pas toujours efficaces, parce qu’il est très compliqué de savoir où se situent les encrassements dans un circuit entièrement fermé. Notre brique technologique aide à identifier les risques potentiels d’encrassement, les zones où le nettoyage n’est pas suffisamment efficace.
Les règles que nous avons mises en place au niveau de nos algorithmes permettent de les empêcher de sur-optimiser jusqu’à générer des temps de nettoyage complètement irréalistes.
Vous venez d’annoncer une levée de fonds d’un million et demi d’euros. Quels sont les objectifs de ce financement ?
Nous avons deux objectifs avec cette levée de fonds : renforcer notre équipe de R&D, ainsi que les équipes commerciales et celles dédiées au déploiement de la solution. Nous sommes aujourd’hui 11 et nous espérons être une quinzaine l’an prochain, et sans doute beaucoup plus encore en 2024 et 2025. Nous prévoyons une grosse accélération sur cette période. Nos premiers résultats sont en effet très encourageants.
Nous travaillons par ailleurs avec des organismes comme l’Agence de l’eau, qui ont bien compris l’intérêt de notre approche.
Nous avons aussi d’autres projets, qu’il serait prématuré de dévoiler dès maintenant, mais qui sont en tout cas toujours axés sur la recherche d’efficience scientifique dans un environnement très empreint d’empirisme. Nous nous positionnons comme un véritable pure player de l’optimisation : nous ne vendons ni consommables ni équipements. Il existe certes déjà beaucoup d’acteurs de l’optimisation des NEP, mais peu d’entre eux font la démarche d’aller jusqu’à la génération d’un programme optimisé associé à une modélisation des encrassements. C’est ce qui rend notre démarche crédible et qui fait, par exemple, que nous sommes labellisés Greentech Innovation par le ministère de la Transition écologique. Il y a en ce moment beaucoup de greenwashing et cette labellisation vise à donner de la visibilité aux véritables offreurs de solutions. Ce label est extrêmement important à nos yeux.
[1] École Nationale Supérieure en Agronomie et Industries Alimentaires
[2] Nettoyage en place : systèmes de nettoyage en général automatiques destinés aux installations industrielles de production. Aussi appelée CIP (Clean in Place), cette approche permet un nettoyage des cuves, tuyauteries et autres machines sans démontage.
[3] Toute production fait appel à une suite coordonnée d’opérations fondamentales distinctes et indépendantes du procédé lui-même, appelées opérations unitaires (source).
[4] European Hygienic Equipment Design Group. Fondation pour la promotion de la conception hygiénique des équipements et des installations de l’industrie agroalimentaire, créée en 1989.
Sous-domaine de l’IA, le machine learning (ML) permet aux ordinateurs de s’appuyer sur des techniques statistiques pour exécuter une tâche précise. Profitant de la puissance de calcul du cloud computing, de nombreux secteurs d’activité s’appuient sur les résultats de ces algorithmes pour prendre des décisions considérées comme plus pertinentes.
Mais dans son récent rapport « Threat Landscape », l’European Union Agency for Cybersecurity (ENISA) s’inquiète de tentatives d’attaques visant le ML afin de diminuer leur précision. L’inconvénient majeur de l’IA est que son efficacité est directement liée à la qualité de ses données. Quelle que soit la complexité du modèle, des données de mauvaise qualité produiront des résultats médiocres, et l’histoire montre qu’il n’en faut pas beaucoup.
Même s’il s’agit principalement d’expérimentations menées en laboratoire ou par quelques États, ces manipulations algorithmiques pourraient être utilisées à des fins diverses, notamment la désinformation, les escroqueries par phishing, l’altération de l’opinion publique, le discrédit des individus ou des marques.
Maquiller le trafic
L’une des principales pistes de recherche concerne le Data Poisoning. Ces attaques agissent sur la phase d’entraînement pour altérer, voire fausser complètement les résultats du modèle prédictif. C’est cette technique qui a été utilisée entre 2017 et 2018 pour rendre moins efficace les solutions anti-spams de Google.
Cette déformation d’un modèle pourrait être utilisée dans un contexte de cybersécurité afin de maquiller du trafic sur un réseau informatique. Imaginons que la cible soit une solution s’appuyant sur l’apprentissage automatique pour détecter une activité suspecte. Un attaquant peut tenter d’introduire lentement des données qui diminuent la précision du modèle en question afin qu’il ne signale plus certains comportements comme anormaux.
Cette technique dite de l’empoisonnement et de la manipulation des données représente l’une des principales menaces dans le domaine des données. D’où la nécessité de contrôler et de sécuriser l’intégrité des données, mais aussi leur provenance et leur non-répudiation.
Des mesures qui sont encore loin d’être généralisées. Publié en 2019, un rapport de la Commission de sécurité nationale américaine sur l’intelligence artificielle indiquait qu’un très faible pourcentage de la recherche actuelle sur l’IA était consacré à la défense de ces systèmes contre les attaques.
IA survendue
Or, certains systèmes déjà utilisés en production pourraient être vulnérables à des attaques qui ne sont pas nécessairement très sophistiquées et onéreuses. La preuve, en plaçant quelques petits autocollants sur le sol, des chercheurs ont montré qu’ils pouvaient « entraîner » une voiture autopilotée à rejoindre la voie opposée à la circulation.
D’autres études ont montré qu’en apportant des modifications imperceptibles à une image, on pouvait tromper un système d’analyse médicale en classant un grain de beauté bénin comme malin.
« La détection par IA et ML reste encore très rare et ce que beaucoup de personnes et d’entreprises appellent de l’intelligence artificielle est souvent de simples règles. Commercialement, le terme est donc survendu. Il y a quelques entreprises qui font du monitoring d’intrusion reposant sur ces techniques-là, mais seuls quelques attaquants étatiques sont capables de mener de telles actions. Ce n’est pas à la portée du criminel de base », tempère Renaud Lifchitz, Chief Scientific Officer chez Holiseum, une entreprise française spécialisée dans la cybersécurité des infrastructures critiques et industrielles.
En novembre 2019, la France lançait son Plan de mobilisation du covoiturage. L’objectif : tripler d’ici 2024 le nombre de trajets réalisés en covoiturage du quotidien, pour atteindre les 3 millions de trajets par jour, soit environ 3 % des trajets quotidiens, contre 900 000 en 2019. Atteindre cet objectif permettrait de réduire les émissions nationales de 4,5 millions de tonnes par an, selon le gouvernement.
« Outre les effets positifs de cette mesure sur le climat, c’est une réponse à l’augmentation des prix du carburant, complémentaire des mesures que nous avons déjà mises en œuvre pour les Français, comme la ristourne carburant ou encore l’aide pour les travailleurs modestes, souligne la ministre de la Transition énergétique, Agnès Pannier-Runacher. C’est également complémentaire de nos efforts accrus pour électrifier le parc automobile et développer les mobilités actives. »
150 millions d’euros et deux primes de 100 euros
Ce nouveau plan mobilise 150 millions d’euros supplémentaires pour accélérer le développement du covoiturage. Au moins 50 millions serviront à épauler les collectivités. Ce montant servira au développement d’aires de covoiturage (8 500 sont recensées actuellement), de nouvelles lignes de covoiturage (40 sont existantes) et de voies dédiées sur les routes (4 expérimentations sont en cours).
Dès le 1er janvier 2023, les nouveaux conducteurs qui acceptent des covoitureurs pourront bénéficier d’une prime de 100 euros versée par les plates-formes de covoiturage. Le versement de la prime sera progressif : au moins 25 euros au premier covoiturage, le reste au dixième covoiturage qui devra être réalisé dans un délai de trois mois suivant le premier trajet. Une autre prime de 100 euros, cumulable, sera versée aux nouveaux inscrits réalisant trois trajets sur une longue distance.
En parallèle, dans les collectivités locales qui proposent des incitations financières, l’État viendra financer la moitié de l’aide accordée. Avec son principe « 1 € de l’État pour 1 € de la collectivité », le gouvernement espère inciter de nouvelles collectivités à lancer des dispositifs de soutien.
Les entreprises mobilisées par différents leviers
Le plan mise sur l’intérêt des particuliers, des collectivités, mais aussi des entreprises pour promouvoir la pratique auprès de leurs collaborateurs. Le gouvernement déploiera notamment un label Employeur pro-mobilité durable pour récompenser les entreprises engagées.
Voici l’heure de faire un premier bilan de l’engagement des entreprises. Depuis le lancement du premier plan covoiturage, 56 % des employeurs privés ayant déployé le Forfait mobilités durables l’ont ouvert au covoiturage. 451 employeurs et plus de 350 000 employés sont désormais bénéficiaires du programme Certificat d’Économies d’Énergie « Tous covoitureurs » pour développer le covoiturage courte distance autour de leurs sites.
Les entreprises ont recours au covoiturage par manque de transports en commun, pour diminuer les émissions de gaz à effet de serre liées au déplacement de leurs employés ou pour protéger leur pouvoir d’achat face à la flambée du prix de l’essence. Le dossier de presse du gouvernement met en avant plusieurs exemples. Audrey Uguen, responsable mobilités durables chez Airbus, soulève l’intérêt du covoiturage au siège social de l’entreprise situé à Blagnac, le site étant mal desservi par les transports en commun. « Depuis que nous avons lancé ce projet [de covoiturage à destination des collaborateurs, ndlr], c’est plus de 4 000 collaborateurs inscrits et 160 000 trajets covoiturés.»
La pratique s’impose aussi chez Safran à Toulouse, où l’objectif est de baisser les émissions du site et de fluidifier le trafic sur la zone d’activité. « Aujourd’hui nous sommes fiers d’avoir, en 6 mois, 18 % de collaborateurs qui covoiturent », partage Christine Cochelin, directrice de l’établissement. Enfin, Angélique Anaïs Tournier, ambassadrice RSE du groupe Daher, met en avant « la flambée des prix de l’essence », pour justifier l’engagement du groupe dans le programme CEE Tous covoitureurs.
Fondé à Grenoble en 1992 par le docteur en sciences et génie des matériaux David Bassetti, le groupe qui porte son nom a développé au fil des années un ensemble de solutions logicielles destinées à aider les industriels à numériser leur expertise technique. Employant plus de 300 personnes, la société compte à ce jour plus de 180 000 utilisateurs de ses solutions à travers le monde. BASSETTI dispose en effet de 15 filiales basées non seulement en France, mais aussi en Chine, en Inde, en Allemagne, aux États-Unis et au Canada.
Alors qu’elle propose notamment une suite de logiciels baptisée TEEXMA, dans laquelle l’IA intervient déjà par petites touches, l’entreprise travaille désormais également sur une solution entièrement tournée vers l’intelligence artificielle : REMIND. Les algorithmes de machine learning développés dans le cadre de ce projet visent ainsi un double objectif : permettre une optimisation de la sélection des matériaux, étape clé dans les process industriels, mais aussi une amélioration de la performance des essais de laboratoire.
Rémi Guidolin, responsable avant-vente et Jérémy Bruyère, développeur R&D spécialiste de l’IA, lèvent le voile sur la genèse de ce projet et nous apportent leur éclairage sur les fonctionnalités novatrices que cette solution pourra prochainement offrir aux industriels.
Techniques de l’Ingénieur : Quel est l’historique du groupe BASSETTI ? Pouvez-vous nous en brosser le portrait ?
Rémi Guidolin : BASSETTI est une société qui a aujourd’hui trente ans d’existence. Elle a en effet été créée en 1992 par David Bassetti, qui est toujours le PDG du groupe. À l’heure actuelle, BASSETTI compte environ 350 salariés dans le monde. L’entreprise a été créée en France, à Grenoble, mais compte désormais de nombreuses implantations dans le pays – une petite dizaine d’agences et de bureaux – ainsi qu’à l’étranger : en Allemagne, en Inde et en Chine pour l’Asie, mais aussi au Canada et aux États-Unis.
L’un des aspects distinctifs de l’entreprise est sa croissance : cela fait maintenant plus de dix ans que nous faisons une croissance à plus de 30 %. Cette année 2022 devrait également être une belle année pour nous. Notre stratégie de croissance est assez large. Elle se base en effet d’une part sur une croissance organique et de nouvelles implantations, mais aussi, d’autre part, sur une croissance externe, réalisée grâce à des acquisitions, qui viennent alimenter notre panel d’offres et de technologies innovantes. Le troisième pan de notre stratégie de croissance est ainsi constitué par les offres que nous sommes capables de proposer.
En ce qui concerne notre métier à proprement parler, nous sommes spécialisés depuis nos débuts dans ce que nous appelons le management de l’expertise technique. Par cela, nous entendons la mise à disposition – pour nos clients industriels, en grande majorité – de ressources, méthodes et solutions logicielles dédiées et collaboratives. Tout cela dans un but de valorisation du capital technique de ces entreprises, constitué par des données à forte valeur ajoutée. Il peut en effet s’agir de recherche et développement, de données de laboratoires de tests, des données de production, ou encore des données liées à la qualité et à la conformité.
Notre panel d’offres couvre d’ailleurs toute la chaîne de valeur d’une entreprise, en partant du très amont avec la R&D, en allant jusqu’au très aval avec, par exemple, le maintien en conditions opérationnelles de solutions déjà déployées. Nous couvrons des thématiques variées, et nos offres s’adressent avant tout aux départements techniques et scientifiques des entreprises industrielles : R&D, laboratoires, qualité, maintenance, production, DSI, bureaux d’études.
Vous développez actuellement une solution baptisée REMIND, qui fait la part belle à l’intelligence artificielle. Est-ce la première fois que vous vous appuyez sur ce type de technologie ?
R.G. : Clairement non. REMIND a certes une composante d’IA, mais nous n’avons pas attendu ce projet pour innover sur cette thématique de l’IA, et même plus largement toutes les thématiques qui sont inhérentes au monde actuel de l’entreprise : le développement web et mobile, la business intelligence, le big data, etc. Ce sont des aspects autour desquels nous nous tenons à l’affût. Nous nous devons en effet de rester à la pointe pour nos clients, et même nous placer en avance de phase sur ces thématiques.
Dans ce contexte, quelles sont les raisons qui vous ont poussés à développer cette solution REMIND ?
Jérémy Bruyère : Comme l’évoquait Rémi, nous avons déjà développé en amont de ce projet un certain nombre de composantes liées à l’intelligence artificielle. Mais REMIND est, en revanche, la première solution quasi exclusivement concentrée sur l’IA. Son développement a découlé naturellement de l’historique de la société BASSETTI. Son fondateur, David Bassetti, a en effet fondé l’entreprise suite à une thèse qu’il a réalisée dans le domaine de la sélection de matériaux, socle sur lequel se fonde la solution REMIND. Le cœur de BASSETTI reste en effet l’ingénierie matériaux. C’est ce par quoi nous avons débuté historiquement avant de nous étendre à d’autres secteurs. REMIND fait ainsi en quelque sorte figure de retour aux sources pour BASSETTI.
Quel est l’état d’avancement du projet ? Sur quelles fonctionnalités travaillez-vous ?
J.B. : La solution est pour l’heure encore en phase de développement. Elle n’est pas encore disponible pour les clients, mais le sera probablement au cours de l’année 2023.
Initialement, l’idée a été d’aider les ingénieurs à choisir les matériaux. Ensuite, nous avons cherché à étendre la solution à d’autres secteurs traités par le groupe. La solution va donc également permettre aux techniciens de laboratoire de faire de l’optimisation de formulation, en les aidant à concevoir des produits de manière plus optimisée, plus rapide. REMIND va en effet permettre d’anticiper et d’automatiser des process techniques et scientifiques dans l’industrie.
Comment cela va-t-il fonctionner ? Quels seront les données d’entrée et les résultats obtenus en sortie ?
J.B. : La solution pourra s’appuyer sur n’importe quelle base de données que sera à même de lui fournir le client. Et c’est lui qui va décider ce qu’il veut faire de ses données. Le premier aspect est donc celui de la représentation de données, la data visualization. Le client va ainsi d’abord choisir comment il veut représenter ses données, pour que cela puisse l’aider à les traiter de la meilleure manière possible. Le client pourra ensuite appliquer des traitements sur ces données. Par « traitements », j’entends des applications approfondies d’algorithmes de machine ou de deep learning. REMIND va donc lui proposer tout un panel d’algorithmes, à la fois supervisés et non supervisés, qui vont lui permettre de faire de la prédiction de données, de la classification, du clustering, c’est-à-dire regrouper ces données selon différentes catégories, ainsi que de la détection d’anomalies, qui consiste à chercher dans les données existantes ce qui pourrait être des valeurs aberrantes, ou celles qui, au contraire, sont très pertinentes par rapport aux autres. C’est donc l’utilisateur qui va pouvoir choisir d’utiliser certaines de ces applications pour pouvoir répondre au mieux à son problème. La donnée créée, fournie par l’IA, pourra être tracée et réinjectée dans la base de données ou dans le logiciel de l’utilisateur.
Comment la phase d’apprentissage sera-t-elle gérée ?
J.B. : Il y a plusieurs possibilités. Si l’utilisateur est quelqu’un de très technique, qui connaît déjà les formules qu’il doit utiliser pour entraîner l’algorithme, dans ce cas il pourra tout simplement entrer ses propres formules et les appliquer sur l’ensemble de ses données. Dans le cas où l’utilisateur ne sait pas trop comment aborder sa solution, il va pouvoir utiliser des modèles de machine learning préentraînés sur ses données, ou que l’utilisateur pourra paramétrer lui-même en définissant la structure du modèle, ainsi que ses données d’entrée et de sortie.
Cette solution devrait tout d’abord être intégrée aux logiciels TEEXMA que vous proposez d’ores et déjà… Pourra-t-elle également fonctionner un jour de manière autonome ?
J.B. : Dans un premier temps, REMIND sera intégrée de manière effective à nos solutions logicielles TEEXMA, telles que TEEXMA for Materials et TEEXMA for Lims. Mais la solution pourra aussi devenir une application standalone, qui pourra traiter des bases de données externes, quelle que soit la source. Dans tous les cas, les données de sortie pourront être renvoyées vers l’un des logiciels de la suite TEEXMA.
Sur le plan matériel, le fonctionnement des algorithmes d’IA pourra-t-il se dérouler directement sur une machine de bureau ?
J.B. : Puisque la solution sera tout d’abord intégrée à TEEXMA, il s’agira d’une solution web. Toute la partie calculs et performance se gérera alors côté serveurs. L’hébergement du logiciel peut par ailleurs être effectué chez nous, ou directement chez le client.
Quel sera le coût de cette solution ?
R.G. : Aujourd’hui, nous n’avons pas encore complètement défini le business model associé à cette nouvelle brique technologique. Pour l’instant, en tout cas, nos logiciels sont proposés selon deux modèles : de l’acquisition ou de la souscription. Et nous n’avons pas pour objectif de pousser un modèle plus qu’un autre, même si nous pouvons noter que la souscription est particulièrement appréciée par nos clients.
Des premiers tests sont-ils déjà en cours ?
J.B. : La solution est développée en partenariat avec certains de nos clients. Ces clients valident donc au fur et à mesure les fonctionnalités que nous intégrons dans la solution. Ils ont un rôle de bêta-testeurs.
R.G. : Il est d’ailleurs probable que d’autres testeurs s’ajoutent à la liste… Nous partons en effet du principe que ce sont nos clients qui détiennent l’expertise de leurs métiers.
J.B. : Pour l’heure, les clients avec qui nous échangeons sur cette solution sont avant tout des professionnels qui travaillent dans le domaine des matériaux et en laboratoire.
R.G. : Nous sommes par ailleurs présents dans de très nombreux secteurs industriels : l’aéronautique, l’automobile, la chimie, la pharmaceutique…
Outre cette solution REMIND, avez-vous éventuellement d’autres projets autour de l’IA ?
J.B. : Nous avons plusieurs projets qui intègrent de l’IA, situés à divers stades de développement. Il s’agit en partie de solutions qui, comme REMIND, tournent autour de la valorisation de la donnée technique et scientifique, Mais nous travaillons aussi sur des projets axés autour de la gestion d’indicateurs orientés business intelligence, mais aussi autour de la planification dans l’industrie.
Là où REMIND devrait arriver d’ici quelques mois, nos solutions axées autour de la planification devraient plutôt voir le jour d’ici deux ou trois ans.
Chacun d’entre nous a entendu parler des organismes génétiquement modifiés (OGM). Ils le sont le plus souvent pour résister à un herbicide ou pour produire leur propre insecticide afin de lutter contre les ravageurs. Le public connaît moins les autres organismes obtenus par le biais des biotechnologies génétiques apparues depuis les années 2010. On parle notamment ici des molécules issues du silençage génique et des organismes obtenus par forçage génétique.
À l’occasion de la 15e Conférence des Nations unies sur la biodiversité (COP15), 100 scientifiques, experts et organisations signent un appel international à la protection des pollinisateurs contre ces nouvelles biotechnologies, à l’initiative de l’ONG française Pollinis. Les signataires de l’Appel demandent notamment « une application stricte du principe de précaution selon les Nations Unies ». Ils appellent à « empêcher toute diffusion jusqu’à ce qu’il y ait des preuves que l’usage de ces biotechnologies, de leurs produits, organismes et composants, n’aura pas d’impact direct ou indirect négatif. »
La COP15 doit adopter un nouveau cadre mondial de protection de la biodiversité sur la période 2020-2030. Dans cette perspective, les insectes et notamment les pollinisateurs font l’objet d’une attention singulière. En particulier, l’objectif 17 cible la question des risques potentiels des biotechnologies génétiques pour l’ensemble du vivant. Les négociations pourraient aboutir à leur encadrement plus strict ou, au contraire, à la facilitation de leur usage dans la nature.
Silençage génique et forçage génétique
Ces biotechnologies servent avant tout à remplacer les pesticides chimiques classiques dans les champs. À la différence des OGM traditionnels obtenus par « transgenèse », c’est-à-dire par introduction d’un gène extérieur dans une plante ou un animal, ces nouvelles techniques modifient le génome d’un être vivant, sans ajout de gène extérieur.
L’utilisation de ces nouvelles techniques permettrait d’« améliorer les plantes » en « les rendant résistantes à des virus, aux herbicides, ou de réduire leur stress hydrique », explique à l’AFP Christophe Robaglia, professeur en biologie à l’université Aix-Marseille et expert OGM auprès de l’Autorité européenne de sécurité des aliments.
Le silençage génique élimine la production d’une protéine à partir de son gène correspondant. Il désactive ainsi certaines expressions génétiques chez les plantes, bactéries ou virus. La biotechnologie peut aussi être utilisée dans les champs en tant que pesticide, sous forme de spray d’ARN dit « interférent ». Il neutralise ainsi l’expression de certains gènes d’insectes. Certaines applications ont déjà été approuvées aux États-Unis et au Canada.
Le forçage génétique permet pour sa part de s’assurer qu’un gène particulier sera transmis systématiquement à sa descendance. Pollinis voit plutôt des risques que des avantages. « En transmettant un gène d’extinction (infertilité), le forçage génétique peut ainsi induire la disparition de toute une espèce en quelques générations », alerte l’association. Aujourd’hui, 21 insectes ravageurs des cultures font l’objet de recherches ciblées, recense une étude, plusieurs demandes de brevets ont été déposées par l’agro-industrie.
Éviter avant tout les risques sur les insectes
La tribune vise avant tout les effets potentiels de ces nouveaux pesticides sur les pollinisateurs. De premières études scientifiques indépendantes pointent en effet des risques d’effets létaux sur des insectes non ciblés, lorsque ceux-ci partagent un gène similaire avec les espèces nuisibles ciblées.
« Il est impossible d’intervenir sur le génome d’un individu sans interagir avec l’ensemble de son espèce, des autres espèces et plus largement avec toute la biodiversité, signale Nicolas Laarman, délégué général de Pollinis. En modifiant un individu, on modifie potentiellement l’ensemble du vivant. »
Pour notre dossier de décembre, « Matériaux innovants pour produire et stocker l’hydrogène », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
Une simple comparaison entre les trois grands types de stockage d’hydrogène (hyperbare ou liquide, cryoadsorption et absorption dans divers hydrures) nous indique que la dernière méthode dite « solide » est la plus prometteuse. Ainsi, les principaux avantages des hydrures consistent d’abord dans leurs importantes densités volumiques, supérieures à celles de l’hydrogène. Ensuite, ces composés possèdent de grandes capacités massiques de stockage et permettent une pression d’hydrogène délivré ajustable en fonction de son utilisation finale. Enfin, la sécurité d’utilisation des hydrures est supérieure à celle des réservoirs sous haute pression du fait des pressions modestes lors de la phase d’absorption de l’hydrogène. De plus, grâce à une réaction de désorption endothermique, en cas de fuite accidentelle la température du réservoir chute rapidement, ce qui stoppe le dégagement d’hydrogène.
Des hydrures aux nouveaux matériaux
En fonction du type de liaison avec l’hydrogène, on distingue les hydrures métalliques, ioniques ou complexes. Comme l’indique leur nom, dans les hydrures métalliques l’hydrogène est directement lié aux atomes de métal via une liaison métallique. Malgré un effort de recherche soutenu depuis de nombreuses années, les capacités de stockage atteignables à la température ambiante restent de l’ordre de 1,5, 1,8 ou 2,0 % en masse. Les hydrures ioniques, quant à eux, sont des composés qui se forment entre l’hydrogène et les métaux alcalins et alcalino-terreux. Cette fois, l’hydrogène agit comme l’ion hydrure (H–) et se lie à des atomes métalliques électropositifs. Le cas de l’hydrure de Mg, MgH2, est un cas emblématique grâce à ses excellentes capacités massiques (7,6 %). Néanmoins, ses propriétés thermodynamiques défavorables pénalisent son utilisation… Dans les hydrures complexes, l’hydrogène forme des liaisons covalentes avec des métaux ou d’autres éléments non métalliques en constituant des anions. Ces complexes anioniques sont liés aux cations des métaux, afin de former un hydrure complexe réunissant des liaisons covalentes et ioniques au sein du même matériau. Cependant, ces hydrures possèdent des cinétiques de réaction multi-étapes lentes et des thermodynamiques défavorables qui limitent drastiquement leur application pratique. Finalement, afin de répondre simultanément aux trois critères clés tels que la compacité, la sûreté et l’efficacité, la méthode de stockage sous forme « solide » dans des matériaux métalliques hydrurables (formant des hydrures) est très avantageuse. Cependant, aucun matériau étudié jusqu’à maintenant ne réunit tous les critères (capacité, cinétique, thermodynamique, cyclage, coût, etc.) pour un stockage stationnaire ou mobile. C’est pourquoi des nouveaux matériaux doivent être impérativement explorés.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 29 décembre 2022 !
Fermin Cuevas est chercheur à l’Institut de Chimie et des Matériaux Paris Est (ICMPE), responsable de la thématique Interaction hydrogène matière au sein du département Métallurgie et Matériaux inorganiques.
Ses recherches portent sur la synthèse, les propriétés structurales et physico-chimiques des composés intermétalliques et des hydrures : elles visent le développement de nouveaux matériaux pour des applications concernant le stockage de l’énergie, en particulier le stockage d’hydrogène, les batteries Ni-MH et les batteries Li-ion.
Le plan d’investissement France 2030 ambitionne, notamment à travers le PEPR hydrogène, de faire de la France un leader sur le marché de l’hydrogène dans les années à venir. Au niveau continental également, l’Europe investit et a sélectionné de nombreux projets, dans 15 pays de l’UE, pour soutenir le développement des technologies hydrogène. Tout est mis en place pour faire de la molécule hydrogène le vecteur énergétique à côté de l’électricité, pour la transition à venir.
Les recherches actuelles sur l’hydrogène visent à améliorer les performances de la chaîne hydrogène-énergie, tant sur les volets production et usage que sur le volet stockage. Sur ce dernier point, le développement de nouveaux matériaux pourraient permettre d’utiliser massivement l’hydrogène en tant que moyen de stockage de l’énergie. Pour que les technologies développées puissent connaître un usage massif, il est important que les matériaux développés puissent être produits à un coût économiquement viable. Une contrainte nécessaire que les chercheurs intègrent à leurs travaux.
Fermin Cuevas a répondu aux questions de Techniques de l’Ingénieur, concernant le potentiel de nouveaux matériaux pour le stockage de l’hydrogène, et plus généralement sur le développement de la filière dans l’hexagone et en Europe.
Techniques de l’Ingénieur : Quelles sont les différentes méthodes pour stocker de l’hydrogène ?
Fermin Cuevas : Il y a aujourd’hui trois méthodes principales pour stocker l’hydrogène. On peut le stocker à l’état gazeux, à très haute pression. On peut aussi stocker l’hydrogène à l’état liquide à très basse température. C’est ce que l’on fait pour les fusées par exemple.
La troisième possibilité, que je connais bien puisque c’est sur celle-ci que je travaille, est de stocker l’hydrogène sous forme solide.
Du point de vue applicatif, nous nous concentrons sur du stockage stationnaire, pour une question de poids.
Quels sont les matériaux sur lesquels vous travaillez ?
Nous pouvons diviser les matériaux sur lesquels nous travaillons en deux grandes catégories. Il y a toute une famille de matériaux que nous connaissons déjà, et qui sont employés pour stocker de l’hydrogène. Leurs propriétés sont connues. Parmi eux, il y a par exemple les composés intermétalliques, qui sont constitués d’une association de plusieurs métaux, titane et fer par exemple. Nous savons les synthétiser, modéliser leurs propriétés chimiques, et nous connaissons leur potentiel en ce qui concerne le stockage de l’hydrogène. De plus ces matériaux sont réversibles à pression atmosphérique et à température ambiante, ce qui est un avantage pour imaginer des systèmes de stockage et de déstockage de l’énergie performants.
Parmi les matériaux que l’on connaît déjà, nous pouvons également citer les composés intermétalliques contenant des terres rares et des métaux de transition, des composés à base de magnésium ou encore des alliages de vanadium.
Ces matériaux permettent de stocker l’hydrogène réversiblement, l’objet des recherches actuelles est d’améliorer leurs performances en les optimisant pour des applications bien précises.
Quelle est la seconde catégorie de matériaux sur lesquels vous travaillez ?
La seconde catégorie va regrouper les matériaux prospectifs, dont le potentiel n’est pas encore bien établi. C’est l’autre aspect de nos travaux. Il s’agit plus de recherche fondamentale, sur des matériaux légers ayant un potentiel certain en termes de stockage de l’hydrogène, mais présentant des caractéristiques contraignantes. Cela peut être une température trop élevée pour libérer l’hydrogène ou la décomposition non réversible du matériau au cours de la réaction.
Le budget alloué par l’Etat pour développer la filière hydrogène est majoritairement orienté aujourd’hui vers la recherche appliquée pour mettre au point des démonstrateurs. Ceci favorise l’amélioration de matériaux dont les propriétés pour le stockage de l’hydrogène sont déjà connues. La recherche fondamentale bénéficie d’investissements plus limités, mais déjà significativement importants pour trouver des matériaux totalement nouveaux.
Quelles vont être les caractéristiques recherchées chez les matériaux que vous testez ?
Aujourd’hui beaucoup de matériaux sont développés pour le stockage stationnaire de l’hydrogène. L’intérêt est que l’on travaille sur des matériaux qui fonctionnent à température ambiante. C’est à la fois énergétiquement plus efficace et sécuritaire pour envisager des applications proches du public.
Ensuite, il y a toute une gamme de matériaux qui permettent de stocker l’hydrogène avec une grande capacité et donc potentiellement adaptées à la mobilité, mais à l’heure actuelle ces matériaux fonctionnent dans des zones de température ou de pression trop éloignées des constantes qui constituent notre environnement. Les chercheurs qui étudient ces matériaux essaient de les adapter pour des usages aux conditions normales de pression et de température. Cela est nécessaire pour imaginer de nouvelles applications industrielles nécessitant du stockage de l’hydrogène avec ces matériaux.
Quels sont les pays les plus avancés sur les technologies hydrogène ?
Le Japon, du point de vue technologique, et l’Allemagne, qui est très avancée sur l’usage de certaines technologies renouvelables, me paraissent en avance sur la France pour le moment sur le développement d’une filière hydrogène.
L’Australie possède une grande quantité de lithium et des métaux de transition dans son sous-sol. C’est un avantage pour produire des batteries, et est en plus très largement ensoleillé. Selon moi, le pays semble réunir des atouts très importants pour devenir un acteur important de l’hydrogène.
Le 19 décembre 2022 sera close la 15e conférence internationale de l’ONU sur la biodiversité qui se tient à Montréal. Cette rencontre internationale est importante, car elle doit définir un nouveau cadre mondial pour agir les dix prochaines années, alors que les précédents engagements n’ont pas été tenus. Les 196 membres de la Convention sur la diversité biologique doivent trouver des solutions pour lever les antagonismes entre préservation et utilisation de la biodiversité, ce qui est loin d’être évident. Pour rappeler l’ampleur du phénomène, les spécialistes estiment que 75 % de la surface des écosystèmes continentaux et 40 % des océans ont été fortement dégradés. Un million d’espèces risquent de disparaître à courte échéance…
L’IPBES, la plate-forme intergouvernementale sur la biodiversité et les services écosystémiques, pointe régulièrement les liens ténus entre les modes de vie des humains et l’ensemble de ce que la nature peut apporter. Cet équivalent du GIEC a ainsi par exemple montré en juillet dernier qu’environ 50 000 espèces servent à différentes pratiques (nourriture, matériel, énergie, soins, activités de loisirs, etc.), dont 10 000 tout particulièrement à l’alimentation dans les pays en développement.
Œuvrer à toutes les échelles
Soumise à la surexploitation des ressources, à la dégradation des sols, de l’eau et de l’air, la biodiversité est menacée et va l’être encore plus avec le bouleversement climatique. Pourtant, de nombreuses pistes existent pour faire face au risque d’extinction des espèces animales et végétales. Y compris en France où la pression n’est pas moindre qu’ailleurs. Par exemple, 21 % des mammifères des milieux humides et aquatiques sont menacés en métropole, selon l’Office français de la biodiversité.
Une récente étude de Solagro permet d’imaginer comment faire sur notre territoire pour ne pas dépasser les limites planétaires, ce qui passe par la révision des pratiques d’un des principaux responsables, l’agriculture. Solagro se base sur son scénario de transition agricole et alimentaire, Afterres 2050, qui envisage d’agir à différentes échelles où la biodiversité est impactée : la parcelle (diversité génétique locale), l’exploitation (réduction des intrants chimiques), le paysage (renforcement et diversification des infrastructures agroécologiques), ainsi que via les importations de produits agricoles.
Douze actions phares sont identifiées. Les trois premières concernent la gestion des espaces naturels et agricoles. Il s’agit d’augmenter les surfaces forestières de 3 millions d’hectares d’ici 2050 tout en protégeant et en exploitant mieux les forêts. La sylviculture doit s’adapter à des peuplements en futaie jardinée (mélange d’arbres de différentes essences et de différents âges) dans des forêts de type mosaïque ; les volumes de bois prélevés doivent augmenter de façon modérée (18 millions de m³ pour le bois d’œuvre et 13 Mm³ pour le bois d’industrie) et des réserves intégrales être créées sur 3 % des forêts. L’artificialisation des terres doit par ailleurs être limitée à 300 000 hectares d’ici 2050, en contenant les besoins (maîtrise des surfaces bâties, densification de l’habitat, moins de circulation automobile, etc.), en favorisant la nature en ville (via des corridors biologiques), et en dédiant 100 000 hectares à la transition énergétique sur la base d’une multiplication des coactivités agricoles (écopastoralisme, pâturage sous panneaux photovoltaïques, etc.). Pour maintenir et restaurer les habitats naturels, la part des infrastructures agroécologiques dans la surface agricole utile (SAU) doit passer à 5 %. Cela est possible en réduisant la taille moyenne des parcelles, en doublant le linéaire de haies, et en consacrant 10% de la SAU à de l’agroforesterie.
L’agroécologie au cœur des pratiques
Du côté des pratiques agricoles et alimentaires, cinq actions sont au cœur de la protection de la biodiversité. En premier lieu, Solagro estime qu’il est souhaitable et possible de réduire de 90 % l’usage des pesticides en ayant plus des deux tiers des exploitations en agriculture biologique et le reste en production intégrée et en agriculture de conservation. Cette agroécologie repose sur le choix de semences paysannes et d’espèces indigènes, sur le mélange des variétés, sur l’allongement des rotations, sur des cultures intermédiaires, sur une plus grande part de légumineuses, sur la couverture des sols, etc. Elle doit se coupler à une réduction des élevages et à des modes moins intensifs : en privilégiant les élevages sous labels, les pâturages plutôt que l’alimentation concentrée, la mixité des races etc., on peut réduire le cheptel bovin de 8 à 4,3 millions de vaches en 2050 et maintenir le cheptel ovin à son niveau. Solagro prévoit aussi la fin des élevages en cages pour les poulets et les porcs. Pour stopper la déforestation due à nos importations, la recommandation est de réduire celles des cultures à risque (soja, huile de palme, bois tropical) et de consommer les aliments tropicaux (notamment crevettes, cacao et café) plus sobrement. De même, pour mettre fin à la surexploitation des ressources marines, notre régime doit réduire de 85 % la consommation de poissons piscivores (soit passer d’une moyenne de 27 g/jour actuellement à 4 g/jour en 2050) en privilégiant les poissons herbivores, la pêche côtière, la pisciculture durable, les circuits courts et en développant la production de crustacés et d’algues.
Enfin, les quatre dernières actions envisagées par Solagro concernent la lutte contre le changement climatique qui lui-même met à mal la biodiversité. Une partie des solutions déjà citées y participe, comme la généralisation de l’agroécologie, l’augmentation des surfaces de forêts, des infrastructures agroécologiques, des couverts et de l’agroforesterie pour séquestrer du carbone. On peut y ajouter la réduction de 30 % de la consommation d’eau en irrigation et la division par trois de la consommation d’eau en été. La substitution des ressources fossiles par des ressources renouvelables est possible dans l’agriculture, en particulier par la méthanisation qui permet de produire du biogaz et d’utiliser le digestat des matières organiques en tant qu’engrais. Enfin, la réduction des émissions de gaz à effet de serre de l’agriculture par 2,5 participe de l’effort global de la société pour atteindre la neutralité carbone.
Derrière toutes ces actions très concrètes se joue la survie de milliers d’espèces animales et végétales. N’attendons pas demain, quand il sera trop tard.
Parmi les solutions existantes, l’hydrogène, qui n’existe pas tel quel sur Terre, fait l’objet de nombreuses recherches. Pour en produire, on utilise aujourd’hui très massivement le vaporeformage, qui consomme du méthane, pour produire de l’hydrogène et du dioxyde de carbone : un procédé économiquement intéressant mais écologiquement inefficace pour réduire la concentration atmosphérique de gaz à effet de serre.
Une équipe du CNRS, dirigée par Charles Cornet, professeur des Universités à l’Institut fonctions optiques pour les technologies de l’information (Institut FOTON, CNRS/INSA Rennes/Université Rennes 1), développe une photo-électrode pour produire, à partir d’énergie solaire, de l’hydrogène par électrolyse. Ces travaux sont menés en étroite collaboration avec des chercheurs de l’Institut des Sciences Chimiques de Rennes (ISCR-CNRS). A l’heure où l’Etat et les acteurs privés investissent beaucoup pour développer des méthodes de production massive d’hydrogène décarboné, il s’agit pour Charles Cornet et son équipe de montrer que leur procédé peut produire de l’hydrogène, de manière décarbonée, et à un prix compétitif pour être économiquement viable.
Charles Cornet a répondu aux questions des Techniques de l’Ingénieur.
Techniques de l’Ingénieur : Quelles sont les solutions permettant aujourd’hui de produire de l’hydrogène ?
Charles Cornet : L’hydrogène n’est pas disponible sur Terre, il faut le produire. Deux voies principales existent pour cela. D’abord l’électrolyse de l’eau, que tous les collégiens connaissent. Le principe consiste à plonger deux électrodes dans un bac d’eau : on fait passer dans ce bac un courant électrique qui va venir casser les molécules d’eau et séparer l’hydrogène et l’oxygène. La problématique aujourd’hui par rapport à l’électrolyse est l’origine de l’énergie nécessaire à la réaction chimique : selon que cette énergie est carbonée ou décarbonée, le processus de production de l’hydrogène est plus ou moins pertinent, écologiquement parlant.
L’autre technologie est le vaporeformage. On va utiliser du méthane et le combiner à de la vapeur d’eau très chaude, pour former de l’hydrogène. Cette réaction produit également du CO2. On part donc avec du méthane, et on produit de l’hydrogène et du CO2, puissant gaz à effet de serre. D’un point de vue environnemental, le vaporeformage n’a donc pas d’intérêt. Ceci dit, il s’agit aujourd’hui du procédé le plus économique, et 95% de l’hydrogène produit aujourd’hui à travers le monde l’est par reformage.
Quelles sont les solutions existantes pour produire de l’hydrogène décarboné ?
L’enjeu aujourd’hui autour de l’hydrogène est de coupler sa production avec l’utilisation d’énergies renouvelables, en développant des technologies viables économiquement, pour qu’elles puissent être mises en place à grande échelle.
L’utilisation d’énergies renouvelables pour produire de l’hydrogène pousse à se concentrer sur l’électrolyse, pas sur le reformage. L’idéal serait de pouvoir produire de l’hydrogène et de l’oxygène sans avoir à passer par les énergies fossiles. Cela peut se faire par exemple en connectant des panneaux solaires à un électrolyseur. Plusieurs démonstrateurs de ce type existent déjà. On peut aussi connecter l’électrolyseur à une éolienne, cela a été testé également et fonctionne très bien. Le problème avec ces couplages est la complexité des installations, et leur coût important.
Comment avez-vous orienté vos recherches pour produire « écologiquement » de l’hydrogène ?
Nous avons choisi une approche qui permet d’utiliser l ‘énergie solaire, sans passer par un ensemble “panneau solaire / électrolyseur”. Notamment parce que les électrodes sont souvent produites à base de matériaux extrêmement chers, comme le platine.
Nous développons actuellement des photo-électrodes, sortes de panneaux solaires, qui trempent directement dans l’eau. Les rayons du soleil vont être absorbés pour produire des charges électriques, qui vont être directement rejetées dans l’eau pour « casser » les molécules d’eau et produire de l’hydrogène et de l’oxygène.
Ce mécanisme a plusieurs avantages. Déjà, le panneau solaire produit directement l’hydrogène dans l’eau, ce qui simplifie beaucoup le processus. Nous avons combiné une fine couche d’un matériau, appelé semi-conducteur III-V, qui absorbe très bien la lumière, avec une couche épaisse de silicium. Or, le silicium est un élément chimique extrêmement abondant sur Terre et peu cher. Nous avons donc réussi à montrer que l’utilisation de photo-électrodes à base de silicium permettait d’obtenir d’excellents résultats. C’est un élément déterminant pour évaluer le potentiel de notre procédé à être utilisé à grande échelle.
A quel stade de recherche vous trouvez-vous actuellement ?
Pour le moment, nous observons des photo-électrodes individuelles : soit des photos-anodes, soit des photo-cathodes. Les performances sont très intéressantes, si on les met en rapport avec le faible coût des matériaux utilisés.
Il nous faut passer désormais au démonstrateur. Nous avons à ce propos été lauréats récemment d’un appel à projet (projet NAUTILUS), lié aux investissements France 2030 sur le volet des Programmes et Équipements Prioritaires de Recherche (PEPR) dédiés à l’hydrogène décarboné. Nous allons donc pouvoir commencer à développer, à partir du mois de janvier 2023, un démonstrateur dans lequel nous allons associer les photos-anodes et les photo-cathodes. Ce démonstrateur sera donc constitué d’une cellule entière, que l’on pourra exposer au soleil et qui produira de l’hydrogène. L’étude du rendement de ce démonstrateur permettra de déterminer si notre approche a le potentiel suffisant pour que le procédé soit industrialisé.
Les investissements publics et privés pour développer une production « verte » d’hydrogène permettent de mener de nombreux projets de recherche. Où vous situez-vous par rapport à cette effervescence ?
En effet nous sommes très loin d’être les seuls à développer des solutions pour la production d’hydrogène décarboné. Beaucoup d’équipes de recherches travaillent sur tout un tas de solutions et de technologies, et beaucoup d’argent est investi pour créer une filière hydrogène compétitive et décarbonée, en France, en Europe, et même au niveau mondial. Il est très difficile de prévoir aujourd’hui quel procédé sera le plus compétitif sur le moyen terme. Chaque technologie a ses contraintes. Par exemple, nos cellules ont besoin de soleil pour fonctionner, ce qui rend potentiellement leur utilisation contrainte sur le plan géographique. Chaque technologie a ses avantages et ses inconvénients.
Qu’est-ce qui va faire pencher la balance pour telle ou telle technologie ?
Il faut à la fois de la performance, un prix bas, et une durée de vie du produit la plus longue possible. Nos cellules solaires photo-électro-chimiques baignent dans l’eau et cela ajoute des risques, en termes de corrosion par exemple. Ces risques doivent être déterminés et pris en compte, ce que nous faisons dans nos recherches. En ce qui concerne la durée de vie de nos cellules, nous pouvons ajouter une fine couche protectrice pour préserver les cellules de la corrosion. Cela entraîne forcément une baisse de rendement, il faut donc optimiser l’ensemble pour obtenir un matériel performant et résistant dans le temps. C’est ce sur quoi nous travaillons actuellement. Un fois que cela sera fait, le rendement déterminera le prix de revient de l’hydrogène produit, et donc l’intérêt industriel de nos photos-électrodes.
Peut-on imaginer d’autres applications pour ce matériau, en plus du procédé que vous développez ?
Je travaille actuellement sur un projet (projet ANR PIANIST) destiné à mieux comprendre l’ensemble des propriétés de ces matériaux qui se révèlent assez originales, notamment en ce qui concerne leur manière de conduire le courant ou de récupérer l’énergie solaire. Ces propriétés laissent imaginer que ces matériaux pourraient être performants et permettre le développement de nouvelles cellules photovoltaïques, mais aussi de nouveaux transistors… ces matériaux pourraient même intervenir dans le développement des technologies quantiques.
Afin que la France atteigne la neutralité carbone en 2050, le déploiement massif de panneaux photovoltaïques est incontournable pour augmenter la part des énergies renouvelables dans le mix-énergétique. Fin 2021, la puissance du parc solaire français s’élevait à environ 14 GW. Dans son rapport de prospective « Transition(s) 2050 », l’Ademe indique qu’il devrait atteindre un niveau compris entre 92 et 144 GW en 2050. Face à ce secteur jugé stratégique, un autre enjeu se situe au niveau de la relocalisation de la filière de fabrication des modules photovoltaïques en France et en Europe, alors qu’elle a été en grande partie démantelée au cours des années 2010, pour être transférée en Asie. Dans ce contexte, le CEA-Liten et l’INES (Institut national pour l’énergie solaire) développent plusieurs technologies dans le but de réduire l’empreinte carbone des panneaux photovoltaïques, tout en prenant soin de conserver leur compétitivité.
La face avant du module constituée de verre recyclé. Crédit CEA-Liten/INES
Un nouveau module, présentant deux particularités, a fait l’objet d’une preuve de concept. La première, au niveau de sa face avant, est qu’il intègre un verre provenant d’un panneau recyclé. « Grâce à un procédé mécanique développé par le CEA, nous avons démontré que l’on peut désassembler des modules photovoltaïques pour récupérer le verre et le remettre en l’état dans un nouveau cycle d’assemblage par lamination, explique Aude Derrier, Cheffe de service au CEA-Liten. Nous avons prouvé qu’il n’induisait pas de dégradation sur le produit, et qu’il permettait d’atteindre les mêmes performances et la même durabilité qu’un verre neuf. »
La face arrière du panneau fabriquée grâce à des fibres végétales en lin et basalte. Crédit : CEA-Liten/INES
La deuxième particularité concerne la face arrière. Traditionnellement, elles sont conçues à l’aide de films tri-couches à base de PET (Polytéréphtalate d’éthylène) et de PVDF (Polyfluorure de vinylidène), dont le rôle est d’assurer une protection contre la pénétration de l’humidité. Ici, les chercheurs ont utilisé un composite thermoplastique, constitué d’une combinaison de fibres végétales (lin et basalte) associées à une résine thermoplastique. Étant donné que le lin a tendance à gonfler en cas d’humidité, engendrant des dégradations du comportement thermomécanique des cellules photovoltaïques – celles-ci n’étant plus en compression, mais en traction -, l’emploi du basalte a pour effet de contrecarrer ce phénomène. Et au final, cette nouvelle face arrière permet d’atteindre les mêmes niveaux de durabilité et d’étanchéité qu’un panneau standard.
Améliorer l’analyse du cycle de vie des panneaux solaires
Sur le plan du rendement photovoltaïque, des performances identiques aux produits standards à base de verre encapsulant « backsheet » ont été constatées, et ce, quelle que soit la technologie solaire utilisée : PERC (Passivated Emitter and Rear Contact), HJT (hétérojonction), ou TOPCon (Tunnel Oxide Passivated. Contact). Tandis que l’analyse du cycle de vie (ACV) de ce nouveau produit a pu être améliorée grâce à une réduction de l’empreinte carbone. « Nous avons gagné environ entre 50 et 80 kg de C02eq/kWp (kilowatt peak)comparé à des panneaux standard, précise Aude Derrier. À titre de comparaison, la CRE (Commission de régulation de l’énergie), qui correspond à l’autorité indépendante chargée de garantir le bon fonctionnement des marchés français de l’énergie, préconise de fournir des panneaux dont le bilan carbone est inférieur à 550 kg de C02eq/kWp. »
En parallèle de ce nouveau module, le CEA-Liten et l’INES développent un nouveau procédé de fabrication et d’assemblage des panneaux solaires. Actuellement, la technologie la plus employée est celle de la lamination à membrane sous vide. Les chercheurs ont testé et validé l’intérêt d’un procédé par thermocompression avec chauffage par induction. Il présente l’avantage d’accepter l’utilisation de nouveaux matériaux polymères et composites thermoplastiques, et notamment ceux issus du recyclage. « Nous sommes au début d’une nouvelle histoire dans la manière de fabriquer les modules photovoltaïques, en particulier en repensant différemment toute la démarche de l’éco-innovation, se réjouit la spécialiste. Ce nouveau procédé d’assemblage va nous permettre d’ouvrir le champ des possibles en termes de matières. »
Par exemple, il va être possible d’utiliser des matières recyclées issues de la filière automobile, comme c’est le cas du polypropylène, et de l’associer à des fibres de carbone recyclées. Avec le procédé standard de lamination, l’utilisation de ces matières est impossible. Le chauffage par induction produit une montée en température très rapide, jusqu’à 250, voire 270 degrés, et n’engendre pas de dégradation des cellules photovoltaïques, ce qui permet de conserver leurs performances et d’optimiser la rentabilité industrielle. Cette nouvelle technologie permettra aussi d’intégrer de plus grandes quantités de composites thermoplastiques dans la fabrication des modules, qui présentent l’intérêt d’être réutilisables, au contraire des thermodurcissables.
Dans cette démarche d’éco-innovation, le CEA-Liten et l’INES mènent également des travaux de recherche dans le but de réduire la quantité d’argent dans les modules en développant une nouvelle technologie d’interconnexion des cellules photovoltaïques. « Nous sommes au tout début de ce programme, mais je pense que nous pourrons parvenir à une preuve de concept dès l’année prochaine », conclut Aude Derrier.
Une des caractéristiques de l’hydrogène est sa légèreté. Cet aspect de sa chimie en fait un élément chimique compliqué à stocker, et un défi technologique pour les chercheurs. A l’heure actuelle, le stockage à haute pression et à basse température est celui qui fait l’objet de nombreuses applications. Depuis l’annonce du plan France 2030, l’hydrogène a été désigné comme vecteur énergétique de la transition à venir. Il est vrai que stocker l’hydrogène peut présenter de nombreux avantages, notamment celui de pouvoir intégrer des énergies renouvelables plus facilement dans le mix énergétique ainsi obtenu. Depuis, c’est toute l’Europe qui s’est lancée dans une course à l’innovation pour faire du continent un leader sur le marché de l’hydrogène. Cependant, pour être en mesure d’établir l’hydrogène en tant que fondement de la transition énergétique, les industriels et les chercheurs vont devoir mettre au point des solutions techniques pour stocker la fameuse molécule dans des conditions physico-chimiques compatibles avec les constantes naturelles, en termes de pression et de température. Ce qui n’est pas gagné.
Stockage liquide, gazeux ou solide ?
L’hydrogène est onze fois plus léger que l’air que nous respirons. En conséquence, ce gaz occupe beaucoup plus de place, si on le stocke à pression ambiante. Aujourd’hui, l’hydrogène peut être industriellement stocké à 700 bars de pression, ou 350 bars pour la mobilité.
De nouveaux matériaux sont testés et développés pour améliorer les performances du stockage hydrogène : ainsi, les recherches menées concernent notamment la forme même de l’hydrogène stocké. Car la molécule H peut être stockée sous toutes les formes.
Le stockage liquide de l’hydrogène s’effectue à très basse température, car cela permet de diminuer sa masse volumique et de lui faire prendre moins de place. Mais ce type de stockage est pour le moment limité à des usages très spécifiques, comme le remplissage des moteurs de fusée par exemple. La contrainte principale du stockage liquide est le besoin d’une haute pression : L’hydrogène liquide a tendance à se gazéifier quand la température augmente, ce qui oblige à faire fuiter une partie du gaz du réservoir. Ce qui, bien sûr, impacte très négativement le rendement de ce type de technologies. Les innovations vont donc consister à développer des matériaux isolants (composés non tissés de verre, films en aluminium) pour maintenir l’hydrogène à l’état liquide, et permettre d’utiliser ce type de stockage pour la mobilité.
L’hydrogène peut également être stocké sous forme gazeuse, à haute pression. Cela permet de stocker le H2 dans des réservoirs, dans des bouteilles, pour le transport notamment. L’hydrogène gazeux peut également être utilisé pour alimenter une pile à combustible et générer de l’électricité, et faire fonctionner un véhicule à hydrogène. Enfin, la molécule d’H2 à l’état gazeux peut aussi être stockée massivement en sous-sol. En termes de matériaux, il s’agit là de mettre au point des structures supportant la pression de l’hydrogène dans le temps.
Enfin, et c’est la méthode qui cristallise l’innovation actuellement, il est possible de stocker l’hydrogène sous forme solide. Par exemple sous forme de poudre, en piégeant l’hydrogène dans de la poudre de nitrure de bore. Dès lors, l’hydrogène est stable, et peut être stocké et transporté facilement, en grandes quantités si besoin. La recherche appliquée, en France et en Europe, s’échine donc à mettre au point des démonstrateurs, pour valider l’intérêt du stockage de l’hydrogène sous forme solide et son utilisation à grande échelle.
Vespasien ne s’y était pas trompé : plus qu’un déchet, l’urine est une ressource… L’Empereur romain avait en effet instauré une taxe sur la collecte de ce précieux liquide, utilisé à l’époque par les tanneurs et autres foulons pour dégraisser cuir et étoffes. Si cet usage n’est sans doute plus d’actualité dans les usines textiles, l’urine humaine semble toutefois en passe de revenir sur le devant de la scène dans un tout autre secteur : l’agriculture. Une start-up girondine fondée en février 2019, Toopi Organics, a en effet développé une technologie inédite permettant de valoriser – cette fois dans les champs – la substance excrétée à hauteur de 240 milliards de litres chaque année rien qu’en Europe. Comment ? En la transformant, par fermentation, en une série de solutions de biostimulation[1] et de biocontrôle[2].
L’urine, excellent milieu de culture
« L’utilisation de l’urine en tant que fertilisant est bien référencée dans la littérature. Sauf qu’aujourd’hui, face à des engrais minéraux très concentrés, faciles d’utilisation, sans odeurs fortes, il n’y a aucune viabilité économique à utiliser cette urine. Elle ne comporte sur ce plan que des contraintes… », constate Michael Roes, fondateur et président de Toopi Organics. Pour y remédier, c’est donc sous un angle différent que l’entrepreneur a considéré la question de la valorisation de l’urine : « Certes, l’urine n’est pas un bon engrais. En revanche, c’est un excellent milieu de culture ! ». Le startupper a alors eu l’idée d’utiliser l’urine comme support de croissance pour des micro-organismes d’intérêt. Le point de départ de la technologie développée par Toopi Organics. « N’étant ni ingénieur, ni agronome, ni microbiologiste, je pense que j’ai eu la chance de pouvoir regarder le problème sous cet angle un peu différent, et de m’apercevoir ainsi que l’urine pouvait être valorisée de cette façon. À partir de cette idée, un gros travail de R&D a été nécessaire avant d’obtenir une AMM[3] pour un premier produit… » retrace Michael Roes. La start-up est en effet à l’origine d’une technologie propriétaire, qu’elle qualifie volontiers « d’unique au monde », basée sur un procédé de fermentation breveté.
D’abord stabilisée à l’aide d’un acide, l’urine est ensuite filtrée puis versée dans une cuve de préparation de 5 000 litres. « On ajoute ensuite une source de sucre, on place la solution à un pH et à une température précis, avant de filtrer le mélange beaucoup plus finement, afin d’enlever les pathogènes, et obtenir ainsi un terrain de culture parfaitement sain », décrit Michael Roes. Le liquide ainsi préparé est ensuite introduit dans un fermenteur « tout ce qu’il y a de plus classique », tel que le décrit le fondateur de Toopi Organics. « On peut gérer température, pH, aération ou encore les flux de liquide », énumère Michael Roes. De quoi créer un milieu particulièrement propice à la croissance des acteurs clés de cette technologie : les micro-organismes. « Un inoculum microbien est en effet ensuite introduit dans la cuve de fermentation. Ce sont tout simplement les bactéries que nous voulons faire pousser » éclaire Michael Roes. Des bactéries sélectionnées pour les services agronomiques qu’elles sont capables de rendre : solubiliser des éléments du sol afin de les rendre disponibles pour les plantes, fixer l’azote atmosphérique ou encore remplacer certains pesticides. « Il s’agit soit de souches propriétaires Toopi, que nous avons screenées dans les sols et dont nous avons identifié les propriétés ; soit de licences de bactéries provenant d’organismes tels que l’INRAE », précise le président de la start-up. Étalée sur 48 heures tout au plus, une phase de fermentation permet ainsi aux micro-organismes de se multiplier dans le milieu de culture à base d’urine, qui se transforme alors progressivement en une véritable biosolution.
Économe en énergie, le procédé a l’avantage supplémentaire d’un bilan carbone très favorable. « Nous avons réalisé une première étude de nos produits face à des engrais phosphatés, qui a montré que notre procédé était jusqu’à 169 fois moins émetteur de CO₂ », fait valoir Michael Roes.
Grâce à la diversité des inoculums microbiens qu’elle a sélectionnés, Toopi Organics vise la production d’une multitude de ce qu’elle appelle des biosolutions. « Nous avons d’ores et déjà obtenu 16 AMM », souligne Michael Roes. L’entreprise vient ainsi d’annoncer la commercialisation d’un premier produit, baptisé Lactopi Start, utilisant une souche spécifique de bactérie : Lactobacillus paracasei. « Il s’agit d’une bactérie propriétaire, déposée à la Collection nationale de cultures de micro-organismes de l’Institut Pasteur, la CNCM. La fonction de cette bactérie est de rendre disponible le phosphore qui est stocké dans le sol. Cela permet ainsi d’améliorer l’assimilation par les plantes des engrais phosphatés que l’on amène dans les champs », explique Michael Roes.
Vendu sous forme liquide, Lactopi Start peut être utilisé en traitement de semence – remplaçant ainsi les engrais starters, des apports phosphatés réalisés en début de culture –, appliqué dans la raie de semis, voire directement épandu par pulvérisation sur le champ. « Les quantités utilisées sont donc très différentes selon le type d’usage. Cela peut aller d’environ 4 litres jusqu’à 25 litres par hectare », précise le fondateur de Toopi Organics.
Une trentaine d’essais en parcelles expérimentales et en conditions réelles d’utilisation au champ ont d’ores et déjà été réalisés avec ce tout premier produit. Des essais qui, selon l’entreprise, ont permis de démontrer le bénéfice de Lactopi Start sur l’assimilation des éléments minéraux présents dans les sols, notamment le phosphore. De quoi diminuer la dépendance des agriculteurs aux engrais minéraux de synthèse, tout en préservant la vie des sols. Et Toopi Organics ne compte pas s’arrêter là.
« L’urine est un milieu extrêmement versatile. On peut y faire pousser énormément de choses, et ce partout dans le monde. Demain, nous pourrons donc produire, par exemple, de l’acide lactique sur la base d’urine. Nous avons déjà prouvé que cela était faisable. Nous savons aussi faire de l’enrichissement protéique avec de l’urine ou encore des biofongicides », dévoile Michael Roes.
Avec la volonté de concentrer ses activités sur la production d’intrants agricoles, Toopi Organics n’exclut ainsi pas de nouer, ensuite, des partenariats avec d’autres industriels pour élargir encore un peu plus la palette de produits fabriqués à base d’urine. « Par exemple sur l’enrichissement protéique », glisse le président de Toopi Organics.
Des perspectives multiples qui amènent toutefois naturellement une interrogation : l’entreprise trouvera-t-elle suffisamment d’urine pour concrétiser ses ambitions… ?
L’urine, une ressource surabondante
La réponse de Michael Roes est claire : « L’urine est une ressource ultra-abondante. En France, c’est environ 35 milliards de litres par an… ». Le président de Toopi Organics estime ainsi qu’une infime partie de cette ressource (0,3 %) permettrait à elle seule de couvrir l’ensemble des besoins en agriculture.
L’entreprise se permet donc de sélectionner avec soin les sources d’urine qu’elle juge les plus pertinentes : aires de repos autoroutières, stades et autres sites événementiels, ou encore parcs d’attractions. « Nous collectons par exemple de l’urine au Futuroscope », note Michael Roes.
Pour y parvenir, Toopi Organics remplace les urinoirs de ces lieux publics par des versions sans eau – accessibles également aux femmes – qui conduisent l’urine non pas à l’égout, mais dans une cuve de collecte. « Elles sont souvent enterrées, ou peuvent se situer sous l’urinoir. Ces cuves sont connectées avec un capteur que nous avons développé, et qui nous permet de connaître en temps réel le volume, mais aussi la qualité de l’urine collectée. Nous ajoutons aussi un acide en fond de cuve afin de stabiliser l’urine. Cela fait également partie de notre brevet. Une fois que la cuve est pleine, on collecte l’urine et nous l’amenons dans notre usine », explique finalement Michael Roes.
Alors qu’elle a déjà contractualisé la collecte de 2 millions de litres d’urine – assurant ainsi la production des trois prochaines années – Toopi Organics table sur une collecte annuelle de 3,75 millions de litres d’ici 5 ans, pour un volume équivalent de produits vendus. À ce même horizon, l’entreprise prévoit de répartir ses activités de transformation sur pas moins de sept sites en France et en Belgique. À terme, c’est même l’ouverture d’une vingtaine de sites en France – un par métropole – que vise la jeune pousse, qui a par ailleurs déjà levé près de 9 millions d’euros. Vespasien ne semble décidément pas seul à avoir vu en l’urine une ressource précieuse.
[1] La famille des biostimulants regroupe l’ensemble des produits contenant des substances inertes ou des micro-organismes dont l’objectif est d’améliorer le fonctionnement de la plante, du sol ou les interactions entre sol et plante (Source).
[2] Les produits de biocontrôle, parmi lesquels figurent notamment les produits contenant des micro-organismes, visent à protéger les plantes par le recours à des mécanismes et des interactions qui régissent les relations entre espèces ou qui stimulent les défenses des plantes (Source).
Le plan France 2030 a consacré la stratégie française et européenne visant à faire des technologies hydrogène un pivot de la transition énergétique, tant sur le volet de la production que du stockage.
En effet, les usages de l’hydrogène sont nombreux : production de chaleur, carburant, vecteur énergétique pour produire de l’électricité… mais pour le secteur de la chimie : raffinage d’hydrocarbures, production d’engrais, production de gaz de synthèse. Si l’on s’en fie aux objectifs français, d’ici 2030, la France doit devenir leader sur le volet de la production et le stockage d’hydrogène vert, notamment via la construction d’au moins deux gigafactories d’électrolyseurs, qui permettront à l’hexagone de produire massivement la molécule hydrogène, de façon décarbonée.
Au niveau européen, le PIIEC (projet important d’intérêt européen commun) consacré à l’hydrogène a permis à 41 projets, portés par 15 Etats, d’être retenus pour être subventionnés et développés. Parmi eux, 10 projets sont français, et profiteront d’une partie des quelque 5 milliards d’euros débloqués par l’UE sur ce thème.
Les projets couronnés vont permettre, dans les années qui viennent, de voir émerger sur le territoire national une véritable industrie de production d’hydrogène décarboné, à travers la construction de :
quatre gigafactories d’électrolyseurs ;
sites de production de réservoirs à hydrogène ;
piles à combustibles pour la mobilité durable ;
trains et véhicules utilitaires à hydrogène ;
matériaux nécessaires à la production de ces équipements.
Côté production, aujourd’hui il existe deux solutions pour obtenir de l’hydrogène : le vaporeformage et l’électrolyse. Le vaporeformage du méthane permet d’obtenir de l’hydrogène. Il s’agit aujourd’hui de la méthode la plus utilisée au niveau mondial, car c’est la plus économique. Au niveau chimique, le vaporeformage dégage 12 tonnes de CO2 par tonne d’hydrogène produite. Écologiquement parlant, cette technique est donc polluante. Des projets de séparation des gaz, afin de pouvoir séquestrer le CO2 et améliorer le bilan environnemental de cette méthode de production ont été et sont toujours développés, mais les coûts associés à ces démarches sont très élevés, laissant planer le doute sur la possibilité de les développer à grande échelle.
La seconde méthode pour produire de l’hydrogène est l’électrolyse de l’eau, qui consiste à séparer l’oxygène et le dihydrogène grâce à un courant électrique. Cette méthode est aujourd’hui encore peu employée, et l’électricité nécessaire à l’électrolyse doit être d’origine renouvelable pour présenter un bilan écologique compatible avec les ambitions tricolores en matière énergétique. L’électrolyse présente pour les industriels un potentiel important, et les méthodes pour la coupler avec une solution technique à base d’électricité renouvelable se multiplient. En effet, la production d’hydrogène par électrolyse peut être alimentée par des énergies éoliennes, solaires, voire nucléaires. Ces technologies permettent d’obtenir de l’hydrogène décarboné.
L’innovation technologique nécessaire pour développer une électrolyse « verte » de l’eau passe nécessairement par l’utilisation d’une électricité renouvelable. Mais le développement de nouveaux matériaux doit aussi permettre d’améliorer le rendement de ces technologies, et leur potentiel d’industrialisation.
Ainsi, aujourd’hui, des matériaux innovants sont testés, pour améliorer le rendement des électrolyseurs,et pour faciliter le couplage de l’électrolyse à une source renouvelable.
Des chercheurs de l’Institut de Physique de Rennes développent par exemple un matériau semiconducteur/métallique, qui permet à ces cellules solaires de produire directement de l’hydrogène par électrolyse, à faible coût.
Côté électrolyse, il s’agit de mettre au point des matériaux capables d’améliorer le rendement de la réaction, à un coût modéré. Des chercheurs de l’Université de Varsovie ont développé une solution à base de disulfure d’ammonium, qui permet de mettre au point des électrolyseurs sans utiliser de platine, un matériau rare et extrêmement cher.
Si le développement et la recherche permettent de mettre au point de nouveaux matériaux performants améliorant la chaîne de production d’hydrogène décarboné, il est nécessaire que ces derniers s’inscrivent dans un processus d’industrialisation, en étant abondants et peu chers à produire. Pour espérer constituer le futur socle de la filière hydrogène tricolore.
Lucien Blondel est le CTO et l’un des 4 co-fondateurs de Quantum Surgical (Crédit : Quantum Surgical)
Créée en 2017 à Montpellier, l’entreprise Quantum Surgical est spécialisée dans la robotique en oncologie interventionnelle.
S’appuyant sur le savoir-faire des anciens dirigeants de la société Medtech à l’origine du robot ROSA®, cette entreprise française majeure de l’innovation en santé développe des solutions intelligentes capables de répondre à des enjeux médicaux à la fois complexes et répandus.
Epione® est une plate-forme robotique d’ablation percutanée dédiée au traitement curatif et précoce des cancers, notamment localisés dans l’abdomen.
Techniques de l’ingénieur : Pouvez-vous présenter Quantum Surgical ?
Lucien Blondel : En 2016, l’entreprise Medtech, fondée par Bertin Nahum, l’un des co-fondateurs de Quantum Surgical, a été vendue au groupe Zimmer Biomet, qui a repris et étendu la commercialisation du robot ROSA®, une plate-forme multi-applications que nous avions développée et qui permet d’assister le chirurgien lors des interventions rachidiennes et cérébrales.
En fondant Quantum Surgical, nous voulions mettre à profit l’expérience acquise avec ROSA® et développer rapidement un nouveau projet afin d’aller plus loin. Basée à Montpellier, Quantum Surgical représente une centaine de personnes, réparties entre la R&D, la production, l’assurance qualité et les affaires réglementaires, le marketing & les ventes, et toutes les autres fonctions liées au produit.
Nous sommes également implantés à l’étranger, notamment aux États-Unis via une filiale et en Chine via une joint-venture.
Qu’est-ce que la plate-forme robotisée Epione® ?
Epione® est un robot médical qui aide les radiologues interventionnels lors des procédures d’ablation percutanée de tumeurs.
L’ablation percutanée est un traitement mini-invasif qui consiste à insérer une aiguille à travers la peau (dans notre cas, à travers l’abdomen) et à positionner l’extrémité de cette aiguille dans la tumeur pour appliquer un traitement curatif.
Une fois l’aiguille positionnée, le traitement curatif peut être réalisé de plusieurs manières, par génération de froid (cryoablation) ou de chaleur (micro-ondes ou radiofréquences). L’enjeu est d’appliquer un réglage correct des paramètres du générateur pour permettre à la fois l’élimination de la tumeur et des tissus situés autour afin d’éviter la récurrence locale du cancer.
Bien que cette technique soit connue depuis plusieurs années, elle s’avère délicate à pratiquer. En effet, comme il n’y a pas d’intervention chirurgicale au sens strict, car pas d’incision, l’introduction de l’aiguille doit être guidée par imagerie, ce qui demande un certain savoir-faire, compte tenu de la précision recherchée.
La plate-forme robotisée Epione® est là pour aider le praticien lors des trois étapes de la procédure d’ablation et pour lui faciliter le travail. Notre but est de standardiser et rendre cette technique plus facile d’accès et d’accroître le nombre de patients traités par ablation percutanée.
Comment faites-vous pour simplifier ces trois étapes ?
La première étape de la procédure d’ablation percutanée est une étape de planification de la trajectoire qui consiste à déterminer le meilleur trajet pour l’aiguille, en fonction de l’anatomie du patient et de la position de la tumeur, à partir des images fournies par le scanner ou l’IRM.
Notre logiciel simplifie cette étape, car il permet d’intégrer les réglages du générateur et fournit un affichage des contours de la zone d’ablation sur l’image, en fonction des paramètres choisis. Cela offre une visualisation claire et permet de planifier un traitement spécifique au patient et à la tumeur.
La seconde étape est l’étape d’insertion de l’aiguille et d’ablation. Après repérage de la position de la tumeur, un guide-aiguille est alors positionné automatiquement sur la trajectoire déterminée à la première étape. Le robot affiche également une courbe de suivi de la respiration du patient, ce qui permet au radiologue interventionnel d’insérer l’aiguille au bon moment du cycle respiratoire[1].
Comme l’angle, le point d’entrée et la profondeur sont contrôlés par le robot, le travail du praticien est grandement facilité. Il devient alors possible de réaliser des interventions plus précises, mais aussi de traiter des cas plus complexes.
En effet, il faut savoir que la pratique conventionnelle sous scanner oblige souvent les radiologues à travailler avec des trajectoires dans le plan axial. Le robot Epione® offre l’avantage de fournir une représentation 3D, ce qui rend possibles les approches oblique ou double oblique.
Il devient également plus simple de placer plusieurs aiguilles et d’enchaîner les insertions de manière rapide, ce qui n’est pas le cas actuellement. À l’heure actuelle le praticien est forcé de tâtonner et d’utiliser des examens intermédiaires pour placer l’aiguille au bon endroit, ce qui multiplie le temps opératoire et n’encourage pas les interventions complexes.
Enfin, le robot Epione® intervient aussi dans la 3e phase de la procédure, qui consiste à vérifier que la tumeur a bien été détruite. Pour qu’une tumeur soit considérée comme détruite, il faut également éliminer une zone comprise entre 5 et 10 mm autour de celle-ci afin d’éviter la récurrence locale du cancer. Cette marge d’ablation est très difficile à évaluer lors de l’examen final par la méthode conventionnelle, car tout est détruit, ce qui force le praticien à faire une estimation.
Notre logiciel offre la possibilité de superposer les images avant et après intervention. Cela met en évidence le contour de la tumeur et de la zone détruite, ce qui permet de calculer les marges d’ablation réelles. Le radiologue peut alors décider de la marche à suivre : insérer une nouvelle aiguille ou mettre fin à la procédure.
Développez-vous des solutions intégrant de l’intelligence artificielle ?
La première génération de robots que nous avons mise sur le marché intègre bien entendu des algorithmes, mais pas encore d’intelligence artificielle au sens Deep Learning. Néanmoins, l’automatisation des tâches de traitement d’image à l’aide de l’IA est une fonctionnalité que nous développons actuellement et que nous prévoyons d’intégrer.
En effet, l’un des challenges du radiologue interventionnel est d’être capable de détecter une tumeur sur une image. Or, l’intelligence artificielle permet en théorie de mettre en évidence les contours d’une tumeur, une problématique d’identification qui intervient également lors de la phase de vérification.
Pour faire gagner du temps au radiologue, nous cherchons ainsi à éliminer au maximum les phases manuelles les plus laborieuses. Par ailleurs, grâce à l’apprentissage, l’IA pourra aussi se perfectionner en intégrant les choix du radiologue.
Cette technologie est-elle utilisable pour traiter d’autres types de cancers ?
Tout à fait ! Bien que nous ayons lancé Epione® en ciblant le traitement du cancer du foie, la plate-forme est homologuée en Europe pour l’ensemble de l’abdomen, donc le traitement du cancer du rein est également possible.
Pour ce qui est des applications hors abdomen, nous travaillons activement sur le traitement du cancer du poumon et nous espérons obtenir des résultats dans un avenir proche.
Enfin, nous explorons beaucoup d’autres pistes, notamment la possibilité de traiter les métastases osseuses, des pathologies très douloureuses pour lesquelles il n’existe actuellement pas de traitement curatif.
[1] Lors de l’intervention, le seul mouvement du patient endormi est provoqué par sa respiration.
Le monde change vite et les entreprises doivent changer encore plus vite. « Depuis 2021, apparaît dans l’opinion publique l’idée que la responsabilité de l’entreprise est d’engager sa rentabilité à des fins d’engagement sociétal, ce qui va plus loin que la RSE », partage Tanguy Châtel, sociologue et cofondateur du Cercle Vulnérabilités et Société. Cette attente se manifeste par de nouvelles tendances. « Les taux de désengagement des collaborateurs ont augmenté de 19 % sur ces deux dernières années, avance-t-il lors d’une table ronde organisée à l’occasion de l’Université de la Terre le 25 novembre à l’Unesco. Les taux de rupture de CDD avant leur terme ont augmenté de 25 %. »
L’entreprise régénérative pour aller au-delà de la RSE
De nouvelles valeurs doivent être mises en avant par les entreprises, des valeurs de « solidarité, transparence, bienveillance, flexibilité et sens », partage Tanguy Châtel. L’entreprise devient « citoyenne », « un acteur engagé responsable et vivant », prévient le sociologue. Dans ce contexte, le mot d’entreprise régénérative émerge dans le débat public pour aller au-delà de la responsabilité sociétale des entreprises (RSE) qui essaye simplement de limiter ses impacts sur la société et les écosystèmes. « On n’est plus sur des transitions, on n’est pas même pas sur des révolutions, on est sur des métamorphoses, estime Tanguy Châtel. Il ne faut pas juste adapter nos modes de fonctionnement, mais les remettre à plat et voir en quoi ils produisent du vivant et du collectif. »
L’entreprise régénérative devra apprendre à s’auto-limiter. « L’économie régénérative et l’entreprise régénérative se posent pour ambition d’avoir des impacts positifs nets sur les écosystèmes naturels, partage Romain Cristofini, dirigeant et fondateur de la Communauté des Leaders éclairés. Concrètement, l’entreprise va séquestrer plus de carbone qu’elle n’en extrait ou dégage par ses activités. Le fondement de cette entreprise s’appuie sur un pouvoir magique qu’a le vivant : le pouvoir de s’auto-régénérer… Elle va aussi essayer d’augmenter les revenus des populations avec qui elle est en contact. »
Renverser le modèle dominant
Face à l’urgence écologique et climatique, ce nouveau type d’entreprise devrait bientôt devenir la norme. Mais cela nécessite un bouleversement complet des valeurs de l’entreprise et du système économique. « Le renversement des valeurs de l’entreprise nécessite une transformation radicale du système économique dominant qui reste un modèle capitaliste, basé sur la rentabilité, la profitabilité », partage Vanessa Logerais, fondatrice et dirigeante de Parangone, cabinet de conseil spécialisé en leadership sociétal, responsabilité sociétale et développement durable.
« On est au-delà de la RSE maintenant, on est dans un rapport beaucoup plus intime aux limites planétaires », assure la fondatrice de cette entreprise à mission. Pour accélérer les choses, elle espère que les entreprises pionnières arriveront à montrer l’intérêt de la « sobriété commerciale ». Elle prédit : « Si les entreprises pionnières comme la Maif, la Camif, Patagonia et celles qui montrent la voie avec les entreprises à impact arrivent à démontrer qu’elles substituent un modèle de croissance basé sur l’augmentation de la vente du volume vendu par un modèle de croissance qui propose de nouveaux services de durabilité, peut-être qu’on va commencer à bouger les choses. »
Bastien Sibille, président de Mobicoop, une coopérative qui veut démocratiser le covoiturage, insiste pour sa part sur l’importance de transformer le rapport de l’entreprise au capital. « Dans une société de capitaux, c’est l’Assemblée générale des actionnaires qui prend les décisions selon le nombre d’actions détenues par chacun d’eux, rappelle-t-il. Tant que ce sera le capital qui décidera dans les entreprises, les entreprises auront une rationalité qui visera à maximiser leur rentabilité et à croître », estime-t-il. En ce sens, il propose la généralisation du modèle des mutuelles et des coopératives. « Ces entreprises ont décidé de disjoindre leur gouvernance du capital », soulève-t-il. Résultat : chaque sociétaire détient une voix, quel que soit son nombre d’actions, ce qui rend les décisions davantage démocratiques.
Lucie Basch, cofondatrice de Too good to go, fait partie de ces héroïnes des changements transformateurs. Lorsqu’elle a découvert que le gaspillage alimentaire représentait 40 % de la production alimentaire, elle a décidé d’agir. « Too good to go est à l’origine une application mobile qui connecte les commerçants de quartier avec des invendus en fin de journée à des consommateurs comme vous et moi pour nous permettre à tous de lutter contre le gaspillage alimentaire », résume l’entrepreneure de 30 ans.
À ses côtés, Laëtitia Van de Walle est fondatrice de Lamazuna. Son combat ? La surproduction de déchets plastiques, notamment dans nos salles de bain. « On a été les premiers à proposer du dentifrice solide et du déodorant solide et on propose aujourd’hui une gamme d’une soixantaine de produits qui permet de faire complètement disparaître la poubelle de la salle de bain », se félicite l’entrepreneure de 37 ans. Au menu également : savons, shampoings, après-shampoings, démaquillants et parfums solides. Il y a plus de quatre ans, l’entreprise a déménagé dans la Drôme. Elle est installée depuis six mois dans son nouveau siège social, un bâtiment à énergie positive.
Contre le gaspillage alimentaire dans 17 pays
« Aujourd’hui, on sauve plus de 300 000 repas chaque jour dans 17 pays, on a 1 200 collaborateurs qui sont engagés à réduire le gaspillage alimentaire au quotidien », assure Lucie Basch. On travaille avec les quatre piliers qui permettent de transformer la société en profondeur : les entreprises, les consommateurs, les pouvoirs publics et l’école. »
L’entreprise veut en effet participer activement au changement de mentalités sur le gaspillage alimentaire. « On a créé un kit pédagogique pour permettre aux professeurs des écoles de parler d’antigaspi aux élèves, à la fois dans les salles de classe et dans les cantines scolaires », se réjouit Lucie Basch.
Et si l’on se mettait au maraîchage ?
Le modèle de Lamazuna a été copié depuis son lancement en 2010. De nombreuses marques se sont ainsi lancées sur le créneau des savons et shampoings solides. Alors, l’entreprise s’est lancé un nouveau défi. Elle a décidé de remplacer les Tickets Restaurant par un jardin en permaculture pour alimenter son restaurant d’entreprise.
« Sur notre écolieu, nous créons un modèle reproductible avec un jardin, un maraîchage en permaculture sur une technique de sol vivant sur lequel on salarie un maraîcher pour alimenter un restaurant d’entreprise qui emploie des personnes », partage Laëtitia Van de Walle. L’entrepreneure souhaite ainsi créer une société à part de Lamazuna, destinée à montrer la reproductibilité du modèle.
Contrer le greenwashing ambiant
Face au greenwashing pratiqué par de nombreuses entreprises, comment font ces structures engagées pour ne pas se perdre pas dans le discrédit ? Laëtitia Van de Walle l’assume : « La taille de l’entreprise a tout son sens pour faire face au greenwashing. On ne veut pas être plus de 150 personnes dans l’entreprise. Cela vient de chiffres scientifiques qui estiment qu’un groupe de 150 peut encore bien se connaître et n’a pas besoin d’un cadre trop strict pour bien fonctionner. »
Du haut de ses 1 200 collaborateurs, Too Good too go prône de son côté « la collaboration ». « Il faut vraiment que dans cette transition nécessaire, on fasse les choses les uns avec les autres plutôt que les uns contre les autres », prévient Lucie Basch. Pour elle, « le greenwashing vient aussi de la peur de changer pour de vrai. » Et pour contrer cela, « il faut penser des visions positives du futur, donner envie aux gens de cette transition par une vision positive et des actions très concrètes », souligne-t-elle.
NOVATECH 2023 est un événement coorganisé par le Graie, pôle Eau et Territoires et par la Métropole de Lyon. Il aura lieu du 3 au 7 juillet 2023 à l’ISARA[1].
Selon la banque mondiale, en 2050, près de 70 % de la population mondiale vivra en ville, contre 55 % aujourd’hui. Pour faire face aux effets du changement climatique, les territoires urbains devront devenir plus résilients et la gestion des eaux pluviales jouera un rôle fondamental pour à la fois préserver la ressource en eau, maîtriser les risques d’inondation, de pollution et lutter contre les îlots de chaleur.
La gestion durable des eaux pluviales urbaines : un enjeu majeur
L’eau est un enjeu majeur, probablement l’enjeu du siècle, car elle est au cœur de tous les sujets d’importance : alimentation, énergie, adaptation au changement climatique, santé, confort urbain, etc.
Alors qu’à peine 1 % de l’eau douce présente sur la planète est exploitable pour la consommation humaine[2], mieux gérer les milliards de m³ d’eaux pluviales apparaît donc comme essentiel. Cela passe notamment par une lutte active contre l’imperméabilisation des sols urbains et pour leur végétalisation.
Devant l’urgence, un 1er plan d’action pour une gestion durable des eaux pluviales a ainsi été lancé en 2021. Ce plan couvre la période 2022-2024 et intègre quatre axes d’accompagnement des acteurs de l’eau et de l’aménagement :
intégrer la gestion des eaux pluviales dans les politiques d’aménagement du territoire ;
mieux faire connaître les eaux pluviales et les services qu’elles rendent ;
faciliter l’exercice de police de l’eau et l’exercice de la compétence de gestion des eaux pluviales urbaines ;
améliorer les connaissances scientifiques, pour mieux gérer les eaux pluviales.
NOVATECH : un rendez-vous à ne pas manquer !
Organisé tous les 3 ans depuis 1992, NOVATECH est un rendez-vous international incontournable[3] qui réunit plus de 500 participants sur trois jours autour de la gestion intégrée des eaux urbaines et notamment pluviales.
Cet événement est réputé pour créer des passerelles entre différents domaines et corps de métier. Il rassemble ainsi des professionnels issus de tous horizons, qu’ils soient scientifiques, décideurs, techniciens ou gestionnaires, ce qui favorise le dialogue entre acteurs de l’eau et du territoire, contribue au transfert des connaissances et agit comme un vecteur d’innovation.
Si la gestion de l’eau dans la ville est une thématique que vous souhaitez approfondir, sachez que l’ensemble des communications et posters présentés lors des cinq dernières éditions (depuis 2007) sont mis à disposition gratuitement sur HAL Open Science.
L’édition 2023 de NOVATECH se déroulera à l’école d’ingénieurs ISARA du 3 au 7 juillet 2023. Si les inscriptions sont ouvertes jusqu’à fin mars, vous avez en revanche jusqu’au 23 décembre 2022 pour déposer votre communication ou poster.
[1] L’ISARA est une école d’ingénieurs en agronomie, agroalimentaire et environnement
[2] D’après le plan d’action du ministère de la Transition écologique « Gestion durable des eaux pluviales », novembre 2021
[3] Une trentaine de pays étaient représentés en 2019
Ermium Therapeutics est le fruit des travaux de recherche menés par l’équipe Chimie et biologie, modélisation et immunologie pour la thérapie, depuis sa création en 2012 au sein du Laboratoire du CNRS Chimie et biochimie pharmacologiques et toxicologiques (LCBPT) de la Faculté biomédicale des Saints-Pères (Université Paris Cité). Sur la base de travaux menés antérieurement par son fondateur, le Dr Jean-Philippe Herbeuval, l’équipe de chercheurs est en effet parvenue à comprendre comment une molécule, développée au départ en tant qu’antihistaminique, parvient à bloquer la production d’interférons. En agissant au niveau d’un récepteur cellulaire qui n’est autre que le corécepteur du VIH, cette molécule aux caractéristiques particulières entraîne en effet le déclenchement d’un signal, qui va à son tour bloquer la réponse interféron, mais aussi l’inflammation. Le tout sans perturber les fonctions naturelles de ce récepteur, et donc sans effets secondaires majeurs.
L’équipe se concentre ainsi désormais sur le développement de dérivés de cette molécule, dans le but d’en augmenter encore un peu plus l’efficacité, tout en s’assurant d’une toxicité la plus faible possible. Une perspective particulièrement prometteuse, qui a ainsi attiré des scientifiques de renom.
Outre sa douzaine de salariés, Ermium Therapeutics bénéficie en effet depuis février dernier d’un conseil scientifique (Science advisory board, ou SAB) particulièrement prestigieux : Piet Wigerinck, ex-directeur scientifique de Galapagos, biotech elle aussi spécialisée dans le développement de molécules innovantes ; Martine Smit, professeure de biochimie à la faculté des sciences de l’Université libre d’Amsterdam ; Graeme Milligan, directeur adjoint de la Faculté des sciences médicales, vétérinaires et de la vie de l’Université de Glasgow ; ou encore Michel Bouvier, directeur général de l’Institut de recherche en immunologie et en cancérologie (IRIC) de l’Université de Montréal. Un panel auquel s’ajoute, donc, celui par qui tout a commencé, le Dr Jean-Philippe Herbeuval, Directeur de recherche au CNRS et co-fondateur d’Ermium Therapeutics. Le chercheur et entrepreneur lève le voile sur la genèse de la jeune pousse qui, après un financement initial de 6,3 millions d’euros, a annoncé en juin dernier une nouvelle levée de fonds qui n’a permis rien de moins que de doubler la mise.
Techniques de l’Ingénieur : Avant d’en venir à la naissance d’Ermium Therapeutics, pouvez-vous tout d’abord nous dresser un panorama de la situation dans laquelle nous nous trouvons actuellement vis-à-vis des maladies auto-immunes ?
Dr Jean-Philippe Herbeuval : Le nombre de maladies auto-immunes est en forte progression. On a rarement vu ça. Le lupus, par exemple, n’est plus considéré comme une maladie rare depuis trois ans. Ce n’est pas un bon signal… Les maladies auto-immunes constituent un ensemble de près de 300 pathologies et on en découvre de nouvelles presque tous les ans. Les solutions thérapeutiques restent rares. Il est certes possible d’utiliser les corticoïdes ou l’hydroxychloroquine, mais leurs effets négatifs à long terme sont très importants. On a aussi les anticorps, ce que l’on appelle aussi les biothérapies, qui fonctionnent plutôt bien, mais qui ne bloquent qu’un seul facteur inflammatoire, là où les maladies auto-immunes sont multiparamétriques. De plus, ces molécules sont très coûteuses à produire et sont administrées par voie intraveineuse. Le développement d’un traitement efficace contre une maladie auto-immune telle que le lupus devient donc urgent. Or, pour l’heure, aucun médicament ne fonctionne de manière entièrement satisfaisante… Il est donc urgent de se tourner vers une autre solution, et notamment la médecine de précision.
Comment Ermium Therapeutics a-t-elle vu le jour ? Quel a été votre parcours avant d’aboutir à la création de cette start-up ?
Lors de mon post-doctorat réalisé à partir de 2001 aux États-Unis au sein du NIH[1] – le plus grand centre de recherche biomédicale au monde, basé près de Washington D.C. –, j’ai tout d’abord travaillé sur des molécules qui s’appellent les interférons[2]. Nous avons tous déjà eu l’expérience de leurs effets : dans le cas de la grippe par exemple, ce sont eux qui sont responsables de la fièvre, des douleurs, ou encore de l’accélération du rythme cardiaque… Ils mettent le corps en état de choc. Ces molécules font partie des plus puissantes que nous ayons dans notre corps. Elles sont en effet capables d’activer entre 300 et 600 gènes. Il n’existe aucune autre molécule capable de faire cela dans l’organisme.
Au cours de mes cinq années passées aux États-Unis, j’ai découvert que les interférons de type I pouvaient avoir un effet délétère, notamment dans le cadre d’une infection par le VIH. Pour être plus précis, j’ai travaillé sur les cellules qui produisent ces interférons, les cellules dendritiques plasmacytoïde, ou pDCs, pour Plasmacytoid dendritic cells. Elles ont été découvertes en 1999, et j’ai commencé mes recherches au NIH en 2001… On était donc au tout début de l’étude de ces cellules. Ces pDCs produisent mille à dix mille fois plus d’interférons que n’importe quelle autre cellule du corps. Ce sont des super-productrices d’interférons. Dans le cadre de mes recherches autour du VIH, j’ai découvert que l’excès d’interférons induit un trouble que les patients infectés par le VIH connaissent bien : une lymphopénie, c’est à dire la mort des lymphocytes T.
Après ces cinq années passées aux États-Unis, je suis rentré en France, où j’ai décroché le concours du CNRS en 2006. Je suis alors entré à l’hôpital Necker de Paris, avec comme objectif principal de découvrir des voies pour bloquer ces pDCs, et donc la production d’interférons.
Au cours de mes derniers mois passés aux États-Unis, j’avais aussi découvert que, de manière un peu surprenante, l’histamine[3] a un effet immunorégulateur sur la production des interférons par les pDCs. Or, l’équipe de Necker dans laquelle j’ai été recruté, dirigée à l’époque par Michel Dy, était spécialiste, entre autres, de l’histamine. Ma petite découverte a priori un peu anodine est ainsi devenue un véritable sujet de recherche.
Grâce aux travaux qui ont suivi, nous avons tout d’abord pu confirmer que l’histamine bloquait effectivement la production d’interférons par les pDCs. Puis nous avons découvert qu’un analogue de l’histamine – une molécule « miracle » baptisée CB[4], développée au départ en tant qu’antihistaminique – avait aussi un effet anti-interférons. Elle est donc devenue notre molécule de référence, et ce depuis plus de dix ans maintenant. Elle est en effet extrêmement stable. Elle a, de plus, été très bien étudiée sur le plan pharmacologique. Il s’agit donc de la molécule à la base de toutes mes expériences.
À l’issue de ce projet passionnant mené à l’hôpital Necker, j’ai voulu mieux comprendre comment cela fonctionnait, en cherchant à découvrir le récepteur impliqué dans ce mécanisme. En 2012, j’ai donc créé l’équipe CNRS Chimie et biologie, modélisation et immunologie pour la thérapie (CBMIT), à la Faculté des Saint-Pères de Paris. Un an et demi plus tard, nous avons ainsi découvert le récepteur par lequel l’histamine et d’autres molécules de la même famille se fixent sur les cellules. Il s’agissait en l’occurrence d’un récepteur que je connaissais bien, le corécepteur du VIH : le récepteur CXCR4. C’est Nikaïa Smith, une doctorante qui travaillait à l’époque dans notre équipe et qui est sans doute l’une des étudiantes les plus brillantes que j’ai jamais connues, qui a réalisé cette découverte. Ce fut une véritable surprise. CXCR4 est en effet l’une des molécules les plus étudiées en biologie. Près de 15 000 publications lui sont consacrées. Son rôle physiologique est en effet très important : ce récepteur sert à faire bouger les cellules. Quand son ligand naturel SDF-1[5] se fixe sur CXCR4, il induit la migration des cellules. Les cellules immunitaires, bien entendu, mais malheureusement aussi les métastases, qui tirent parti de ce mécanisme pour aller coloniser l’organisme. De nombreuses études en cancérologie ont donc été réalisées pour bloquer ce récepteur CXCR4. Comme il s’agit aussi du corécepteur du VIH, de nombreuses autres études ont été réalisées pour tenter de bloquer son interaction avec le virus du SIDA.
De notre côté, ce que nous avons découvert est que la fixation de toutes petites molécules chargées positivement et composées d’un groupement amine – une monoamine – induit, non pas un blocage, mais un signal, contrairement à toutes les autres qui agissent comme des bloqueurs. Comme ces molécules sont très petites et chargées positivement, elles parviennent en effet à pénétrer plus en profondeur dans la partie extracellulaire du récepteur CXCR4. Cela leur permet donc de déclencher un signal, et c’est ce signal qui va bloquer la réponse interféron. Et même plus, puisque cela bloque aussi l’inflammation…
Nous sommes alors en 2014. Je présente à ce moment-là un projet de maturation, en vue de déposer des brevets, à ce qui s’appelait à l’époque la SATT[6] IDF Innov, aujourd’hui la SATT Erganeo. Nous avons alors l’ambition de réaliser une preuve de concept sur l’animal. Nous avons ainsi testé le CB, mais aussi une autre molécule qui déclenche également un signal anti-interférons, sur un modèle de souris atteinte de lupus[7], et ce pendant 53 jours, ce qui correspond à peu près à une douzaine d’années de traitement chez l’être humain. Et là, miracle ! Nous avons découvert que la pathologie se révèle complètement bloquée, à la fois sur le plan du mécanisme lié aux interférons, sur le plan de l’inflammation, mais aussi au niveau des auto-anticorps. Ce dernier résultat a été une très bonne surprise, plutôt inattendue…
Nous avons ainsi déposé un premier brevet. La SATT IDF Innov nous a accordé un second financement pour aller plus loin. Nous avons en effet cherché à générer des molécules originales, dérivées du CB ou de l’histamine. Cela nous a conduits à déposer deux nouveaux brevets, avec preuve de concept animale, mais aussi sur des cellules de patients humains atteints de lupus. Nos nouvelles molécules générées en laboratoire se sont révélées encore plus efficaces, tout en présentant moins de cytotoxicité. J’ai rencontré à ce moment-là, en 2018, Thierry Laugel, alors président de Kurma Partners[8], qui m’a proposé de créer une start-up.
Nous avons conclu un accord qui consistait à nous associer avec une entreprise de chimie, Domain Therapeutics, basée à Strasbourg. J’ai aussi peu de temps après, en 2019, été lauréat du concours d’innovation i-Lab, organisé par Bpifrance. Trois semaines plus tard, avec l’appui de la SATT, nous avons ainsi créé tous les trois – Thierry Laugel de Kurma Partners, Pascal Neuville de Domain Therapeutics et moi-même – Ermium Therapeutics, financée au départ à hauteur de 6 millions d’euros… Nous avons dès lors pu nous atteler au développement de tout un ensemble de molécules – un « pipeline » – à visée anti-interférons. Nous en avons pour l’heure une dizaine en vue, et notre objectif est de parvenir à en dégager deux ou trois en tant que candidats-médicaments.
Quelle approche avez-vous adoptée pour produire et progressivement affiner ces molécules particulièrement prometteuses ?
Nous sommes partis des premières molécules que nous sommes parvenus à synthétiser en laboratoire, qui avaient déjà pour caractéristique principale de perdre leur effet antagoniste. Nous étions ainsi déjà assurés de ne pas gêner la fonction normale du récepteur CXR4. À partir de ce noyau de molécules, nous avons obtenu de nombreux dérivés. Nous disposons également d’une série « backup », « de secours », qui sont elles aussi dérivées des premières molécules produites, et qui se révèlent également prometteuses.
Au fil des améliorations que nous leur avons apportées, nous sommes parvenus à augmenter l’efficacité de ces molécules d’un facteur dix à vingt. De plus, elles fonctionnent très bien in-vivo.
Plus globalement, l’avantage, dans ce projet, est que nous partons de très petites molécules. En plus d’avoir une durée de vie très courte dans le corps, et donc de pouvoir agir en « on/off », ces substances présentent ainsi l’avantage d’avoir une chimie assez simple. Nous pouvons donc générer beaucoup de molécules assez facilement, afin d’étudier leur profil de toxicité et les améliorations qu’elles sont susceptibles d’apporter. Quand une molécule est jugée suffisamment efficace sur le plan thérapeutique, nous cherchons ensuite à améliorer son absorption, à diminuer sa toxicité, etc. C’est ainsi que nous avançons.
Que savons-nous des mécanismes qui conduisent les interférons à se maintenir à un niveau élevé chez les patients atteints de lupus ?
C’est une bonne question… On sait que les pDCs, les cellules qui produisent les interférons, sont constamment activées. On ne comprend en revanche pas encore les raisons de cet emballement. On sait comment l’emballement se produit, mais pas pourquoi. C’est le cas, plus globalement, pour toutes les maladies auto-immunes. On en comprend de mieux en mieux les processus, mais pas les raisons de leur croissance folle observée depuis plusieurs années. Des facteurs génétiques jouent très certainement un rôle. L’environnement a également sans doute sa part de responsabilité : les particules fines, les cocktails de polluants… mais aussi l’alimentation et les cosmétiques. Tous ces facteurs se combinent et soumettent le corps à de nouveaux stress.
Au-delà du traitement des maladies auto-immunes telles que le lupus, vos avancées ouvrent-elles éventuellement la voie à d’autres applications thérapeutiques ?
Nous avons déjà travaillé sur un modèle animal qui se révèle assez proche de la Covid-19. Il s’agit d’une preuve de concept sur souris atteinte de grippe sévère. Cela implique la présence d’une grande quantité de facteurs inflammatoires et d’interférons dans les poumons de ces souris. Avec le CB, mais aussi avec nos propres molécules en cours de développement, nous avons procédé à des essais de pulvérisations intra-nasales. Les molécules testées se retrouvent ainsi dans les poumons des rongeurs, où elles se sont révélées capables de complètement contrôler la production d’interférons et des facteurs inflammatoires, qui retombent quasiment à zéro. Cela semble donc fonctionner extrêmement bien. Mon rêve serait donc naturellement de travailler par la suite sur la Covid-19, sur le plan académique… Même si notre stratégie d’entreprise n’est pas encore orientée dans cette voie.
Quelles sont justement les prochaines grandes étapes de votre calendrier ?
Nous visons l’obtention d’un candidat-médicament d’ici à la fin de l’année 2023. Il nous faudra ensuite un an d’expérimentation animal – des tests chez le macaque – avant de nous lancer dans un essai clinique de phase I. Si cet essai se révèle concluant, il est possible qu’un grand laboratoire pharmaceutique soit intéressé par la molécule et qu’il en fasse alors l’acquisition. Mais nous pourrions également être amenés à poursuivre les essais jusqu’en fin de phase II. Il est en tout cas, pour l’heure, assez compliqué d’avancer une date de commercialisation. Je dirais toutefois que cela est possible d’ici 6 à 7 ans environ.
À plus court terme, nous avons connu un tournant très important au mois de mars 2022 : nous avons réalisé une levée de fonds avec l’entrée au capital du fonds d’investissement irlando-américain Fountain Healthcare Partners[9]. Outre les financements apportés, ils nous ont surtout amené un savoir-faire et un réseau international de très haut niveau. Cela va nous permettre d’accélérer fortement le projet.
Je tiens aussi à souligner l’importance des soutiens apportés par le CNRS, qui me libère notamment 15 % de mon temps pour le consacrer à Ermium ; et surtout qui rend possible le développement des projets interdisciplinaires, intégrant par exemple la chimie et la biologie… Le soutien de Bpifrance a également été crucial. J’ai par exemple bénéficié du programme de formation Deeptech Founders, qui m’a vraiment permis d’apprendre un nouveau métier, celui d’entrepreneur. La subvention du concours national de l’innovation i-Lab nous a également apporté un financement de 245 000 €, qui nous a permis de créer l’entreprise.
Tout cela est quasiment unique en Europe. Il faut reconnaître que la start-up nation, ce n’est pas que des mots… Les financements de l’État changent beaucoup de choses. Ils permettent aussi de valoriser la recherche fondamentale et de faire le pont entre découverte scientifique et application médicale ou sociétale. Les gens ont en effet souvent du mal à voir à quoi cela peut servir. Mais dès que ces découvertes trouvent des applications dans la deeptech, les médicaments par exemple, cela devient tout de suite très concret. Le monde de demain est en train de se dessiner, et la France n’est pour une fois pas à la traîne dans ce domaine.
[1] National Institutes of Health
[2] Protéines produites notamment par les cellules du système immunitaire.
[3] Molécule présente, entre autres, dans tous les tissus des mammifères, connue notamment pour son rôle dans l’apparition de certaines manifestations allergiques.
[4] Clobenpropit
[5] Stromal cell-derived factor 1, aussi connu sous le nom de CXCL12
[7] Une maladie chronique auto-immune atteignant notamment la peau et d’autres organes comme les reins ; et qui se caractérise par un maintien des interférons à un niveau élevé.
[8] Entreprise fondée en 2009 à Paris et spécialisée dans le financement de l’innovation dans le domaine médical et des biotechnologies.
[9] Fonds de capital-risque basé à Dublin, en Irlande.