Réorganisation de la chaîne de valeur mondiale des entreprises: tendances de l’INSEE sur la période 2018-2020

En France, la réorganisation des entreprises à échelle internationale est un phénomène rare, puisqu’il ne concerne que 2,8 % des entreprises de plus de 50 employés, sur la période en question. Plusieurs facteurs peuvent alors motiver ces réorganisations : l’évolution des coûts de production, des tensions sur la supply chain, le risque de catastrophe naturelle, etc.

Délocaliser est plus complexe que relocaliser

Parmi ces 2,8 %, on compte 1,7 % de délocalisations et 1,2 % de relocalisations. Néanmoins, le plus intéressant n’est pas dans ces chiffres, mais dans la nature des emplois concernés, puisque l’étude nous apprend que les délocalisations impliquent plus d’emplois qualifiés et les relocalisations plus d’emplois peu qualifiés.

Pourquoi un tel constat ? D’une part, d’après l’INSEE, « réorganiser les chaînes de valeur de l’entreprise représente en effet une charge managériale supplémentaire, qui requiert plutôt des travailleurs qualifiés. » Par ailleurs, une délocalisation nécessite une part plus importante de profils qualifiés, car les entreprises qui font ce choix maîtrisent moins les pays où elles s’implantent.

D’autre part, l’étude souligne aussi la différence avec les délocalisations industrielles des années 1990 et 2000, qui concernaient pour majorité des emplois peu qualifiés. Enfin, le fait que les activités relocalisées en France soient plutôt peu qualifiées peut « refléter le rapatriement en France d’activités préalablement délocalisées ».

La réorganisation concerne essentiellement des tâches routinières

L’étude nous apprend également que ces réorganisations concernent essentiellement des « tâches routinières », un concept qui n’est d’ailleurs pas forcément synonyme de travail peu qualifié. La comptabilité est un bon exemple, car elle nécessite la manipulation simple d’informations, mais requiert aussi des qualifications.

Ces tâches routinières font ainsi l’objet de relocalisations ou de délocalisations pour une raison simple : elles sont simples à piloter à distance.

La Chine, parmi les régions les moins prisées en délocalisation

Avant le Covid, la Chine n’était déjà plus la destination n°1 des délocalisations françaises, elle est même derrière les USA, le Maghreb, l’Inde et surtout l’Europe. Pour quelle raison ? Tout simplement à cause des coûts de délocalisation, qui sont proportionnels à la distance, mais aussi des contraintes, notamment de décalage horaire.

Notons au passage que les pays les plus prisés en matière de délocalisation sont les pays de l’UE !

Qu’en est-il depuis la crise sanitaire ?

L’étude n’étant valable que pour la période 2018-2020, il faudra attendre les résultats de l’Enquête sur les chaînes d’activité mondiales 2023 (CA2023) pour avoir les détails sur la période 2021-2023. Néanmoins, bien que le champ de l’étude soit restreint à cette période, il est fort probable que les différentes crises qui se succèdent depuis la période Covid (tensions géopolitiques, crise des semi-conducteurs, crise énergétique, perturbation de la chaîne d’approvisionnement…) auront un impact sur les délocalisations et relocalisations.

Par ailleurs, de nouveaux facteurs liés au changement climatique et à l’empreinte carbone entreront très probablement en ligne de compte dans les années à venir. Si les problèmes de compétitivité que rencontrent actuellement les industriels, notamment à cause du coût de l’énergie, risquent de pousser les entreprises européennes à délocaliser, n’oublions pas que relocaliser les industries dans un pays au mix énergétique décarboné est aussi un moyen efficace de réduire l’empreinte carbone.

Cependant, parions que les industriels qui choisiront de miser sur l’économie circulaire auront naturellement tendance à relocaliser, puisque ce modèle implique nécessairement une production au plus près du consommateur.

Les débuts difficiles de la filière des batteries électriques européenne

À peine lancée, la filière de fabrication de batteries électriques en Europe connaît déjà des difficultés. Le secteur est stratégique pour l’UE, qui mise sur le déploiement massif des véhicules électriques pour réduire ses émissions de CO². Pour les alimenter, les capacités de production des batteries sur le continent devront dépasser 500 GWh (Gigawattheures) à l’horizon 2030 pour satisfaire la demande intérieure. L’enjeu de souveraineté est important pour les Vingt-sept, dont la part de marché mondial dans la fabrication de ces batteries se limite à 7 %, loin derrière la Chine à 76 %. Mais la montée en puissance des usines de batterie en Europe s’avère bien plus difficile que prévue.

Et en premier lieu pour Northvolt. Après avoir annoncé la suppression de 1 600 emplois fin septembre, soit près d’un quart de ses effectifs, ainsi que le gel du développement de son principal site de production en Suède, le fabricant suédois de batteries pour véhicules électriques a demandé à être placé sous le chapitre 11 de la loi américaine sur les faillites. Le but : se protéger de ses créanciers et faciliter sa réorganisation, notamment pour restructurer sa dette, qui s’élève à 5,8 milliards d’euros. L’entreprise cherche aussi à lever plus d’un milliard d’euros, car ses liquidités se limitent actuellement à seulement 30 millions d’euros.

Plusieurs causes sont avancées pour expliquer ses difficultés. Northvolt est accusé d’avoir développé des projets de méga-usines en Suède, en Allemagne et en Pologne, alors même qu’il ne maîtrise pas totalement son procédé de fabrication. Résultat, les retards de livraisons à ses clients se sont accumulés et ont dégradé sa trésorerie, faute de rentrées d’argent. Pire encore, Volkswagen, premier actionnaire de l’entreprise à hauteur de 21 %, a annulé une commande de 2 milliards d’euros en mai dernier face à ces retards. Northvolt est aussi critiqué pour avoir fait le choix de la technologie NMC (Nickel, manganèse, cobalt) pour ses batteries, alors que les batteries LFP (Lithium-fer-phosphate), moins onéreuses, sont davantage demandées par les fabricants automobiles.

Du temps supplémentaire pour industrialiser la technologie de batteries LFP

Surnommé « l’Airbus des batteries », ACC (Automotive Cells Company) connaît aussi des débuts difficiles. L’entreprise a suspendu en juin dernier ses projets d’usines en Allemagne et en Italie. La raison invoquée est celle du temps nécessaire pour modifier le procédé de fabrication et parvenir à industrialiser la technologie LFP. Son premier site de production, situé à Douvrin dans le Pas-de-Calais et qui fabrique des batteries de type NMC, peine à augmenter sa cadence de production, douze mois après son démarrage. Selon des informations recueillies par Challenges, le volume produit en 2024 ne pourra équiper que 2 000 à 2 500 véhicules. Mais cette situation n’a rien de surprenant, selon un expert interrogé, qui explique que « les ténors chinois comme le numéro un mondial de la batterie CATL ont rencontré les mêmes difficultés à leurs débuts et Northvolt a des problèmes identiques. »

Malgré ces contretemps, ACC est tout de même parvenue à finaliser une levée de fonds de 850 millions d’euros pour poursuivre le développement de son usine à Douvrin. L’objectif est de créer une deuxième ligne de production d’une capacité de 13 GWh, contre 15 GWh pour la première et dont la mise en production est prévue fin 2025. Sauf que dans le même temps, Stellantis, alors qu’il est l’un des co-actionnaires de l’entreprise aux côtés de Mercedes et TotalEnergies, a annoncé qu’il allait investir plus de 4 milliards d’euros avec le chinois CATL pour construire une nouvelle usine de batteries LFP à Saragosse, en Espagne. La production devrait commencer à la fin de l’année 2026 et pourrait atteindre une capacité de 50 GWh.

Du côté de ProLogium Technology, le fabricant taïwanais a présenté il y a un an un projet de méga-usine d’une capacité finale de 48 GWh à Dunkerque. Mais la production, dont la mise en route est prévue début 2027, démarrera doucement, puisque l’entreprise a annoncé qu’elle débutera par une capacité comprise entre 2 et 4 GWh et qu’elle devrait atteindre entre 8 et 16 GWh à l’horizon 2030. À noter que ce fabricant a développé sa propre technologie de batteries solides lithium-céramique.

 


Crédit image de une : Ernest Ojeh – Unsplash

Informatique quantique : Google repousse les limites avec Willow

La puce Willow a effectué en moins de cinq minutes un calcul qui prendrait 10 septillions d’années à l’un des superordinateurs les plus rapides d’aujourd’hui. Pour confirmer ses performances, Google a utilisé le test d’échantillonnage de circuits aléatoires (RCS), considéré comme le test le plus difficile à réaliser sur un ordinateur quantique. Les résultats ont été qualifiés d’« étonnants » par Google.

En un mot, sa puce peut résoudre des problèmes complexes à des vitesses sans précédent. Comment est-ce possible ? Contrairement aux ordinateurs classiques qui utilisent des bits binaires, les ordinateurs quantiques utilisent des qubits, capables d’encoder plus de données simultanément.

Cependant, les qubits sont sujets aux erreurs en raison de leur sensibilité à l’environnement. Plus le nombre de qubits augmente, plus les erreurs peuvent s’accumuler, ce qui réduit ses performances comparées à une machine classique.

« Les qubits physiques sont intrinsèquement bruyants, avec des taux d’erreurs qui empêchent l’exécution de circuits quantiques complexes », rappelle Olivier Ezratty, un spécialiste en nouvelles technologies.

Des calculs utiles

Or Willow, avec ses 105 qubits, a démontré sa capacité à réduire les erreurs à mesure que le nombre de qubits utilisés augmente. Google a testé des réseaux de qubits de plus en plus grands, passant d’une grille de 3×3 qubits codés à une grille de 7×7, réduisant à chaque fois le taux d’erreur de moitié. Cette réduction exponentielle du taux d’erreur est une réalisation historique connue sous le nom de « sous le seuil », un défi majeur depuis l’introduction de la correction d’erreurs quantiques par Peter Shor en 1995.

Autre « exploit » de Willow : sa capacité à corriger des erreurs en temps réel sur un système quantique supraconducteur. Cette puce a aussi révélé une durée de vie des réseaux de qubits plus longue que celle des qubits physiques individuels. Ce constat laisse donc à penser que la correction des erreurs améliore le système dans son ensemble.

L’un des prochains défis sera de démontrer un premier calcul « utile, au-delà du classique » sur les puces quantiques d’aujourd’hui, pertinent pour une application du monde réel. Google a déjà réalisé des simulations scientifiquement intéressantes de systèmes quantiques, mais ces calculs restent à la portée des ordinateurs classiques. L’objectif sera donc d’entrer dans le domaine des algorithmes qui sont hors de portée des ordinateurs classiques, mais utiles pour des problèmes réels et commercialement pertinents.

Carburants d’aviation durables : les efforts insuffisants des compagnies aériennes et pétrolières

Les trois premières compagnies aériennes du classement sont Air France-KLM, United Airlines et Norwegian. Si Air France-KLM est en tête du classement avec 61 points sur 100, c’est principalement grâce à ses importants achats de biocarburants à base d’huiles usées, une solution susceptible de réduire ses émissions de GES de 4 % d’ici 2030.

Les compagnies qui font le plus d’efforts

Le rapport précise cependant que le groupe Air France-KLM pourrait encore améliorer son score « en convertissant ses protocoles d’entente non contraignants avec plusieurs projets d’e-kérosène – dirigés par Engie, EDF, Elyse Energy et le consortium SAF+ – en accords fermes de rachat et/ou investissements. »

Pour ce qui est des autres bons élèves du classement, ils se distinguent par la signature d’accords avec des start-ups du secteur de l’e-kérosène.

Compagnies aériennes et choix de biocarburantCes compagnies, bien qu’elles ne soient pas encore en mesure de réduire de manière significative leurs émissions d’ici 2030 et 2035, se démarquent néanmoins par leurs investissements et achats dans des projets d’e-kérosène et de biocarburants avancés.

Celles qui optent pour le mauvais type de SAF

Malheureusement, la majorité des compagnies aériennes miseraient sur le mauvais type de SAF, aussi bien en termes de durabilité que de capacité de production. Car si les compagnies citées précédemment font figure d’exceptions, c’est qu’elles ont toutes un point commun : elles misent sur l’e-kérosène. Selon l’association Transport et Environnement, c’est non seulement le seul carburant réellement durable, mais aussi celui dont le niveau de production peut être suffisamment augmenté pour répondre aux besoins croissants du secteur de l’aviation.

Pour s’en convaincre, il suffit de lire le tableau suivant, qui classe les différentes catégories de SAF selon leur durabilité.

biocarburants - aéronautiqueNéanmoins, toutes ces compagnies ont le mérite d’avoir déjà mis le pied à l’étrier, car il faut rappeler que la moitié des 77 compagnies du classement n’ont même pas fixé d’objectif en termes d’utilisation de SAF !

La faute aux producteurs de pétrole historiques ?

Transport et Environnement n’hésite pas à dénoncer le manque de volonté des grandes compagnies pétrolières. En effet, si l’on se base sur les projets en cours, leur production de SAF atteindra, d’ici 2030, moins de 3 % de leur production actuelle dédiée à l’aviation.

Mais pour l’association, le pire est que pratiquement aucun de leurs investissements dans les SAF ne concerne l’e-kérosène. Et le fait que Shell se soit récemment retiré d’un projet e-kérosène est révélateur d’une certaine réticence à sortir des combustibles fossiles.

Le marché des SAF va-t-il prendre son envol ?

Actuellement, le marché des SAF est encore dominé par des start-ups et de petits acteurs, manquant de financements pour passer à l’échelle industrielle.

Pour que l’ambition collective de l’aviation décarbonée devienne une réalité, il est donc urgent de conjuguer les efforts des compagnies, des fournisseurs et des décideurs politiques.

Car si l’on se fie aux projets actuels, la consommation de SAF devrait passer, d’ici 2030, de 0,15 % à 1,3 % pour les compagnies aériennes classées dans l’étude. Une goutte d’eau qui réduira d’à peine 1 % les émissions de GES du secteur.

L’industrie sidérurgique européenne passe à l’offensive pour obliger les constructeurs automobiles à acheter de l’acier « vert »

Avec 7,6 % des émissions mondiales de GES, la production d’acier est l’un des secteurs industriels les plus émetteurs. Consciente des enjeux de décarbonation, l’industrie de l’acier est donc en pleine transition et développe les technologies permettant de produire de l’acier « vert », à partir :

Néanmoins, comme cet acier « vert » coûte plus cher à produire, cette transition doit être accompagnée et soutenue, si nous voulons aller vers une industrie européenne à la fois respectueuse de l’environnement et compétitive.

Les marchés pilotes, une promesse de campagne

Le courrier adressé à l’exécutif ainsi qu’à l’eurodéputé Jens Gieseke, qui coordonne la politique des transports pour le Parti populaire européen (PPE), a une particularité : il est cosigné, entre autres, par France Hydrogène, l’association d’aciéristes Eurofer et d’autres aciéristes. L’initiative est par ailleurs soutenue par le think tank Transport & Environment, dont le rapport publié en juillet affirme que « l’industrie automobile peut devenir un marché de prédilection pour la production d’acier bas-carbone en Europe, à condition de définir des objectifs légaux d’incorporation. »

Or, les « marchés pilotes » faisaient partie des promesses électorales de la présidente de la Commission, Ursula von der Leyen. Comme le marché automobile représente 17 % de l’acier consommé en Europe et se caractérise par « des exigences élevées en matière de qualité et de traçabilité », cela en fait donc un candidat idéal pour devenir un marché pilote, d’après la lettre.

Par ailleurs, selon Simon Pujau, responsable des relations institutionnelles chez France Hydrogène, « les marchés pilotes doivent être obligatoires pour être efficaces, ce qui implique des quotas soutenus par des systèmes de pénalités fortes en cas de non-respect. »

Autant dire que ces mesures contraignantes ne sont pas vues d’un bon œil par l’industrie automobile !

L’automobile, une industrie européenne déjà en difficulté

Comme le rappelle Transport & Environment dans son Briefing de juillet 2024, utiliser 40 % d’acier vert par véhicule neuf, en 2030, permettrait d’éviter l’équivalent du CO2 émis chaque année par 3,5 millions de voitures thermiques, pour un surcoût de 57 euros par véhicule. Par ailleurs, passer à 100 % en 2040 ne coûterait que 8 € de plus. Présenté comme ça, ce surcoût semble donc dérisoire, face aux enjeux climatiques.

Néanmoins, si la somme semble faible, on peut néanmoins comprendre les réticences d’une industrie automobile européenne déjà fragilisée, car confrontée à de multiples difficultés.

Rappelons que les ventes de voitures sont en baisse, que la transition vers l’électrique est plus difficile que prévu et que les coûts de production trop élevés en Europe (notamment à cause de l’énergie chère !) empêchent déjà nos constructeurs d’être compétitifs.

Il ne faut donc pas oublier que la situation actuelle est extrêmement tendue, pour l’industrie automobile, comme pour ses fournisseurs. Car après les annonces de fermeture de sites par Michelin, Valeo et Volkswagen, c’est le sidérurgiste ArcelorMittal qui a annoncé la fermeture de deux sites, à Reims et à Denain.

Iktos : le mariage de l’IA et de la robotique au service de la découverte de médicaments

Française elle aussi, la biotech Synsight a pour sa part développé une solution basée sur des algorithmes d’IA permettant de détecter in cellulo les interactions protéines-protéines et ARN-protéines. Une technologie très complémentaire de celle d’Iktos, qui apporte à la jeune pousse – forte, désormais, de près de 80 salariés à travers le monde[1] – un moyen de réaliser des tests biologiques et, ainsi, de « boucler la boucle » en matière de développement de nouvelles molécules thérapeutiques. C’est ce que nous explique Yann Gaston-Mathé, cofondateur et P.-D.G. d’Iktos.

Techniques de l’Ingénieur : Pouvez-vous, pour commencer, nous dire en quelques mots qui vous êtes et revenir plus en détail sur la genèse d’Iktos ?

Iktos-Yann Gaston-Mathé
Ingénieur diplômé de l’École Polytechnique, Yann Gaston-Mathé est le cofondateur et actuel P.-D.G. d’Iktos. © Iktos

Yann Gaston-Mathé : Je suis ingénieur polytechnicien de formation. J’ai fait tout le début de ma carrière dans l’industrie pharmaceutique. En 2012, j’ai commencé à travailler dans le domaine de la science des données appliquée à la recherche médicale, au sens large. D’abord au sein d’une entreprise, puis en tant que consultant indépendant, à partir de 2014. C’est à ce moment-là que j’ai fait la connaissance de Quentin et Nicolas[2], les deux autres cofondateurs d’Iktos.

Chimiste de formation, Quentin a notamment œuvré dans le domaine de la science des données appliquée à la recherche de nouvelles molécules. Docteur en intelligence artificielle, Nicolas a quant à lui commencé une carrière dans le domaine de l’ingénierie informatique, tout en restant à l’affût des avancées de la recherche, notamment dans le domaine du deep learning, en plein frémissement à l’époque.

Alors qu’il était salarié au sein de la même entreprise que Quentin, Nicolas a un jour eu l’idée de mettre en œuvre des modèles d’IA générative pour les besoins de la recherche de nouvelles molécules. Cela a été le véritable point de départ d’Iktos.

Pour cela, Nicolas a mis en œuvre un modèle d’IA générative basé sur de l’apprentissage profond, qu’il a entraîné sur une base de données contenant de nombreuses molécules, afin de lui apprendre à en générer de nouvelles. C’était alors inédit, un véritable travail de pionnier.

Quentin et Nicolas se sont ensuite attelés à guider ce générateur de molécules, en utilisant des « fonctions de récompense », ou « reward functions ». En donnant un score de qualité à chaque molécule générée, cela permet d’inciter le système, lorsqu’il génère des molécules intéressantes, à poursuivre dans cette voie, ou, à l’inverse de le freiner s’il s’oriente vers des molécules non pertinentes. Tout cela a abouti à ce que Quentin et Nicolas quittent leur entreprise pour pouvoir se consacrer pleinement au développement de ce projet. C’est à ce moment-là qu’ils m’ont proposé de les rejoindre. La technologie m’a paru tellement prometteuse que j’ai accepté sans hésiter ! C’est comme cela qu’est née Iktos, en 2016.

Quelle a alors été la suite de l’histoire d’Iktos ?

Nous avons ensuite réalisé une première levée de fonds auprès de business angels, en 2017, en commençant à songer, plutôt qu’à la recherche de candidats-médicaments, au développement dans un premier temps d’une plateforme logicielle SaaS[3].

Nous avons ainsi été parmi les pionniers de ce type de solution qui, lorsque nous avons dévoilé nos premiers outils, a d’emblée suscité beaucoup d’intérêt de la part des laboratoires pharmaceutiques. Nous avons alors très rapidement abouti à de premiers succès, en épaulant des industriels tels que Servier sur des projets tout à fait concrets. Cela nous a permis de faire croître l’activité d’Iktos, toujours dans l’optique de développer cette fameuse plateforme logicielle et sa première brique technologique, baptisée Makya.

À partir de 2020-2021, nous avons commencé à réfléchir à la prochaine étape… Nous avons alors eu envie de démontrer nous-mêmes l’intérêt de notre technologie, d’aller un cran plus loin en nous lançant dans la découverte de nouvelles molécules. Nous avons pour cela lancé fin 2021 une nouvelle levée de fonds, en série A cette fois, close en 2023 pour un montant de 15,5 millions d’euros. Cela a été l’occasion pour nous d’introduire un concept technologique entièrement nouveau : une technologie de rétrosynthèse Spaya – sur laquelle nous avions commencé à travailler dès 2018. Cela nous semblait, déjà à l’époque, le complément idéal de notre technologie d’IA génératrice de molécules. Une telle technologie génère en effet indifféremment des molécules synthétisables et non synthétisables, ce qui constitue évidemment un problème majeur : aussi intéressantes que puissent être ses propriétés, une molécule n’a évidemment aucune utilité si elle ne peut pas être synthétisée, ou trop difficilement. Nous avions bien conscience de ce problème…

Nous avons ainsi commencé à développer cette nouvelle génération d’outils utilisant, pour générer de nouvelles molécules, une véritable logique chimique, et non pas simplement textuelle, à la manière d’un ChatGPT. Ceci, entièrement automatiquement, à partir d’une base de données de réactions chimiques, et toujours avec ce guide constitué par les fonctions de récompense que j’évoquais. Cela permet ainsi d’obtenir des molécules pertinentes, et synthétisables « by design ». On peut même définir des critères en matière de synthèse : restreindre à certains réactifs, disponibles par exemple à un prix donné, ou livrables rapidement, mais aussi restreindre l’espace de synthèse chimique, en excluant certaines réactions impossibles à mettre en œuvre au sein d’un laboratoire donné. Au départ réalisé assez indépendamment du reste, le développement de cette technologie de rétrosynthèse nous permet donc finalement, aujourd’hui, d’irriguer notre travail de recherche en matière d’IA générative.

Tout ceci nous a finalement conduits vers la notion d’automatisation… Nous avons alors imaginé une « plateforme » regroupant nos trois briques technologiques basées sur l’IA : notre technologie de génération de molécules Makya, cette technologie de rétrosynthèse Spaya, mais aussi, enfin, une troisième brique technologique – Ilaka – qui s’apparente en quelque sorte à un orchestrateur… Un chef d’orchestre chargé, à partir de la liste des différentes molécules à synthétiser, ainsi que de celle des différentes voies de synthèse possibles, de définir la manière la plus intelligente de combiner les deux pour pouvoir construire un plan de travail optimisé, destiné à un robot de synthèse. L’objectif étant bien sûr de maximiser la productivité de ce robot. Nous sommes ainsi les seuls, aujourd’hui, à disposer d’une telle plateforme – Iktos Robotics – permettant de prendre en charge la synthèse d’un grand nombre de molécules en parallèle, apportant à la fois un gain de productivité et de rapidité d’exécution.

Enfin, nous avons aussi fini par nous lancer dans notre propre programme de recherche de nouveaux médicaments. Nous prévoyons ainsi de dévoiler nos premiers candidats-médicaments dès le début de l’année prochaine. Nous préparons d’ailleurs désormais une nouvelle levée de fonds de 50 M€, en série B, pour poursuivre le développement de notre plateforme, qui s’annonce comme un outil révolutionnaire de découverte de nouvelles molécules thérapeutiques !

Iktos-robotique
Iktos a également développé une plateforme pilotée par des algorithmes d’IA permettant d’automatiser la synthèse de nouvelles molécules thérapeutiques : Iktos Robotics. © Iktos

Une véritable success-story… que vous devez sans doute aussi aux partenaires qui vous ont fait confiance ?

Si nous avons pu parvenir là où nous en sommes aujourd’hui, c’est effectivement parce que nous avons mené de nombreuses collaborations avec des laboratoires pharmaceutiques, qui nous ont permis de démontrer à de multiples reprises que notre technologie permettait d’obtenir d’excellents résultats, de nous forger une réputation d’excellence et de valider la pertinence de notre plateforme logicielle SaaS. Nous avons aujourd’hui plus d’une douzaine de clients de l’industrie pharmaceutique, l’un des derniers d’entre eux étant le laboratoire Takeda, avec lequel nous avons signé notre plus gros contrat logiciel à ce jour (interview réalisée mi-juillet 2024, n.d.l.r.).

Nous avons par ailleurs créé des filiales aux États-Unis et au Japon, où nous avons d’ailleurs beaucoup de clients également.

Nous avons aussi annoncé en mars dernier avoir noué un partenariat stratégique avec Elsevier, qui gère notamment une base de données de réactions chimiques très riche, issue de publications scientifiques. Nous avons ainsi co-développé un nouveau logiciel de rétrosynthèse, vendu par Elsevier, entraîné par notre technologie d’intelligence artificielle à partir des données de notre partenaire.

Vous avez annoncé début juillet 2024 l’acquisition de Synsight, société spécialisée dans l’intelligence artificielle et la robotique pour la conception de nouveaux médicaments. Quelles sont les origines de cette opération, et quelles perspectives cela ouvre-t-il pour Iktos ?

Puisque nous gravitions dans le même univers, nous connaissions depuis longtemps les cofondateurs de Synsight, Cyril Bauvais et Guillaume Bollot. Ils nous ont un jour sollicités pour discuter d’un éventuel rapprochement. Nous avons été impressionnés par la qualité de la plateforme technologique qu’ils ont développée : MT Bench[4]. Elle permet de visualiser, au sein d’une cellule, les interactions entre protéines, mais aussi entre ARN et protéines, et donc de tester les molécules susceptibles d’inhiber ces interactions. Or, ces interactions sont des cibles prometteuses dans de nombreuses maladies, telles que certains cancers ou maladies neurodégénératives. Nous avons donc décidé, comme nous l’avons effectivement annoncé en juillet dernier, de réaliser l’acquisition de Synsight.

Cela nous permet d’ajouter une ultime étape qui manquait jusqu’alors à notre plateforme : celle des tests biologiques. C’est une manière pour nous de boucler la boucle en matière de développement de nouvelles molécules. Mais c’est aussi et surtout la qualité et le haut degré d’automatisation de la technologie développée par Synsight – sur la base de brevets INSERM – qui nous a poussés à réaliser cette acquisition.


[1] Une cinquantaine à Paris, dans le XVIIe arr., auxquels s’ajoutent cinq chimistes œuvrant quant à eux au sein d’un laboratoire de chimie robotisée situé aux Ulis ; six personnes employées par la filiale américaine d’Iktos, ainsi que deux autres au Japon ; mais aussi six nouveaux collaborateurs issus de Synsight.

[2] Quentin Perron, actuel CSO (Chief Strategy Officer, responsable stratégie) et Nicolas Do Huu, actuel CTO (Chief technical officer, directeur de la technologie).

[3] Software as a service, logiciel en tant que service.

[4] Microtubule Bench technology.

Matthieu Deboeuf-Rouchon : « La surveillance plus diffuse de notre santé sera l’une des thématiques majeures du CES 2025 »

Matthieu Deboeuf-Rouchon - CES 2025
Matthieu Deboeuf-Rouchon. © Capgemini

Responsable du centre d’excellence Innovation de Capgemini Engineering en France, Matthieu Deboeuf-Rouchon est un expert reconnu des sujets autour de l’innovation et de la transformation digitale. En 2008, il fonde son cabinet de conseil en Transformation Digitale et Innovation. En 2017, il rejoint les équipes de Capgemini Engineering. Il est co-auteur du « Guide de Survie du Consumer Electronics Show : comment organiser, vivre & optimiser sa visite du plus grand salon mondial de la Tech ! » dont la dernière édition vient de paraître. Passionné par l’impact des technologies sur la Société, les Entreprises et les Êtres humains, il co-anime le podcast Innovation & Prospective Talk.

Techniques de l’Ingénieur : cette édition revient à ses classiques, l’audio-vidéo. Les écrans sont toujours autant présents. Y a-t-il des innovations intéressantes ?

Matthieu Deboeuf-Rouchon : Oui. On ne savait pas quoi faire des écrans souples quand les premiers ont été présentés au CES en 2017. Depuis, des applications et des écrans étirables commencent à être déployés, notamment dans le secteur de la distribution pour enrichir les expériences des consommateurs. Toujours à propos des écrans, nous voyons arriver des modèles transparents ou avec une diagonale et une définition plus importante. Sans oublier la réduction de la consommation électrique. Reste la problématique des contenus pour lesquels l’IA peut combler la différence de qualité entre ceux qui sont produits aujourd’hui et ceux à produire pour ces nouveaux supports comme nous le voyons chez Samsung par exemple. Ces innovations impliquent une transformation forte de la production des médias.

Le CES est connu notamment pour la remise de ses Awards. Quelle est la tendance pour le cru 2025 ?

Il y a à la fois une compétition accrue et une diversification. Concernant le premier constat, je note que la Corée du Sud est massivement présente, notamment sur les Awards. Mais les Français se défendent toujours aussi bien ; ils sont moins nombreux, mais les offres sont plus pertinentes. À propos du second constat, les Awards concernent autant l’IA et la GenAI que des problématiques de data synthétique et la Digital Health.

Quelles sont les thématiques et nouveautés majeures de l’édition 2025 ?

Il y a la fashion tech qui arrive pour la première fois au CES en mixant beauté et technologie. La santé ressort comme l’une des thématiques majeures de cette édition avec des innovations et des pistes intéressantes pour tout ce qui se passe dans le cerveau. Les neurosciences étaient bien présentes l’année dernière, mais cette année, elles le sont encore plus. Par rapport à l’édition précédente, elles sont encore plus intégrées. On va avoir des classes d’interprète cerveau-machine qui travaillent sur la compréhension du cerveau et l’ensemble des facteurs liés aux démences, aux dérèglements qu’on peut avoir, notamment Parkinson, Alzheimer, etc.

Ce que l’on peut regrouper sous l’expression « Lifestyle Connected ». C’est notre cadre de vie connecté qui, au quotidien, va faire qu’on va vivre mieux et plus longtemps. Nous allons vers le « citoyen augmenté » qui va bénéficier de la technologie dans son quotidien, mais de façon de plus en plus diffuse, moins subi. En 2016-2017, on nous proposait de mettre des patchs sur nous pour monitorer tout et n’importe quoi. Aujourd’hui, cela est révolu. Une ampoule U-Philips ou un capteur à la maison peut très bien fournir des informations sur notre rythme circadien.

L’IA reste omniprésente ?

Il y a effectivement un CES assez traditionnel, mais l’IA occupe une place extrêmement forte avec la GenAI intégrée dans les entreprises pour produire mieux, moins cher et de meilleure qualité. C’est une thématique nouvelle qui est aujourd’hui officialisée. L’IA va s’intégrer dans l’ensemble des process industriels y compris dans la supply chain et les démarches qualité et conformités. La conférence de Nvidia est très attendue, car toutes les promesses qu’on nous vend au CES reposent sur les capacités des processeurs et des puces graphiques.

Les précédentes éditions ont été l’occasion de présenter des projets de véhicules autonomes. Où en est-on aujourd’hui ?

En 2016-2017, on nous promettait une conduite autonome permanente. En fait, les problématiques de réglementation s’imposent et il y a toujours la question de la perte de contrôle de son véhicule. La conduite autonome d’aujourd’hui est bien différente de celle présentée il y a quelques années.

Il s’agit maintenant d’une conduite « assistée », permettant de maximiser le confort du pilote. Continental et Garmin vont présenter leurs projets de monitoring du conducteur.

Comment HEF Groupe recycle les sels de nitruration

La mise en oeuvre de ce procédé de retraitement innovant est l’aboutissement du projet ECO-CLIN – Economie Circulaire et Efficacité Energétique Appliquée aux Procédés de Nitruration en Bains de Sels – qui a débuté en 2021, nécessité plus de deux ans de recherche et développement et un investissement de six millions d’euros de la part d’HEF® Groupe[1].

Frédéric Garcia, chef de projet international au sein d’HEF Groupe, a expliqué à Techniques de l’Ingénieur comment le procédé de retraitement des sels de nitruration fonctionne, et en quoi le recyclage des déchets de nitruration permet à HEF Groupe d’être aujourd’hui souverain sur l’approvisionnement en matières premières pour ce procédé chimique.

Techniques de l’Ingénieur : Qu’est-ce que la nitruration ?

Frédéric Garcia : La nitruration consiste à modifier les propriétés de surface de pièces en acier par l’apport d’azote dans la structure du métal. La technologie de nitruration que nous avons développée depuis plusieurs années, et sur laquelle nous sommes leader au niveau mondial, consiste à opérer ce traitement de surface dans un milieu sels fondus comme source d’azote.

Concrètement, cela consiste à faire fondre des sels aux alentours de 550/600 degrés, au-dessus de leur température de fusion, afin de constituer un milieu liquide. Les pièces en acier sont ainsi plongées dans ces bains de sels fondus afin d’opérer le procédé de nitruration, qui sera suivi d’une oxydation.

L’intérêt premier de ce traitement de surface est d’améliorer la dureté de la couche superficielle de la pièce que l’on traite. Le procédé améliore aussi la résistance au grippement et la tenue en corrosion. Le milieu liquide permet en outre, une uniformité et une répétabilité importantes des caractéristiques obtenues sur les pièces traitées.

Comment fonctionne le procédé de recyclage des sels de nitruration que HEF Groupe a développé ?

Comme tous les procédés industriels, les lignes de nitruration génèrent des déchets. Par exemple le lavage des pièces se fait à l’eau, qui va alors se charger en sels ; c’est le premier type de déchet qu’il va falloir gérer.

Il y a aussi des déchets solides qui sont liés aux opérations de maintenance des bains de sels fondus. Nous devons donc traiter des déchets liquides et solides, et jusqu’à récemment il n’existait pas de solution pour les revaloriser : les déchets solides étaient généralement enfouis, et les déchets liquides étaient pris en charge par des prestataires externes spécialisés dans le traitement des déchets.

Aujourd’hui, nous récupérons ces déchets pour leur faire subir un grand nombre de procédés physico-chimiques, qui permettent in fine de valoriser les éléments permettant d’opérer la nitruration et l’oxydation. Ainsi, nous sommes en mesure de produire des nouveaux sels issus de ce recyclage, avec les mêmes caractéristiques physico-chimiques que les produits issus des voies de fabrication classique.

Nous avons développé ce procédé en plusieurs étapes, qui permettent in fine de transformer ces déchets en matières premières pour la nitruration.

Quels sont les composants ainsi récupérés et recyclés ?

Plusieurs éléments chimiques sont ainsi récupérés, notamment des nitrates alcalins et des carbonates alcalins, ce qui permet d’acquérir une vraie souveraineté sur ces éléments critiques, sans subir leurs variations du cours d’achat.

Auparavant, nous étions contraints de passer par des achats sur le marché international et étions ainsi exposés aux risques de volatilité et de disponibilité.

L’utilisation de ces déchets comme matière première directement réutilisable sur des équipements de nitruration nous permet d’avoir une meilleure maîtrise de nos coûts et d’améliorer notre empreinte environnementale.


[1] HEF® Groupe

Le bilan critique de la Cour des comptes sur le soutien de la France à son industrie

« Des résultats encore fragiles ». Telle est la manière dont la Cour des comptes évalue les dix dernières années de politiques publiques de la France en faveur de son industrie. Dans un rapport qu’elle vient de publier à la demande de l’Assemblée nationale, l’institution dresse un bilan pour le moins mitigé du soutien de l’État à ce secteur. Après avoir chuté de 16 % à 11 % entre 2000 et 2010, la part de l’industrie manufacturière dans la richesse nationale ne s’est ensuite pas redressée malgré les différents dispositifs d’aide mis en place. Elle s’est stabilisée à environ 11 % sur la période de 2011 à 2023, un niveau bas, bien en dessous de celui de l’Allemagne (21 %) et de l’Italie (17,5 %).

Certes, le secteur a été durablement affecté par deux crises majeures. Celle de 2008-2009 tout d’abord, où il a fallu attendre 2013 pour que l’Hexagone retrouve son niveau de 2007. Puis celle du Covid-19, avec un retour au niveau de 2019 en 2022. Mais les performances de la France, troisième pays industriel de l’UE, sont moins bonnes que ses deux prédécesseurs, l’Allemagne et l’Italie. Le premier a vu la croissance de sa valeur ajoutée industrielle progresser de 61 % sur la période de 2000 à 2019 et le deuxième de 28%, quand la France se limitait à +20 %.

L’industrie française s’est concentrée sur certains secteurs, comme celui de l’aéronautique, la chimie-pharmacie et l’agroalimentaire, tandis que la part de l’automobile et des produits électriques a reculé. Les entreprises industrielles ont la particularité d’être relativement peu nombreuses (274 000 sont comptabilisées en 2021), avec une forte représentation de firmes multinationales disposant de filiales en France et à l’étranger. Ces dernières concentrent en effet 78 % de la valeur ajoutée et 69 % des effectifs salariés du secteur. Au global, l’emploi industriel est stable à 10 % du total de l’emploi, même s’il augmente très légèrement depuis 2017.

À partir de 2014, l’État français a débuté une politique publique de soutien à la compétitivité de ses entreprises. Des dispositifs comme le CICE (crédit d’impôt compétitivité emploi), puis des allègements de charges ont été mis en place, mais ils ont surtout profité aux activités de services, selon la Cour des comptes. La baisse de la taxation des entreprises à 25 % a été une bonne nouvelle pour l’industrie, mais la fiscalité de ce secteur reste « pénalisée par des impôts de production […]qui ne sont pas liés à leur rentabilité », note-t-elle.

Une forte augmentation du soutien de l’État français à partir de 2020

Des handicaps structurels grèvent la compétitivité, à commencer par des capacités de financement de la recherche limitées, liées au niveau bas de l’industrie, et qui se traduisent par insuffisamment d’innovations. Ensuite, le secteur doit faire face à une image dégradée, ce qui nuit à l’attractivité des formations et des métiers. Si le coût de l’énergie a longtemps représenté un avantage comparatif important, il est à craindre que la fin de l’ARENH (Accès régulé à l’électricité nucléaire historique) en 2026 et l’augmentation des prix de l’énergie, dégradent de manière significative la compétitivité industrielle.

À partir de 2020, le soutien de l’État en faveur de l’industrie a fortement augmenté, avoisinant 27 Md€ (milliards d’euros) par an, contre 17 Md€ sur la période de 2012 à 2019. À ces chiffres, il convient d’ajouter des prises de participation dans des entreprises industrielles à hauteur de 2,2 Md€ par an sur la période 2012-2022. Selon la Cour des comptes, « le bilan des plans de soutien à la réindustrialisation ou à la numérisation de l’industrie qui se sont succédé de 2012 à 2022 est peu concluant. Leur ciblage est insuffisant et les instruments retenus peu efficaces, à l’exception de certains secteurs comme l’aéronautique ou la micro-électronique pour lesquels l’État a su faire preuve de continuité. »

Dans le détail, l’institution juge que les différents PIA (Programmes d’investissement d’avenir) mis en œuvre entre 2010 et 2019, « ont eu un impact limité sur l’industrialisation. » Quant au plan France 2030 débuté en 2021, « Les premières évaluations montrent que le ciblage des investissements publics devrait être resserré et que la doctrine d’intervention devrait s’attacher à privilégier davantage les instruments les plus efficaces en limitant le recours aux subventions. »

Si le crédit d’impôt recherche est évalué positivement par la Cour des comptes, elle conseille tout de même d’ajuster son assiette afin d’en améliorer l’efficacité. L’une de ses principales recommandations est d’aligner la politique industrielle française avec celle de l’UE. L’institution cite notamment le rapport Draghi qui prône la réduction des dépendances européennes dans six secteurs : les matières premières critiques, les semi-conducteurs, la santé, le numérique, l’agroalimentaire et l’énergie.

Pour ne pas être dépassée par les États-Unis et la Chine, la France mise sur les collaborations

Initiée par le Secrétariat Général Pour l’Investissement (SGPI) dans le cadre de France 2030, cette initiative bénéficie d’un soutien financier de 72,3 millions d’euros et vise à préparer l’écosystème industriel français à l’émergence du quantique.

Cinq lieux accueilleront ces maisons du quantique, dont un en Occitanie et un autre à la Station F à Paris. L’objectif est de développer l’utilisabilité de la plateforme, créer un écosystème logiciel, promouvoir des applications hybrides, et attirer des talents internationaux. Les missions incluent également la formation, l’organisation de hackathons, et la promotion de l’usage de la plateforme en France.

La Maison du Quantique Alpes, située à Grenoble, est portée par un consortium incluant l’Université Grenoble Alpes, le CEA, l’INRIA, le CNRS et Grenoble INP. Elle vise à accueillir les communautés intéressées par le calcul quantique hybride et à guider les industriels dans le développement d’algorithmes.

L’influence française à l’international

La Maison du Quantique en région Grand Est, ou MaQuEst, est portée par l’Université de Strasbourg, l’Université de Reims-Champagne Ardenne, l’Université de Technologies de Troyes et l’INRIA. Elle propose d’accompagner les collaborations industrielles et académiques dans trois lieux : Strasbourg, Reims et Troyes.

En Île-de-France, la Maison du Quantique est pilotée par le CEA-List, avec le soutien de la Région Île-de-France. Elle propose un accompagnement pour les projets candidats au Pack Quantique et accueille les communautés à la Station F et au MIX à Paris-Saclay.

En Nouvelle-Aquitaine, le projet HYBQUANT, porté par l’Université de Bordeaux, propose des cofinancements de projets de recherche avec une transversale industrielle. Les communautés seront accueillies à l’Institut d’Optique Aquitaine et au Laboratoire bordelais de Recherche en Informatique.

Enfin, la Maison du Quantique Occitanie, portée par Toulouse INP, regroupe plusieurs universités, laboratoires, centres de calcul et industriels. Elle vise à accompagner les industriels et laboratoires dans le développement d’algorithmes et à accueillir les communautés à Toulouse et Montpellier.

Ces initiatives visent à fédérer la communauté d’utilisateurs et à promouvoir la diffusion des usages du calcul quantique en France, tout en renforçant la légitimité et l’influence françaises à l’international.

Une batterie au carbone-14 pour des milliers d’années d’autonomie

Longévité

Le carbone-14 est toujours couramment exploité pour dater les objets anciens, dans le cadre de recherches archéologiques. Dans le cas présent, c’est l’énergie dégagée par la désintégration radioactive du carbone-14, qui est exploitée. Les chercheurs comparent le fonctionnement de cette batterie à celui des panneaux solaires. La différence est qu’au lieu de convertir la lumière en électricité, elle utilise des électrons à déplacement rapide issus de la désintégration radioactive.

La moitié des atomes de carbone-14 est désintégrée en azote 14 au bout de 5 730 ans. Cette batterie peut donc alimenter des appareils pendant des périodes défiant l’imagination, sans nécessiter de rechargement.

Sécurité

Cette batterie est basée sur du carbone-14 enfermé dans un diamant, un des matériaux les plus durs connus. Son rayonnement à courte portée est absorbé par l’enveloppe en diamant. La batterie capture en toute sécurité les radiations pour produire des niveaux d’électricité très faibles.

Sarah Clark, directrice du cycle de combustible au tritium à l’UKAEA souligne la durabilité et la sécurité du dispositif. Elle évoque aussi la polyvalence des applications possibles, notamment en médecine.

En plus de sa dureté, le diamant a une autre qualité : la biocompatibilité. Cette batterie en diamant pourrait alimenter des implants tels que des stimulateurs cardiaques, des prothèses auditives et des appareils oculaires. Des utilisations dans le domaine spatial sont aussi avancées, et plus largement dans des environnements ou des appareils pour lesquels les sources d’énergie conventionnelles ne seraient pas pratiques.

Nous avions déjà consacré un article au travail de recherche sur une batterie en diamant, mené à l’Université de Bristol : le projet ASPIRE (pour Advanced Self-Powered sensor units in Intense Radiation Environments). Ces diamants étaient fabriqués à partir de déchets provenant de l’ancienne centrale nucléaire de Berkeley dans le Gloucestershire, la première arrêtée au Royaume-Uni, en 1989. Trente ans après, les scientifiques ont pu accéder sous la centrale, lieu de stockage des blocs de graphite utilisés pour modérer la réaction. En 2016, les chercheurs avaient mis en évidence la concentration de carbone-14 radioactif à la surface de ces blocs, son extraction diminuant de fait leur radioactivité.

Le choix du carbone-14 s’explique par son rayonnement à courte portée, rapidement absorbé par tout matériau solide. Les chercheurs l’ont donc incorporé à du diamant fabriqué à l’Université de Bristol. Car mis en contact avec une source radioactive, le diamant artificiel produit une charge. Tom Scott, professeur de matériaux au Centre d’analyse des interfaces de l’Université et membre de l’Institut Cabot, déclarait en 2016 : « En encapsulant des matières radioactives dans des diamants, nous transformons un problème de déchets nucléaires en une batterie à énergie nucléaire et en un approvisionnement durable en énergie propre. »

 

De nouvelles cellules hydrovoltaïques qui permettent de produire de l’électricité dans des environnements extrêmes et sans lumière

Dans la course aux énergies renouvelables, les panneaux photovoltaïques ont été une révolution en permettant de produire de l’électricité à partir de la lumière solaire. Une technologie qui n’est cependant pas applicable dans tous les environnements, et notamment la nuit. Pour pallier ces limitations, les scientifiques développent depuis quelques années un nouveau système qui exploite non pas l’énergie solaire, mais un autre phénomène naturel omniprésent : l’évaporation.

L’effet hydrovoltaïque : un potentiel énorme pour la production d’énergie renouvelable

Exploiter cet échange énergétique qui se joue partout sur la planète et cela même sans apport de lumière a immédiatement présenté un énorme potentiel en termes de production d’électricité. Théoriquement, l’évaporation naturelle qui affecte les lacs et autres réservoirs d’eau des États-Unis pourrait ainsi permettre de produire 325 GW ! De premiers prototypes de cellules hydrovoltaïques ont donc commencé à apparaître. Plusieurs stratégies ont été testées tout d’abord en utilisant de l’eau hautement purifiée, circulant dans des dispositifs composés de nanofibres de silice, qui ont montré des résultats prometteurs pour transformer le phénomène de l’évaporation en électricité. Récemment, le dispositif a été amélioré pour permettre l’utilisation d’eau de mer.

Les dispositifs hydrovoltaïques se sont inspirés du pompage passif des plantes, où le transport de l’eau s’effectue grâce à la pression différentielle établie au niveau des microcapillaires par l’évaporation. Sur ce modèle, les ingénieurs ont ainsi construit des nanocanaux incrustés dans un film de carbone, dans lequel circule un fluide. En s’évaporant à travers ces nanofibres, le fluide génère une tension électrique soutenue. Un système ingénieux et novateur qui nécessite toutefois un apport minimal d’énergie (solaire), un apport continu en eau et une humidité ambiante faible pour fonctionner de manière optimale. Des conditions encore trop restrictives qu’ont réussi à lever les chercheurs de l’Académie Chinoise des Sciences.

Un circuit fermé qui permet de s’affranchir des contraintes extérieures

Afin de s’affranchir au maximum des conditions environnementales extérieures et permettre l’utilisation des cellules hydrovoltaïques sous n’importe quel climat, les scientifiques ont en effet construit des cellules hermétiques à l’intérieur desquelles ont été placées des unités composées de papier de soie et de noir de carbone. La production d’électricité est alors assurée par la circulation en circuit fermé d’une petite quantité d’eau au sein des capillaires du papier de soie.

Ce nouveau dispositif, nommé cellule hydrovoltaïque hermétique (HHC) a été présenté dans un article publié par la revue Nature Communications. Il promet l’utilisation des systèmes hydrovoltaïques dans n’importe quel environnement, qu’il soit sec ou humide, sans apport de lumière solaire. Ces cellules utilisent en effet uniquement la chaleur ambiante comme source d’énergie, permettant la production de vapeur à l’intérieur des cellules hermétiques.

Des tests ont révélé l’efficacité de ce système, avec une production autonome d’électricité pendant plus de 160 heures. Mais les chercheurs estiment que les cellules pourraient fonctionner aussi longtemps que désiré, tant qu’une source de chaleur est disponible. En s’affranchissant d’un apport en eau, ce dispositif pourrait ainsi facilement être mis en œuvre dans des environnements extrêmes comme les déserts ou les zones tropicales, ou pour assurer une production d’électricité dans des régions très isolées.

Cellules hydrovoltaïques hermétiques
Structure et performance des cellules hydrovoltaïques hermétiques © Yuan et al. 2024, Nature Communications

Une production d’électricité de jour comme de nuit

De plus, les fluctuations de température ne semblent pas, ici, affecter négativement le rendement électrique, tout au contraire. Ces variations permettraient de renforcer la circulation de l’eau au sein des cellules hermétiques, entretenant l’effet hydrovoltaïque et donc une production d’électricité de façon continue.

Par rapport au photovoltaïque, ce nouveau dispositif possède donc l’avantage de pouvoir fonctionner de jour comme de nuit, sans être affecté par les conditions climatiques extérieures (vent, variations de luminosité, de température et d’humidité). Une utilisation dans des milieux bien plus spécifiques est de plus envisagée, comme lors de travaux dans des environnements souterrains (mines, tunnels…).

Les chercheurs mettent en avant la facilité de mise en œuvre et surtout le faible coût de ce type de dispositif. Autant de caractéristiques qui devraient assurer un bel avenir aux futurs panneaux hydrovoltaïques, permettant ainsi de compléter et de diversifier l’offre des solutions énergétiques renouvelables.

L’IA met la pression sur les datacenters qui doivent réduire leur empreinte carbone

Selon un rapport de Morgan Stanley, les émissions de dioxyde de carbone (CO2e) des centres de données devraient atteindre 2,5 milliards de tonnes métriques d’ici 2030, représentant près de 40 % des émissions annuelles des États-Unis.

Un autre rapport (cabinet Gartner) publié en novembre dernier souligne que 40 % des centres de données d’IA existants pourraient rencontrer des contraintes opérationnelles en raison de pénuries d’énergie.

La demande croissante pour les technologies d’IA et d’IA générative (GenAI) exerce une pression sans précédent sur les ressources énergétiques des centres de données.

D’ici 2027, la consommation d’énergie devrait atteindre 500 térawattheures (TWh) par an, soit plus du double du niveau de 2023. Cette croissance explosive pourrait entraîner des pénuries d’énergie et des augmentations significatives des coûts opérationnels pour les organisations déployant de grands modèles de langage (LLM).

Petits réacteurs nucléaires

Dans son rapport, le cabinet Gartner recommande aux entreprises de négocier des contrats à long terme avec les fournisseurs de centres de données pour bloquer les tarifs d’électricité favorables et atténuer la volatilité des prix.

Les entreprises sont également encouragées à réévaluer leurs plans à long terme pour tenir compte de l’augmentation des coûts de l’électricité et des risques de coupure.

Les sources renouvelables comme l’énergie éolienne et solaire nécessitent en effet des systèmes supplémentaires pour être fiables, ce qui rend difficile une alimentation électrique 24 heures sur 24 et 7 jours sur 7. Toutefois, des technologies émergentes comme les batteries sodium-ion et les petits réacteurs nucléaires pourraient offrir des solutions plus propres et plus régulières à l’avenir.

Cependant, pour être un peu positif, la croissance des centres de données représente une opportunité pour stimuler les investissements dans les énergies propres et les technologies de décarbonisation.

Les grandes entreprises technologiques adoptent diverses stratégies pour réduire leurs émissions. Google investit dans des projets d’énergie renouvelable et développe des technologies de stockage en batteries.

Des dépenses cloud gaspillées

Microsoft vise à être neutre en carbone d’ici 2030 en utilisant des énergies renouvelables et en améliorant l’efficacité énergétique. Amazon prévoit d’alimenter ses centres de données entièrement avec de l’énergie renouvelable d’ici 2025.

Malgré ces efforts, des préoccupations subsistent quant à l’engagement réel des fournisseurs de cloud en faveur de la décarbonisation. En Irlande, par exemple, la construction d’un nouveau centre de données de Google a été bloquée en raison de préoccupations concernant la consommation d’énergie.

De plus, une enquête de Stacklet révèle que 78 % des entreprises estiment que 21 à 50 % de leurs dépenses cloud sont gaspillées chaque année, représentant des pertes financières considérables.

En fin de compte, la responsabilité incombe à tous, y compris aux utilisateurs finaux. Par exemple, répondre à 20 à 50 questions avec ChatGPT consomme environ 500 ml d’eau, soit l’équivalent d’une petite bouteille !

Le Top 5 de vos contenus préférés en 2024 !

Si l’année 2024 a été riche en émotions et en surprises, les actualités scientifiques n’ont elles non plus pas démérité. Cette année encore, l’intelligence artificielle a été à l’honneur avec de nombreuses innovations, mais aussi des questionnements sur son utilisation. L’équipe de Techniques de l’Ingénieur a fait de son mieux pour vous proposer un contenu de qualité, permettant de suivre et comprendre avec nuances ces actualités. Et votre intérêt pour ce sujet se ressent dans nos chiffres. Voyons les contenus qui vous ont le plus marqué !

Votre dossier préféré

Publié en novembre 2024, notre dossier « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable » a été le plus lu de l’année ! Les modèles d’intelligence artificielle, de plus en plus performants et sophistiqués, vont dans les mois et les années à venir révolutionner à la fois notre quotidien mais surtout notre travail. De nombreux chercheurs tentent d’évaluer dans quelle mesure l’IA va rendre obsolètes de nombreux emplois. Les plus optimistes laissent entendre que l’IA va créer autant d’emplois qu’elle va en détruire, tandis que les enquêtes les plus pessimistes laissent penser que nous devons nous préparer à un chômage de masse. 

Par ailleurs, ces évolutions engendrent aussi des problématiques sérieuses en termes de sécurité et d’éthique sur le web. Enfin, le sujet des armes autonomes est également sorti du domaine de la science-fiction pour entrer dans la réalité. Tout ceci incite les autorités à mettre en place des lignes rouges, qui doivent permettre de garder le contrôle sur les modèles d’intelligence artificielle mis en œuvre aujourd’hui. 

Votre livre blanc préféré

En février 2024, notre livre blanc  « Intelligence artificielle : le progrès à quel prix ? » a été téléchargé en masse. Encore il y a peu l’apanage des experts, l’IA est entrée vivement dans la vie de tous lors du lancement de ChatGPT en novembre 2022. Depuis, nombres d’entreprises se lancent dans le secteur de peur de se faire distancer. Mais cette course aux innovations injecte dans nos vies de nouvelles technologies qui n’ont pas forcément été suffisamment réfléchies et dont les impacts -sociaux, sociétaux, écologiques, géopolitiques- interrogent.

Ce livre blanc met en lumière les dysfonctionnements causés par l’IA et les nombreux problèmes éthiques que son utilisation constante et parfois peu raisonnée soulève. Nos interlocuteurs proposent également des pistes de solution pour une IA plus responsable, avec de bonnes pratiques en entreprise ou en formation, et avec une plus grande présence de la société civile, pour consentir ou non à tous ces chamboulements dans notre vie quotidienne.

Votre conférence en ligne préférée

Parmi nos conférences en ligne, le Webinar  « IA générative : usages et applications avancées pour la veille technologique » a été votre préféré ! L’IA générative, focalisée sur la création de contenu, utilise des modèles comme les GAN et les Transformers pour générer et transformer des données existantes selon des schémas prédéfinis. Elle excelle dans des usages basiques tels que la rédaction de résumés, la traduction et la synthèse de données, mais elle peut aussi être utilisée pour des usages avancés comme le RAG pour répondre à des questions spécifiques en temps réel et l’extraction structurée d’informations. Elle est également utilisée pour la personnalisation des usages et l’exploitation de corpus spécialisés, tels que les données de brevets, dans le domaine de la veille technologique.

Ce webinar permet de définir les différentes classifications de l’IA et ses principaux domaines d‘applications. Les principes de fonctionnement de l’IA générative, ses principaux modèles et applications sont présentés, pour ensuite évoquer les usages standards de l’IA générative pour un ROI rapide et les usages avancés via le RAG (Retrieval Augmented Generation) pour des besoins spécifiques en veille technologique.

Votre portrait d’expert préféré

Du côté de nos experts, le portrait de Christophe Bonnal, conseiller scientifique sur notre offre « Systèmes aéronautiques et spatiaux », a été le plus consulté ! Le monde de l’espace évolue, et avec lui son éthique. Il semble ainsi inconcevable, aujourd’hui, d’envisager l’exploitation du ciel – qu’il s’agisse de l’envoi de fusées, de satellites… ou de tourisme spatial – sans aborder la préservation de cet environnement stellaire. Christophe Bonnal, expert senior à la Direction de la Stratégie du CNES avant de devenir expert senior système chez MaiaSpace, retrace pour nous son parcours et évoque les implications d’un univers très convoité.

Votre épisode de podcast préféré

2024 a aussi sonné avec la reprise de notre podcast Cogitons sciences ! Notre première mini-série de 3 épisodes s’intéressait à l’IA dans nos métiers. L’épisode  « Comment l’IA révolutionne notre façon de travailler ? » a été largement plébiscité.

L’intelligence artificielle est partout. Mais comment celle-ci peut-elle aider les ingénieurs et chercheurs dans leur métier ? Nous avons posé la question à nos invités Frédéric Pascal, Professeur des Universités (Université Paris-Saclay) et directeur de l’institut DATAIA, et Marie-Aude Aufaure, directrice de la société de conseil et de formation Datarvest. Distinguer l’IA classique, générative et hybride, accepter l’IA dans son quotidien professionnel, déterminer des tâches à déléguer aux différentes IA, faire des prompts précis… Frédéric Pascal et Marie-Aude Aufaure nous apportent leurs éclairages sur ces technologies déjà ancrées dans nos métiers.

Avancée majeure pour les matériaux polymères : rigidité et extensibilité enfin découplées grâce à une nouvelle structure innovante

Rigidité versus extensibilité. Ces deux paramètres physiques qui caractérisent les matériaux polymères semblaient jusqu’à présent intimement couplés, forçant les scientifiques à sacrifier l’un au profit de l’autre lors du développement de nouveaux polymères : un matériau plus rigide était donc également moins extensible, et vice-versa.

Un couplage entre rigidité et extensibilité qui semblait insolvable

Depuis l’invention du premier polymère réticulé en 1839 par Charles Goodyear, ce couplage semblait insoluble et posait évidemment de nombreuses contraintes et limitations dans l’emploi et le développement de ces matériaux. De nombreux domaines, notamment le médical, sont en effet à la recherche de matériaux durables dans le temps, présentant une certaine rigidité, mais aussi capables de s’étirer et de se dilater sans se rompre. Des caractéristiques qu’il était jusqu’à présent difficile d’obtenir en raison de l’architecture des polymères réticulés. La formation de réseaux tridimensionnels via des liaisons chimiques entre les chaînes macromoléculaires entraîne en effet de fait un couplage entre rigidité et extensibilité. Pour obtenir un polymère plus rigide, il est ainsi d’usage d’ajouter davantage de réticulations au réseau polymère, tout en sachant que cela va produire une baisse de l’extensibilité et donc une plus grande fragilité du matériau face à une contrainte extensive.

Une structure plus complexe du brin polymère, en forme de « goupillon »

Pourtant, une équipe de l’Université de la Virginia School of Engineering and Applied Science vient de mettre à terre ce dogme en montrant qu’une dissociation des deux paramètres était bien possible, résolvant ainsi une problématique vieille de 200 ans !

Par les innombrables implications qu’elle ouvre pour le développement et l’utilisation des matériaux polymères, cette découverte a fait la une du journal Science Advances, dans lequel l’équipe de Liheng Cai présente ses résultats.

« Notre équipe a réalisé qu’en concevant des polymères ayant la forme de goupillons plissés capables de stocker de la longueur dans leur propre structure, nous pouvions découpler la rigidité et l’extensibilité – en d’autres termes, intégrer l’extensibilité sans sacrifier la rigidité » explique Liheng Cai dans un communiqué. Une approche novatrice qui se concentre sur la conception moléculaire des brins du réseau plutôt que sur les liaisons entre les chaînes de polymères elles-mêmes.

Au lieu de produire des brins de polymères linéaires, les chercheurs ont en effet créé une structure qui ressemble à un goupillon : de nombreuses chaînes moléculaires latérales flexibles rayonnent à partir d’un brin central intensément plissé sur lui-même. Lorsque le matériau est étiré, ce brin central peut alors se déplier comme un accordéon sans perdre la rigidité qui lui est donnée par les chaînes latérales. Cette longueur supplémentaire « cachée » permet ainsi d’étirer le matériau jusqu’à 800 % de sa longueur initiale, sans endommager le matériau. Lorsque la tension est relâchée, le polymère revient ainsi à sa forme initiale. Ce contrôle indépendant sur la rigidité et l’extensibilité est une véritable première. La stratégie développée semble d’autant plus intéressante qu’elle n’est pas restreinte à un type de polymère particulier. Cette structure peut en effet s’appliquer de manière « universelle », comme l’annoncent les chercheurs dans le titre de leur article.

Une structure imprimable en 3D qui ouvre la voie à de très nombreuses applications

À noter que ces polymères ramifiés sont composés d’au moins deux polymères différents : l’un pour les chaînes latérales, et l’autre pour le brin central. Les combinaisons possibles offrent ainsi une très large gamme d’applications, avec des caractéristiques jusqu’à présent inexistantes. En ajoutant des nanoparticules conductives, comme des nanotiges d’argent ou d’or, il semble ainsi possible de produire des matériaux qui trouveront un champ d’application dans le tout nouveau champ de l’électronique extensible. De plus, cette structure de polymère a été pensée pour être imprimable en 3D, ce qui devrait faciliter son utilisation dans des domaines extrêmement variés. Les nouveaux systèmes robotiques, à la recherche de matériaux pouvant mimer les tissus organiques comme les muscles, seront ainsi certainement preneurs de cette nouvelle structure polymère.

Le domaine médical devrait également être fortement intéressé par ces nouveaux résultats. Les scientifiques envisagent en effet de nombreuses applications pour la fabrication de prothèses et d’implants médicaux.

La chimie supramoléculaire au secours du plastique ?

On l’a vu pendant la pandémie de Covid en particulier, les matériaux plastiques sont irremplaçables pour les besoins de nos sociétés modernes. Que ce soit pour les secteurs de l’emballage, de la santé, du textile, les solutions à base de plastique sont performantes, peu chères et peuvent être produites rapidement et en grandes quantités. Revers de la médaille, les plastiques se dégradent extrêmement lentement dans l’environnement, et leur recyclage est compliqué. La composition des plastiques varie selon les propriétés attendues, relatives à leurs usages, et il est nécessaire de les séparer et de les trier pour les traiter en tant que déchets. Les législations récentes visant à limiter certains usages, doivent permettre de circonscrire – un peu- l’augmentation faramineuse des déchets plastiques.

Aussi, une quantité gigantesque de matières plastiques ne sont pas collectés et se retrouvent in fine dans les océans, comme en témoigne le fameux continent plastique, au sein duquel on retrouve des plastiques de taille microscopique, les micro plastiques. Ces derniers envahissent notre environnement, et de nombreuses études attestent aujourd’hui du fait que ces particules microscopiques se retrouvent dans nos organismes, jusque dans notre cerveau, entre autres.

Le traitement des déchets plastiques est devenu à ce titre un enjeu environnemental, mais aussi de santé publique.

Le développement, par une équipe de recherche japonaise, d’un plastique supramoléculaire est à ce titre une innovation de rupture

La chimie supramoléculaire est une des branches de la chimie qui repose sur les interactions non-covalentes ou faibles entre atomes au sein d’une molécule ou entre molécules, au sein d’un ensemble moléculaire. Ainsi, pour faire simple, le plastique supramoléculaire est conçu pour que ses composants se séparent au contact de l’eau de mer.

Comment cela fonctionne ? Des connexions moléculaires, les ponts salins réticulés, qui confèrent nativement des propriétés de stabilité aux ensembles moléculaires qu’ils permettent de former, ont été utilisés pour synthétiser un plastique composé d’hexa métaphosphate de sodium, un additif alimentaire courant, et d’un monomère à base de guanidinium. Les ponts salin, qui confèrent une grande solidité à la structure moléculaire obtenue, se dissolvent totalement au contact des électrolytes contenues dans l’eau de mer. Mieux, il est possible de récupérer près de 80 % des deux composants après dissolution.

Le choix de l’hexa métaphosphate et du guanidinium ne doit rien au hasard. En effet, ces deux molécules ont l’avantage de pouvoir être métabolisées par des bactéries, assurant ainsi leur dégradation complète.

Seuls restent après dégradation des composés comme l’azote ou le phosphore, qui pourraient servir d’engrais si ce composé plastique est enfoui dans le sol, dans lequel il se dégrade en quelques jours.

L’équipe japonaise qui a développé ce plastique révolutionnaire a testé plusieurs monomères pour tester les propriétés mécaniques des plastiques obtenus. Que ce soit en termes de dureté, de résistance ou de flexibilité, les résultats obtenus sont équivalents voire supérieurs aux caractéristiques des plastiques existants. 

Cette innovation est donc une piste qui pourrait s’avérer décisive pour mettre en œuvre une solution à la pollution plastique actuelle. Même si d’ores et déjà, les déchets plastiques qui jonchent notamment les océans mettront plusieurs siècles à disparaître.

Il y a quelques mois, une étude publiée dans la revue Environmental Science and Technology relatait la découverte d’une famille de bactéries environnementales, les Comamonadacae, capables de décomposer les plastiques existants pour en faire de la nourriture. Les mécanismes exacts à l’œuvre ici restent encore à l’heure actuelle mal connus et peu documentés.

L’IA et le droit d’auteur : un défi juridique

En avril 2023, une chanson intitulée « Heart on My Sleeve » attribuée à Drake et The Weeknd a attiré plus de 15 millions de vues sur les réseaux sociaux et 600 000 écoutes sur Spotify. Pourtant, aucun des deux artistes n’était au courant de cette chanson, créée par l’IA. Cet exemple illustre la capacité de l’IA à générer du contenu original, ce qui brouille les frontières entre création humaine et machine.

Quand l’IA est-elle un simple outil et quand devient-elle un auteur ? Un début de réponse a été donné le 18 août 2023, un tribunal américain ayant statué que la créativité humaine est essentielle au droit d’auteur. Cependant, il a également reconnu que l’utilisation croissante de l’IA pour créer des œuvres d’art soulève des questions complexes sur le recours à l’IA…

Aux États-Unis toujours, le Bureau du droit d’auteur a lancé une initiative en 2023 pour examiner ces questions. Fin juillet 2024, il a publié un rapport très détaillé de 72 pages (et il ne s’agit que de la première partie…) soulignant l’urgence d’introduire une nouvelle protection au niveau fédéral pour les répliques numériques.

L’entraînement des modèles d’IA générative soulève en effet une question cruciale : l’utilisation de contenus protégés par le droit d’auteur dans ce processus constitue-t-elle une violation ?

Les créateurs de contenu accusent des sociétés d’IA d’utiliser leurs œuvres sans consentement ni compensation. Cependant, prouver une similitude substantielle ou une œuvre dérivée est complexe, car les œuvres générées par l’IA ne correspondent pas toujours étroitement aux œuvres originales.

Les artistes peuvent invoquer des droits à la publicité si les modèles d’IA imitent leurs voix. De même, les propriétaires d’images peuvent s’appuyer sur le droit des marques. Par exemple, l’agence de photographie et banque d’images Getty Images a accusé Stability AI de porter atteinte à ses marques en générant des images de mauvaise qualité.

Les éditeurs peuvent également utiliser des interdictions dans les accords d’utilisation pour empêcher les sociétés d’IA de récupérer du contenu pour l’entraînement. Des sites comme Amazon et le New York Times incluent désormais des dispositions contre l’exploration de données.

En fait, comme dans de nombreux cas, la technologie évolue rapidement, mais le changement juridique est plus lent. L’internet a également bouleversé les normes et les limites du droit d’auteur. De nouvelles lois et décisions judiciaires devraient donc apparaître pour traiter les questions de droit d’auteur liées à l’IA générative.

En Europe, la Commission a annoncé cet été le lancement d’une consultation sur les modèles d’intelligence artificielle polyvalente dignes de confiance (« GPAI »). Objectif ? L’élaboration du premier code de pratique de l’IA en général et en particulier des modèles de langage tels que ChatGPT et Google Gemini.

Des traverses de chemins de fer en plastiques recyclés ?

Dans le ferroviaire, les émissions de gaz à effet de serre (GES) proviennent principalement de l’énergie consommée pour le transport et des matériaux employés dans les infrastructures – l’acier et le béton présentant de fortes empreintes carbone. Selon une équipe de recherche de l’université de Tampere (Finlande), une alternative dans le domaine de la construction et de la maintenance pourrait venir des plastiques recyclés (habituellement incinérés).

Pour le démontrer, le premier auteur Heikki Luomala et ses deux collègues Rami Halme et Ilari Jönkkäri ont choisi de se concentrer sur les traverses de chemins de fer. En effet, celles-ci représentent une importante quantité de matière avec une durée de vie pouvant atteindre 60 ans. Les traverses ont donc un impact certain sur les émissions de GES. L’idée des trois scientifiques de Tampere est décrite en détail dans le journal Frontiers in Sustainability en date du 12 décembre 2024.

Les étapes de production des traverses en plastique

Les plastiques étudiés dans la nouvelle étude proviennent soit d’équipement électrique et électronique, soit du rejet issu du recyclage des cartons d’emballage de liquides. Dans le premier cas, une fois le métal retiré, le plastique majoritaire est l’acrylonitrile butadiène styrène (ABS). Dans le second cas, le processus de repulpage du carton permet de séparer les fibres de cellulose de l’aluminium et des plastiques. Ce rejet contient comme principaux plastiques du polyéthylène (PE), du propylène (PP), de l’éthylène alcool vinylique et du polyéthylène téréphtalate (PET). La production des traverses de test suit six étapes distinctes : la compression, le fraisage, l’extrusion, la granulation, le séchage et le moulage par injection. En premier lieu, la compression s’effectue à 200°C pendant environ 4 minutes. Le fraisage permet ensuite de retirer la matière excédentaire. Les deux rubans de plastique recyclé en sortie de l’extrusion sont ensuite découpés afin d’obtenir de petits granules. Ceux-ci sont séchés à 70°C durant près de 2 heures. Enfin, la procédure se termine avec le moulage par injection (à 210°C pendant 10 secondes pour le rejet de repulpage du carton, et à 230°C pendant 13 secondes pour l’ABS). Les chercheurs reçoivent en bout de ligne des traverses composées de plastiques recyclés longues de 2,6 mètres, larges de 25 centimètres et épaisses de 15 centimètres.

Les tests subis par ces traverses visaient avant tout à vérifier qu’elles pouvaient garder leur forme malgré la pression d’une charge et de fortes hausses de température. À ce jeu-là, les traverses en ABS ont été les plus convaincantes.

En effet, tandis que les traverses issues du rejet de repulpage du carton avaient tendance à s’amollir à 55°C, les traverses en ABS ne bougeaient pas et montraient même une solidité et une dureté presque trois fois plus importantes. D’après les auteurs de l’étude, ces dernières pourraient donc s’adapter à tous types de chemins de fer. Pour se donner une idée des économies réalisées sur les émissions de GES, il suffit d’imaginer le recyclage de tout le rejet de repulpage du carton sous forme de traverses (renforcées de barres d’acier) en Finlande en un an. En remplaçant le béton, elles réduiraient les émissions de 3 610 tonnes en équivalent CO2. Et si à cela venait s’ajouter le recyclage de l’ABS, la réduction annuelle d’émissions pourrait atteindre 24 200 tonnes en équivalent CO2. D’ici à ce que ces traverses en plastique soient disposées sur les voies, de futures recherches devraient réaliser des exemplaires de test à l’échelle afin d’observer leur comportement sur le long terme.

Revue du Magazine d’actualité #15 : du 16 au 20 décembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Le défi technique du stockage des énergies renouvelables

Garantir la constance des énergies renouvelables face à leur intermittence reste un défi majeur. Des solutions comme le pompage hydraulique, l’hydrogène ou les batteries promettent une révolution, mais à quel coût ? Découvrez les avancées et limites de ces technologies dans la transition énergétique.
Des solutions de stockage des énergies renouvelables à quel prix ?

Gazéification hydrothermale : une filière émergente pour transformer les déchets en gaz renouvelable

Avec 24 projets retenus et un soutien attendu de l’État, la gazéification hydrothermale s’impose comme une technologie prometteuse pour valoriser les déchets à forte teneur en eau en gaz renouvelable. Découvrez comment cette innovation pourrait révolutionner la transition énergétique en France.
Transformation de nombreux déchets en gaz renouvelable ?

Capturer les microplastiques avec des aimants pour lutter contre leur prolifération

Des chercheurs brésiliens ont développé une méthode innovante utilisant des nanoparticules magnétiques pour extraire les microplastiques de l’eau. Une technologie qui pourrait révolutionner la lutte contre la pollution plastique et ouvrir la voie à des solutions durables.
Une avancée prometteuse pour capturer les microplastiques

La lumière au service de l’informatique quantique

De son usine à Massy, la scale-up Quandela révolutionne l’informatique quantique avec sa technologie photonique innovante. En alliant robustesse, efficacité énergétique et industrialisation, la scale-up française ouvre la voie à une nouvelle ère, avec des ordinateurs quantiques prêts à transformer l’avenir du calcul.
Un éclairage pour l’avenir des ordinateurs quantiques

Inspiré des raies Manta, un robot nageur ultra-rapide

En combinant biomimétisme et ingénierie de pointe, des chercheurs américains ont conçu un robot mou monostable qui bat des records de vitesse sous l’eau, atteignant 6,8 longueurs par seconde. Découvrez comment ce robot inspiré des raies Manta pourrait révolutionner l’exploration des fonds marins et la surveillance environnementale.
Un robot nageur pulvérise les records de vitesse sous l’eau

Le robot mou nageur le plus rapide s’inspire des raies Manta

Le genre Manta est caractérisé par de grandes raies possédant une envergure minimale de 5,5 mètres. Et aux nageoires pectorales, triangulaires et très élargies, n’étant pas sans rappeler des ailes… Les raies les utilisent d’ailleurs d’une façon similaire à celle des oiseaux, leur corps aplati battant de ses « ailes » pour nager. Le résultat est très efficace ! En effet, il suffit aux Manta de deux battements à forte amplitude par seconde pour se projeter en avant à grande vitesse.

Après un premier essai prometteur en robotique molle s’inspirant des traits biologiques particuliers de ces animaux marins, une équipe de recherche a remis le couvert en améliorant leur design. Le robot mou nageur mis au point par les scientifiques de l’université d’État de Caroline du Nord, à Rayleigh, et de l’université de Virginie, à Charlottesville (États-Unis), est ainsi parvenu à battre le record de vitesse… établi auparavant par la même équipe ! La conception de ce nouvel engin ainsi que ses capacités sont décrites dans le journal Science Advances en date du 4 décembre 2024.

Le robot Manta monostable : moins lourd et moins énergivore

Le premier auteur de cette nouvelle étude dans le domaine de la robotique se nomme Haitao Qing. Avec l’aide de ses collègues, il a fabriqué un robot nageur en forme d’aile. Deux rubans de polyester ont tout d’abord été attachés à un corps flexible en silicone. Celui-ci contenait une chambre permettant de pomper de l’air à l’intérieur de l’engin. Ensuite, les chercheurs ont relié les extrémités des rubans, formant ainsi une paire d’ailes bistables. À ce stade, le nouveau robot était équivalent à sa première mouture de 2,8 grammes, qui pouvait manœuvrer de 157° en une seconde et nager à 3,74 longueurs par seconde en un seul battement d’ailes – un résultat alors 48 fois plus rapide que le précédent record ! Mais des ailes bistables sont, comme leur nom l’indique, stables dans deux états : les ailes relevées ou baissées. Autrement dit, effectuer un aller-retour des ailes demande deux actionneurs différents – autant de masse à ajouter au robot – à activer l’un après l’autre – et autant d’énergie utilisée. Voilà pourquoi l’équipe de Haitao Qing s’est penchée vers un modèle monostable.

Robot Manta
Le robot Manta est capable d’éviter les obstacles sous l’eau. Crédits : Haitao Qing, NC State University.

Après la formation de ses ailes bistables, le robot nouvelle génération a eu droit à un traitement thermique à 55°C permettant de relâcher partiellement l’énergie élastique stockée dans les ailes. C’est de cette manière que les scientifiques sont parvenus à obtenir un robot monostable – stable uniquement les ailes relevées. Désormais, il suffisait d’un actionneur – alimenté par énergie pneumatique grâce au gaz comprimé dans la chambre en silicone – pour battre des ailes vers le bas, ces dernières revenant d’elles-mêmes en position relevées. Les chercheurs ont dans un premier temps testé la nage en surface de leur robot de 2,2 grammes dans un aquarium de 56 litres, puis dans un second temps sa nage sous-marine dans un second aquarium de 132 litres – lesté cette fois d’une boule en acier de 0,68 gramme. Avec une consommation d’énergie 1,6 fois moindre, le nouveau robot Manta a atteint une vitesse presque double de celle de son prédécesseur : 6,8 longueurs par seconde. Soit 156 mm/s, une valeur comparable à celle du saumon de l’Atlantique ! À l’avenir, de tels engins pourraient servir lors de missions d’exploration en eaux profondes ainsi que pour la surveillance environnementale en surface ou sous-marine.

À Massy, Quandela fait passer l’ordinateur quantique de l’ombre à la lumière

Obscure, nébuleuse, déconcertante… Pour beaucoup de non-initiés, l’informatique quantique s’apparente sans doute plus, aujourd’hui encore, à une chimère ou à un vague concept science-fictionnel dont se serait saisi une poignée de chercheurs utopistes qu’à une réalité industrielle. Et pourtant dans les faits, c’est bien à la naissance d’une véritable industrie de l’ordinateur quantique que nous sommes en train d’assister, comme l’illustre notamment le parcours de l’un des protagonistes de cette aventure académico-industrielle : le Français Quandela.

Les fondateurs de Quandela
Quandela a été cofondée en 2017 par Niccolo Somaschi, Pascale Senellart, et Valérian Giesz (de gauche à droite sur la photo). © Agence Oblique / Cyril Marcilhacy

Née en 2017 sous l’impulsion d’un trio de scientifiques multiprimé[1], la start-up devenue scale-up après avoir levé plus de 65 M€ entre 2020 et 2023 – est en effet, aujourd’hui, pleinement engagée dans la phase d’industrialisation de sa technologie singulière de génération de qubits, baptisée eDelight.

Et la lumière fut !

Là où certains de ses concurrents misent en effet sur les qubits supraconducteurs, à ions piégés, ou encore à atomes neutres froids, Quandela a quant à elle développé une technologie dite « photonique », qui repose sur l’émission de « photons uniques ». Ceci, à raison de 80 millions par seconde… Comment ? Grâce à un laser et à des nanostructures semi-conductrices appelées « quantum dots », ou « boîtes quantiques », clé de voûte de la technologie de génération de qubits photoniques eDelight.

Quandela, génération des bits quantiques, ou qubits
Pour générer des bits quantiques, ou qubits, Quandela mise sur une approche dite « photonique », basée sur l’émission de photons uniques. © Benoît Crépin

« L’un des principaux avantages du photon est sa stabilité, sa robustesse », fait valoir Valérian Giesz, cofondateur et directeur des opérations de Quandela. « On peut donc facilement manipuler l’information circulant au travers de circuits photoniques », poursuit-il. Autre avantage, et pas des moindres, la technologie photonique de Quandela se révèle, selon ses concepteurs, jusqu’à dix fois moins énergivore que les autres technologies de génération de qubits. « À tout cela s’ajoute aussi la possibilité de faire appel à certains composants déjà utilisés pour l’accès à Internet, notamment les fibres optiques », souligne Valérian Giesz, qui entrevoit d’ailleurs d’ores et déjà la possibilité de mettre en réseau plusieurs ordinateurs quantiques, afin d’en tirer une puissance de calcul démultipliée. « C’est pour demain ! Ou, disons… après-demain », glisse-t-il.

Pour l’heure, c’est en tout cas à des processeurs quantiques à 6, 10, voire 12 qubits « physiques » (sans correction d’erreur) que Quandela est parvenu à donner naissance. Des systèmes qui répondent aux doux noms d’Ascella, d’Altair et de Belenos, capables, respectivement, d’effectuer jusqu’à 144, 400 et 576 opérations quantiques par seconde.

« Nous avons notamment été sélectionnés par EuroHPC[2], pour fournir un ordinateur quantique à 12 qubits au Très grand centre de calcul (TGCC) du CEA », dévoile ainsi Valérian Giesz. Livraison prévue en fin d’année prochaine…

Quandela et sa ligne pilote à Palaiseau
Fabriquées sur la ligne pilote inaugurée en juin dernier par Quandela à Palaiseau, les sources de photons uniques sont acheminées jusqu’à l’usine d’assemblage de Massy sous vide d’air, au sein de ces boîtes protectrices. © Benoît Crépin

La machine s’ajoutera alors aux premiers exemplaires déjà livrés par Quandela – ou sur le point de l’être – au Français OVHcloud en 2023 pour l’une, et à la filiale québécoise d’EDF Group Exaion pour trois autres d’entre elles cette année. « Nous sommes en train de déployer un véritable “cloud quantique” avec ce partenaire », explique le directeur des opérations de l’entreprise. Quandela, qui propose d’ailleurs déjà depuis 2022 sa propre offre de services de calcul quantique dans le nuage, Quandela Cloud, accessible à tous. Une première à l’échelle européenne, comme l’ont d’ailleurs été plusieurs autres faits d’armes de celle qui se définit elle-même comme un acteur full-stack[3] de l’informatique quantique : premier ordinateur quantique livré à un client privé par un acteur européen ; première ligne pilote au monde dédiée à la production de sources de photons uniques (inaugurée à Palaiseau en juin dernier, au sein de l’Institut Photovoltaïque d’Île-de-France, l’IPVF), mais aussi, l’an dernier, rien de moins que la première usine de production d’ordinateurs quantiques de l’Union européenne. Un site implanté quant à lui à Massy, dont Quandela nous a ouvert les portes en octobre dernier.

La fabrique du quantique

Après un détour par les bureaux à l’étage de ce bâtiment flambant neuf – inauguré en juin 2023, en présence notamment du lauréat 2022 du prix Nobel de physique Alain Aspect –, direction le rez-de-chaussée pour pénétrer le Saint des saints : la ligne de production d’ordinateurs quantiques à proprement parler. Après avoir enfilé une paire de sur-chaussures, nous découvrons une salle blanche dans laquelle s’affairent des opérateurs tout de bleu vêtus. Deux d’entre eux sont confinés dans un espace clos par un rideau à lanières transparentes. « Ces ingénieurs travaillent à la caractérisation des circuits photoniques ; ils vérifient leur fonctionnement », explique Valérian Giesz. Conçus par Quandela, ces composants sont en effet fabriqués par des fonderies partenaires, à partir de nitrure de silicium. « On n’en conserve qu’environ 10 % – les meilleurs – pour les intégrer dans nos ordinateurs quantiques », souligne le directeur des opérations de Quandela.

À quelques pas de là siège un atelier de fabrication des cartes électroniques conventionnelles associées aux composants photoniques. « Vous voyez ici deux PCB[4] en cours de test, qui vont ensuite pouvoir être implémentés dans les racks derrière vous », nous décrit le directeur de l’ingénierie matérielle de Quandela, Nicolas Maring.

Quandela, test des composants en salle blanche
Avant d’être définitivement intégrés au sein d’armoires métalliques pour donner vie à un nouvel ordinateur quantique, les composants sont soigneusement testés au sein de la salle blanche de l’usine de Massy. © Benoît Crépin

C’est à ce moment que nous découvrons alors le vrai visage d’un ordinateur quantique : une « simple » armoire métallique ; une baie de serveur informatique comme on en trouve dans à peu près n’importe quel data center au monde. On en serait presque déçu…

Quandela, ordinateur quantique à 6 qubits
Voici le visage d’un ordinateur quantique à 6 qubits. © Benoît Crépin

Jusqu’à ce que l’on se penche sur les éléments qui s’apprêtent à y prendre place : laser, compresseur et circuit d’hélium, permettant de maintenir trois degrés au-dessus du zéro absolu la source de photons uniques, elle-même enfermée dans la chambre d’un cryostat maintenu sous vide, contenant également les détecteurs de photons[5]. Ce à quoi s’ajoute notamment un système opto-électronique de collecte et de synchronisation des photons uniques, mais aussi le centre névralgique de la machine : sa puce photonique ; autrement dit, son processeur quantique. Le tout, en passe d’être relié par un entrelacs de câbles électriques et de fibres optiques… « Nous préparons cette machine pour la commande passée par EuroHPC », confie Valérian Giesz, avant de nous emmener vers une nouvelle tranche de l’usine, tout juste aménagée, où trône cette fois une machine à 6 qubits pleinement fonctionnelle.

Pas de surprise, elle se résume elle aussi, vue de l’extérieur, à deux baies de serveur tout à fait conventionnelles. Alimentées par une simple prise murale 230 volts et reliées au réseau via un câble Ethernet tout ce qu’il y a de plus classique, elles sont malgré tout agrémentées d’une petite touche de fantaisie : un ruban de LED défilantes, qui donnerait presque à l’ensemble l’apparence d’un (gros) ordinateur de gaming… Mais la comparaison s’arrête-là. « Ces deux armoires contiennent le système laser, les différents éléments optiques et le cryostat, ici, en bas, ainsi que toute l’électronique de contrôle », énumère en effet Nicolas Maring, dont la voix est presque couverte par le ronronnement aigu de l’appareil. Une machine pleinement fonctionnelle, qui n’est en outre qu’un avant-goût de ce que seront, demain, les ordinateurs quantiques de Quandela.

Qubits : du physique au logique

Quandela, alimentation de l'ordinateur quantique
L’ordinateur quantique de Quandela est alimenté via une simple prise secteur 230 volts. © Benoît Crépin

« Nous avons encore un gros travail de miniaturisation à faire ; les armoires contiennent encore beaucoup de vide », concède le directeur de l’ingénierie matérielle de Quandela. Un travail d’optimisation qui sera indispensable pour que se concrétise la prochaine étape clé de la feuille de route dévoilée il y a peu par l’entreprise : l’implémentation de qubits dits « logiques », des qubits sans erreurs nécessitant en effet, pour cela, la génération de centaines, voire de milliers de qubits physiques. « Pour y parvenir, nous misons sur une approche hybride matière-lumière, dont bénéficieront ainsi nos prochaines générations d’ordinateurs quantiques… », dévoile Valérian Giesz. « Notre objectif est de parvenir à démontrer la faisabilité et le fonctionnement de cette approche à l’horizon 2025-2026 », ajoute-t-il.

De quoi franchir, si tout se passe bien, le seuil des 10 qubits logiques en 2027, puis des 50 en 2028. Une année qui pourrait ainsi marquer le début d’une nouvelle ère pour Quandela, celle de la généralisation et de la démocratisation de ses futurs ordinateurs quantiques à qubits logiques. Des machines capables, à terme, de réaliser pas moins d’un million d’opérations quantiques par seconde… Hier obscure et nébuleuse, l’informatique quantique, pourrait bien, demain, finir par nous donner le vertige.

Quandela : une équipe qui s’étoffe toujours plus

Le 27 novembre dernier, Quandela a annoncé le recrutement de deux profils seniors supplémentaires au sein de son équipe dirigeante : Nicolas Fellmann, qui s’est vu confier le poste de directeur financier, et Xavier Geoffret, placé quant à lui à la tête du pôle Business Development. De nouvelles recrues qui viennent ainsi étoffer une équipe déjà composée de plus de cent salariés, représentant une vingtaine de nationalités.

 

[1] Pr. Pascale Senellart, médaille d’argent du CNRS, Dr. Niccolo Somaschi, prix Jerphagnon 2023, et Dr. Valérian Giesz, lauréat de la finale nationale du concours Chercheurs-Entrepreneurs Challenges et lauréat du classement Choiseul 100.

[2] European High Performance Computing Joint Undertaking, Entreprise commune pour le calcul à haute performance européen.

[3] Car œuvrant sur tous les aspects matériels, logiciels et intergiciels (middleware) de ses ordinateurs quantiques.

[4] Printed circuit boards, circuits imprimés.

[5] Dans le cas du modèle à 6 qubits, MosaiQ-6. Son équivalent à 12 qubits MosaiQ-12 contient quant à lui deux cryostats distincts.

Les thèses du mois : « Éviter, réduire, contribuer : la finance carbone fait la chasse à l’écoblanchiment »

Pour notre dossier de décembre, « Éviter, réduire, contribuer : la finance carbone fait la chasse à l’écoblanchiment », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Aspects distributifs des politiques climatiques
Marie Young-Brun
Doctorat en Sciences économiques, soutenu le 18/09/2023
Centre d’économie de la Sorbonne

Le droit fiscal et financier de l’environnement au soutien de l’action publique
Rémy Dufal
Doctorat en Droit Public, soutenu le 11/12/2023
Environnement, ville, société

L’utilisation des mécanismes de droit fiscal dans le contrôle de la pollution atmosphérique
Vladimir Marchenko
Doctorat en Droit Public, soutenu le 20/09/2023
École doctorale Georges Vedel Droit public interne, science administrative et science politique

Le déploiement des marchés du carbone dans le monde depuis Kyoto : entre typification des outils marchands et fragmentation mondiale
Roman De Rafael
Doctorat en Sciences économiques, soutenu le 13/01/2023
Laboratoire Interdisciplinaire d’étude du Politique – Hannah Arendt

Essais sur la tarification et les marchés du carbone
Karishma Ansaram Kooshna
Doctorat en Sciences économiques, soutenu le 03/07/2023
Lille Économie Management

Échanger ou tricher ? La structure d’opportunité politiquement intégrée pour les contrevenants dans la marchandisation des permis de carbone
Wei-Ting Chao
Doctorat en Science politique, soutenu le 30/01/2023
Centre d’études européennes et de politique comparée

Les enjeux communicationnels pour l’instauration d’une démarche de neutralité carbone : le cas du Département de la Gironde.
Eloïse Vanderlinden
Doctorat en Sciences de l’information et de la communication, soutenu le 5/11/2023
Médiation, Information, Communication, Art

Émissions de CO2 estimées par données satellitaires sur les villes à forte croissance démographique
Alexandre Danjou
Doctorat en instrumentation, soutenu le 13/12/2022
Laboratoire des sciences du climat et de l’environnement

Rapprocher les politiques climatiques et les observations atmosphériques : Projection des stratégies d’atténuation du CO2 en milieu urbain à haute résolution spatiale
Ivonne Albarus
Doctorat en Géosciences, soutenu le 05/06/2024
Laboratoire des sciences du climat et de l’environnement

Modèles de théorie des jeux coopératifs pour les problèmes d’allocation appliqués à la distribution de permis d’émission de CO2
Raja Trabelsi
Doctorat en Informatique, soutenu le 11/01/2022
Laboratoire d’analyse et modélisation de systèmes pour l’aide à la décision

Neutralité carbone en 2050 : une approche nécessairement transversale de la transition énergétique

Un extrait de « Énergie et climat », par Alexandre ROJEY

L’énergie est partout dans nos vies. Elle contribue à notre confort, est indispensable à l’ensemble de nos industries et technologies. Les progrès du siècle précédent ont été permis grâce à une énergie abondante et relativement disponible, notamment le pétrole. Cependant, cette énergie fossile a un impact négatif important sur notre environnement et notre climat, au point que nous sommes aujourd’hui toujours plus confrontés à de nombreux événements météorologiques extrêmes. L’urgence est donc de limiter le réchauffement climatique et, consécutivement, de réduire les émissions de gaz qui en sont responsables. Comment y parvenir dans un contexte mondial, marqué en outre par des crises géopolitiques et alors que la demande d’énergie va croissante ?

Toujours plus de gaz à effet de serre

Le dioxyde de carbone est le gaz d’origine humaine contribuant le plus à l’effet de serre. Il est majoritairement issu des combustibles fossiles ainsi que de l’industrie, mais aussi de la déforestation et de la décomposition de la biomasse.

L’ensemble des émissions de gaz à effet de serre se mesure en termes de CO2 équivalent (eq CO2), dont les quantités augmentent dans l’atmosphère. Cette hausse, estimée à +4 °C d’ici la fin de notre siècle, entraînerait des conséquences potentiellement catastrophiques. Selon les experts du GIEC, il est impératif de la limiter à 1,5 °C d’ici 2100. Cet objectif n’est atteignable qu’en parvenant à la neutralité carbone à l’horizon 2050, et ce à travers une réduction massive de la consommation de combustibles fossiles, ainsi qu’une compensation des émissions résiduelles par la capture et la séquestration de CO2 dans la biomasse ou le sous-sol.

2020 avait vu les émissions diminuer du fait de la crise du Covid-19. Cependant, elles avaient de nouveau considérablement augmenté en 2022, à un niveau tel que le scénario d’une neutralité carbone à l’horizon 2050 semble s’éloigner inexorablement. Il nous faut donc imaginer de nouvelles solutions, pas seulement techniques, pour l’atteindre. C’est ainsi que nous devons repenser nos modes de vie et nos comportements, mais également notre habitat et les moyens de nous déplacer, tout en préservant la qualité de vie ou améliorant celle des pays en voie de développement.

Réduire la consommation d’énergie contribuera par ailleurs à réduire notre dépendance énergétique vis-à-vis des hydrocarbures, mais nécessite une meilleure efficacité énergétique et une maîtrise de la demande, ainsi qu’une augmentation de la part d’énergies renouvelables et nucléaire.

Compenser ou réduire, faut-il choisir ?

Le captage et le stockage dans le sous-sol du CO2 émis par les industries thermiques ou au charbon, puis le recyclage de ce gaz sont d’autres solutions permettant de réduire les émissions. Devenues « émissions négatives », elles sont indispensables dans la lutte contre le réchauffement climatique. L’accroissement de la production de biomasse, par la plantation d’arbres dans des conditions contrôlées, permettra la constitution de ces puits de carbone, lequel sera de fait « compensé ». Cette pratique est cependant parfois controversée, compte tenu de la difficulté de contrôler rigoureusement et sur le long terme le bilan carbone.

La réglementation sera aussi un appui important en matière d’efficacité énergétique. En France, notamment, la RT2020 impose désormais des contraintes en matière de consommation d’énergie primaire pour toute nouvelle construction. Sont également visés les passoires thermiques, nombreuses dans l’habitat ancien, mais aussi les transports, avec une limitation du CO2 par kilomètre parcouru et une possible interdiction des ventes de véhicules thermiques à partir de 2035. De même, les fournisseurs d’énergie sont tenus de réaliser, soutenir ou financer des économies d’énergie.

Des pénalités par le biais de taxes ou d’achats de permis d’émissions sont par ailleurs mises en place pour limiter les émissions de gaz à effet de serre.

Toutes ces solutions doivent impérativement ne pas présenter les inconvénients des énergies fossiles, qu’il s’agisse d’épuisement des ressources ou d’émissions de gaz à effet de serre. Les énergies alternatives, nucléaire et renouvelables devront donc trouver leur place, mais il faudra du temps avant qu’elles parviennent à supplanter les énergies fossiles. Or, à l’heure actuelle, ces solutions ne sont pas toujours rentables économiquement, pas forcément bien acceptées, voire présentent un risque en termes de sécurité. C’est donc une combinaison de moyens qui devrait être mise en œuvre pendant toute la période de transition énergétique pour atteindre une neutralité carbone au niveau mondial à l’horizon 2050.

Louis Philippe Sondeck : « L’anonymisation ne suffit pas, il faut démontrer que les personnes sont protégées »

Pouvez-vous nous parler de votre parcours professionnel ?

Je suis aujourd’hui CEO de Clever Identity, start-up que j’ai créée en 2021, qui propose aux centres et organismes de recherche en santé des solutions d’évaluation du risque autour de l’anonymisation des données. Concrètement, nous leur facilitons l’utilisation des données de patients, malgré les nombreuses contraintes réglementaires – notamment le RGPD – qui encadrent l’usage des données personnelles, dont celles de santé. Grâce à l’anonymisation que nous proposons, ces organismes ne sont plus soumis à ces contraintes et peuvent se consacrer à la recherche.

Par ailleurs, je suis également enseignant dans plusieurs universités, à l’institut polytechnique de Paris, à l’université de Rennes 2, à l’IMT Atlantique à Rennes et à l’IMT business schools. Dans mes cours, j’interviens spécifiquement sur l’anonymisation et l’analyse du risque relatif à la protection des données, notamment à travers le Privacy Impact Assessment (PIA). L’objectif est de compléter la formation des ingénieurs et des étudiants en reconversion professionnelle au niveau réglementaire, afin qu’ils puissent avoir des bases sur le RGPD et la gestion des données personnelles.

Quelle est votre formation ?

J’ai débuté mes études par les mathématiques fondamentales, jusqu’au niveau bac+4. Ensuite, en bac+5, je me suis orienté vers les mathématiques appliquées. À l’université de Limoges, j’ai étudié la cryptologie dans le cadre du master Cryptis.

À la fin de mon master 2, j’ai été retenu chez Orange Labs à Rennes et j’ai fait une thèse Cifre1 dans le domaine de la cybersécurité. Embauché en tant qu’ingénieur de recherche, j’ai en même temps travaillé sur ma thèse. Je souhaitais en effet appliquer mon apprentissage théorique à des cas concrets. Chez Orange, j’avais cette possibilité et c’était le meilleur compromis.

Qu’est-ce qui vous a amené à vous intéresser au RGPD et à l’anonymisation des données ?

Je m’y intéressais déjà durant ma thèse entre 2014 et 2017. Le RGPD a été adopté en 2016 et mis en place au niveau européen en 2018. J’intervenais alors uniquement sur les aspects techniques, mais je me consacrais davantage à ceux de l’anonymisation des données.

L’anonymisation occupe une place vraiment importante dans le cadre du RGPD, parce que c’est la seule méthode en mesure de faire sortir les données du champ d’application de ce règlement. Techniquement, elle permet de trouver le juste milieu entre protéger les personnes et assurer que les données restent utiles pour le besoin.

Un avis publié en 2014 par le groupe des autorités de protection de données européennes spécifie et définit l’anonymisation, en appuyant sur le respect des critères techniques que sont l’individualisation d’une personne, la corrélation et l’inférence des données. Pour schématiser, il ne faut pas pouvoir isoler une personne dans un jeu de données, par exemple par rapport à son âge, ni corréler entre eux des jeux de données relatives à une personne. Pour autant, l’inférence peut être intéressante, par exemple pour identifier dans un jeu de données les hommes d’un certain âge souffrant d’une maladie spécifique. Les données des patients sont indispensables à la recherche sur les maladies graves, mais elles doivent être anonymisées.

Dans le passé, les données concernant ces critères techniques ont été mal anonymisées et ont été violées. Les données relatives à la santé du gouverneur de l’État du Massachusetts ont ainsi été dévoilées, à l’instar de celles d’autres personnes, lors de la publication d’une étude. L’anonymisation de ces données a été mal réalisée, dévoilant aisément la maladie dont souffraient ces personnes. Dans un autre cas, les clients réguliers d’un club de strip-tease ont été identifiés grâce à la publication de données de géolocalisation de taxis.

L’erreur a été de penser que la suppression du nom et du prénom suffirait à anonymiser les données. L’instauration de critères techniques bien définis permet désormais de prouver que les données sont protégées.

Pouvez-vous revenir sur la mise en place du RGPD et sur son évolution ?

Comme pour toutes les réglementations, il y a toujours un temps d’incubation. La CNIL avait souligné d’ailleurs que les mesures deviendraient de plus en plus contraignantes au fil du temps. Cependant, les entreprises ont eu du temps pour se mettre en conformité.

De 2018 à aujourd’hui, des sanctions ont été appliquées, beaucoup plus fréquentes récemment au regard des débuts du RGPD. Ces sanctions permettent de prendre conscience des enjeux, et les entreprises évoluent d’autant plus que ces sanctions sont financières. La CNIL, notamment, sanctionne régulièrement pour cause de violation des données. Toutefois, les sanctions sont souvent précédées par les mises en demeure. Elles peuvent être rendues publiques, avec un fort impact sur l’image de l’entreprise, amenant la clientèle à s’interroger sur le niveau de sécurité de l’entreprise en question.

D’autres réglementations voient le jour, notamment sur tout ce qui encadre l’intelligence artificielle, l’IA Act, mais aussi sur tout ce qui est protection bancaire, la DORA, ou encore la NIS 2, spécifique à la sécurité informatique. Ainsi plusieurs réglementations s’enchaînent et font qu’en matière de contrôle, les choses sont de plus en plus rigoureuses, strictes.

Les entreprises ont-elles bien pris la mesure de l’enjeu ?

Pour ma part, je note une prise de conscience progressive de l’importance de la réglementation et son acceptation. Son intérêt et l’impact d’un mauvais traitement des données personnelles sont de mieux en mieux compris. Les sanctions et mises en demeure ont joué dans cet écosystème qui incite les entreprises à se mettre en conformité.

Tous les secteurs d’activité ne se valent pas. La réglementation est généralement intégrée dans les politiques du secteur financier. Les données y sont effectivement sensibles. C’est différent dans le domaine de la santé qui relève du domaine public, mais qui, compte tenu de difficultés financières, a du mal à se mettre en conformité. Ces secteurs ont intégré la réglementation et tentent malgré tout de veiller à son respect. La grande distribution ou l’énergie recueillent également des informations sensibles, variables suivant la taille de l’entreprise. Les grandes entreprises sont forcément plus regardées que les PME, ce qui a une conséquence sur le niveau de prise de conscience de chacune.

Pour l’essentiel, les grandes entreprises des secteurs d’activité évoqués se conforment et ont un niveau de maturité un peu plus avancé que les autres. Globalement, tout le monde a entendu parler du RGPD et a plus ou moins sa signification en tête, mais la mise en pratique ne suit pas forcément.

La CNIL fait un travail de sensibilisation remarquable en matière de recommandations. Elle publie ainsi régulièrement des fiches permettant de se mettre en conformité. Concernant les entreprises, cela se fait en fonction de leur taille, du nombre et de la complexité des traitements à réaliser, mais également des sommes en jeu notamment en raison des sanctions. Les grandes entreprises ont plus à perdre, donc privilégient ce qui est le plus rentable. Au regard du budget et du risque de sanction, elles prennent un consultant ou un délégué à la protection des données (DPO) qui les aidera à se mettre en conformité.

En quoi consiste l’anonymisation des données personnelles ? Pouvez-vous nous parler de cette méthode ?

Concrètement, l’anonymisation des données personnelles permet de traiter et transformer les données personnelles pour qu’elles ne le soient plus. L’anonymisation est définie par la réglementation et si d’autres définitions sont parfois utilisées, celle qui fait foi est celle proposée par l’ensemble des autorités de protection de données européennes dans un avis publié en 2014. Pour être considérées comme anonymisées, il faut pouvoir s’assurer qu’elles ne puissent plus être individualisées, corrélées et inférées.

Pour sa part, la CNIL a publié sur son site une autre manière d’évaluer l’anonymisation. Elle enjoint ainsi, à défaut de remplir scrupuleusement ces trois critères, de mener une analyse de risque de réidentification pour démontrer que, sur la base de moyens raisonnables, ce risque est nul. C’est ce qu’il faut réussir à démontrer et qui correspond à l’anonymisation des données.

Certaines entreprises que j’ai accompagnées utilisent une définition qui est ad hoc et qu’elles ont plus ou moins créée, consistant en la possibilité de rendre les données irréversibles une fois qu’elles ont été anonymisées. La difficulté est que l’irréversibilité est mal comprise puisque, selon ces entreprises, elle consisterait simplement à supprimer le nom et le prénom. Or, une étude a prouvé qu’il est possible, à partir du genre ou du code postal et d’une année de naissance, d’identifier quelqu’un. Il ne faut pas considérer que seules certaines données sont identifiantes, d’autres le sont également. La CNIL a donc défini des critères techniques plus précis pour caractériser l’anonymisation, afin de protéger les personnes et prouver qu’elles le sont. Cette preuve doit se faire à partir d’une analyse de risque très technique et qui nécessite une expertise.

Clever identity propose justement une solution simple pour évaluer l’anonymisation et démontrer que les données peuvent être utilisées.

Il n’est pas nécessaire, voire possible, de supprimer tous les risques ; il faut les réduire à un niveau acceptable. En pratique, le besoin de conserver l’utilité des données sous leur forme anonymisée ne permet pas de garantir un risque zéro. Par exemple, l’anonymisation peut passer par la généralisation à partir d’une adresse dont on ne gardera que le code postal ou que la ville. Cependant, si dans une étude, il faut également conserver la rue, il faudra trouver un juste milieu dans le jeu de données. C’est ce qui empêche de prétendre à un risque zéro, parce qu’il restera toujours un minimum d’information.

La CNIL et d’autres réglementations, comme la loi informatique et libertés, existaient bien avant le RGPD. La CNIL décidait de la conformité de l’anonymisation. Aujourd’hui, le RGPD introduit le principe de responsabilité qui stipule que toute une entreprise se met en conformité elle-même, sans nécessairement consulter la CNIL. Il lui faut en revanche démontrer que tout a été mis en œuvre pour garantir la conformité et que le risque est faible.

Notre travail consiste à être en conformité avec ces recommandations. En suivant les mises à jour de la CNIL, nous arrivons à produire une anonymisation conforme à ce que la réglementation demande. Notre activité repose principalement sur l’évaluation des risques de réidentification. Nous arrivons à rassurer les entreprises sur le niveau de conformité de leur anonymisation en leur permettant d’avoir une vision claire sur le risque de réidentification contenu dans les données anonymisées. En revanche, si nous déterminons que le risque est toujours élevé, nous proposons des contre-mesures via l’anonymisation des données, permettant de réduire le risque initial à un risque cible acceptable. C’est ce qui nous distingue dans notre secteur d’activité.

Quelles sont les différences entre anonymisation, chiffrement et pseudonymisation des données personnelles ?

La pseudonymisation et le chiffrement sont des méthodes qui conservent le caractère personnel des données et ne peuvent donc pas faire sortir les données du champ d’application du RGPD, à l’inverse de l’anonymisation.

La pseudonymisation, parce qu’elle empêche l’identification directe, est une méthode qui permet d’apporter un certain niveau de sécurité des données. L’anonymisation, pour sa part, empêche à la fois une identification directe et une identification indirecte.

Un identifiant direct est par exemple un nom, un prénom, une photo. C’est une information qui peut être utilisée pour identifier de façon directe. Un identifiant indirect peut être un numéro de téléphone, un numéro de sécurité sociale ou même le fait de porter une chemise bleue : si une seule personne dans une pièce porte une chemise bleue, cela permet de l’identifier, de façon indirecte.

Il y a aussi d’autres manières d’identifier indirectement, notamment en combinant plusieurs valeurs. Par exemple, si plus d’une personne a une chemise bleue, l’une d’elles peut porter des lunettes marron. En combinant ces informations, il est possible d’identifier de manière indirecte.

La pseudonymisation n’empêche pas ce type d’identification. Elle empêche l’identification directe, mais pas indirecte. Seule l’anonymisation casse ce lien et permet que l’on ne puisse plus identifier de manière directe et indirecte. Il n’y a plus de donnée personnelle.

Le chiffrement, quant à lui, est réversible. C’est systématique, lorsqu’on déchiffre les données, on retrouve les données d’origine. Voilà donc la différence entre anonymisation, chiffrement et pseudonymisation.

Votre casquette de consultant vous amène-t-elle à intervenir auprès d’acteurs industriels ? Si c’est le cas, dans quel secteur ?

La solution que nous proposons est spécifiquement adaptée au secteur de la santé en particulier dans le domaine de la recherche, mais elle peut être utilisée dans d’autres contextes, notamment en contexte bancaire, ainsi que dans toutes les activités autour de l’intelligence artificielle (IA).

Aujourd’hui, travailler sur des données personnelles dans le but de construire des modèles d’intelligence artificielle est soumis à des mesures réglementaires contraignantes. L’anonymisation des données permet de ne pas subir ces contraintes. En conséquence, nous pouvons intervenir auprès de tous ceux qui ont besoin de données pour faire de l’IA sans les contraintes.

En cas de contrôle, il faut en revanche pouvoir prouver que l’anonymisation a été bien faite, ce dont ne se rendent pas forcément compte les industriels. Les fournisseurs de ce service de solutions d’anonymisation n’en parlent pas forcément en effet, n’ont pas toujours la compétence pour l’évoquer, parce que c’est très technique. La CNIL préconise de contacter un expert pour pouvoir évaluer le risque et s’assurer de sa prise en charge. Certaines entreprises mettent en place des choses, mais sont potentiellement en danger en raison d’une non-conformité. Anonymiser ne suffit pas, il faut démontrer que les personnes sont protégées.

Quelles compétences/qualités sont, selon vous, indispensables concernant l’anonymisation de données ?

Pour le domaine de l’anonymisation, il faut connaître la réglementation. Il n’est pas nécessaire d’être un expert, mais il faut bien comprendre le périmètre, les enjeux concrets et pas uniquement les aspects techniques. Les maîtriser est crucial. L’enjeu principal pour les entreprises est qu’elles soient conformes pour éviter la sanction.

Dans les enjeux techniques, la cybersécurité et plus précisément l’analyse de risques cyber et la compréhension de la data science sont des compétences importantes pour connaître le fonctionnement de l’anonymisation des données.

La curiosité et l’ouverture d’esprit permettent de s’adapter. En effet l’anonymisation varie d’un contexte à un autre et demande des softs skills comme l’agilité, la flexibilité.

Quels conseils donneriez-vous à un étudiant ou ingénieur désirant s’orienter dans le secteur de l’anonymisation des données ?

Je lui dirais que c’est un domaine très intéressant et porteur. On a besoin de gens qui peuvent aider à l’usage des données, lesquelles sont partout. On dit que c’est le nouveau pétrole de notre ère. Mais en même temps la réglementation contraint vraiment l’accès à ces données.

L’anonymisation fait tomber ces barrières. Elle est très utile à ceux qui travailleront pour des entreprises qui, toutes, auront besoin des données, que ce soit pour tester leur application, savoir si celle-ci fonctionne bien après un développement ou pour faire de l’intelligence artificielle. Les modèles d’IA sont déjà très nombreux et avec cette prolifération, cette problématique ira en grandissant.

L’anonymisation ayant de l’avenir, il ne faut pas hésiter à s’y pencher, d’autant qu’elle comporte aussi des challenges techniques. C’est vraiment intéressant.

Que vous apporte la collaboration avec Techniques de l’Ingénieur ?

Je suis en contact avec Techniques de l’Ingénieur depuis 2018. L’article que j’ai rédigé figure parmi les plus consultés. J’avais été recommandé par une professeure de Télécom Sud Paris, Maryline Laurent.

Il se dit dans le monde de la recherche que l’on trouve dans Techniques de l’Ingénieur ce qu’on ne trouve pas ailleurs.

Je suis habitué à rédiger des articles de recherche, mais là, le travail a été un peu inhabituel puisqu’il s’agissait de vulgarisation. Cela m’a beaucoup intéressé, parce qu’il m’a fallu une approche pédagogique sur ces questions, notamment sur la différence entre pseudonymisation, anonymisation, chiffrement, ou encore le processus à mettre en place pour anonymiser les données.

Les contributions de Louis-Philippe Sondeck à Techniques de l’Ingénieur

Louis Philippe Sondeck collabore avec Techniques de l’Ingénieur en tant qu’auteur depuis 2018.

Ses domaines d’expertise portent sur les données personnelles, l’anonymisation des données, l’accompagnement d’entreprises pour la conformité avec la RGPD.

Webinar

Voir le replay du webinar « Anonymisation des données : comment assurer un processus conforme ? »

Article

Anonymisation des données, une nécessité à l’ère du RGPD.

1convention industrielle pour la formation par la recherche

Stockage des énergies renouvelables : solution d’avenir ou mirage ?

Le 1er décembre dernier, d’anciens hauts responsables et spécialistes des questions énergétiques ont signé une lettre ouverte pour dénoncer le développement massif des énergies renouvelables. Parmi les griefs énoncés figurent le coût des subventions profitant surtout aux producteurs privés, l’inflation des prix de l’électricité et la perte de la souveraineté énergétique induite par l’importation des matériaux.

Relever le défi de l’intermittence

Les signataires déplorent aussi la fluctuation de la production d’électricité du fait de la dépendance des énergies renouvelables aux conditions météorologiques. Le stockage de ces énergies, pendant les périodes de surproduction d’électricité, peut-il compenser ces variations de production pour l’ajuster à la demande ? Les différents procédés de stockages actuels comprennent notamment le stockage électrochimique (batteries lithium-ion), le stockage par pompage hydraulique (STEP[1]), ou encore le stockage par hydrogène.

L’île d’El Hierro et ses résultats mitigés

En 2015, l’île d’El Hierro, située dans l’archipel des Canaries, inaugurait un parc éolien couplé à une STEP. Deux bassins de rétention d’eau remplis grâce à des pompes ont été creusés pour alimenter la centrale hydraulique. Ce système devait se substituer à l’ancienne usine électrique à générateurs Diesel.

Avec son fort potentiel de vent et son relief volcanique offrant le dénivelé nécessaire, l’île semblait être un site de choix. Le surplus produit par les éoliennes devait être utilisé pour pomper l’eau du bassin inférieur vers le bassin supérieur afin de produire du courant lorsqu’il n’y aurait pas assez de vent. Le projet a bénéficié d’une couverture médiatique internationale qualifiant hâtivement El Hierro d’« Île 100 % autonome ». Aujourd’hui, le rapport coût/bénéfice de la STEP déçoit puisque ce sont les turbines diesel qui compensent encore en grande partie les périodes sans vent. La contribution de cette structure à l’alimentation électrique de l’île a seulement atteint 42 % en 2016. Le projet, surtout alimenté par une politique de subventions, a coûté 5,5 fois plus que le coût d’installation d’éoliennes seules.

En outre, le pompage hydraulique ainsi que la création de réservoirs artificiels peuvent perturber les écosystèmes locaux aquatiques.

Stockage par hydrogène ou par batterie lithium-ion

On peut stocker l’électricité produite en excédent sous forme d’hydrogène grâce à une électrolyse dont le produit sera réinjecté dans la chaîne de conversion. Le coût de cette technique est très élevé. Le kWh d’électricité restitué est au total près de dix fois plus coûteux que celui produit par un réacteur nucléaire.

En outre, le rendement de la chaîne hydrogène est estimé à 25 % environ quand celui obtenu avec le stockage par batterie est de 70 %. Le taux de perte d’énergie lors du stockage et de la restitution approche les 70 % pour l’hydrogène alors qu’il est inférieur à 10 % pour la batterie lithium-ion.

L’hydrogène, gaz extrêmement léger, nécessite des technologies augmentant sa densité pour réduire le volume des stockages. En maintenant des températures extrêmement basses, l’hydrogène passe sous forme liquide, ce qui augmente sa densité énergétique. Cependant, l’hydrogène liquide ayant tendance à se gazéifier lors de l’augmentation des températures, des matériaux isolants doivent être développés pour éviter les fuites.

L’hydrogène peut aussi être stocké sous forme gazeuse dans des réservoirs naturels tels que les cavités souterraines. Depuis 2021, Storengy[2] développe un dispositif pilote en cavité saline. En 2023, le groupe français Vallourec innove avec son système souterrain et vertical de stockage d’hydrogène gazeux pour des applications à grande échelle.

Concernant le stockage par batterie, la société TagEnergy a annoncé, le 3 décembre dernier, le lancement de la construction de la future plus grande plateforme de stockage d’énergie par batteries en France. Celle-ci bénéficiera de la technologie Tesla Megapack.


[1] Stations de transfert d’énergie par pompage

[2] Une filiale d’Engie

« En termes de temporalité, les projets agricoles sont plus pertinents que les projets forestiers »

Alors que le secteur agricole français rencontre toutes les peines à réaliser la transition vers des pratiques plus écologiques et durables, la contribution carbone est un levier, parmi d’autres, qui peut accompagner les mutations nécessaires du secteur.

ReSoil est une entreprise fondée en 2022 qui fait le lien entre les agriculteurs et les entreprises investies dans la contribution carbone volontaire, en portant des projets de transformation agricole, financés par des crédits carbone labellisés bas carbone.

Grégoire Alston, co-CEO de ReSoil, a expliqué à Techniques de l’Ingénieur le fonctionnement de ReSoil et les projets déjà mis en œuvre dans le monde agricole sur tout le territoire.

Techniques de l’Ingénieur : Quelle est la mission de ReSoil ?

Grégoire Alston : ReSoil est une entreprise qui a pour mission de favoriser la transition vers une agriculture durable pour la planète, viable économiquement pour les agriculteurs, et enfin comprise par tous. Concrètement, nous intervenons dans la mesure et le financement de la transition agricole. Un des leviers de financement de cette transition est le crédit carbone. La compensation carbone a fait l’objet de nombreux abus ces dernières années, notre but est donc d’apporter de la transparence et d’agir localement sur les projets que nous portons.

Nous avons une équipe d’ingénieurs agronomes qui accompagne les agriculteurs dans la mise en place de pratiques agricoles régénératrices : réduire le travail du sol, diversifier les cultures, introduire des légumineuses dans les rotations de cultures, augmenter les couverts végétaux pour générer plus de biomasse en interculture, changer les formes de fertilisations, mieux localiser l’azote.

Comment se déroule le diagnostic d’une exploitation et la mise en œuvre des changements de pratiques ?

Nous commençons par établir avec l’agriculteur un diagnostic carbone de son exploitation, qui est une forme de bilan carbone qui prend en compte les pratiques des trois dernières années d’activité, ce qui va nous permettre d’évaluer les émissions de CO2 liées au fonctionnement de sa ferme, et le stockage de carbone dans les sols, par photosynthèse et par apport de matière organique aux sols. A partir de là, nous allons, avec l’agriculteur, réfléchir à des changements de pratiques qui vont permettre de réduire les émissions et de séquestrer plus de carbone.

Ces réductions d’émissions et le stockage de carbone vont ensuite être convertis en crédits carbone, dans le cadre du référentiel public du label bas carbone, une certification reconnue qui apporte de la crédibilité aux initiatives de contribution carbone en s’assurant de l’impact réel des projets.

Vous faites donc le lien entre les agriculteurs et les financeurs de projet…

Nous sommes mandataires de l’agriculteur, c’est-à-dire que nous allons nous occuper de toutes les démarches administratives, de la labellisation du projet, de l’accompagnement agronomique lors de la mise en place du projet, et du financement du projet à travers la vente des crédits carbone générés, qui vont permettre de supporter le coût des ces changements de pratiques. Avec la volonté de rester dans une dimension très locale, en faisant directement le lien entre les agriculteurs et les entreprises qui vont financer les projets, lesquelles se trouvent majoritairement à quelques kilomètres des fermes où ils sont mis en œuvre. Les collaborateurs des entreprises qui financent les projets sont invités à visiter les fermes où ces derniers sont réalisés, ils peuvent également suivre leur évolution sur notre plateforme ReSink avec des photos, des vidéos, des explications, des supports de communication et des KPIs de suivi.

Quel est l’intérêt pour les agriculteurs de mener ce type de démarche ?

Il est double. D’abord, il y a pour les agriculteurs une question de résilience de leurs fermes. Dans leur immense majorité, les agriculteurs sont volontaires pour opérer une transition vers une agriculture plus durable, pour améliorer la qualité de leurs sols. La barrière est avant tout économique, puisque les changements à opérer pour eux vont leur faire perdre des revenus de production, ou nécessitent des investissements (ex : nouveaux outils agricoles). C’est là-dessus que nous pouvons les aider, en finançant ces changements via la finance carbone, afin que les agriculteurs puissent se focaliser sur les co-bénéfices à long terme de leurs changements de pratiques.

Le second point est très diffus pour l’instant, mais va prendre de l’ampleur dans les années à venir. Il s’agit d’une injonction croissante du marché, impulsée par les distributeurs finaux – les hypermarchés – en direction de leurs fournisseurs, avec la menace pour ces derniers de ne plus être référencés s’ils ne sont pas dans une trajectoire conforme aux accords de Paris en termes de réduction de leurs émissions. L’enseigne Carrefour a engagé des actions en ce sens-là avec ses 100 plus grands fournisseurs.

Or, 70 % des émissions du secteur agroalimentaire viennent de la matière première agricole. Ainsi, les agriculteurs ont tout intérêt à faire évoluer leurs pratiques, pour anticiper certaines évolutions réglementaires inéluctables dans un avenir proche.

Qu’est-ce qui va inciter les entreprises à investir dans les crédits carbone agricoles ?

L’aspect local peut jouer un rôle prépondérant. Pour les entreprises qui s’impliquent dans la contribution volontaire, il est beaucoup plus facile, par exemple, de trouver un projet agricole local qu’un projet forestier.

D’autre part, les projets liés à l’agriculture font souvent sens pour les entreprises, même quand ces dernières n’évoluent pas dans le secteur agroalimentaire. Par exemple, une entreprise cosmétique est forcément liée au milieu agricole pour ses matières premières : l’éthanol issu des betteraves sucrières pour les parfums, le blé pour les bases émulsifiantes. Une entreprise textile sera aussi liée à l’activité agricole de par son utilisation du lin, par exemple. Autrement dit, il est facile pour de nombreuses entreprises dans des secteurs d’activité variés de trouver une cohérence à soutenir des projets agricoles locaux, qui plus est avec les co-bénéfices qu’ils induisent, en termes de régénération des sols, de production de biogaz ou d’économies en eau.

J’ajouterai enfin que la plupart des agriculteurs avec qui nous collaborons sont jeunes, il peut donc être porteur pour les entreprises locales de les soutenir dans leurs changements de pratiques, à fortiori pour mettre en place une alimentation plus durable, dans une logique sociétale de favoriser le renouvellement des générations d’agriculteurs sur leur territoire, car un agriculteur sur 2 sera en âge de partir à la retraire au cours des 10 prochaines années.

Comment se répartissent aujourd’hui les crédits carbone consacrés aux projets de forêts et ceux consacrés à l’agriculture ?

Aujourd’hui, 90% des crédits carbone sont dédiés au développement de forêts, car quand on pense stockage de carbone, on pense immédiatement au fait de planter un arbre. Alors que l’agriculture également est un excellent moyen de stocker du carbone. Il y a tout un travail de pédagogie à faire pour convaincre les entreprises que l’agriculture est un moyen d’action crédible et efficace pour séquestrer le carbone.

D’ailleurs, en termes de temporalité, les projets agricoles sont plus pertinents que les projets forestiers en ce qui concerne la séquestration de carbone.

Un projet forestier, dans le cadre du label bas carbone, va stocker du carbone au bout de trente ans. Un auditeur va certifier, au bout de cinq ans, que le projet est en route et va stocker du carbone dans 25 ans, avec toutes les incertitudes – incendies, mortalité des arbres – que cela comporte.

En agriculture, au bout de 5 ans, le projet est terminé et le carbone a été séquestré sans risque de retour en arrière, même si l’augmentation du taux de matière organique dans le sol se fera sur un temps plus long. Une fois les changements de pratiques opérés, il y a très peu de chances que l’agriculteur revienne sur ses pratiques anciennes, au vu des co-bénéfices liés à ces changements.

Quel est le prix des crédits carbone agricoles ?

Le prix des crédits carbone va être calculé en fonction du coût de mise en place du projet agricole. Nous sommes actuellement dans une fourchette de prix entre 40 et 50 euros la tonne. Dans certains cas de figure, nous parvenons à descendre à 35 euros, lorsque les projets génèrent plus de réduction de GES que prévu initialement. A côté de cela, le prix des crédits carbones pour les projets forestiers labellisés bas carbone tourne aujourd’hui autour de 30 euros.
Ce qui fait qu’aujourd’hui, il y a plus d’offres que de demandes en ce qui concerne le financement des projets agricoles, car les entreprises, se tournent préférentiellement vers les projets forestiers, qui leur coûtent moins cher, et surtout pour lesquels elles sont plus au fait du fonctionnement.

Après, le but n’est pas d’opposer les projets forestiers et agricoles, il faut agir sur ces 2 leviers pour atteindre nos objectifs climatiques collectifs, mais une meilleure répartition des contributions volontaires sur ces deux typologies d’actions nous paraît indispensable.

Pourriez-vous présenter quelques projets qui illustrent les projets que vous conduisez ?

Sur les 145 projets que nous menons en ce moment, un quart accompagne des transitions d’agriculteurs en agriculture biologique, ou en transition vers une agriculture biologique.

Par exemple, nous avons fait financer un projet d’agriculture biologique, par une entreprise de data center située à 13 kilomètres de l’exploitation en transition. Ce projet totalise 1724 crédits carbones sur la durée du projet (5 ans), et donc autant de tonnes de réduction d’émissions de CO2 sur l’exploitation. Cela permet d’améliorer le bilan carbone net de séquestration de la ferme de 35 %.

Pour atteindre ces résultats, l’agriculteur a fait une conversion totale en bio en 2022, avec un arrêt total des intrants de synthèse, y compris les engrais, en les remplaçant par des engrais organiques, dont la production est moins émettrice.

Le projet comporte le développement très important de couverts végétaux à forte biomasse en interculture, et de la luzerne sur un quart de sa surface : cette légumineuse a l’avantage de stocker dans le sol de grandes quantités de carbone, mais aussi de fixer l’azote de l’air pour le restituer aux cultures suivantes. L’agriculteur va également réduire le travail du sol en arrêtant le labour avant certaines cultures.

Tout cela a permis de réduire les émissions, le stockage additionnel de carbone dans le sol via les couverts végétaux et la culture de luzerne compensant le déstockage de carbone lié aux plus faibles rendements de l’agriculture biologique.

Les co-bénéfices sont nombreux : arrêt des pesticides, réduction de la pollution de l’eau de 70% et réduction de la pollution de l’air de 90 %.

En savoir plus sur ce projet agricole

Vous menez également des projets à l’agriculture régénératrice.

L’agriculture de conservation présente également de nombreux co-bénéfices, en plus d’être un biais efficace de séquestration. Je pense par exemple à un projet dans la Vienne, chez un polyculteur éleveur. Ce dernier met en place un projet qui devrait générer 6 025 crédits carbone sur la durée du projet (5 ans), essentiellement sur de la séquestration (5835 tCO2eq). L’amélioration du bilan carbone de la ferme est ici de 124 %, c’est-à-dire que la ferme, qui émettait pour ses activités 970 tonnes de CO2 chaque année, est aujourd’hui stockeuse nette : elle stocke plus que ce qu’elle émet, ce qui est très rare.

L’agriculteur qui met en œuvre ce projet avait déjà arrêté le travail du sol en amont. Nous avons réfléchi ensemble une diversification des cultures avec des légumineuses pour réduire sa dépendance aux engrais azotés de synthèse. Il se sert de son élevage bovin pour la consommation des légumineuses, du fumier de son élevage pour fertiliser naturellement ses cultures, et a transformé des parcelles qui étaient peu productives en prairies temporaires, pour stocker du carbone. L’atelier élevage est au service des cultures et inversement, permettant une meilleure autonomie de la ferme.

En termes de co-bénéfices, l’agriculteur est parvenu à une baisse de d’utilisation des pesticides de 15 %, de l’érosion des sols (- 18 %), de la consommation d’énergies fossiles (- 15 %). On observe également des gains sur la qualité de l’eau, et des baisses sur les consommations d’eau et d’énergies fossiles.

En savoir plus sur ce projet agricole

Propos recueillis par Pierre Thouverez

Coup de boost attendu sur la gazéification hydrothermale

Parmi les défis à relever pour une transition énergétique réussie, la production de méthane d’origine renouvelable n’est pas le moindre. Le vecteur gaz reste en effet incontournable pour certains usages dans les process industriels et peut garder ou prendre un nouvel intérêt dans les bâtiments (chauffage et cuisson), la mobilité (véhicules au bioGNV) et la production d’électricité (centrales de pointe dans un système électrique 100 % EnR). Sa décarbonation est donc essentielle.

La méthanisation de déchets organiques est la principale voie aujourd’hui pour alimenter le réseau en gaz d’origine renouvelable : à fin novembre, 720 sites de méthanisation avaient une capacité d’injection de 13,2 GWh/an. Si cette technologie est amenée à encore fortement se développer, elle devrait être suivie par deux de ses cousines : la pyrogazéification et la gazéification hydrothermale. Cette dernière vient de faire l’objet d’un appel à manifestation d’intérêt (AMI) lors duquel 24 projets ont été déposés.

« C’est une première en France, qui doit permettre de rassembler un maximum de parties prenantes, de démontrer que la gazéification hydrothermale concerne une grande variété de secteurs et d’intrants, et de donner aux développeurs français l’opportunité de gagner en maturité afin d’assurer le déploiement industriel de cette technologie », résume Robert Muhlke, directeur de projet Gazéification hydrothermale chez GRTgaz.

Des atouts technologiques à confirmer

L’AMI a été appuyé par le Comité stratégique de filière « Nouveaux systèmes énergétiques » et son pilotage a été confié à GRTgaz, gestionnaire du réseau de transport de gaz. Il est également le pilote du groupe de travail national sur la gazéification hydrothermale qui a initié et proposé fin 2023 l’idée de l’AMI.

La dynamique révélée par cet AMI est encourageante. Trois grands secteurs d’activité ont répondu présents dans dix régions différentes :

  • les agriculteurs/méthaniseurs qui peuvent ainsi valoriser autrement des déchets à faible pouvoir méthanogène et éviter d’avoir des digestats peu adaptés ou en trop grande quantité vis-à-vis des règles d’épandage ;
  • les gestionnaires de déchets urbains (publics et privés) qui réduiraient l’impact du traitement de nombreux déchets dont les boues de station d’épuration et pourraient récupérer des résidus potentiellement valorisables en co-produits (eau, énergie, nutriments) pour leur territoire ;
  • les industriels, notamment dans les secteurs agroalimentaires et de la chimie, qui trouveraient là un exutoire pour les déchets complexes, tout en réduisant le coût de leur traitement et les émissions de gaz à effet serre associées, en récupérant de l’énergie, et en baissant les impacts sur l’environnement. La quantité de déchets ultimes baisserait aussi, avec cette technologie alternative à l’incinération ou l’enfouissement.
Gazéification hydrothermale
Les deux procédés de gazéification hydrothermale (source GRTgaz)

Parmi les lauréats, dix-neuf projets sont de taille industrielle en phase préliminaire et traiteraient globalement 1,11 million de tonnes de matière brute par an. Cela leur donnerait une capacité d’injection de méthane de 1 900 GWh/an. Il est à noter que deux de ces projets dépassent 200 GWh/an. Cinq autres projets, de taille industrielle en phase avancée, totalisent 130 000 tonnes annuelles de matière brute pour un total de 90 GWh/an. On compte aussi deux projets de démonstration industrielle, de taille plus réduite (maximum 4 000 tonnes de matière brute par an chacun).

La totalité des déchets à mobiliser pour ces projets représente 400 000 tonnes de matière sèche par an. Une moitié vient de l’industrie agroalimentaire (vinasse, marc de raisin, résidus de blés, etc.), un petit quart de l’industrie chimique (lourds de distillation, boues industrielles, etc.) et le reste se répartit à peu près à parts égales entre digestat et résidus agricoles, boues de stations d’épurations et déchets urbains (graisse, pulpe, glycérine, biodéchets, etc.). 73 % de tous ces déchets sont d’origine biogénique.

Assurer un soutien public aux projets

« Si les projets doivent être l’occasion de caler le modèle économique de la gazéification hydrothermale, ils sont avant tout nécessaires pour montrer tous les bienfaits de cette solution. Ce n’est en effet qu’à partir d’une certaine taille d’installation qu’on évite des effets d’encrassement dans les tuyaux, et que l’on concentre davantage les intrants afin d’augmenter la part du carbone qui servira à générer bien davantage de gaz injectable en sortie » détaille Robert Muhlke.

Pour rappel, deux familles de procédé existent dans la gazéification hydrothermale à des hautes pressions comparables (250 à 300 bars). La première fonctionne à haute température (environ 600 à 650°C), la seconde intègre une catalyse abaissant la température (400 à 450°C) et accélérant le temps de réaction. Comme l’eau est le réactif indispensable, les deux ont l’avantage de pouvoir traiter des déchets à forte teneur en eau. Elles permettent aussi de mélanger différents types de déchets, de faire précipiter et évacuer en amont du gazéifieur la part inorganique des déchets (phosphore, potassium et métaux), et de récupérer en aval du process de l’eau et de l’azote. Et d’avoir bien sûr un gaz de synthèse qui, une fois traité, fournit du méthane de synthèse et du CO2 résiduel d’une pureté élevée.

Comment s’assurer que les 24 projets de l’AMI aboutiront ? « Nous entrons dans une phase de discussion avec les services de l’État pour qu’un soutien financier puisse leur être apporté à travers des contrats d’expérimentation. Cela autoriserait une période d’apprentissage un peu plus longue pour que les exploitants puissent bien tester la technologie avec leur intrant spécifique. Les aspects réglementaires doivent également être abordés, car aucune rubrique ICPE actuelle n’intègre les procédés de conversion thermochimiques », explique Robert Muhlke.

Un soutien dès 2025 permettrait aux projets de démonstration des développeurs français de se concrétiser d’ici fin 2026 et d’optimiser leur fonctionnement d’ici 2028. Des déploiements industriels à partir de 2027/2028, en intégrant aussi les équipementiers hollandais, suisse et espagnol, ouvriraient la voie à la trajectoire de production projetée par la filière : 2 TWh par an de gaz renouvelable d’ici 2030, 12 TWh d’ici 2035 et au moins 50 TWh à l’horizon 2040/2050.

« Il faut trouver un équilibre entre un modèle qui va permettre de rémunérer les porteurs de projet, et la nécessité de ne pas survendre l’économie carbone »

Ses équipes cherchent collectivement à favoriser l’accès du plus grand nombre à une énergie durable tout en réduisant l’empreinte climatique des plus privilégiés.

Depuis 1994, le Geres – soutenu par l’Ademe – anime InfoCC, une plateforme d’information en ligne sur la contribution carbone volontaire, notamment à travers de nombreuses études et la publication d’un guide de la compensation carbone. Le Geres accompagne ainsi les organisations qui souhaitent investir dans la finance carbone pour contribuer à des projets à impacts, avec les co-bénéfices les plus larges possible. 

Nadia Trainar, responsable programmes climat & carbone au sein du Geres, a expliqué à Techniques de l’Ingénieur les tenants et les aboutissants de la compensation – on parle aujourd’hui de contribution – volontaire, et comment celle-ci peut s’inscrire dans une stratégie globale de réduction des émissions de gaz à effet de serre des organisations, en particulier pour les entreprises.

Techniques de l’Ingénieur : Quelles sont les missions du Geres concernant la compensation carbone volontaire ?

Nadia Trainar : Le Geres a été précurseur sur le sujet de la finance carbone, dès les années 2000, en générant des crédits carbone certifiés. Depuis 2004, le Geres anime la plateforme d’informations Info contribution carbone (InfoCC), soutenue par l’Ademe. 

On trouve sur InfoCC de nombreux contenus pédagogiques, ainsi que l’enquête annuelle qualitative et quantitative que nous faisons sur le marché volontaire du carbone, pour laquelle nous interrogeons tous les opérateurs du marché ayant des activités en France.

On parle aujourd’hui de contribution et plus de compensation. Quelle réalité ce glissement sémantique révèle ?

Le marché du carbone a soulevé à juste titre de nombreuses critiques ces dernières années, aussi bien du côté de l’offre que de la demande.

Nadia Trainar, responsable programmes climat & carbone au sein du Geres

Du côté de la demande, cela concerne majoritairement les entreprises – et les collectivités dans une moindre mesure – qui achètent des crédits carbone et qui ont, selon nous, des pratiques parfois scandaleuses concernant leur communication autour de la finance carbone. Concrètement, certaines entreprises ne font aucun effort de réduction sincère de leurs émissions, et mettent sur le même plan des projections (futures et toujours incertaines) de tonnes de carbone achetées via des mécanismes de compensation, et leurs émissions directes et indirectes.

Lorsqu’une entreprise a réalisé des efforts de réduction de ses émissions, même significatifs, il lui reste généralement des émissions résiduelles. Dans ce cas, elle peut contribuer à la neutralité carbone au niveau mondial, sans pour autant prétendre compenser ses propres émissions. D’où la notion de contribution plus que de compensation.

Il convient donc de décorréler la stratégie des organisations pour éviter et réduire leurs émissions, et leur volonté de s’investir dans des projets contribuant à la neutralité carbone ?

Nous considérons qu’une entreprise ayant une activité sur un territoire ne peut pas se revendiquer neutre en carbone. On ne peut pas mettre sur le même plan des émissions physiques que l’on produit aujourd’hui, et un potentiel de réduction ou de séquestration qui sera peut-être réalisé au bout de plusieurs dizaines d’années.

Après, il est certain que la notion de compensation a eu un effet marketing, qui a contribué à la dynamique de ce marché. Aujourd’hui, une communication saine pour une organisation consiste à dire “je fais des efforts pour éviter et réduire mes émissions, et en dehors de ma chaîne de valeur, je contribue aux efforts globaux pour atteindre la neutralité carbone”.

Afin d’éviter et réduire leurs émissions, les organisations doivent commencer par établir un bilan carbone de leurs activités.

Effectivement. Avant le triptyque “éviter, réduire, contribuer”, il y a la nécessité de mesurer, via un bilan carbone ses sources d’émissions, afin d’avoir une vision claire des émissions générées par l’activité de son entreprise. C’est le point de départ nécessaire pour mettre en œuvre une stratégie ciblée de réduction des émissions. Cela dit, et c’est particulièrement vrai pour les grandes entreprises, la mesure des émissions peut avoir un côté paralysant. 

Mesurer son bilan carbone dans le détail peut prendre beaucoup de temps. Il faut donc trouver un équilibre, et garder de l’énergie pour mettre en place des solutions effectives de réduction, là où cela peut avoir de l’impact.

La mesure des émissions directes et indirectes d’une entreprise, les fameux scopes 1, 2 et 3, peut parfois aboutir pour l’entreprise à une remise en cause importante de son modèle d’affaire, pour parvenir à éviter et réduire les émissions. Il est donc important d’avancer en parallèle sur une mesure de plus en plus précise de son bilan carbone et sur la mise en place de stratégies de réduction des émissions, accompagnées d’actions de contribution pour atteindre la neutralité, via la finance carbone.

Comment les organisations vont-elles aujourd’hui choisir les projets auxquels elles veulent s’associer via la finance carbone ?

Les stratégies de contribution carbone peuvent être mises en place par des organisations en fonction de facteurs très variés. 

Le critère de localisation est souvent important, par exemple si une organisation est implantée au sein d’un territoire, ou qu’elle possède une filiale dans un pays étranger, elle peut être intéressée à contribuer sur ces zones géographiques.

Certaines organisations sont plus sensibles à la typologie de projets, en privilégiant par exemple ceux qui sont aisément compréhensibles, ou proche de leur secteur d’activité, ce qui va faciliter la communication autour de leur contribution.

Le public visé est à cet égard un facteur fondamental : l’organisation veut elle contribuer pour valoriser son image auprès du grand public ? Auprès de ses salariés ? Répondre aux attentes de ses donneurs d’ordres ?

Les co-bénéfices sont également un critère important de choix, alors qu’il y a encore quelques années, les organisations se focalisaient uniquement sur le carbone. Désormais, elles ont plus tendance à analyser l’ensemble des externalités des projets – impact carbone, sociétale, économique, sur la biodiversité… – pour finaliser leurs choix.

Quel rôle joue le prix des crédits carbone dans la stratégie de contribution volontaire des entreprises ?

Ce que l’on observe, notamment à travers les enquêtes que nous menons depuis dix ans, c’est une montée progressive des prix du carbone depuis quelques années, et une segmentation, entre des crédits carbone qui sont inférieurs à 5 euros par tonne, et qui représentent environ 45 % du marché en volume, et ceux dont le prix est plus élevé. 

Il est selon nous illusoire de développer des projets de qualité avec des crédits carbones à 5 euros. On remarque d’ailleurs aujourd’hui que ce type de projets, souvent situés en Amérique du Sud, en Chine ou en Inde, ont fait de manière récurrente l’objet de surévaluations quant au carbone réellement séquestré.

Ce qui est notable, c’est qu’aujourd’hui la tranche de crédits carbone située à un prix entre 15 et 35 euros est celle qui croit le plus rapidement, même si elle reste minoritaire en volume. Cela traduit le fait qu’une partie des financeurs optent aujourd’hui pour une contribution à des projets plus coûteux, avec une valeur ajoutée plus grande en termes de co-bénéfices.

Cela veut dire que les contributeurs sont de plus en plus exigeants quant à la qualité des projets ?

Il y a deux typologies de clients dans la finance carbone : ceux qui vont être très exigeants sur les projets sur lesquels ils veulent contribuer, notamment car ils craignent beaucoup les accusations de greenwashing. Ils sont prêts à payer leurs crédits carbone cher, à condition d’avoir des garanties de qualité sur les projets auxquels ils contribuent.

D’un autre côté, certaines organisations, dont quelques grandes multinationales, détournent le marché volontaire du carbone, et en cela le pénalisent grandement, en investissant dans des crédits carbone à bas prix, pour compenser leurs émissions, sans rien changer à leurs pratiques. C’est un fonctionnement que nous dénonçons et contre lequel nous luttons.

La directive européenne Green claim, qui doit sortir sous peu, revient sur la nécessité, pour les entreprises, de travailler sur la réduction de leurs émissions, sur leurs sites et sur leur chaîne de valeur, avant de contribuer par ailleurs à des projets de réduction. Il y a une réelle volonté de lutter contre ces pratiques.

D’où la nécessité de mieux cerner les co-bénéfices réels des projets financés ?

Quel que soit le type de projet carbone, on se base sur des projections, à plus ou moins long terme. Pour un projet de rénovation ou de construction de bâtiments avec des matériaux biosourcés, à partir du moment où le chantier est terminé, il est possible de comptabiliser les économies carbone réalisées de manière très précise.

En revanche pour un projet de forêt par exemple, et plus globalement pour toutes les solutions fondées sur la nature – qui ont la particularité de générer de nombreux co-bénéfices – c’est totalement différent. Nous sommes là sur du temps long, avec toutes les incertitudes que cela peut générer. Par exemple, la multiplication des incendies ces dernières années constitue une incertitude supplémentaire pour les projets de forêt, qui peuvent disparaître du jour au lendemain en cas de feu.

Aujourd’hui, certaines certifications vertueuses, comme le label bas carbone, prennent en compte ces incertitudes en les intégrant au calcul du prix des projets. Il faut trouver un équilibre entre un modèle qui va permettre de rémunérer et donc d’inciter les porteurs de projet, et la nécessité de ne pas survendre l’économie carbone. Évidemment, plus le prix à la tonne du carbone est élevé, plus facilement on peut atteindre cet équilibre. 

Qu’en est-il des projets de contribution volontaire sur le sol français ?

Il y a d’un côté le marché réglementé, qui force les industries très émettrices, comme la chimie par exemple, à réduire leurs émissions – dans le cadre des marchés de quotas européens (nommés ETS).

Pour le marché volontaire, la France a mis en place le label bas carbone qui a pour vocation de soutenir une variété de projets, par exemple dans le secteur agricole, qui a des difficultés à opérer sa transition énergétique. Les projets autour de l’agriculture sont très intéressants, dans l’élevage, les grandes cultures, les haies… Mais le problème réside aujourd’hui dans le financement. Pour beaucoup des méthodes concernées, il faudrait vendre des crédits carbone autour de 80 euros pour que les projets soient rentables pour les agriculteurs.

L’augmentation des exigences de qualité sur les projets locaux explique aussi les prix en hausse des crédits carbone. Pour les projets de forêt par exemple, on est passé sur certains territoires de projets de monoculture de pin, à des plantations diversifiées, avec la volonté de préserver les sols… Tout cela coûte forcément plus cher.

Propos recueillis par Pierre Thouverez

ClimateSeed : la compensation carbone bien au-delà du CO2

Issue d’un projet « intrapreneurial » lancé fin 2017 au sein du groupe BNP Paribas, ClimateSeed vole de ses propres ailes depuis novembre 2018 et son lancement à l’occasion du Global Social Business Summit. Acquise par le fonds à impact d’AXA en 2021, l’entreprise plaide en faveur d’une émancipation des logiques volumiques de la compensation carbone. Ceci, notamment dans l’objectif de maximiser les « co-bénéfices » – sociaux, économiques ou encore environnementaux – des projets de compensation carbone. Un bon moyen de remédier à certaines limites de la pratique, comme nous l’explique Jessica Denoyelle, responsable contribution climatique et secrétaire générale de ClimateSeed, entreprise qui soutient aujourd’hui plus de 45 projets de contribution climatique répartis dans une vingtaine de pays du globe.

Techniques de l’Ingénieur : Que désigne précisément le terme de « compensation carbone » ? Comment définiriez-vous cette approche ?

Jessica Denoyelle, ClimateSeed
Jessica Denoyelle est responsable contribution climatique et secrétaire générale de ClimateSeed.

Jessica Denoyelle : Il faut tout d’abord distinguer compensation carbone volontaire, et compensation carbone obligatoire. Cette seconde option s’illustre par exemple au travers des obligations auxquelles sont soumises les compagnies aériennes pour les vols intérieurs en France. Mais quand on parle de compensation carbone, il s’agit plutôt, généralement, de compensation carbone volontaire. Ce mécanisme est apparu parallèlement au développement du marché réglementé du carbone en Europe à partir de 2005, non pas au travers de standards onusiens, mais plutôt via la mise en place de standards privés, par des fondations notamment. En Europe, on peut par exemple citer le Gold Standard for the Global Goals, une fondation suisse développée sous l’impulsion du WWF. Aux États-Unis, on trouve par exemple l’organisme Verra ; en Écosse, Plan Vivo… Depuis quelques années, on voit également d’autres standards émerger, mais au travers cette fois de structures à but lucratif, comme Riverse, une entreprise basée en France. Enfin, on a aussi vu apparaître des standards nationaux, tels que le Label Bas Carbone en France, sous l’égide de la DGEC[1].

Ce mécanisme du marché volontaire du carbone est donc lié à cette multitude de standards, parmi lesquels se cachent malheureusement quelques brebis galeuses… C’est en effet ce qu’ont montré, début 2023, les enquêtes du Guardian et de Cash Investigation.

Il faut dire que ce mécanisme de compensation carbone volontaire repose sur un scénario contre-factuel : « que se serait-il passé en l’absence du projet ? ». Cela implique donc de travailler à partir d’hypothèses, qui se révèlent parfois difficilement vérifiables : par définition, lorsqu’un projet de compensation se fait, on ne peut pas être certain de ce qui se serait passé en son absence. Les porteurs de projets ont donc parfois tendance à « optimiser » ce scénario de référence – certains parlent même de « triche »… – afin d’obtenir le plus de crédits carbone possible.

Ces crédits carbone – qui correspondent à des tonnes de CO2 équivalent évitées ou séquestrées – sont en effet au centre de l’attention, alors qu’il faudrait aussi se focaliser sur d’autres indicateurs environnementaux : biodiversité, régénération des sols, protection des nappes d’eau souterraines et autres co-bénéfices socio-économiques…

Face à cela, des garde-fous n’existent-ils pas ?

Si, bien sûr… On peut tout d’abord noter que l’Ademe a rédigé un guide des bonnes pratiques pour la compensation carbone volontaire, dans lequel elle préconise entre autres un mélange entre projets locaux et projets dans les pays du Sud.

Par ailleurs, s’il n’existe pas véritablement de cadre réglementaire à proprement parler autour de cette pratique, les porteurs de projets de compensation carbone volontaire sont malgré tout soumis à des obligations en matière de reporting. La norme ESRS E1 sur le changement climatique de la CSRD[2] indique notamment que, si l’on utilise des crédits carbone, il faut le dévoiler, en précisant d’ailleurs s’il s’agit de projets de séquestration ou d’évitement, et en indiquant notamment quels sont les volumes mis en jeu, les standards de qualité adoptés…

L’un des écueils – que l’on observe heureusement de moins en moins – consiste en effet à mettre en place des projets de compensation sans faire, au préalable, les efforts nécessaires pour réduire ses émissions de GES… Les études montrent heureusement que la plupart des acheteurs de crédits carbone sont aussi ceux qui réduisent le plus leurs émissions. La compensation carbone est en effet un « plus », qui doit venir après un travail de réduction des émissions sur toute la chaîne de valeur. La SBTi[3] définit notamment le « zéro émission nette[4] » comme le fait de réduire de 90 % – pour la plupart des secteurs – ses émissions par rapport à une année de référence, et de n’acheter des crédits carbone que pour les 10 % d’émissions résiduelles, si possible via des projets de séquestration permanente.

Lorsque cela se fait au travers de projets de plantation d’arbres, il reste malgré tout toujours un risque que le carbone soit un jour relâché dans l’atmosphère : en cas d’incendie, de coupe illégale, de tempête, de présence de nuisibles… Cela est pris en compte par les standards que j’évoquais, qui donnent un score de risque dépendant de différents critères : contexte politique du pays, exposition aux risques naturels… Si je prends l’exemple d’un projet ayant permis la séquestration de 100 000 tonnes de carbone et auquel est associé un score de risque de 20 %, alors 20 000 crédits carbone ne sont pas émis sur le marché, mais réservés à un mécanisme assurantiel. En cas de problème sur un projet, cela permet de compenser les émissions de carbone imprévues.

ClimateSeed prône par ailleurs une approche dite de « contribution climatique »… Comment cela se traduit-il, concrètement ?

Il existe différentes approches de compensation carbone volontaire. Il peut tout d’abord s’agir d’une simple logique du type « une tonne émise, une tonne achetée ».

Mais certaines entreprises privilégient une autre approche, dite « money for ton » : elles fixent en interne un prix du carbone et définissent ainsi un budget dans lequel elles puisent pour acheter des crédits carbone, pas forcément, d’ailleurs, à hauteur de leurs émissions résiduelles, mais plutôt en cherchant à maximiser les co-bénéfices des projets de compensation liés à ces crédits. Cette logique est ainsi l’une des illustrations de cette notion de « contribution climatique » que nous promouvons chez ClimateSeed.

Enfin, il existe également une approche « money for money ». Dans ce cas, une entreprise fixe un pourcentage de son chiffre d’affaires dédié aux projets de compensation carbone. On n’est alors plus du tout focalisé sur les quantités d’équivalents CO2. C’est cette émancipation des logiques volumiques que nous prônons, même s’il reste encore, il est vrai, assez difficile de faire changer les mentalités.

Ces approches de « contribution climatique », ou plus simplement de compensation carbone volontaire, sont-elles, de votre point de vue, des pratiques accessibles à toutes les entreprises ?

Nos clients sont, il est vrai, plutôt des ETI et des grands groupes. Le coût de mise en place et le coût opérationnel des projets que nous soutenons nous ont en effet conduits à fixer un minimum de contribution de 10 000 € par projet, ce qui n’est, effectivement, pas à la portée de toutes les entreprises. Pour des petits volumes, l’achat de crédits carbone reste toutefois tout à fait accessible via, par exemple, la place de marché du Gold Standard. Le Label Bas Carbone est également adapté aux petites entreprises, à qui il propose de petits projets locaux, comme la reforestation d’une parcelle ayant subi un incendie. Rappelons aussi, enfin, que la réduction des émissions sur la chaîne de valeurs de l’entreprise reste la priorité et qu’elle est, quant à elle, accessible à toutes les structures, quelle que soit leur taille.

Pouvez-vous, pour terminer, nous citer quelques exemples parmi les quelque 45 projets de contribution climatique que vous soutenez ?

Nous soutenons par exemple un projet d’agroforesterie au Pendjab, en Inde, qui permet, évidemment, la séquestration de carbone, mais aussi la régénération des sols agricoles, la protection des nappes d’eau souterraines… Des co-bénéfices sociaux et environnementaux qui vont ainsi bien au-delà du seul enjeu climatique lié au carbone.

Nous avons aussi un projet de « réchaud amélioré », destiné aux pays en développement. L’objectif est de remplacer les moyens de cuisson rudimentaires – souvent un simple feu de bois – par une solution plus propre, émettant moins de particules et de gaz à effet de serre, et donc aussi moins nocives pour la santé des personnes qui l’utilisent, plus rapide et facile à utiliser. Là aussi, les enjeux vont bien au-delà du CO2 : scolarisation des enfants grâce au temps dégagé par l’absence de corvée de bois, amélioration de la santé des populations…

Autre exemple, enfin : nous soutenons un projet de protection de la mangrove au Mexique, qui passe par la mise en place d’une assurance paramétrique, en lien avec les populations mayas. Sur le moyen et le long terme, il est en effet préférable qu’un tel projet s’émancipe de la finance carbone – qui peut être soumise à une certaine volatilité des prix, ou d’autres aléas – et finisse par être porté par les populations locales. Cela se révèle en effet plus sain, et garantit la pérennité du projet.

La plupart des standards prévoient d’ailleurs, en amont des projets, des étapes de consultation des parties prenantes, qui visent à obtenir un consentement libre et éclairé des communautés locales, à les former, afin d’assurer la pérennité des projets, mais aussi à mettre en place des garde-fous, tels qu’un mécanisme de gestion des plaintes.

La compensation de nos émissions ne doit, en effet, pas se faire au détriment d’autrui. Au contraire ! Les co-bénéfices socio-économiques sont aussi primordiaux. Pour cela, le choix des projets et des prestataires se révèle crucial.


[1] Direction générale de l’énergie et du climat.

[2] Directive de l’Union européenne (UE) 2022/2464, communément appelée « CSRD » pour Corporate Sustainability Reporting Directive.

[3] Science-based Target Initiative.

[4] Voir aussi https://sciencebasedtargets.org/resources/files/Net-zero-deep-dive-webinar-slides.pdf