La mise en place du portail “Décarbonation Industrie du Futur”, lancé par la Filière Solutions Industrie du Futur, est une brique supplémentaire dans la stratégie française pour décarboner son industrie. Cette filière, portée par l’Alliance industrie du futur, avec le soutien de l’organisation professionnelle Numeum, a donc développé un portail web, dont l’ambition est de fournir à toutes les filières de l’industrie de nouveaux outils pour mettre en place des actions concrètes de décarbonation sur tous les cycles des processus de production : de la production elle-même et de ses procédés, en passant par les choix des matières premières, mais aussi les possibilités de recyclage des produits en fin de vie, entre autres.
Le portail web “Décarbonation Industrie du Futur” recense ainsi, depuis son lancement en septembre 2023, près de 500 solutions de décarbonation initiées par des acteurs de l’industrie : startups, entreprises, groupements…
La méthode pour identifier ces solutions et évaluer leur pertinence est en partie confiée à une intelligence artificielle. En effet, des algorithmes d’IA, soutenus par la solution française Motherbase.ai, identifient des solutions de décarbonation mises en place, en se basant sur la sémantique utilisée par les entreprises pour se présenter sur le web. Ces solutions sont ensuite évaluées par des experts indépendants. Il est important de noter que ces experts ne sont pas rétribués financièrement par les acteurs de l’industrie pour effectuer ces sélections. Un gage de neutralité.
Une fois ces solutions sélectionnées, elles sont mises à jour automatiquement chaque mois, en suivant les réseaux sociaux des acteurs industriels “auteurs” de ces solutions. Ce suivi permanent permet d’enrichir automatiquement le portail web, sachant qu’il est également possible, pour les acteurs qui le souhaitent, de proposer des candidatures spontanées pour présenter leurs solutions de décarbonation, afin qu’elles figurent sur le portail.
Pour faciliter la navigation des différents acteurs sur le portail, la page d’accueil propose quatre entrées différentes, en fonction des besoins de l’utilisateur.
Le premier onglet “Actualités”, qui permet d’avoir accès aux actualités, retours d’expérience et appels à projet de la filière française de décarbonation.
Le second onglet, “Parcours”, qui permet aux utilisateurs de démarrer un processus d’accompagnement dans la recherche de partenaires potentiels sur des projets de décarbonation. Ensuite, l’onglet “Annuaire” recense la liste des acteurs de la filière décarbonation tricolore. Enfin, l’onglet “Carte” permet de visualiser, géographiquement, la cartographie des acteurs de la décarbonation sur tout le territoire.
La mise en ligne du site, relativement récente, ne permet aujourd’hui pas de dire avec pertinence si cette solution web est une réussite ou non. En attendant d’avoir le recul nécessaire pour avoir un retour d’expérience des utilisateurs, les fondateurs du site, l’AIF et Numeum, recherchent des partenaires pour soutenir leur démarche et garantir la pérennité du portail.
Mesurer la réponse électromagnétique des fonds marins pour mieux en révéler la structure… Telle est, en substance, l’approche innovante à l’origine de la création de MAPPEM Geophysics. Spin-off de l’Université de Brest, la jeune pousse basée à Saint-Renan, près de Brest, a été co-fondée début 2015 par l’ex-ingénieur CNRS et docteur en physique et électronique Jean-François D’Eu, aux côtés de Pascal Tarits, professeur des universités en géophysique marine, expert des méthodes d’imagerie électromagnétique appliquées aux géosciences. Actuels président et conseiller scientifique de l’entreprise, les deux hommes ont ainsi bâti leur projet entrepreneurial sur de solides bases scientifiques, issues de travaux de recherche académique portant sur des techniques de prospection indirectes par imagerie de la résistivité, utilisées de longue date sur la terre ferme. Des techniques en tête desquelles se trouve la méthode magnétotellurique.
« Cette méthode utilise la mesure des fluctuations naturelles des champs géoélectriques et géomagnétiques pour déterminer l’impédance des sous-sols », précisent les inventeurs (parmi lesquels figurent Jean-François D’Eu et Pascal Tarits) d’un brevet déposé en 2006, annonciateur des innovations portées aujourd’hui par MAPPEM Geophysics. Une « impédance des sous-sols » qui permet à son tour de déterminer la conductivité électrique – très variable en fonction de la nature des roches – de chacune des unités géologiques qui se succèdent sous nos pieds, et d’en révéler ainsi précisément la structure. Une approche efficace, du moins, sur la terre ferme…
De la terre à la mer
« Les méthodes électromagnétiques ont pris naissance sur la terre ferme, où elles sont utilisées de longue date dans le domaine de l’imagerie géophysique, mais nos deux co-fondateurs font partie des quelques acteurs qui contribuent à leur transposition en mer », explique le docteur en data-géosciences Andrew Weller, responsable du développement commercial de MAPPEM Geophysics.
Ces méthodes restaient cependant réservées à l’imagerie profonde de structures situées plusieurs kilomètres sous la surface. Pour les besoins plus « côtiers » de l’industrie, le développement des énergies marines renouvelables notamment, il fallait ainsi mettre au point des outils spécifiques. C’est ce qu’ont fait Jean-François D’Eu et Pascal Tarits en développant un dispositif éponyme de l’entreprise qu’ils ont cofondée : MAPPEM, pour « Marine profiler with penetrating electromagnetics ».
« MAPPEM est un système d’imagerie de la résistivité tracté par un navire près du fond à la vitesse de 3-4 nœuds environ », décrit l’entreprise brestoise sur son site internet. Un système d’imagerie composé de deux « poissons », aux faux airs de torpilles, renfermant les composants nécessaires à l’acquisition d’un signal qui permet, après traitement via les algorithmes développés par MAPPEM Geophysics, de dresser le profil des entrailles sous-marines.
Pour générer ce signal, le dispositif injecte un courant de plusieurs dizaines d’ampères entre les deux poissons, courant qui pénètre ainsi en profondeur le fond marin. En résulte la génération d’un signal électromagnétique alors capté par vingt électrodes réparties derrière le poisson de tête.
C’est précisément ce signal qui permet, via un traitement algorithmique maison, baptisé FASTINV, d’obtenir finalement un modèle de résistivité révélant les structures géologiques sous-jacentes au fond marin, et ce, en quasi-temps réel.
« Pour y parvenir, nous avons effectué un gros travail d’amélioration de nos algorithmes de traitement », souligne Andrew Weller. « Lorsque vous vous trouvez à bord du navire [tractant le dispositif], vous pouvez observer quasiment en live les résultats du processus d’acquisition », illustre le responsable.
Et outre cet important travail achevé en mars 2022, l’équipe d’ingénieurs de MAPPEM Geophysics s’est attelée au développement d’autres innovations, enrichissant au fil des ans la palette de technologies de l’entreprise : PASSEM et STATEM, deux systèmes de mesure des champs électromagnétiques ambiants émis par les structures sous-marines d’origine anthropique telles que les parcs éoliens offshore ; MAPPEM-S – version « light » de MAPPEM adaptée à une acquisition dans de faibles profondeurs d’eau – mais aussi un ultime dispositif d’imagerie électromagnétique travaillant quant à lui non plus seulement en deux, mais en trois dimensions, et visant ainsi la détection d’objets enfouis.
« Sur la base de la technologie MAPPEM, nous avons développé un autre dispositif d’imagerie électromagnétique, en trois dimensions cette fois : MAPPEM-3D », dévoile Andrew Weller. Reprenant les fondements du système MAPPEM que sont les deux « poissons » tractés par un bateau, la solution a ceci de différent qu’elle ne comprend pas un mais trois câbles équipés d’électrodes réceptrices. « C’est ce qui permet d’obtenir un système d’acquisition 3D » éclaire le responsable du développement commercial de l’entreprise.
Visant toujours un objectif d’acquisition en temps réel, MAPPEM Geophysics a développé un autre système de traitement algorithmique des signaux captés par les électrodes, baptisé quant à lui BODIES.
« Ce système 3D nous permet de détecter et de localiser précisément des objets ponctuels », explique Andrew Weller. Des objets parmi lesquels figurent notamment les « UXO[1] », ou munitions non explosées. « Il s’agit souvent de vestiges de la Seconde Guerre mondiale, qui constituent une menace importante pour les projets d’énergies marines renouvelables », illustre Andrew Weller.
De quoi enrichir encore un peu plus l’offre de services proposés par MAPPEM Geophysics et la palette de secteurs auxquels elle s’adresse : dragage, oil & gas, géothermie et énergies renouvelables, mais aussi défense ou encore recherche scientifique. « Nous avons la possibilité de faire vraiment pas mal de choses… ! », glisse Andrew Weller.
Des projets tous azimuts
Depuis sa création en 2015, l’entreprise bretonne a ainsi mené pas moins d’une quarantaine de projets aux côtés d’une trentaine de clients parmi lesquels, notamment, plusieurs entreprises du secteur des énergies marines renouvelables. Outre la détermination précise de la lithologie des fonds marins – qui peut aller jusqu’à l’identification d’une éventuelle altération des roches de subsurface –, les technologies de MAPPEM Geophysics permettent en effet aux futurs exploitants de parcs éoliens de s’assurer de l’absence d’autres risques géologiques : cavités, poches de gaz, ou encore roches enfouies sous la surface, plus difficilement détectables via les techniques géophysiques conventionnelles.
Des aléas géologiques, mais donc aussi des bombes, comme l’évoquait plus haut le responsable du développement commercial de l’entreprise. Des munitions qui étaient justement au cœur de l’un des plus importants projets menés jusqu’à présent par MAPPEM Geophysics. « Dans le cadre de l’implantation d’un parc éolien offshore au large des Pays-Bas, nous avons réalisé une mission de relevé électromagnétique visant à dresser une carte du risque de présence de bombes sur la zone concernée. Plus précisément de munitions non ferreuses, principalement des mines en aluminium, qui sont pourtant d’habitude très difficiles à détecter », décrit Andrew Weller.
Un projet de grande ampleur mené à l’étranger, signe que MAPPEM Geophysics ne cantonne pas ses activités au seul littoral breton qui l’a vu naître… « Il y a de belles opportunités à saisir à l’étranger ! », assure en effet son responsable du développement commercial, qui vise ainsi les marchés anglais, scandinave, mais aussi, pourquoi pas, les littoraux américains et australiens.
Novacarb a mis en place une activité industrielle de fabrication de carbonate de soude et de bicarbonate de soude depuis plus de 150 ans. Son implantation en Lorraine est liée aux matières premières nécessaires à la fabrication du carbonate et bicarbonate de soude, à savoir le sel, extrait du sous-sol lorrain, et le calcaire, extrait d’une mine également située en Lorraine et dont Novacarb est propriétaire. La fabrication du carbonate de soude et du bicarbonate de soude nécessite beaucoup d’énergie, qui était jusqu’alors produite en majorité grâce au charbon, ce qui rendait l’activité industrielle très émettrice de CO2.
Simon Maget, responsable énergie chez Novacarb, a détaillé pour les Techniques de l’Ingénieur les actions mises en place par la société Novacarb pour ne plus utiliser de charbon, et pour améliorer l’efficacité énergétique des procédés utilisés dans l’usine de Laneuveville-devant-Nancy
Techniques de l’Ingénieur : Présentez-nous les procédés énergétiques utilisés au sein de l’usine chimique opérée par Novacarb pour produire en masse du carbonate de soude et du bicarbonate de soude.
Simon Maget : Le procédé chimique nécessaire pour fabriquer le bicarbonate de soude est énergivore. Historiquement, cette énergie était produite grâce au charbon extrait du sous-sol lorrain. Hors, le charbon n’est plus extrait en Lorraine depuis plus de cinquante ans, donc nous nous fournissons depuis lors en Afrique du Sud et d’Amérique du Sud.
La transition énergétique de Novacarb, entreprise depuis une dizaine d’années sur notre site, consiste à mettre en œuvre des projets permettant de sortir de l’usage du charbon, étant entendu que ce dernier ne constitue pas une énergie d’avenir.
Quelles actions avez-vous mis en place pour concrétiser cette sortie du charbon ?
Pour faire évoluer notre mix énergétique et ne plus utiliser de charbon, nous avons démarré depuis le mois de mai 2023 une centrale de cogénération de biomasse en partenariat avec Engie, ce qui nous a permis de mettre à l’arrêt des chaudières à charbon présentes sur le site. Cela équivaut à une diminution de 35 % de la consommation de charbon de notre usine. Ce projet, initié il y a six ans, était lié à l’époque à un appel d’offres de la commission de régulation de l’énergie (CRE) sur la mise en place de la cogénération de biomasse, auquel nous avons candidaté.
Ensuite, dans l’optique d’une sortie complète du charbon, la construction d’une seconde usine adossée à notre site de Nancy vient de démarrer (en septembre 2023). Cette centrale de valorisation de CSR (combustible solide de récupération) qui sera la propriété de Suez va permettre à Novacarb de sortir complètement du charbon. Les CSR sont des refus de centre de tri, des agglomérats issus d’encombrants comme les canapés ou les fauteuils par exemple. Aujourd’hui, au niveau territorial, les schémas directeurs limitent l’enfouissement de ces CSR, pour pousser, notamment, leur valorisation énergétique. Il y a donc aujourd’hui en France une filière de valorisation énergétique des CSR qui se met en place, avec des projets qui se mettent en place, dont le nôtre.
Ces deux projets d’ampleur, soutenus par l’Etat, vont permettre à l’usine de passer d’un mix énergétique qui était constitué de 80 % de charbon et 20 % de gaz avant 2023, à une production énergétique, au premier janvier 2026 (fin de la construction de la centrale CSR), issue pour un tiers de biomasse, un tiers de CSR et un tiers de gaz.
Novacarb met également en place des actions pour améliorer l’efficacité énergétique des procédés utilisés dans son usine. Pouvez-vous nous les présenter ?
Nous mettons en œuvre d’autres projets pour améliorer l’efficacité énergétique de notre usine. Cela concerne notamment l’électrification de certains procédés. Ainsi, nous utilisons beaucoup d’énergie pour compresser les gaz utilisés dans nos procédés. Nous utilisions historiquement d’anciens compresseurs qui fonctionnent à la vapeur (fournie grâce au charbon), que nous avons remplacés par des motocompresseurs, qui utilisent l’électricité comme vecteur énergétique. Ce changement est lié à la bascule du mix énergétique en cours, et leur rendement plus élevé nous permet d’améliorer l’efficacité énergétique globale du procédé.
Ce projet a été subventionné dans le cadre de France Relance. La machine a été mise en service l’année dernière et a atteint sa pleine capacité en juin 2023, pour un investissement de l’ordre de cinq millions d’euros.
Quelles sont les autres actions mises en œuvre ?
Toujours sur l’aspect efficacité énergétique, nous mettons en œuvre une dizaine d’autres projets. Ces projets vont par exemple se matérialiser par le changement de technologie sur des plateaux de distillation, le recyclage de condensats chauds ou encore la rénovation d’isolants sur des fours rotatifs, entre autres. Ces projets représentent des investissements moins importants que ceux liés à la sortie du charbon, mais permettent, ensemble, d’améliorer considérablement l’efficacité énergétique globale de l’activité industrielle sur notre site.
Les appels à projets mis en place au niveau national sur les sujets de décarbonation et d’efficacité énergétique ont-ils motivé la mise en place des actions que vous venez d’évoquer ?
A partir du moment où il y a des subventions, cela accélère les projets. Mais ces subventions n’entraînent pas une diminution de nos investissements : cela nous permet de mener de plus nombreuses actions, car notre investissement reste le même. Les subventions constituent donc plus un accélérateur, d’autant que les appels à projets se déroulent sur un temps assez court, donc il faut être en mesure de prendre des décisions pour se positionner rapidement.
Comment se calcule le retour sur investissement pour Novacarb suite à la mise en œuvre de ces projets d’ampleur ?
Sur ce genre de projet, il ne faut pas raisonner en termes de retour sur investissement mais plutôt de projet de territoire. Sur les deux projets de grande ampleur liés à la sortie du charbon, nous avons des partenaires avec qui nous avons mis en place des contrats de long terme.
Sur la fourniture de vapeur par exemple, Novacarb devient client unique de toute la chaleur qui va être fabriquée sur le site.
Cela permet entre autres de structurer le territoire en termes de collecte de déchets. Sur les projets biomasse et CSR, les matériaux sont collectés au niveau local. Par exemple, nous avons mis en place un partenariat avec la SNCF pour collecter une partie des traverses de chemin de fer usagées. Il y a donc, dans la mise en œuvre de ces projets, la volonté de développer des partenariats locaux, sur le long terme.
XtreeE a été créée en décembre 2015, suite à un projet de recherche avec l’école d’architecture de Paris-Malaquais.
Ce précurseur de l’impression 3D grande échelle développe et déploie des systèmes industriels d’impression 3D pour la construction à travers le monde.
Romain Duballet en est cofondateur et Directeur Exécutif Produit.
Il est également Directeur du Master Spécialisé Digital Building Design à l’École des Ponts ParisTech.
Techniques de l’ingénieur : Dans un communiqué de presse[1], vous évoquez un partenariat d’innovation concernant l’utilisation de fibres dans le béton. De quoi s’agit-il ?
Romain Duballet : Nous travaillons en effet au développement d’un nouveau type de matériau renforcé par des fibres longues, en partenariat avec le CNRS et l’École des Ponts ParisTech. Les essais sont actuellement menés au sein du Laboratoire Navier (CNRS/École des Ponts ParisTech/Université Gustave Eiffel). L’étude fait l’objet d’une thèse[2] co-financée par XtreeE et le CNRS ; elle est dirigée par Jean-François Caron, Directeur de Recherche à l’École des Ponts ParisTech.
Plus qu’un matériau, il s’agit en fait d’un nouveau procédé : la coextrusion d’un matériau à matrice cimentaire et de fibres. Pour obtenir un béton renforcé par des fibres longues, nous déroulons une bobine contenant des fibres lors de l’impression. Ces fibres peuvent être de natures diverses, mais doivent respecter un certain cahier des charges pour atteindre la résistance souhaitée.
Parmi la multitude de matériaux testés (carbone, basalte, verre, acier…), les fibres de carbone semblent être la solution la plus viable et la plus rapide à industrialiser, car c’est le matériau le plus avancé en termes de normalisation et de reconnaissance.
Le béton composite fibre de carbone obtenu est anisotrope. Il possède une résistance à la traction et une durabilité intrinsèques, sans qu’il y ait besoin de le combiner à d’autres matériaux comme l’acier. Car il faut savoir que le problème numéro 1 de la durabilité des bétons est lié à la corrosion des aciers, elle-même causée par la carbonatation du béton[3]. Le fait de ne plus utiliser d’armatures en acier évite donc tout problème de corrosion.
Équipement d’impression 3D XtreeE monté sur un bras de robot (Crédit : ENPC – Charlène Yves)
Que permet de faire l’impression de béton fibré ?
L’utilisation de fibres longues permet d’imprimer des pièces que nous ne pouvions obtenir jusqu’ici, de multiplier le panel de formes possibles et donc d’accéder à d’autres marchés.
Comme le mortier est frais lors de l’impression, la difficulté est d’arriver à imprimer sans que la structure s’effondre avant la prise. Le fait d’ajouter des fibres renforce la résistance à l’état frais et multiplie donc les possibilités en termes de formes.
D’autre part, comme le fibrage augmente la résistance à la traction, il devient également possible d’imprimer des coques fines qui sont structurelles en elles-mêmes.
C’est donc une nouvelle manière de concevoir des bétons qui vient en complément de nos activités actuelles, mais qui n’est pas destinée à les remplacer.
Quelles sont ces autres activités ?
XtreeE propose une technologie d’impression 3D grande échelle. Si le procédé en lui-même est multimatériaux, jusqu’à présent, nous avons essentiellement concentré nos efforts sur les matériaux du type béton et mortiers. Des bétons haute performance au départ, nous avons progressivement étendu le champ de nos recherches à d’autres compositions, notamment les bétons bas carbone.
L’une des applications de la technologie d’impression est ce qu’on appelle le coffrage perdu, une méthode qui consiste à imprimer une peau fine en béton qui sera ensuite remplie par un autre matériau, par exemple un béton obtenu par coulage traditionnel. Il faut savoir que lorsqu’on a besoin d’un produit massif, il n’est pas du tout intéressant, en termes de coût et de temps, de le produire intégralement par impression.
Cette application de coffrage perdu est dorénavant passée au stade de l’industrialisation, puisque des usines de préfabrication sont déjà opérationnelles en France. C’est notamment le cas de Spie Batignolles, qui est équipé de deux machines XtreeE et alimente ses chantiers en coffrages perdus imprimés. Les réalisations sont d’envergure : coffrages de poteaux pour la Piscine d’Aubervilliers et coffrages de linteaux pour la réhabilitation de la résidence Schuman à Poitiers, par exemple.
Vous avez évoqué les bétons bas carbone. Dans quelle mesure la technologie d’impression XtreeE permet-elle de réduire l’impact CO2 des ouvrages ?
Premièrement, nos machines permettent non seulement de travailler avec des matériaux à faible impact environnemental mais aussi de créer des structures allégées. Un troisième axe très important de réduction des impacts est la localisation des ressources. En ce sens nous travaillons à développer des matériaux imprimables à partir de matières premières sourcées localement. Par ailleurs, il faut savoir que la mise en œuvre avec les méthodes traditionnelles de bétons bas carbone pose beaucoup de problèmes techniques. Nos machines, de leur côté, permettent un contrôle inédit du pompage, de l’adjuvantation et de la prise, ce qui en fait des outils particulièrement aptes à travailler avec ces matériaux innovants.
En ce qui concerne le fibrage, le fait de renforcer les bétons avec des fibres de carbone évite les problèmes de corrosion des aciers et autorise donc à terme de réduire considérablement les quantités de clinker dans les mortiers.
On se dirige donc petit à petit vers l’obtention d’un matériau fibré bas carbone, même si nos efforts sont pour le moment essentiellement concentrés sur la robustesse du procédé, car l’industrialisation de la solution « fibres longues » est prévue pour 2024 !
Créée en 2014, l’association PIICTO[1] regroupe des entités industrielles implantées sur la Zone industrialo-portuaire de Marseille-Fos et du pourtour de l’Etang de Berre, le GPMM (grand port maritime de Marseille), des collectivités et des partenaires (CDC, consulaires, etc.)afin de structurer collectivement les activités industrielles dans un objectif d’amélioration de la compétitivité, d’attractivité, d’innovation, de décarbonation et de meilleure gestion des ressources.
Ce périmètre, qui émet chaque année environ 18 Mt de CO2, est l’un des premierslauréats de l’appel à projet ZIBaC (zone industrielle bas carbone) de France 2030. A ce titre, l’État va donc débloquer 4 millions d’euros, via l’ADEME, pour soutenir le programme Syrius (synergies régénératives industrielles Sud), porté et coordonné par l’association PIICTO.
Nicolas Mat, secrétaire général de PIICTO, a présenté aux Techniques de l’ingénieur les enjeux environnementaux et industriels du projet de décarbonation de cette zone portuaire.
Techniques de l’Ingénieur : Quelle est la démarche entreprise à travers l’activité de l’association PIICTO ?
Nous animons une démarche d’écologie industrielle et territoriale depuis le début de l’année 2015, initialement sur une partie de la zone portuaire (Caban Tonkin), qui dans sa totalité s’étend sur plus de 10 000 hectares. La zone Caban Tonkin, elle, couvre 1 200 hectares et concentre des activités industrielles autour de la chimie, du traitement des déchets, des granulats, de la sidérurgie, de la production énergétique, entre autres.
Notre ambition, à l’origine, est de mettre en place des synergies entre les industriels, à savoir optimiser les échanges de flux de matière et d’énergie entre les acteurs, mutualiser les services et les équipements, mais aussi augmenter l’attractivité de cette plateforme, puisqu’il y a encore du foncier disponible.
Ainsi, nous voulons attirer des porteurs de projets industriels, mais aussi innovants, puisque nous cherchons, depuis la mise en place de notre action, à positionner la plateforme comme un espace d’innovation et d’expérimentation, de transition énergétique et d’économie circulaire. Pour ce faire, nous accueillons des pilotes et des démonstrateurs sur de nombreux projets innovants : culture d’algue, captage de CO2, revalorisation d’hydrogène…
Aujourd’hui, nous poursuivons ces missions, en les étendant en termes de périmètre géographique, suite à notre positionnement, en 2022, sur l’appel à projet ZIBAC, opéré par l’ADEME. Nous sommes depuis le premier semestre 2023 lauréat de cet appel à projet, qui est donc en cours de réalisation, et donc le spectre est orienté spécifiquement sur l’aspect “décarbonation”.
En quoi le fait d’être lauréat de l’appel à projet ZIBAC va-t-il booster le programme Syrius porté par PIICTO ?
Concrètement, l’ADEME va nous accompagner sur une période de sept à dix ans sur le territoire allant de Fos-sur-Mer à Gardanne, c’est-à-dire l’ensemble de la zone portuaire et le pourtour de l’Etang de Berre, en incluant tous les grands acteurs industriels et logistiques qui y évoluent. Il y a donc une volonté d’accompagner la zone dans son processus de décarbonation, sur une période relativement longue. Le fait d’être lauréat de cet appel à projet a permis d’intégrer dans cette dynamique collective un grand nombre d’industriels intervenant dans des domaines d’activités très différents (chimie, pétrochimie, raffinage, sidérurgie, cimenterie, fours à chaux, logistique, traitement de déchets, production énergétique…).
Quelles sont les différentes étapes qui vont jalonner le projet global de décarbonation de la zone portuaire de Fos-sur-Mer ?
La première étape de cet accompagnement par l’ADEME est une phase dite de maturation. Elle va durer 24 mois et nous permettre d’établir des trajectoires de décarbonation intersectorielles, à l’échelle du territoire que nous venons d’évoquer. Ces trajectoires et ces actions ne se substituent en rien aux actions de décarbonation déjà entreprises par les industriels, qui mènent des actions sur ce sujet depuis longtemps. Par contre, ce qui est aujourd’hui enclenché permet aux industriels, au-delà de leurs stratégies propres de décarbonation, de se projeter sur des stratégies territoriales et inter-sectorielles, qui supposent de la coopération entre les industriels. Cela est vrai par exemple sur des projets comme les réseaux de vapeur, l’hydrogène, l’électrification de certains procédés, le CCU (captage et revalorisation de CO2) et le CCS (captage et séquestration de CO2).
Plus globalement, nous espérons que ce programme SYRIUS permettra à tous les industriels de la zone portuaire d’atteindre leurs objectifs de décarbonation, voire même d’aller au-delà. Et pourquoi pas d’atteindre ces objectifs plus rapidement.
Quels sont les objectifs affichés sur le long terme ?
L’objectif final est connu, il s’agit d’être neutre en carbone d’ici à 2050. Mais une fois que l’on a dit cela, il faut établir une feuille de route claire avec des objectifs à court, moyen et long terme avec des jalons clés. Que fait-on d’ici à 2030 ? D’ici à 2040 ? Nous savons que tous les acteurs ne pourront pas disposer des mêmes leviers au même moment. C’est dans ce sens que l’aspect synergique de notre démarche prend tout son sens. La mise en réseau de tous les acteurs doit nous aider à atteindre ces objectifs et de s’autoriser à être ambitieux sur ce sujet de la décarbonation sur un bassin industrialo-portuaire comme le nôtre.
Les fonds de l’Etat permettront de réaliser une trentaine d’études d’ingénierie et de faisabilité entre 2023 et 2024. Sur quoi porteront ces travaux ?
Nous avons répertorié ces études en cinq principaux blocs thématiques.
Le bloc 0 va nous permettre d’établir les trajectoires de décarbonation que nous voulons suivre dans le temps pour atteindre les objectifs. Il va donc naturellement se nourrir et se consolider sur la base des remontées d’information des différentes études des blocs ci-dessous.
Le bloc 1 permettra de traiter les problématiques relatives à tout ce qui concerne les vecteurs énergétiques, réactifs et infrastructures associées : électrification, hydrogène, nouvelles productions énergétiques locales, etc.
Le bloc 2 concerne le captage, le stockage, la valorisation et/ou la séquestration du CO2 (CCUS).
Le bloc 3 traite d’optimisation logistique et décarbonée, ce qui à la base n’était pas une des priorités de l’ADEME, mais qui nous a paru indispensable à adresser, au vu de la quantité et de la diversité de flux de matières et d’énergie entrantes et sortantes sur ce tissu industrialo-portuaire, par différents moyens de transport, que ce soit la route, le train, le maritime, le fluvial ou les pipelines.
Enfin, le bloc 4 concerne le développement local : empreinte socio écologique, rencontres entre les différents acteurs industriels de la zone, pour qu’ils apprennent à se connaître, mais aussi vulgarisation des principaux résultats des études. Ce dernier point est plus important qu’il n’y paraît, car pour l’acceptabilité de ces projets, il semble essentiel que le grand public comprenne les grandes transformations qui sont à l’œuvre et qui vont prendre place sur la zone dans les années à venir.
La zone industrialo-portuaire de Dunkerque est, comme celle de Fos-sur-Mer, lauréate de l’appel à Projet ZIBAC. Existe-t-il une forme de synergie entre les actions de décarbonation menées dans ces deux zones ?
Nous avons des échanges avec les responsables des projets de décarbonation du côté du Havre, de Saint-Nazaire… de plus, l’ADEME a spécifié dans le cahier des charges de l’appel à projets qu’elle avait vocation à mettre en place un réseau national des territoires lauréats, de manière à favoriser les échanges entre les acteurs ayant, par exemple, des problématiques communes.
L’ammoniac (NH3) est le deuxième composé chimique le plus employé dans le monde, après l’acide sulfurique. Il est très utilisé par l’industrie agrochimique, pour produire des engrais notamment, ainsi par la pharmacochimie, pour fabriquer des médicaments. Sa synthèse consiste à faire réagir le diazote de l’air (N2) avec du dihydrogène gazeux (H2), via le procédé Haber-Bosch. Elle nécessite dans un premier temps de casser la triple liaison reliant les deux atomes d’azote et pour y parvenir, il est nécessaire de chauffer le diazote à haute température (500 degrés) et haute pression (200 bar). Résultat : environ 2 % de l’énergie dans le monde est consommée par le processus qui permet la synthèse de l’ammoniac à l’échelle industrielle. Au sein d’un projet nommé Ovation et financé par l’ANR (Agence nationale de la recherche), des scientifiques de l’institut FEMTO-ST, en collaboration avec ChimieParisTech, l’IS2M (Institut de Science des Matériaux de Mulhouse) et l’École Polytechnique de Montréal, sont en cours de développement d’un nouveau procédé à faible empreinte énergétique qui s’inspire directement du biomimétisme.
« Les plantes savent très facilement casser les molécules de diazote à température ambiante et à la pression atmosphérique, explique Frédéric Chérioux, directeur de recherche CNRS à l’institut FEMTO-ST. Elles possèdent des enzymes qui vont venir capturer les molécules de diazote à l’aide de complexes dont la distance entre les deux sites réactifs n’est que d’un nanomètre. Ensuite, elles y appliquent une différence de tension d’un volt. Étant donné qu’un champ électrique est égal à la tension divisée par la distance, le champ électrique délivré est considérable puisqu’il atteint le gigavolt par mètre, et cela permet de dissocier les molécules de diazote. Nous nous sommes directement inspirés de ce processus. »
Les chercheurs ont reproduit ces mêmes conditions en utilisant un microscope STM (Scanning tunneling microscope), encore appelé à effet tunnel, qui permet non seulement d’observer la matière à l’échelle atomique, mais aussi d’y réaliser des réactions chimiques de manière contrôlée. Ils ont constaté qu’en approchant une molécule de diazote d’un atome de silicium, ce dernier allait lui transférer un électron permettant de séparer les deux atomes d’azote. Pour parvenir à ce résultat, il est nécessaire d’appliquer une très légère énergie et de contrôler le processus en injectant un électron du silicium dans un endroit particulier des liaisons reliant les deux atomes d’azote, appelé orbitale antiliante, et qui a tendance à s’opposer à la stabilité de la molécule. « Dès que l’on commence à transférer l’électron, le processus se poursuit et finit par dissocier les deux atomes d’azote qui viennent ensuite se fixer à la surface du silicium, complète Frédéric Chérioux. Ce résultat est pour le moment au stade de la preuve de concept en laboratoire. »
Le procédé est réalisé à température ambiante et sous ultra-vide
Le principal avantage de ce procédé est la faible quantité d’énergie nécessaire pour parvenir à casser les liaisons des deux atomes d’azote. Il est en effet réalisé à température ambiante et sous ultra-vide, à 10-5 millibar, soit une pression 20 millions de fois moins élevée que celle actuellement utilisée dans le procédé actuel de synthèse de l’ammoniac Haber-Bosch.
Le concept mis en œuvre par les chercheurs est nouveau et fait partie d’un vaste champ multidisciplinaire appelé la science des surfaces et issu de la science des matériaux. « Il y a une dizaine d’années, le silicium était le sujet le plus publié au monde, mais personne n’a pensé à dissocier une molécule d’azote avec ce composé, déclare Frank Palmino, professeur à l’Université de Franche-Comté et responsable du groupe Nanosciences à l’institut FEMTO-ST. Le processus que l’on met en jeu est quantique et est totalement différent des réactions chimiques réalisées actuellement pour la synthèse industrielle de l’ammoniac. La partie la plus difficile à réaliser est d’être capable d’injecter des électrons dans une orbitale moléculaire de diazote à un endroit bien précis et avec une énergie bien précise. »
Pour fabriquer des molécules d’ammoniac, il est ensuite nécessaire de faire réagir les atomes d’azote avec des molécules d’hydrogène. Là encore, cette seconde étape est réalisée dans l’enceinte même du microscope STM. « D’un point de vue expérimental, nous pensons être parvenus à mettre en œuvre cette réaction, mais il nous manque des moyens matériels pour en apporter la preuve scientifique, ajoute Frank Palmino. Nous poursuivons ce travail de recherche et nous devrions démontrer que nous sommes parvenus à produire de l’ammoniac en utilisant la technique d’analyse par spectrométrie de masse. »
Après une amputation, restaurer les fonctions sensorimotrices perdues est un immense défi. Les interfaces humain-machine manquent souvent de fiabilité dans les contrôles et la fixation, rendant l’usage des prothèses inconfortable pour les patients. Une équipe multidisciplinaire d’ingénieurs et de chirurgiens s’est mis en tête de travailler sur de nouvelles interfaces, capables de dépasser ces obstacles. Le projet était mené d’un côté par le professeur Max Ortiz Catalan, à la tête du Bionics Institute (Australie) et fondateur du Center for Bionics and Pain Research (Suède), et de l’autre par Rickard Branemark, chercheur associé au MIT (États-Unis) et professeur associé à l’université de Göteborg (Suède), en charge de la chirurgie. Avec l’aide de leurs collègues, ils sont parvenus à implanter cliniquement une prothèse neuromusculosquelettique. Plus précisément, ils ont relié une main bionique directement aux systèmes nerveux et squelettique de l’utilisateur.
Une main bionique faite de titane
La patiente qui a reçu cette prothèse a été victime, il y a plus de 20 ans, d’un accident de ferme. Des suites de cet accident, la femme née en 1973 a dû être amputée juste en dessous du coude. Malheureusement pour elle, depuis l’opération elle ne cessait de souffrir de douleurs du membre fantôme. Un phénomène qui touche près de deux tiers des nouveaux amputés. De plus, les prothèses conventionnelles, trop limitées, ne lui convenaient pas. Mais la chance a tourné puisqu’elle a fini par rejoindre l’étude des professeurs Ortiz Catalan et Branemark entre septembre 2018 et avril 2021. Elle était alors la première à expérimenter l’interface mise au point par leurs équipes respectives.
Voici la première personne à avoir eu droit à une main bionique reliée au système neuromusculosquelettique. Crédits : Ortiz-Catalan et al., Sci. Rob., 2023/Sant’Anna School of Advanced Studies.
Pour parvenir à lui greffer une main bionique, les scientifiques ont dû pratiquer plusieurs implantations décrites en détail dans Science Robotics le 11 octobre 2023. D’abord, des implants en titane ont été placés en contact avec la partie interne des os de l’avant-bras (radius et ulna). Puis, des constructions électro-musculaires ont été créées chirurgicalement, en transférant des nerfs coupés vers des greffons de muscles. Ces derniers, ainsi que les muscles natifs et les nerfs ulnaires – relatifs à l’ulna – se sont vus implanter à leur tour de multiples électrodes. Enfin, des extensions transdermiques – appliquées sur la peau – d’implants en titane ont permis de fixer directement la prothèse au squelette, tout en autorisant une communication bidirectionnelle entre les électrodes et la main bionique. Et le résultat a été au rendez-vous ! En effet, des années d’usage au quotidien plus tard, la main bionique fonctionne toujours et soulage son utilisatrice de ses douleurs du fait de sa meilleure intégration au reste de son corps.
Pour y parvenir, Elicit Plant peut compter sur la plateforme technologique qu’elle a elle-même mise au point – EliTerra – qui lui permet en effet de formuler des biosolutions spécifiquement adaptées à chaque culture et à chaque stress visé : sécheresse, fortes chaleurs, excès de salinité… Forte d’une équipe de 75 personnes réparties entre la France, le Brésil et l’Ukraine, Elicit Plant a intégré il y a un peu plus d’un an le programme French Tech Agri 20, et a récemment rejoint le Programme French Tech 2030. Jean-François Déchant lève le voile sur les avancées, mais aussi les ambitions de l’agri-biotech qu’il a cofondée et dont il est aujourd’hui à la tête.
Techniques de l’Ingénieur : Comment Elicit Plant a-t-elle vu le jour ?
Jean-François Déchant : Nous sommes trois fondateurs : Olivier Goulay, Aymeric Molin et moi-même. Olivier est celui qui a identifié l’innovation que nous portons comme des pionniers aujourd’hui dans le domaine de l’agriculture : les phytostérols. Sa volonté était d’établir les laboratoires au cœur d’une ferme pour raccourcir les cycles de développement de produits, avec un circuit court entre le labo et la ferme… C’est ainsi que nous avons rencontré Aymeric Molin, qui est à la fois agronome, et propriétaire des lieux. C’est cette ferme qui nous permet, depuis 2018, de réaliser des essais des biosolutions que nous développons à partir de ces phytostérols.
Au fil des années, notre équipe s’est enrichie de nombreux profils originaires de France, mais aussi de l’étranger. Cette évolution s’inscrit dans notre ambition de faire d’Elicit Plant un leader mondial de la lutte contre les stress abiotiques que subissent les grandes cultures : manque d’eau, chaleur…
Comment définiriez-vous l’offre d’Elicit Plant ?
Notre positionnement est unique dans le secteur : nous offrons des biosolutions pour les grandes cultures, destinées à la lutte contre les stress abiotiques, en particulier le stress hydrique.
Les grandes cultures sont inscrites dans des logiques de marché globales, mondialisées… Dans ce cadre, il est parfois compliqué pour les agriculteurs de gagner correctement leur vie. Le secteur subit en outre une pression économique qui freine l’émergence de solutions innovantes. La pression sur les prix est importante, et cela ne favorise pas le changement des pratiques ; pratiques largement basées sur les solutions proposées par l’industrie agrochimique…
Nous avons donc voulu apporter une innovation technologique basée non pas sur des produits phytosanitaires conventionnels, mais sur des « biosolutions », à base de phytostérols. Nous avons ainsi développé la seule plateforme technologique basée sur ces substances et tournée vers les grandes cultures. Ce type de culture couvre en effet près de 25 % du territoire français. Si l’on souhaite faire évoluer l’agriculture française, il faut donc concentrer une bonne partie de nos efforts sur ces grandes cultures, en prenant en compte un paramètre clé, l’évolution climatique, qui est majeure, et qui a un impact déterminant sur les rendements. L’agriculteur subit donc, d’un côté, la pression économique, et de l’autre cette pression climatique. Notre objectif est de l’accompagner dans ces changements, car l’agriculteur est directement touché par des pertes économiques liées au changement climatique.
Que sont ces phytostérols que vous avez évoqués à plusieurs reprises ?
Les phytostérols sont des molécules constitutives des membranes cellulaires des plantes. Des études scientifiques menées, pour les plus anciennes, il y a déjà une vingtaine d’années, ont montré que les plantes utilisent ces substances pour se protéger contre différents stress.
Lorsqu’une plante est exposée à un stress, elle réagit via un processus métabolique qui implique, à un moment donné, la biosynthèse de phytostérols. Cela lui permet notamment de reconstituer ses membranes cellulaires. Nous utilisons donc ces pouvoirs des phytostérols pour aider la plante à réagir face à différents stress. C’est, en quelque sorte, l’équivalent de l’immunothérapie en médecine humaine : on stimule, on « élicite » – d’où le nom de l’entreprise – le mécanisme de défense des plantes en pulvérisant à sa surface ces fameux phytostérols.
Il existe environ 200 de ces molécules dans la nature et chaque plante possède des représentants de cette famille qui lui sont propres. Chaque stress a aussi un impact différent en matière de phytostérols. Notre travail de R&D consiste donc à identifier, pour chaque plante, les phytostérols mis en jeu face à un stress spécifique, et à créer ainsi les traitements préventifs adaptés, permettant à la plante d’anticiper sa défense face à un futur stress.
Une fois que vous les avez identifiés, comment synthétisez-vous ces phytostérols ? Comment testez-vous ensuite leur action ?
Nous ne les synthétisons pas ! Nous procédons en fait par extraction à partir de plantes. Nous formulons ensuite ces extraits végétaux pour créer nos différents produits. Nous disposons pour cela de trois laboratoires : de chimie, de biologie, et d’agronomie. Ils travaillent conjointement pour formuler ces produits, de l’extraction à la pulvérisation.
La fabrication de nos produits en tant que telle est quant à elle réalisée par une filiale du groupe agricole coopératif InVivo, dans son usine Phyteurop.
La particularité de nos produits est leur absence totale de toxicité. Pour preuve : les phytostérols sont également utilisés dans l’alimentaire et en santé humaine. Sur un plan réglementaire, nous avons constitué des dossiers très complets qui présentent des résultats scientifiques démontrant l’absence de toxicité de nos produits sur les plantes traitées et l’environnement.
Nous avons installé nos laboratoires dans les anciennes granges d’une ferme, entourée de champs dans lesquels nous réalisons nos essais. L’une des difficultés de notre métier consiste en effet à passer du laboratoire au champ. Qui plus est pour des stress abiotiques. Un stress biotique implique en effet de gérer un couple plante-pathogène, alors que dans le cas d’un stress abiotique, nous avons à gérer tout un « écosystème » multifactoriel, très difficile à reconstituer dans une chambre de culture. Il est donc déterminant, pour nous, de passer rapidement du laboratoire au champ. Pour nos essais, nous devons également composer avec des cycles de développement très lents, en lien avec les saisons. Les régimes réglementaires sont également compliqués. Les temps de sortie d’un produit sont donc assez importants. Nous avons créé la société en 2017 avec un premier produit dont le développement était déjà en partie achevé, mais pas totalement optimisé pour l’agriculture. Nous n’avons cependant obtenu l’autorisation réglementaire qu’en 2021, pour une commercialisation en 2022 en France. Et ce ne sera pas le cas avant 2026, voire 2027 pour les USA, l’un des marchés les plus exigeants en matière d’autorisations… Sortir un nouveau produit implique donc pour nous des cycles de trois à dix ans, en fonction notamment des exigences en matière d’autorisations de chaque État. Nous allons toutefois de plus en plus vite grâce à la plateforme technologique que nous avons développée.
Qu’est-ce qui se cache derrière cette notion de « plateforme technologique » que vous évoquez ?
Il s’agit effectivement d’un terme spécifique, un concept un peu abstrait, néanmoins très usité dans le domaine des biotechnologies. Nous avons une technologie de base, une formulation chimique brevetée, à partir de laquelle nous développons différents produits. C’est cela que nous appelons « plateforme technologique ». Nous l’avons baptisée EliTerra. Pour chaque culture, et potentiellement chaque stress, nous pouvons, grâce à cette plateforme, développer un produit différent. Nous pouvons même agréger d’autres molécules sur notre plateforme de base, si c’est nécessaire.
Notre approche concrète est celle de la pulvérisation foliaire de phytostérols. Ces substances se trouvent, à l’état brut, sous forme de poudres. Notre technologie brevetée a aussi pour vertu de permettre à ces corps gras d’entrer dans les feuilles des plantes, un milieu qui est pourtant globalement hydrophile.
À quel(s) produit(s) avez-vous d’ores et déjà pu donner naissance sur la base de cette plateforme EliTerra ?
Notre premier produit, destiné au maïs, s’appelle le BEST-a. Il est en effet composé d’un phytostérol qui est le bêta-sitostérol. Cette substance va « éliciter » un signal sur le maïs qui va lui permettre de diminuer, pendant toute la saison culturale, sa consommation en eau, qu’il soit ou non irrigué. Pour entrer plus dans le détail : la pulvérisation de ce produit sur le maïs déclenche, dans la plante, des actions à trois niveaux. La première d’entre elles est la fermeture partielle des stomates – les pores des plantes – qui permet de diminuer l’évapotranspiration. Le maïs peut en effet habituellement perdre jusqu’à 95 % de son eau via ce mécanisme ! On peut donc sans trop de soucis diminuer quelque peu cette transpiration sans perturber le mécanisme de croissance de la plante… Au contraire ! Le deuxième effet de la pulvérisation de notre produit consiste en effet en une augmentation de la masse foliaire des plantes.
Et à ceci s’ajoute, enfin, une troisième action aboutissant quant à elle à une augmentation de la taille des racines, permettant au maïs d’aller chercher plus en profondeur l’eau dont il a besoin.
La conséquence de ces mécanismes conjugués est qu’en fin de récolte, le maïs a plus de rangs, plus de grains de maïs par rang et des grains plus lourds au sein de ces rangs. La biomasse générale de la plante est elle aussi accrue. Toutes les composantes du rendement du maïs s’en trouvent ainsi augmentées.
Sur le plan pratique, notre produit se destine à une pulvérisation sur le maïs jeune, au moment où il couvre le sol, au stade 6-10 feuilles. Il peut être appliqué à l’aide d’un pulvérisateur agricole conventionnel, à raison d’un litre à l’hectare. Les mécanismes préventifs que j’ai décrits vont ainsi être déclenchés, et ce pour toute la saison culturale.
Êtes-vous parvenus à quantifier les effets de ce produit ?
Il y a deux ans, certaines parcelles ayant bénéficié d’un traitement par notre produit ont connu, après une saison très pluvieuse, un important épisode de sécheresse qui avait duré pratiquement tout le mois de septembre… Dans ces conditions, notre produit a permis d’obtenir un rendement largement supérieur à des parcelles non traitées, avec jusqu’à 30 % de gains. Dans des conditions excessivement sèches, notre produit n’est toutefois pas une solution miracle ! Au global, sur plusieurs années, où les conditions vont s’équilibrer, notre produit permet en tout cas des gains de rendement substantiels.
Nous avons réalisé des essais dans la Corn Belt étasunienne, dans différents États du Brésil, en France ou encore en Ukraine, et tous les résultats se sont révélés concordants, avec un gain moyen à l’hectare de l’ordre de 800 à 1 000 kg dans des conditions optimales, soit une augmentation de rendement de l’ordre de 12 %.
Nous avons à ce jour mené plus d’un millier d’essais sur plusieurs années, qui ont montré une très forte stabilité des résultats, contrairement à beaucoup d’autres biosolutions basées quant à elles sur des microorganismes dont l’effet est très dépendant des variations des conditions environnementales d’une année sur l’autre. Ces résultats nous ont permis de convaincre plus d’une centaine de coopératives et distributeurs en France, en Ukraine, au Brésil et maintenant en Europe.
Le premier produit que nous commercialisons concerne donc le maïs, mais nous venons d’annoncer d’autres biosolutions, de nouvelles formulations pour le tournesol et l’orge de printemps. Nous avançons culture par culture et avons pour ambition, à terme, de couvrir les besoins de toutes les grandes cultures. Chacune d’elle représente environ 100 millions d’hectares… Les enjeux sont donc énormes.
Nous sommes pour l’heure présents, via nos distributeurs, dans trois pays : la France, le Brésil et l’Ukraine. Au fil de l’obtention des autorisations de mise sur le marché de nos produits, nous espérons ensuite conquérir dès 2024 les marchés européen, sud et nord-américain.
Les pays de l’Union Européenne se sont engagés sur une trajectoire de réduction de leurs émissions de gaz à effet de serre, à travers le programme “Fit for 55”, qui vise une baisse des émissions de 55% à horizon 2030, par rapport à 1990. Les leviers pour atteindre ces objectifs sont nombreux : massification des énergies renouvelables, électrification des transports, production d’hydrogène décarboné… pour le cas particulier de la France, augmenter la disponibilité de l’énergie nucléaire sera essentiel, par exemple.
L’industrie est évidemment un secteur d’activité qui va devoir poursuivre et amplifier la décarbonation de son activité, dans des proportions jamais vues. Au niveau national, cette ambition est portée par la SNBC (stratégie nationale bas carbone) révisée.
Cette rupture passe par des efforts sur les économies d’énergie et sur une efficacité énergétique toujours plus importante. La décarbonation de l’industrie française a cette spécificité : elle doit prendre corps simultanément à une autre volonté forte, à savoir la réindustrialisation du territoire et la relocalisation de certaines activités industrielles jugées indispensables pour assurer la souveraineté industrielle tricolore. Le plan France 2030 porte cette ambition.
Dans le cadre de France 2030, l’accélération des stratégies de décarbonation de l’industrie est aujourd’hui portée par le programme d’appels à projets PACTE Industrie. Ce dernier remplace plusieurs programmes de financement qui existaient auparavant, à travers le dispositif des CEE (Certificats d’Economies d’Energie). Ils permettent aux industriels, à travers des financements et des formations, de mettre en œuvre des actions pour réduire leur impact carbone et opérer la transition énergétique de leurs activités.
Le programme PACTE rassemble l’ensemble de ces actions dans le but de proposer des stratégies plus lisibles et efficaces. L’ADEME et l’ATEE portent ensemble ce programme, doté de 49 millions d’euros pour la période 2023/2026, tant sur le plan de la formation que de l’accompagnement.
Par la suite, les industriels pourront bénéficier d’un des deux appels d’offres mis en place pour les soutenir financièrement dans la mise en œuvre des stratégies de décarbonation de leurs activités.
Pour rappel, dans le cadre de France 2030, 140 projets de décarbonation ont déjà été sélectionnés et soutenus financièrement suite aux premiers appels à projets lancés en 2020.
Le premier appel à projets, DECARB IND 2023 – lancé au mois d’avril 2023 -, doit permettre aux industriels de diminuer leurs émissions, à travers quatre volets : efficacité énergétique, modification du mix énergétique, modification du mix matière, captage, valorisation et stockage du carbone. 5 milliards d’euros seront alloués spécifiquement aux lauréats des appels à projets DECARB IND, qui prendra fin en décembre 2023, et concerne des projets dont l’investissement est supérieur à trois millions d’euros.
Le second appel à projets, DECARB IND+, se concentre sur la décarbonation profonde des sites industriels grâce à l’efficacité énergétique, l’électrification des procédés, l’usage de l’hydrogène renouvelable ou encore l’électrolyse décarbonée (ou bas carbone). Ces projets d’ampleur voient leur éligibilité liée à l’investissement, qui doit être compris entre 50 et 200 millions d’euros.
Au total, le plan France 2030 prévoit des financements à hauteur de 5,6 milliards d’euros.
Cependant, il convient de considérer également les financements qui ne concernent pas directement la décarbonation de notre industrie mais le développement de filières qui participent à la transition énergétique en cours, et donc généralement à la baisse de l’impact carbone des activités industrielles. On pense là par exemple aux investissements réalisés sur les filières hydrogène ou automobile par exemple. Au total, ce sont près de 54 millions d’euros qui sont investis à travers France 2030, et qui touchent, directement ou de très près, le verdissement de l’industrie française.
L’hydrogène apparaît comme l’un des futurs vecteurs énergétiques pour la mobilité propre de demain. L’utilisation de ce gaz dans les véhicules nécessite la fabrication de réservoirs spécifiques pour le stocker. Pour l’instant, ils sont principalement fabriqués en composites thermodurcissables, mais de nombreux projets de recherche sont en cours pour les concevoir en thermoplastique. Ce matériau présente en effet une meilleure recyclabilité, ainsi qu’un potentiel plus élevé pour optimiser les réservoirs et pourrait aussi permettre d’accroître leur résistance mécanique. Le Cetim vient d’acquérir une nouvelle cellule robotisée conçue par l’entreprise AFPT et souhaite l’optimiser pour concevoir des réservoirs à hydrogène en thermoplastique, avec des coûts qui soient compatibles avec l’industrie.
La cellule robotisée acquise par le Cetim et fabriquée pour l’entreprise allemande AFPT. Crédit : Cetim
« Nous avions déjà testé un précédent modèle développé par cette entreprise allemande et l’on avait démontré l’intérêt industriel du procédé d’enroulement thermoplastique pour produire des réservoirs à hydrogène et sa faisabilité technique, notamment sur le plan de la résistance mécanique, explique Clément Callens, responsable du pôle Ingénierie des Polymères et Composites au Cetim. À présent, il faut parvenir à atteindre les exigences de l’industrie sur le plan économique en étant capable d’augmenter les cadences de fabrication. Pour y parvenir, tout se joue sur la manière d’utiliser la machine et de concevoir le réservoir en fonction du procédé utilisé. Notre travail va donc consister à optimiser ce triptyque : matière, conception et process de fabrication. »
La machine en question, appelée HySPIDE TP, fonctionne grâce à la technologie d’enroulement de tapes (bandes imprégnées), avec la particularité que la consolidation du composite se produit in situ. Pour cela, elle est équipée d’un laser qui chauffe la bande imprégnée de thermoplastique au moment où elle s’enroule sur le liner, c’est-à-dire sur la partie interne du réservoir. Ce chauffage, avec au même moment le plaquage sur le liner, permet de consolider l’ensemble en temps réel et évite toute opération supplémentaire, à la différence des thermodurcissables qui nécessitent une étape supplémentaire de polymérisation pour durcir la matière.
Une plus grande largeur des tapes pour augmenter les surfaces déposées
L’avantage principal de ce nouvel équipement réside dans le gain de temps obtenu. La tête de dépose des tapes doit permettre de multiplier par 10 la vitesse de fabrication des réservoirs, comparée à l’ancienne génération de machines déjà testée par le Cetim. Ces vitesses devraient atteindre 100 mètres de bande par minute sur le corps du réservoir et 15 mètres sur les dômes, c’est-à-dire là où sont placées les connectiques et où la structure se révèle plus complexe à concevoir. Pour augmenter les cadences de production, une deuxième piste de travail est explorée en augmentant la largeur des tapes, celle-ci pouvant passer de 10 à 40 millimètres. Certes, cette augmentation de taille aura pour effet de ralentir un peu la vitesse de fabrication, mais les surfaces déposées seront finalement augmentées.
Autre élément important : la cellule robotisée est équipée d’un magasin déporté, situé à l’extérieur, qui permet l’approvisionnement de la machine en bobines d’une longueur de 8 km, ce qui correspond aux plus grosses bobines actuellement produites sur le marché. Le fait que ce magasin soit placé à l’extérieur permet aussi d’éviter d’arrêter la machine au moment de la recharger, et donc d’augmenter les cadences de production. Les premiers résultats de ce travail de recherche sont attendus dans environ un an. « Nous allons effectuer des simulations numériques aussi bien sur le produit que sur le process de fabrication et aller jusqu’à la phase de prototypage, complèteClément Callens. En parallèle, nous allons effectuer des tests sur des cas concrets afin de garantir que cette stratégie d’enroulement de tapes puisse tenir la pression et toutes les contraintes auxquelles sont soumis les réservoirs. »
Copernicus Emergency Management Service (CEMS) est un programme mis en place par la Commission européenne pour fournir des informations géospatiales précises et rapides à tous les acteurs impliqués dans la gestion des sinistres naturels. Jusqu’ici, en cas d’inondation en zone urbaine et de couvert nuageux, aucun service n’était proposé pour avoir une vue d’ensemble de l’ampleur des dégâts, alors que c’est précisément dans ces territoires habités que la population est la plus vulnérable. Depuis quelques mois, un nouvel outil faisant appel à de l’imagerie satellite et de l’IA est en phase de test pour délimiter les zones inondées le plus rapidement possible et guider les secours. Il a été développé par plateforme technologique du laboratoire ICube de l’université de Strasbourg dans le cadre d’un projet appelé Floria.
Deux techniques permettent de visualiser une inondation à partir d’images satellites. La première, repose sur de l’imagerie optique et consiste à prendre des photos à haute résolution pour visualiser la présence d’eau. Sauf qu’elle ne fonctionne pas en cas de présence de nuages. Ceux-ci étant généralement très fréquents lors d’inondations à cause de la pluie, cette méthode ne peut pas être envisagée pour ce type de sinistre. Reste alors, la seconde technique, par imagerie radar, et qui consiste à envoyer une onde électromagnétique à partir d’un satellite, puis à analyser l’onde renvoyée par le sol.
« Dans le cadre du Projet Floria, nous utilisons cette technique, explique Rémi Braun, responsable développement logiciel de la plateforme ICube-SERTIT. Elle fonctionne très bien à la campagne et dans des zones peu urbanisées, mais beaucoup moins en ville. Après avoir tapé contre la route, l’onde électromagnétique va rebondir sur les bâtiments avant de revenir vers le satellite, ce qui va perturber l’analyse du signal. Pour faire face à cette difficulté, nous analysons non pas une image, mais trois, c’est-à-dire deux avant l’inondation et une après. »
Les images analysées sont fournies par la mission Sentinel-1
Grâce à de l’interférométrie radar, une technique consistant à exploiter la différence de phases entre plusieurs images radar dans le but d’estimer un taux de similitude, les scientifiques établissent une carte de cohérence entre les images. Une seconde carte est également conçue grâce à l’analyse de l’augmentation de l’intensité du signal de l’onde électromagnétique à des endroits identiques entre les images. Dans un second temps, des algorithmes d’IA sont utilisés afin de décrypter ces deux cartes et identifier les zones potentiellement inondées sur chaque pixel. Le modèle développé est de type deep learning et fonctionne à partir de l’architecture de réseau de neurones U-Net.
Actuellement, les équipes du laboratoire ICube s’appuient sur des images fournies par la mission Sentinel-1, dans le cadre du programme Copernicus de l’Agence spatiale européenne. Pour que ces images soient exploitables, l’une des contraintes est qu’elles doivent être prises à partir d’une même position dans l’espace. « L’avantage de Sentinel-1 est que c’est le seul satellite à faire de l’acquisition systématique et que les images sont disponibles gratuitement, complète Rémi Braun. Par contre, le deuxième satellite est tombé en panne et nous attendons le lancement d’un troisième satellite, programmé dans environ 6 mois, pour améliorer notre cartographie. Le temps de revisite des satellites sur un même point sur terre, qui dépend de la latitude, devrait être d’environ deux jours en Europe. La fréquence d’acquisition des images sera alors suffisante pour pouvoir les analyser dans de bonnes conditions. »
Ce nouveau modèle numérique se présente sous la forme d’un démonstrateur et est actuellement testé en condition réelle par le CEMS. Il a notamment servi à évaluer l’étendue des importantes inondations survenues cet été en Slovénie. La résolution des images est pour le moment limitée à 15 mètres, ce qui rend difficile l’analyse de certaines images dans des centres-villes dont les rues sont étroites. Plusieurs pistes sont envisagées pour améliorer ce point ainsi que pour perfectionner plus globalement ce service de cartographie rapide. « Les images obtenues sont pour l’instant un peu grossières et nous souhaitons améliorer notre système grâce à de la modélisation numérique de terrain (MNT) pour atteindre une résolution de l’ordre de quelques mètres, ajoute Rémi Braun. Nous voulons aussi introduire un modèle hydraulique pour combler certaines zones d’ombre des images acquises par les satellites. Enfin, au fur et à mesure des mois, l’algorithme d’IA va devenir de plus en plus performant, car il fonctionnera à partir d’une base de données de plus en plus importante. »
Nous avons le plaisir de vous convier aux Rendez-vous Carnot, à Lyon les 18 et 19 octobre. Ce salon, unique en Europe, permet aux entreprises, de toutes tailles et de tous les secteurs d’activité, d’accélérer et de concrétiser leur projet d’innovation, en ayant l’opportunité de rencontrer facilement les acteurs majeurs de la R&D et du soutien à l’innovation.
Depuis 15 ans les Rendez-vous Carnot sont organisés par le réseau des Carnot qui fédère 39 structures de recherche publique labellisées et engagées pour le développement de la recherche partenariale.
Les entreprises y bénéficient d’un accès privilégié à l’offre R&D du réseau des Carnot, qui couvre un large spectre thématique et TRL, ainsi qu’à celle d’autres laboratoires de recherche, centres techniques, structures de transfert et sociétés spécialisées.
Les Rendez-vous Carnot permettent aussi de rencontrer :
des start-up deeptech
des représentants open innovation de grands groupes,
des financeurs,
Ainsi que de participer à des ateliers de financement.
Avec son organisation efficace de rendez-vous préprogrammés et son offre riche et complète, ce salon est vraiment une opportunité unique offerte à toutes les entreprises de rencontrer, en optimisant leur temps, les bons interlocuteurs pour monter leur projet d’innovation.
En 2022 ce sont plus de 2 000 participants qui ont bénéficié de 8 000 rendez-vous d’affaires en majorité programmés à l’avance.
92% des entreprises participantes ont identifié de nouveaux partenaires R&D (enquête de satisfaction 2022).
Les Rendez-vous Carnot, c’est aussi un programme de tables rondes qui ouvrent de nouvelles voies prospectives avec la présentation de réponses R&D aux grands défis des secteurs économiques (produits biosourcés, décarbonation des mobilités, Industrie du futur, performance sportive, intelligence artificielle embarquée), font connaître les dispositifs de soutien à l’innovation, et proposent, en illustration, de nombreux témoignages et retours d’expérience d’entreprises. En 2023 un accent particulier est mis sur le secteur de la santé avec Les Rencontres Carnot France Biotech (3 thématiques : Numérique en santé, Chimie pour la santé, Modèles et biobanques).
Sur ce salon, la recherche partenariale est naturellement mise à l’honneur au travers la remise de Prix à des chercheurs ayant conduit des projets R&D remarquables au service de l’innovation d’entreprises : les Prix CARNOT de la recherche partenariale et le Prix de thèse IFPEN-ANRT.
Afin de favoriser les échanges informels dans un cadre convivial : une pause-café est offerte tout au long de la journée, un cocktail est organisé à l’issue du premier jour.
Les Rendez-vous Carnot rendent la R&D accessible à toutes les entreprises de toutes tailles, de la start-up au grand groupe et de tous les secteurs d’activité (Agriculture, Mobilités, Énergies, Environnement…)
L’accès est gratuit pour les porteurs de projets d’innovation d’entreprises.
Les Rendez-vous Carnot sont soutenus par la Région Auvergne-Rhône-Alpes, la Métropole de Lyon et l’INPI.
La production d’énergie géothermique consiste à exploiter la chaleur présente dans le sous-sol de la terre. L’eau chaude est pompée dans les profondeurs, puis les calories sont extraites à l’aide d’un échangeur thermique pour alimenter notamment des installations de chauffage ou de la climatisation. Pour ne pas épuiser cette ressource naturelle, l’eau refroidie est ensuite réinjectée dans le puits. Or, sur certains sites comme ceux du bassin parisien, cette étape peut engendrer des problèmes de colmatage et une baisse progressive de la perméabilité du milieu souterrain liée à des dépôts de nano-particules. Ce problème date des années 1980 et pour y faire face, les industriels ont recours massivement à des filtres, mais cette technique n’est pas totalement efficace. Des travaux de recherche1 menés par IFPEN (IFP Energies nouvelles) ont permis de mettre en évidence les mécanismes en jeu dans ce colmatage et d’entrevoir des moyens d’action pour y remédier.
« Le problème survient en présence de roches silicoclastiques dont la structure est sableuse et granulaire, riches en particules d’argile, et qui se comportent un peu comme des éponges, explique Eric Kohler, ingénieur de recherche à l’IFPEN. Actuellement, avant de réinjecter l’eau, les industriels la filtrent dans le but de retenir les particules d’argile responsables du colmatage et pour préserver les installations où est extraite la chaleur de l’eau. Sur le plan industriel, les particules qui passent à travers les filtres sont très petites, car leur taille est inférieure à un micromètre. Sauf que nous avons découvert que même de toutes petites particules ne faisant que quelques dizaines de nanomètres peuvent s’agréger et former des agrégats dont la taille est plus importante que les pores de la roche. »
Alors qu’une eau très peu salée était jusqu’ici considérée comme peu propice au risque de colmatage, les scientifiques sont parvenus à démontrer que le peu de sels minéraux présents à l’intérieur peut être un facteur favorisant l’agglomération des particules. La vitesse d’écoulement du fluide est aussi l’un des paramètres à prendre en compte et les équipes de l’IFPEN ont observé qu’il est préférable de réinjecter l’eau immédiatement après l’avoir filtrée pour ne pas laisser le temps aux particules de s’agréger, car le phénomène en jeu est dynamique.
Des filtres doivent systématiquement être ajoutés après les échangeurs thermiques
Autre facteur à considérer : le diamètre du tuyau dans lequel passe le fluide, qui détermine les contraintes mécaniques auxquelles sont soumises l’eau et les particules. Ce diamètre agit sur l’effet de cisaillement et de turbulences à l’intérieur du tube et peut favoriser un rapprochement des particules entre elles, alors que naturellement, elles ont plutôt tendance à se repousser, car elles ont des propriétés en surface similaires. Cet effet de cisaillement est encore plus important au niveau de l’échangeur thermique, à l’intérieur duquel sont placés des turbulateurs, qui participent au rapprochement des particules.
Face au risque de colmatage, il existe depuis plusieurs années un guide de bonnes pratiques édité par le BRGM (Bureau de Recherches Géologiques et Minières), mais qui recommande uniquement d’utiliser des filtres avant les échangeurs thermiques. « Suite à nos travaux, nous préconisons d’établir des stratégies de remédiation au cas par cas, en fonction de la nature du fluide, sa chimie, du type de particules en suspension, conseille Christine Souque, ingénieure de recherche et chef de projet à l’IFPEN. Nous travaillons déjà avec des groupes industriels, en partenariat avec la société d’ingénierie Geofluid et grâce aux financement de l’ADEME, afin de mettre en place des solutions d’adaptation avant forage. Dans tous les cas, nous recommandons de rajouter des filtres après les échangeurs thermiques. Certains pays comme les Pays-Bas le font déjà de manière empirique, sans réellement comprendre pourquoi, mais pas la France. Étant donné l’effet de cisaillement que nous avons mis en évidence, il est important d’en rajouter. »
Résoudre la problématique de colmatage en géothermie est un enjeu important, car actuellement les industriels s’interdisent d’exploiter de nombreuses ressources naturelles sous terre face à ce risque. Il faut savoir que lorsqu’un site rencontre cette problématique, il est très difficile de revenir au niveau de perméabilité initiale du milieu souterrain. Et dans le pire des cas, le colmatage peut conduire à l’arrêt de l’exploitation du site. En ce moment, il se rencontre principalement dans le bassin parisien, le premier producteur au monde de géothermie de chaleur. « Si l’on parvient à éliminer ce problème, cela va libérer un potentiel d’exploitation de cette ressource naturelle considérable, ajoute Christine Souque. D’autres pays européens comme les Pays-Bas et l’Allemagne, qui se sont lancés dans d’importantes campagnes de forage pour exploiter ce type de géothermie, pourraient aussi être confrontés à cette problématique à l’avenir. »
1 Ce travail de recherche est issu, entre autres, de deux thèses. La première : « Identification et compréhension des mécanismes de déstabilisation colloïdale dans les procédés géothermiques » thèse soutenue le 20-12-2022 à CY Cergy Paris Université par Ines Raies. La seconde : « Etude des mécanismes d’endommagement des formations lors de la réinjection des fluides géothermiques », thèse à soutenir le 23-11-2023 par Anne-Sophie Esneu.
Les nouvelles filières à responsabilité élargie des producteurs (REP) liées à la loi anti-gaspillage pour une économie circulaire (Agec) se mettent progressivement en place en France. Dans ce cadre, le bureau des filières REP au sein de la Direction Générale de la Prévention des Risques (GGPR) du ministère de la Transition écologique et de la Cohésion des territoires joue un rôle capital. Ce bureau de dix personnes suit les négociations sur les REP au niveau européen, transpose les règlements et directives en droit français. Il rédige les décrets, puis les cahiers des charges qui s’appliquent aux éco-organismes. Enfin, il instruit les candidatures, fournit les agréments et s’occupe des contrôles.
Nadia Herbelot est la cheffe du bureau des filières REP depuis un an. Elle est donc très bien placée pour nous expliquer le nouveau système des REP qui se déploie dans le cadre de la loi Agec. Entretien.
Techniques de l’ingénieur : La loi Agec a entraîné la création de nouvelles filières REP. Quelles sont celles déjà en place et celles à venir ?
Nadia Herbelot, cheffe du bureau des filières REP (DR)
Nadia Herbelot : La loi Agec a déjà élargi le nombre de filières REP. Depuis 2021, elle a mis en place une nouvelle filière sur le tabac, les articles de bricolage et de jardinage, les articles de sport et de loisirs, les jouets, les huiles minérales ou synthétiques. Elle a également déployé celle des produits et matériaux de construction du bâtiment fin 2022.
Toutes les REP liées à cette loi ne sont pas encore en place. On a tout récemment publié les textes de la REP des emballages de la restauration, une première brique de la future REP des emballages industriels et commerciaux pour une mise en place début 2025. Nous travaillons aussi sur la REP des textiles sanitaires à usage unique (2024), des gommes à mâcher (2024), et celle des engins de pêche contenant du plastique (2025).
La loi Agec a aussi profondément repensé le système des REP. Quels sont ces changements ?
La loi Agec n’a pas fait que rajouter des filières, elle a aussi repensé le système. On est passé du principe de pollueur-payeur à un principe élargi basé sur l’écoconception des produits et l’allongement de leur durée de vie. Cette loi est venue travailler sur l’amont, avec des éco-modulations pour récompenser les producteurs les plus vertueux et imposer des malus aux produits les plus polluants. Ces malus passent de quelques centimes à des montants plus conséquents, qui peuvent atteindre jusqu’à 20 % du prix de vente du produit.
La loi Agec a aussi mis en place le fonds réparation et le fonds réemploi et réutilisation. Six filières REP sont concernées par ces fonds : équipements électriques et électroniques, jouets, sports et loisirs, articles de bricolage et de jardin, textiles et chaussures, meubles. L’idée des fonds réparation et réemploi est vraiment de détourner du gisement, c’est-à-dire d’éviter le déchet.
Enfin, la loi Agec a étendu les obligations de reprise en magasin à de nouveaux produits. C’est le cas des éléments d’ameublement, des produits chimiques, des jouets, des articles de sport et de loisirs, ainsi que des articles de bricolage et de jardin. Cette reprise distributeur étendue vise à capter le gisement le plus en amont possible, pour qu’il ne se retrouve pas dans des bennes en mélange en déchetterie, avant de finir en incinérateur ou en enfouissement. Le but est bien de capter le gisement dans de bonnes conditions sécurisées et d’aller le plus vers la réparation et le réemploi.
La loi a harmonisé l’ensemble des filières : toutes sont désormais sous agrément. Qu’est-ce que cela change ?
Toutes les filières qui sont soumises à filière REP doivent désormais avoir un agrément de l’État. Le cahier des charges est paru au début de l’été pour les pneumatiques (voir l’arrêté du 27 juin), donc on attend les candidatures des éco-organismes pour les agréer. Pour les véhicules hors d’usage (les VHU), le cahier des charges est en cours de rédaction. Sur ces deux produits, il y avait des systèmes de collecte et de recyclage existants, mais aucun agrément.
Pour comprendre ce que cela change, je vous invite à aller voir un cahier des charges, par exemple celui de la filière REP des équipements électriques et électroniques, un arrêté d’octobre 2021. Ils sont tous construits de la même façon. On impose d’abord aux éco-organismes de mettre en œuvre des éco-modulations sur leurs contributions avec des bonus et des malus dotés des critères. Il y a ensuite toujours des taux de collecte à atteindre, des objectifs sur le recyclage par types de matériaux, des objectifs sur la réparation (lorsqu’ils sont concernés par le fonds), sur le réemploi, sur la R&D, sur la communication… C’est une vingtaine de pages qui cadre tout ce que les éco-organismes doivent faire.
Les éco-organismes jouent-ils le jeu ?
La loi nous a donné un pouvoir prescriptif. Par exemple sur la REP équipements électriques et électroniques, on avait demandé aux producteurs de mettre en œuvre des éco-modulations. On a estimé que leurs propositions sur la réparabilité des téléphones et l’incorporation de matières recyclées dans les équipements électriques et électroniques n’étaient pas du tout à la hauteur. On est en train de rédiger un arrêté pour leur prescrire des éco-modulations à respecter. L’agrément est normalement donné pour 6 ans, mais on peut le modifier ou sanctionner si les objectifs ne sont pas atteints.
À l’image du transport routier, les navires maritimes et les bateaux fluviaux émettent des particules polluantes liées à l’utilisation d’énergie fossile. Avec l’augmentation du commerce mondial et du tourisme, cette pollution atmosphérique devient de plus en plus importante et les habitants des villes portuaires sont exposés à un risque pour leur santé. Alors que les émissions d’oxydes de soufre et d’azote font l’objet d’une réglementation, ce n’est pas le cas des émissions primaires de particules fines. Coordonné par le Cerema, un projet nommé CAPNAVIR1 s’est déroulé pour évaluer et caractériser ces rejets au niveau de la zone portuaire du centre-ville de Bordeaux.
Ce projet s’est spécifiquement focalisé sur les particules PM2,5 (dont le diamètre aérodynamique est inférieur à 2,5 micromètres), les PM1, PM0,3, le carbone suie (black carbon), le carbone élémentaire, les matières organiques ainsi que les sulfates contenus dans les PM2,5. Durant trois semaines, à l’automne 2021, une campagne de mesures ciblées a été réalisée grâce au déploiement de 24 capteurs sur les berges de la Garonne, au plus proche de la zone de navigation. Au total, plus de 1,6 million de données ont été récoltées, puis ont été intégrées dans une base de données et croisées avec les informations du trafic maritime et fluvial.
Ce travail de recherche a permis de révéler la présence de 9 types de polluants et de caractériser les particules fines émises par 14 passages de navires. Pendant les phases d’accostage, les auteurs de l’étude ont observé que les concentrations de polluants émis par les navires sont avérées, ponctuelles et furtives, mais qu’elles sont diluées dans la pollution du fond urbain. Par exemple, au niveau du pont Jacques Chaban-Delmas, l’influence du panache de fumée des navires en hauteur a pu être constatée seulement pendant quelques secondes ou au mieux pendant quelques minutes depuis les autres stations installées le long du fleuve. Après cette courte période, les concentrations des particules ultrafines sont diluées et ne sont pas détectées par les appareils de mesure.
La circulation routière rend difficile la mesure des particules fines du trafic maritime
Même si les mesures ont été effectuées en hauteur, c’est-à-dire le plus proche possible des cheminées des navires, il n’a pas été possible de mettre en évidence une influence des concentrations issues du trafic maritime en moyenne journalière sur l’ensemble des mesures réalisées. Ceci s’explique par l’augmentation de concentrations similaires attribuées au trafic routier et au trafic maritime et à la période beaucoup plus longue pendant laquelle les émissions du trafic routier sont injectées dans l’atmosphère.
Pendant les phases à quai, la part des concentrations de particules par les navires n’a pas été mise en évidence, en raison, là encore, de la part prépondérante engendrée par la circulation routière. Les mesures en temps réel ont tout de même pointé du doigt la probable formation d’aérosols secondaires, c’est-à-dire de particules générées au sein même de l’atmosphère. Ce phénomène a été mis en évidence par les valeurs relativement élevées en PM1 et en nombre de particules émises, en comparaison des émissions en carbone suie. Ce résultat fait écho à des travaux scientifiques déjà publiés ces dernières années qui mettent en avant l’émission par les navires de précurseurs d’aérosols secondaires, principalement organiques.
Les scientifiques ont observé que les rejets de dioxyde de soufre (SO2) par les navires semblent être de moins en moins marqués, ce qui s’explique probablement par la diminution de la teneur en soufre des carburants. Les émissions de carbone suie ne semblent pas évoluer à la baisse, car ils restent inhérents à tout processus de combustion de carburants fossiles. Quant à la production d’aérosols secondaires, et en particulièrement ceux qualifiés d’organiques secondaires, les auteurs de l’étude indiquent qu’ils pourraient être significativement contrôlés par l’usage de scrubbers, c’est-à-dire de filtres spéciaux placés sur les cheminées des navires. À noter que cette étude n’a pas permis de mettre en évidence la pollution issue des bateaux fluviaux. La méthodologie utilisée avec l’implantation de capteurs de mesure en hauteur n’est en effet pas apparue adaptée, car les gaz d’échappement de ces bateaux sont généralement éjectés à l’arrière des coques et sortent à mi-hauteur.
Le rapport complet de cette étude est disponible sur le site de l’Ademe.
1 Le projet CAPNAVIR signifie : Caractérisation des Particules fines issues de la NAVIgation fluviale ou maRitime
Avec 130 pays représentés et plus de 50 000 professionnels attendus, le salon Pollutec, co-organisé avec l’ADEME, est un événement international incontournable pour tous les acteurs du secteur de l’environnement et de l’énergie.
Félicitons les vainqueurs des Pollutec Innovation Awards 2023 qui bénéficient d’un coup de projecteur bienvenu, ainsi que d’une participation gratuite au prochain salon Pollutec et d’une entrée au Forum national des éco-entreprises 2024 organisé par le Pexe.
PureNat propose le premier textile qui détruit les polluants de l’air
100% durable et intégrable à de nombreux types d’installations fermées, ce dispositif réalisé à partir d’un matériau biomimétique breveté a su séduire les membres du jury des Innovation Awards.
Cette mise en avant tombe au bon moment, la commercialisation du produit étant prévue pour 2024, suite à une première levée de fonds de plus d’1M€.
MTB développe un procédé de recyclage des batteries Li-ion performant et innovant
Ce spécialiste du recyclage propose un procédé de prétraitement des batteries li-ion qui met en œuvre un broyeur inerté et une évaporation en continu de l’électrolyte.
Bien qu’il soit encore au stade pilote, ce process répond particulièrement bien aux enjeux actuels concernant le recyclage des batteries des véhicules électriques, car il affiche un taux de récupération des métaux stratégiques de 95%, avec une pureté de 98%.
Grims énergies développe une solution de stockage thermique dans des matériaux innovants
Le groupe Grims et le CEA Liten ont codéveloppé une solution de stockage thermique qui associe des matériaux à changement de phase biosourcés à un échangeur composé de mousses métalliques qui favorise les transferts thermiques.
Cette solution appelée « Grimsbox » est 4 à 5 fois plus compacte qu’un stockage thermique dans l’eau et répond aux besoins de chaleur entre 0°C et 110°C.
3 lauréats désignés parmi 12 finalistes et 96 sélectionnés
Ils étaient 96 à avoir été sélectionnés pour concourir cette année aux Pollutec Innovation Awards. Parmi ces entreprises, 12 finalistes ont été retenus par le comité de sélection composé de plus de 22 réseaux, pôles de compétitivité et clusters.
En plus des 3 lauréats, voici les 9 autres finalistes qui ont eu l’opportunité de présenter leur innovation lors d’une séance de pitch annoncée dans le programme officiel de Pollutec :
« La pollution par les particules reste le plus grand risque externe pour la santé humaine au monde », estime l’Institut de politique énergétique de l’université de Chicago (Epic) dans un rapport publié fin août. L’objet de l’étude a été de comparer, sur la base de données collectées en 2021, les niveaux d’exposition aux particules fines (PM2,5) à travers le monde. L’institut les a ensuite comparées aux normes nationales, lorsqu’elles existent, ainsi qu’aux lignes directrices fixées par l’OMS à 5 μg/m³.
Verdict : le manque de politiques publiques ambitieuses entraîne au niveau mondial un recul de l’espérance de vie de 2,3 ans, calcule l’Epic. C’est plus que le tabac, plus de trois fois plus que la consommation d’alcool et de l’eau insalubre, et plus de cinq fois plus que les accidents liés aux transports.
Mais les défis liés à cette pollution dépendent largement des pays. Les trois quarts des impacts sur l’espérance de vie mondiale se concentrent dans six pays : le Bangladesh, l’Inde, le Pakistan, la Chine, le Nigeria et l’Indonésie. Le rapport souligne le manque d’information des populations et l’absence de normes portant sur la qualité de l’air dans ces pays.
Une absence internationale de soutien
Le Bangladesh est le pays le plus pollué aux particules fines, avec une concentration dans l’air moyenne de 74 μg/m³. Selon l’Epic, faire passer les niveaux de particules fines au Bangladesh à 5 μg/m³ pourrait faire gagner 6,8 ans d’espérance de vie aux Bangladais. La capitale de l’Inde, New Delhi, fait quant à elle figure de « mégalopole la plus polluée du monde », avec un taux moyen annuel de 126,5 μg/m³.
Alors que chaque année, 4 milliards de dollars sont consacrés à des fonds mondiaux pour lutter contre le VIH/SIDA, le paludisme et la tuberculose, il n’existe pas d’équivalent de ressources coordonnées pour la pollution atmosphérique, note Epic. « Et pourtant, la pollution de l’air réduit davantage l’espérance de vie moyenne d’une personne en RDC (République démocratique du Congo) et au Cameroun que le VIH, le paludisme et autres », partage l’étude.
Des progrès menacés
La situation est différente en Europe. La pollution de l’air y a baissé d’environ 23,5 % depuis 1998, peu après l’entrée en vigueur de la directive-cadre sur la qualité de l’air. La pollution y est désormais à moins de 15 µg/m³, ce qui lui permet de respecter sa propre norme, établie à 25 μg/m³. Pour autant, 98,4 % de l’Europe ne respecte toujours pas les lignes directrices de l’OMS. Il reste de profondes disparités : les résidents d’Europe de l’Est vivent 7,2 mois de moins que leurs voisins occidentaux en raison d’un air plus pollué.
Aux États-Unis, la pollution a même baissé de 64,9 % depuis 1970 grâce au Clean Air Act. La pollution aux particules fines y est inférieure à 10 µgm³, ce qui lui permet de respecter sa propre norme, établie à 12 μg/m³. Pour autant, 96 % des États-Unis ne respectent toujours pas les lignes directrices de l’OMS. La plus grande menace y est désormais les feux de forêt.
En 2021, 20 des 30 comtés les plus pollués des États-Unis se trouvaient en Californie en raison de l’impact des incendies de forêt. Le compté californien de Plumas a été le plus pollué en 2021 en raison des incendies, avec une concentration en particules fines de 26,6 μg/m³. Les habitants pourraient y gagner 2,1 ans d’espérance de vie si la qualité de l’air restait inférieure à 5 µg/m³, estime l’Epic. En ce sens, en entraînant une multiplication des incendies, le changement climatique constitue une nouvelle menace pour la pollution de l’air dans de nombreux pays.
Les services numériques représentent entre 6 % et 10 % de la consommation électrique mondiale. Les datacenters sont la clé de voûte de ces services. Pourtant, la réduction de leur consommation énergétique n’est pas une réelle priorité (à part pour de la communication) pour tous les géants du cloud.
Ils sont focalisés sur la construction de nouvelles infrastructures pour répondre à la demande. Les prévisions du volume des données numériques créées ou répliquées dans le monde pourraient atteindre 181 Zo en 2025 (étude Statista, 2021).
Malgré cela, différentes pistes ambitieuses sont étudiées pour réduire la consommation énergétique des datacenter comme le projet sous-marin Natick de Microsoft ou celui développé par les entreprises françaises, Atos et HDF Energy et qui consiste à utiliser des piles à hydrogène.
Si leurs principes sont intéressants, ces projets restent encore au stade du prototype et posent encore des questions sans réponse pour l’instant. Pour Natick, les problématiques concernent notamment le réchauffement local de l’eau et les répercussions sur l’écosystème aquatique.
Pertes énergétiques
Concernant l’hydrogène, c’est une technologie qui n’est pas encore suffisamment mature en termes de durée de vie et de rendement par rapport à des batteries. Le rendement de production d’hydrogène est également faible. Cependant, cette solution pourrait avoir du sens à long terme pour le stockage de l’énergie renouvelable.
En attendant le passage à l’échelle de ces initiatives, une autre piste est étudiée par deux chercheurs du LIRMM (Laboratoire d’informatique, de robotique et de microélectronique de Montpellier) avec leur projet baptisé Genesis.
Après avoir réfléchi à repenser l’architecture des supercalculateurs pour qu’elle soit plus sobre énergétiquement, ils ont été amenés à étudier les datacenters qui présentent des caractéristiques similaires. Avec le même objectif : réduire leur consommation.
« Nous avons constaté qu’une partie significative de leur consommation était imputable à des composants périphériques aux fonctions informatiques. Cela nous a amenés à réfléchir à la manière de diminuer drastiquement les pertes énergétiques tout en utilisant des énergies renouvelables », souligne Gilles Sassatelli, directeur de recherche CNRS au LIRMM.
Après un dépôt de brevet, l’équipe a développé plusieurs générations de prototypes, avec le soutien de la Région Occitanie. Leur dernier prototype intègre des composants que l’on retrouve dans les datacenters.
Les données près des usagers
Pour relever ce défi, le projet Genesis repose sur des « modules » interconnectés, chacun formé de panneaux photovoltaïques couplés à un serveur, une unité de stockage et une unité électronique pour gérer des flux de données et d’énergie entre modules. Installé sur le toit de l’école Polytech Montpellier, un prototype de « système » Genesis permet à quatre modules de coopérer en échangeant des données de l’énergie pour réaliser une tâche donnée.
« Grâce à la capacité de Genesis à migrer des données et de l’énergie entre les modules distribués d’un mini-datacenter, nous avons étudié une optimisation conjointe permettant des gains énergétiques intéressants. Par rapport à un mini-datacenter classique, non doté du levier de la migration d’énergie, Genesis peut réduire potentiellement l’énergie issue du réseau électrique de 20 à 27 % pour un déploiement en période estivale dans le sud de la France. Cette étude repose sur une modélisation calibrée à partir d’un prototype physique expérimental », explique Abdoulaye Gamatié, directeur de recherche CNRS au LIRMM.
Avec des mini-datacenters de type Genesis, l’accès aux données serait plus rapide (moindre latence) et réduirait « le trafic des données sur l’infrastructure globale. C’est ce qu’on nomme l’informatique à la périphérie du réseau (ou Edge computing), c’est-à-dire près de l’endroit où les données sont produites et consommées, plutôt que de manière centralisée dans un datacenter conventionnel, souvent distant », explique Gilles Sassatelli.
Le Edge computing peut par ailleurs constituer une réponse à la problématique de latence imposée par certains domaines d’applications, certains ayant recours à l’intelligence artificielle. On évoque en effet, de plus en plus le EdgeAI (ou IA à la périphérie). Il s’agit du déploiement d’applications d’IA dans des appareils situés au plus proche de l’usage. Le Edge computing peut désigner n’importe quel usage de calcul localisé. Il peut s’agir d’un magasin, d’une usine, d’un hôpital ou d’appareils qui nous entourent, comme les feux de circulation, les machines autonomes et les téléphones.
Le projet Genesis permettrait aussi de renforcer la souveraineté des données en permettant à l’utilisateur, que ce soit un particulier ou une collectivité, d’avoir une certaine maîtrise des données gérées, tout en baissant la consommation énergétique.
Reste encore quelques défis à relever. « Le premier concerne le développement d’un prototype physique à grande échelle pour confirmer nos observations en trouvant. Cela requiert un partenariat solide, avec des ressources financières appropriées. En parallèle, nous nous penchons sur l’analyse du cycle de vie des composants matériels de Genesis, car il est essentiel de minimiser leur impact environnemental. Enfin, le troisième défi porte sur les usages du numérique sur lesquels nous réfléchissons en étroite collaboration avec nos partenaires. Notre objectif est de promouvoir une utilisation durable de Genesis » détaille Abdoulaye Gamatié.
La réduction de l’empreinte carbone du numérique ne peut être entièrement réalisée grâce à la technique seule. Il est également essentiel de prendre en compte les usages et les pratiques dans cet effort.
Avec ses 53 km, le projet d’autoroute reliant Toulouse à Castres (A69) vise selon les élus locaux à « désenclaver » le sud du Tarn. Le concessionnaire Atosca a été désigné en avril 2022, et les travaux ont débuté en mars 2023. Thomas Brail, fondateur et co-président du Groupement national de surveillances des arbres, est devenu le symbole de l’opposition au projet. En grève de la faim depuis 39 jours, il avait commencé ce lundi 9 octobre une grève de la soif avec deux autres opposants au projet. Il a été hospitalisé ce mardi 10 octobre après un malaise.
Il n’y a pas que les activistes qui s’opposent au projet. 1 598 scientifiques ont publié le 4 octobre dans L’Obs une lettre ouverte destinée à Emmanuel Macron, pour demander l’arrêt des travaux. Parmi eux, plusieurs auteurs du GIEC, membres du Haut Conseil pour le Climat et de l’Académie des Sciences, dont Valérie Masson-Delmotte (voir la liste complète des signataires). Cette lettre ouverte a été rédigée à l’initiative du collectif Scientifiques en rébellion.
La sobriété rend inutile l’autoroute A69
Dans le cadre de la planification écologique du gouvernement, les scientifiques considèrent que « ce projet maintient la France sur une trajectoire incompatible avec la transition écologique telle qu’inscrite dans la loi ». « L’A69 est un de ces projets auxquels il faut renoncer », assurent-ils. « Ni l’intensité du trafic, ni les gains de temps envisagés sur le trajet Toulouse-Castres ne justifient la construction d’une autoroute », continuent-ils.
Plutôt que de construire une nouvelle autoroute, les scientifiques invitent le gouvernement à limiter la vitesse maximale sur autoroute à 110 km/h, comme le proposait la Convention citoyenne pour le climat. Cette mesure de sobriété « ferait perdre de facto l’intérêt en gain de temps de l’A69 ». Et elle permettrait d’économiser 6 % de la consommation totale de carburants des voitures, avait calculé l’association négaWatt en septembre 2022. Cette mesure constituerait de loin la mesure de sobriété la plus efficace pour les transports.
Au lieu de prôner la continuité du modèle de la voiture individuelle, même électrique, la tribune rappelle qu’« il nous faut tendre vers une réduction du trafic et des distances parcourues en voiture individuelle ». En plus, les scientifiques soulignent que ce projet est « socialement injuste », puisqu’il s’agirait de la deuxième autoroute la plus chère de France (0,18 €/km).
Enfin, la biodiversité trinque dans cette affaire. Une dizaine de platanes centenaires ont été coupés en septembre sur le tracé de l’autoroute. La tribune assure que « des arbres centenaires ne sont pas remplaçables ». Et ce n’est pas le projet symbolique d’Emmanuel Macron de planter 1 milliard d’arbres qui les compensera.
Ophélie Coelho, auteure du livre « Géopolitique du numérique – L’impérialisme à pas de Géants »
Chercheuse indépendante, spécialiste en géopolitique du numérique, Ophélie Coelho est membre du Conseil scientifique de l’Institut Rousseau. Ses travaux abordent les enjeux relatifs à la géopolitique des infrastructures et des technologies numériques. À ce titre, elle étudie également les phénomènes de dépendances techniques et industrielles, leurs conséquences sur la formation du droit du numérique et leurs externalités négatives sur l’environnement.
Techniques de l’Ingénieur : vous consacrez quelques pages aux « projets manqués de la souveraineté numérique européenne » comme le moteur de recherche Quaero et des multiples projets de cloud français. Dans bien des cas, les échecs sont imputables aux décideurs politiques qui favorisent les grandes entreprises au détriment d’une stratégie cohérente.
Ophélie Coelho : Il y a une croyance des décideurs politiques et des chefs d’entreprise selon laquelle il est préférable de créer de grosses entités plutôt que de faire confiance à des entreprises plus petites. On court après le « champion européen » et on prend souvent Airbus comme référence. C’est un discours rassurant pour le décideur, qui pense ainsi ne pas prendre de risques avec de petites entités qui ne seraient pas encore matures. En réalité, en Europe et en France, il y a des start-ups et des PME qui ont atteint un bon niveau de maturité, mais qui ne savent pas vendre leurs solutions. Dans le monde du logiciel, il n’est pas nécessaire d’avoir des armées de développeurs pour créer un produit viable. Mais, en face, il y a des entreprises très rodées qui sortent des plaquettes marketing pour vendre des solutions « sur étagère », voire des technologies qui n’existent pas encore comme l’informatique quantique.
Associés à des problèmes de capacités de financement, ces mécanismes psychologiques – plutôt que d’ordre idéologique – ont des répercussions sur les choix technologiques. C’est un problème connu dans notre histoire numérique, l’un des exemples les plus célèbres étant l’occasion manquée dans le cloud, avec un investissement dans les télécoms avec Numergy et Cloudwatt alors même que des PME offraient sur le marché des technologies déjà matures dans le domaine, qui auraient pu bénéficier d’une commande publique à l’époque.
L’histoire risque-t-elle de se répéter avec l’informatique quantique ?
Depuis quelques années, nous constatons une volonté en Europe et en France d’atteindre plus de souveraineté technologique. La souveraineté absolue est-elle réaliste, voire même souhaitable ? Ce qui me semble important est en tout cas d’être en mesure de protéger la société dans son ensemble des risques de la mise en dépendance par des acteurs dont la boussole n’est pas le bien commun. L’un des piliers serait de maîtriser des technologies clés ou des chaînons de dépendance essentiels.
Évidemment, des bases très fragiles existent depuis très longtemps, dans l’informatique en général. Dans mon livre, j’aime à rappeler les origines historiques et géopolitiques de nos dépendances informatiques dès le milieu du XXᵉ siècle. Sans même parler de l’informatique quantique, on peut également évoquer le cas des supercalculateurs qui sont développés par IBM, Fujitsu… plutôt que par des entreprises européennes. Il y a une chaîne de dépendances technologiques qui complique les projets. Par ailleurs, l’Europe court après de nouvelles technologies qui ne sont pas matures et qui sont très intégrées dans un discours idéologique. Résultat, elles bénéficient d’importants plans de financement, sans que nous sachions précisément ce qu’on pourrait en faire. Par ailleurs, ces plans de financement ne prennent pas en compte la dépendance des projets technologiques, comme l’IA, par exemple, vis-à-vis des composants électroniques et de solutions qui ne sont pas européennes.
Pourquoi les câbles sous-marins sont-ils devenus un enjeu stratégique ?
Le développement du numérique et des réseaux internet s’est fait en parallèle de celui de la mondialisation. D’une part, les câbles sous-marins ainsi que les réseaux satellitaires permettent de relier les réseaux terrestres des différents pays. Il y a néanmoins un changement de configuration dans le secteur, avec une forme de prédation sur ces infrastructures clés de la part des géants du numérique. Au départ, posséder des câbles sous-marins leur permet de réduire les coûts de « transports transcontinentaux » des données à long terme. Mais aussi d’étendre leurs technologies dans le monde entier. Ils ne sont évidemment pas seuls sur cette couche infrastructurelle, mais en mettant la main sur ces câbles sous-marins, les multinationales du numérique deviennent également des contrôleurs d’accès, des « douaniers » sur les routes des données numériques. Pour ces géants, ces câbles ainsi que les logiciels sont un levier de pouvoir pour négocier avec les États et empêcher la mise en place de réglementations trop contraignantes.
Là aussi, l’Europe n’a plus les moyens de résister ?
Pas encore ! L’Europe perd, en effet, un peu de souveraineté car les télécoms ne créent plus de « routes » sous-marines. Les chantiers récents sont plutôt sur des tronçons de route, des câbles reliant des îles, etc. Néanmoins, ce qui est important dans une situation d’interdépendance, c’est qu’il existe de nombreux leviers de puissance. Par exemple, il reste encore la possibilité d’agir par la maîtrise d’un autre chaînon de dépendance, via les acteurs de pose et de maintenance de ces câbles. La force de la France dans ce domaine s’appelle Orange Marine qui opère six navires câbliers et un navire de survey.
On s’inquiète de plus en plus de la forte consommation en eau des datacenters. Vous citez le cas de Google qui engloutit 15 milliards de litres par an pour refroidir ses serveurs ! Cet approvisionnement quotidien entraîne un stress hydrique. Résultat, de plus en plus de villes s’inquiètent de l’implantation d’un datacenter sur leur territoire.
Pour Google, la réduction de la consommation de ses datacenters n’est pas sa priorité. Il n’investit pas dans ce domaine car il a d’autres priorités et parce qu’aucune législation ne freine son expansion en interdisant la construction d’un datacenter consommant plus de tant ou tant d’énergie. Quand Google aura terminé ses plus gros projets, il s’attaquera certainement à la consommation d’eau. En attendant, il fait comme toutes les multinationales du numérique pour verdir son image : du marketing à outrance sur quelques centres de données moins consommateurs d’eau. Mais, l’arbre ne saurait cacher la forêt.
Les intervenants ont commencé leur présentation sur les embauches de jeunes ingénieurs diplômés est en légère reprise depuis la pandémie. Cette première note positive est tempérée par l’évocation de deux réformes aux effets négatifs : celle du lycée en 2019, qui a fait perdre aux mathématiques sont statut de matière incontournable de l’ancien bac scientifique[1], puis celle du baccalauréat en 2021, qui a vu disparaître la distinction en filières spécialisées et n’a pas encouragé les vocations des futurs ingénieurs, notamment chez les jeunes filles[2].
Trop peu de femmes ingénieures
D’une manière générale, la restitution de cette enquête est l’occasion de mettre l’accent sur le faible nombre de femmes ingénieures. Elles représentent en effet seulement 24% des 1 114 000 ingénieurs en activité[3]. Ce chiffre est relativement stable depuis 2011. Les jeunes femmes s’orientent plus vers les sciences de la vie ou de la terre, la chimie, la biologie, l’agronomie, les métiers de l’eau, avec des rémunérations peu avantageuses. Alors que les hommes sont majoritaires dans les spécialités suivantes : électronique, mécanique, informatique. Ils encouragent une meilleure répartition des hommes et des femmes dans les branches des STEM, c’est-à-dire « Science Technology Engineering Mathematics ». Le peu de femmes employées dans le secteur du numérique est également souligné.
Les voies d’apprentissage se diversifient
L’augmentation de l’apprentissage en alternance est saluée par les intervenants. C’est aussi une voie d’excellence et les écoles d’ingénieurs les plus prestigieuses, Polytechnique, Arts et Métiers inclus, développent des filières d’apprentissage.
Toujours sur le parcours de formation, la filière des Bachelors permet par voie de passerelle d’obtenir un diplôme, au même titre que les étudiants formés via une classe préparatoire.
Les besoins liés à la réindustrialisation
16,7% des diplômés se tournent vers la production. « C’est un marqueur fort qui nous rappelle la désindustrialisation que nous connaissons en France depuis 30 ans, puisqu’on est à un maigre 10% du PIB, le poids de l’industrie dans la création de richesse de ce pays », souligne Marc Rumeau. « France 2030 et autres programmes de réindustrialisation sont en place et devraient aider, mais il reste encore beaucoup de travail, et en particulier, il manque encore beaucoup de bras, garçons ou filles », poursuit-il.
Encourager les vocations, face aux difficultés de recrutement
L’édition, l’audiovisuel, la diffusion, l’hébergement, la restauration sont des secteurs que l’enquête dévoile comme en manque crucial d’ingénieurs. Ils sont particulièrement touchés mais des ingénieurs manquent dans de nombreux domaines.
Marie-Liesse Bizard intervient du point de vue des ressources humaines. Elle souligne l’importance de l’intégration ou « onboarding », de l’accueil et de l’implication, pendant les premières années des ingénieurs dans les entreprises. Elle explique que « les programmes liés à l’environnement sont des sujets qui inspirent beaucoup les ingénieurs » et elle explique que “des questions sur la conjoncture, le télétravail, l’accompagnement dans la gestion de carrière » ont été ajoutées au questionnaire de l’enquête.
Des événements pour susciter les vocations
Des actions sont menées pour susciter la vocation de futurs ingénieurs. Courant septembre, les Worldskills, olympiades des métiers à Lyon, ont permis de mettre en avant le rayonnement des ingénieurs, particulièrement les spécialistes du cloud. La maison Poincaré[4] dédiée aux mathématiques a été inaugurée ce 27 septembre, à l’initiative du CNRS. Événement en ligne dédié aux filles et soutenu par le Ministère de la Culture, le projet « Lecture et vocation scientifique chez les filles », a été proposé début octobre. Et, à venir, lors des JO 2024, avec les actions de challenge scientifique[5], des athlètes pourront être soutenus, notamment des compétitrices, tout au long des jeux.
Et l’éthique ?
La question de l’éthique au travail était bien présente à travers les questions posées dans la cadre de l’enquête. Il en ressort que cette préoccupation a une importance croissante. Ainsi, en 2023, 77% des ingénieurs qui observent un manquement à l’éthique se disent prêts à faire un signalement[6].
IESF a mis en place une charte d’éthique[7] adressée aux élèves des écoles d’ingénieurs et aux jeunes diplômés. IESF essaie de systématiser cette charte dans les écoles et les entreprises.
Les plastiques sont responsables d’importants dommages environnementaux, notamment dans les océans. De nombreux projets de recherche sont développés en ce moment pour trouver des alternatives durables et recyclables à ces produits. À l’université de Pau, le laboratoire IPREM1 mène un projet original dont l’objectif est de fabriquer des bioplastiques en circuits courts en valorisant des ressources locales. Débutée en 2020, l’idée principale est de les produire à partir de résidus de cultures de maïs, dont les surfaces sont très importantes dans le sud-ouest de la France. Puis d’utiliser des bactéries prélevées dans des sédiments marins pour fabriquer des biopolymères à partir de cette biomasse. Ce projet, baptisé BENEFICCE2, est financé dans le cadre d’un projet européen3.
« Des polymères en bioplastiques existaient quand j’ai commencé à m’intéresser à la problématique des plastiques, mais ils étaient trop chers à produire, explique Maria Lorena Falco, docteur en sciences exactes et spécialiste en biotechnologie et l’une des porteuses de ce projet. Pour parvenir à une solution qui soit acceptable financièrement, les circuits courts pouvaient être une bonne piste. Lors de mes études, j’ai travaillé sur la pyrolyse de la biomasse de riz qui devait conduire à trouver des alternatives aux combustibles fossiles, mais elle s’est finalement avérée trop visqueuse pour être utilisable. C’est en m’inspirant de ces travaux qu’est né le projet BENEFICCE. »
Les scientifiques sont allés prélever des microorganismes dans les sédiments du port d’Anglet, sur la côte basque, dans un environnement qui a la particularité d’être riche en hydrocarbures rejetés par les bateaux. Certains de ces microorganismes ont la capacité à produire des polymères ayant les mêmes propriétés que le polyéthylène et le polypropylène présents dans les plastiques, grâce à un procédé de fermentation des résidus de maïs. Ce processus nécessite également d’apport d’une bio-huile comme source de carbone, qui est produite grâce à un procédé de pyrolyse de cette biomasse, au cours d’une étape menée en parallèle. « Nous prélevons un groupe de microorganismes, ensuite nous isolons les bactéries qui produisent des polymères d’intérêt, plus précisément des polyhydroxyalcanoates (PHA), puis nous les cultivons dans les mêmes conditions en laboratoire, ajoute Maria Lorena Falco. Toute la difficulté réside dans le fait que nous travaillons avec des organismes vivants possédant une grande variété de comportements. »
À la recherche de nouveaux financements pour passer à l’étape pré-industrielle
L’étape suivante consiste à extraire les polymères à l’intérieur des bactéries. Pour cela, un solvant organique est pour le moment utilisé, mais les chercheurs envisagent plusieurs pistes dans le futur pour employer un solvant non-polluant. La phase suivante consiste à purifier les polymères extraits. « Nous sommes parvenus jusqu’à la purification du polymère qui ressemble à une poudre blanche, précise Maria Lorena Falco. Pour fabriquer un bioplastique, il est ensuite nécessaire d’ajouter des additifs chimiques et il est possible de les mélanger avec d’autres polymères biosourcés. Pour cela, nous travaillons en collaboration avec l’Université de Varsovie en Pologne, qui est experte dans ce domaine. »
À ce stade, toutes les hypothèses de ce travail de recherche ont été validées. Les scientifiques sont dans l’attente de nouveaux financements pour le poursuivre afin de passer à une phase pré-industrielle. À terme, leur objectif est de produire des bioplastiques destinés notamment à la fabrication d’emballages alimentaires, à des applications médicales ou à des produits pour l’agriculture. Développés dans le cadre du projet BENEFICCE, certains microorganismes prélevés dans les sédiments marins pourraient aussi produire des acides gras destinés à fabriquer du biodiesel ainsi que des éléments oléochimiques pour la cosmétique et la médecine. Ils pourraient aussi produire des enzymes servant à la dépolymérisation de la lignine et à mettre en œuvre des procédés de bioraffinerie.
1 Institut des Sciences Analytiques et de Physico-Chimie pour l’Environnement et les Matériaux
2 Le projet BENEFICCE signifie Biomass and bio-oil Fermentation using mIcrobial Communities to produce Chemicals and Enzymes
3 Ce projet a reçu un financement du programme de recherche et d’innovation Horizon 2020 de l’Union européenne et un co-financement de l’Istitut Carnot ISIFOR
Pierre Godfroy a suivi le déménagement au MEETT, le nouveau parc des expositions de Toulouse. Ce nouveau site a permis à SIANE Industries de se développer. L’événement se déroule maintenant dans un vaste espace ouvert, aux infrastructures récentes et fonctionnelles. Le travail d’organisation est facilité, d’autant que le site est plus accessible, plus proche de l’aéroport et d’Airbus.
Entre 600 et 700 exposants seront présents sur le salon, du 17 au 19 octobre. La nouveauté 2023 est que le salon s’étend sur un hall de plus. En termes de fréquentation, 14 000 visiteurs sont attendus sur les trois jours.
Créer du lien pour faciliter les recrutements dans des filières en tension
L’emploi est mis en avant lors de cette édition avec un Forum Emploi – Formations & Métiers. Jeudi 18, un job dating est organisé sur la journée. Les exposants viennent à la fois prospecter et aussi recruter de futurs collaborateurs. Plusieurs animations sont liées à l’attractivité des filières industrielles et de ses métiers. Le village place de l’industrie est constitué de chalets représentant chacun une branche industrielle susceptible de recruter : bois, carrière & matériaux, énergie, métallurgie, plasturgie, médicament et métallurgie.
L’animation Aérograff[1] revient en 2023. Elle sert à présenter le métier de peintre en aéronautique, en tension. De nombreuses pièces aéronautiques sont présentées et seront “graffées” pendant le salon, afin d’établir un rapprochement entre le monde du graff et le métier de peintre aéronautique. Ces animations permettent de renforcer l’attractivité des métiers de l’industrie. Les exposants peuvent rencontrer les jeunes et leur présenter un métier susceptible de les intéresser.
Sur le hall machines-outils, les fabricants et marchands de machines reviennent en nombre cette année alors que leur participation lors de la précédente édition était limitée en raison d’une conjoncture particulière, entre flambée des coûts de l’énergie et guerre en Ukraine. A ne pas manquer sur ce hall, le showroom by Index avec une machine de plus de 30 tonnes qui sera exposée pour la première fois en France : le centre de tournage-fraisage G300/G320 pour l’usinage performant de pièces de taille moyenne.
Les entreprises, en général, reviennent en force sur le salon cette année, dans un contexte plus favorable. Leurs problématiques vont de l’emploi à la décarbonation, et bien entendu, trouver des clients. Le but du salon est aussi d’apporter des solutions innovantes à toutes les problématiques rencontrées au quotidien. On ressent plus d’optimisme dans l’air que l’année dernière.
L’accent mis sur l’innovation
Au village de la robotique, le colloque technologique Susan Calvin, créé par Robotics Place[2], est organisé sur un jour et demi[3] pour rapprocher universitaires, scientifiques et professionnels de l’industrie. Les 18 et 19 octobre, les principales interventions sont le robot psychologue, la micro manipulation robotique, la robotique dans la chirurgie, la conception et commande de robot quadrupède, le contrôle des structures flexibles, de nombreuses thématiques qui sont traitées via ces différentes interventions. A voir aussi, la société MS-Innov[4] expose son robot MORFOSE sur le salon. Il a été présenté à l’Elysée le 1er et 2 juillet. C’est le premier[5] robot collaboratif modulaire industriel. Il fait partie des candidats à l’un des trophées qui seront remis lors des SIANE AWARDS.
Portés par Fab&co[6], les fablabs d’Occitanie sont présents pour faire découvrir leur fonctionnement. Mais surtout, ils sont orientés sur l’innovation et l’industrie de demain, de même que sur toutes les problématiques de RSE et de décarbonation. Ils sont des lieux d’expérimentation pour des entreprises comme Ariane Group, Liebherr, ou Thales Alenia Space.
Les solutions innovantes exposées sont aussi une façon de montrer l’attractivité des filières et de créer du lien, aussi pour de futurs recrutements, car certaines sont en tension.
L’Usine école Pad’Occ
Le salon réserve un espace de 850m², partagé entre deux structures complémentaires : la plateforme d’accélération vers l’industrie du futur portée par la Chambre de Commerce et d’Industrie de Toulouse et l’usine école Pad’occ[7]. La plateforme d’accélération de la logistique du futur, représentée par Log’in by Daher, est une nouveauté de cette édition. Au volet production, s’ajoute donc le volet logistique et fourniture. Sur le salon, l’espace dédié à l’usine école s’est développé. C’est à présent une vraie usine en fonctionnement. Cette installation démonstrative offre aux visiteurs la possibilité de voir un processus numérisé et optimisé de fabrication, aux machines interconnectées. En suivant un chemin, les visiteurs se trouvent en contact avec une chaîne de production, qui leur offre un accès direct aux machines, ils peuvent les toucher, les voir fonctionner, sentir les pièces. Au bout de cette chaîne de montage, des triporteurs électriques de Cobrane sont fabriqués en temps réel. Le processus de fabrication et l’assemblage de leurs pièces en direct dans cette usine, se veut une expérience immersive pour les visiteurs. A l’entrée de l’usine, des casques de réalité virtuelle permettent de visualiser les pièces produites, en complément du chemin en contact avec les machines.
Entre transition énergétique et relocalisation
Les entreprises vont devoir décarboner leur industrie et modifier le transport de leurs pièces, leur production, leur consommation, leurs usages. La transition énergétique est très présente notamment à travers le programme du plateau télé du salon[8]. Parmi la trentaine d’interventions et conférences, cette thématique est traitée selon différents angles : la décarbonation de l’industrie, la production photovoltaïque, la cotraitance dans l’hydrogène, la région Occitanie qui s’apprête à produire de l’hydrogène décarboné[9].
Le salon accueille l’espace dédié au mix énergétique pour la première année, avec un pavillon hydrogène et un pavillon énergies nouvelles. Il est porté par CEMATER, un pôle de compétitivité basé à Montpellier. Avec son showroom dédié, le pôle hydrogène est porté par HyDéo et France Hydrogène Occitanie. Le drone du toulousain Delair, fabriqué en cotraitance avec Hycco et Pragmaindustries, sera élingué sur cet espace du salon. Sur un espace de 18 m², le technocampus Hydrogène Occitanie de Francazal exposera également un banc d’essai hydrogène.
Parallèlement à la transition énergétique, la relocalisation est aussi un thème important du salon. Une conférence de Territoires d’industrie[10] sur le plan de relance France 2030 acte 2, traitera des questions de relocalisation industrielle. Pendant la nocturne du mercredi 18, une soirée sur la thématique “Quelle place pour l’industrie dans le monde de demain” se déroulera sur le plateau TV avec des battles entre étudiants et industriels diffusée en live sur le site du salon et reprise par différents partenaires. L’objectif est de projeter l’industrie dans 50 ans, avec les évolutions, en termes de RSE, d’innovation, etc … Ce débat sera suivi de “Dans les yeux de l’industrie”, une intervention de Bruno Bergoend[11], suivi d’Anaïs Voy Gillis.
Sur les réseaux sociaux seront relayés le montage du salon, l’arrivée de certaines machines, notamment sur le showroom by Index avec sa machine de plus de 30 tonnes. De même pour l’ensemble des animations et démonstrations qui feront l’objet de publications, tout au long du salon.
Cette année, une nouvelle fonctionnalité pour la prise de rendez-vous acheteur a été développée. A partir de la liste des exposants, elle permet aux visiteurs de prendre rendez-vous avec l’exposant directement sur son stand. L’acheteur renseigne ses informations, son besoin. L’exposant peut ainsi valider ou non le rendez-vous. Son planning, téléchargeable à J-1, lui permet de savoir à quelle heure l’acheteur se présentera sur son stand.
Ce rapport, rédigé par différents contributeurs[1] et parrainé par Protolabs « vise à fournir un aperçu des dernières évolutions et de l’état des technologies de la robotique de base. »
De nouveaux matériaux pour la robotique souple
Alors que la robotique traditionnelle s’appuie sur des systèmes mécatroniques et des matériaux rigides, la robotique souple se distingue par l’utilisation de matières intelligentes et polyvalentes, capables d’intégrer différentes fonctions.
Parce qu’ils sont déformables et flexibles, les élastomères[2] sont ainsi de parfaits candidats lorsqu’il s’agit de concevoir des robots capables de se mouvoir dans des espaces exigus, ou de développer des préhenseurs souples pour la manipulation d’objets fragiles. Par ailleurs, les élastomères ont aussi une bonne « capacité à répartir les charges d’impact de manière plus efficace sur l’ensemble du corps du robot. »
Octobot, le premier robot souple entièrement autonome (Crédit : Harvard, Wyss Institute)
Les matières intelligentes mêlant détection, activation et objectifs structurels ont également beaucoup évolué ces dernières années. Dans cette nouvelle classe de matériaux, on peut notamment citer les polymères électromécaniquement actifs (EAP), mieux connus sous le nom de muscles artificiels et qui se déforment sous l’effet d’un champ électrique. D’autres matières, réagissant à divers stimuli comme la température, le pH ou la lumière, ainsi que des polymères à mémoire de forme font aussi l’objet de nombreuses recherches.
Des avancées technologiques à tous les niveaux
Le rapport donne également une vue d’ensemble des progrès technologiques et méthodologiques qui permettent à la robotique industrielle de devenir l’un des moteurs de l’innovation.
Aspect matériel :
les capteurs
les CPU
les systèmes de contrôle
les moteurs et actionneurs
les effecteurs terminaux
les connecteurs
les sources d’alimentation
Concernant les procédés de fabrication numérique :
systèmes cyberphysiques de production (CPPS)
fabrication en tant que service (MaaS)
fabrication additive
usinage CNC
moulage par injection
analyse de fabricabilité (DFM)
méthode de conception itérative
Des projets robotiques parfois étonnants
Pour illustrer son rapport, Protolabs a aussi sélectionné une multitude de projets, issus d’entreprises comme de laboratoires de recherche universitaires et qui montrent à quel point les applications robotiques sont variées.
Le bras robotique sensible Franka Emikas Panda
Interconnecté et adaptatif, ce bras robotique léger est conçu pour aider les humains en toute sécurité. Il se distingue des autres cobots par sa méthode de programmation et de formation par apprentissage et en utilisant la stimulation d’environnements artificiels en 3D.
Son manipulateur très sophistiqué est par ailleurs muni d’un système de contrôle par capteur de force. Le contrôle du couple permet aux humains d’effectuer en toute sécurité des tâches qui demandent un contact physique direct.
Robots bioniques et bioinspirés
En 2009, l’entreprise Boston Dynamics faisait sensation avec son prototype de robot quadrupède. En presque 15 ans, les robots bioinspirés n’ont depuis cessé d’évoluer.
Conçu pour les opérations de sauvetage, le robot quadrupède Jueying X20 de l’entreprise DEEP Robotics est capable de se déplacer à travers des ruines, des cages d’escaliers et dans tous types d’environnements à haut risque. Contrairement à un vrai chien, il utilise l’imagerie thermique pour identifier les humains et autres espèces vivantes dans l’environnement où il est déployé !
Le robot quadrupède Jueying X20 (Crédit : Deep Robotics)
Plus étonnant encore, l’entreprise travaille actuellement sur une exploitation multirobots qui permettrait à plusieurs unités de travailler ensemble et en toute autonomie sur une tâche unique.
DEEP Robotics n’est d’ailleurs pas la seule entreprise à vouloir faire travailler plusieurs robots de manière coopérative. En associant des technologies de fabrication additive et de plastronique, l’entreprise robotique Festo a créé un essaim robotique appelé BionicANTs. Au-delà des problématiques liées à sa fabrication, cet essaim de robots-fourmis permet de démontrer « comment des unités individuelles peuvent réagir indépendamment à différentes situations, coordonner leurs actions entre elles et agir comme un système global interconnecté. »
Le robot assembleur de voxels du MIT (Crédit : MIT)
Difficile d’être exhaustif, car le guide contient bien d’autres exemples d’applications : robot humanoïde, robotique agricole, robot destiné aux soins médicaux, robot assembleur de voxels, etc.
Si vous souhaitez plus de détails, nous vous invitons à consulter le rapport complet, téléchargeable sur le site de Protolabs.
[1] Per Sjöborg, Laura Tripaldi, Lydia Husser, Shreyasta Samal, John Soldatos
[2] Caoutchouc naturel et synthétique, silicones tels que le polydiméthylsiloxane (PDMS), composites souples, etc.
Techniques de l’Ingénieur : Pouvez-vous revenir sur votre parcours professionnel ?
Anne-Sophie Corbeau : Je suis ingénieure centralienne, double diplômée franco-allemande avec l’Université de Stuttgart. J’ai commencé ma carrière en Allemagne, où j’ai découvert les piles à combustible et l’hydrogène. J’avais fait un stage de fin d’études sur la modélisation du système de reformage des piles à combustible. Puis, mon premier emploi dans un cabinet de conseil était pour Peugeot, sur le même sujet. Cependant, c’était un peu trop tôt pour l’hydrogène, alors j’ai continué à suivre ce vecteur en parallèle. Je suis passée assez rapidement au gaz naturel : je suis entrée dans un cabinet de conseil (CERA), qui suite à de nombreuses fusions acquisitions, s’appelle de nos jours S&P Global. Ensuite, j’ai élargi mes horizons en rejoignant l’Agence Internationale de l’Energie en 2009. Je l’ai quittée en 2014 pour partir travailler pour KAPSARC[1] en Arabie Saoudite pendant trois ans, et créer leur service d’analyse gaz. Ensuite j’ai rejoint BP dans le groupe du “chief economist”, qui était alors responsable de la revue statistique de l’énergie (à présent réalisée par un autre institut), et du BP Energy Outlook. Puis, il y a deux ans, j’ai rejoint le CGEP, Center on Global Energy Policy, qui fait partie de l’Université de Columbia[2]. Je travaille sur le gaz et l’hydrogène, c’est assez prenant.
Pouvez-vous nous dire en quoi consiste votre activité actuellement ?
Au sein du CGEP, une grande partie de notre travail est consacrée à faire de la recherche indépendante et non-partisane dans le but d’apporter des réponses aux questions clefs dans le domaine de l’énergie. Une partie de nos chercheurs enseignent – puisque nous sommes dans une université, celle de Columbia à New York. Par ailleurs, nous créons des opportunités de dialogue et d’échanges entre les différentes parties prenantes, par le biais d’événements, privés ou publics. Ce qui est important à retenir de notre travail, c’est l’aspect public de toute notre recherche.
Sur quels sujets êtes-vous consultée par les industriels ?
Je suis souvent consultée soit sur le marché gazier, soit sur le marché de l’hydrogène. Par exemple, durant l’année 2022, mes interlocuteurs aux Etats-Unis me parlaient de leurs projets d’exportation de GNL et me demandaient pourquoi les européens refusaient de signer des contrats long-terme. Il me fallait leur expliquer que les objectifs de décarbonation en Europe étaient à l’horizon 2050. Un projet GNL encore en construction arriverait sur le marché en 2027 ou 2028, donc le contrat long-terme se prolongerait jusqu’en 2047 ou 2048. Au regard des objectifs de décarbonation, il est donc compliqué de signer ce type de contrats pour une entreprise européenne. Pour les américains, je suis une européenne, ce qui leur permet de comprendre ce qui se passe en Europe. Et pour les européens, je suis un peu “américaine”. Par exemple, j’ai fait plusieurs éclairages sur l’Inflation Reduction Act[3], en particulier sur les marchés de l’hydrogène.
Selon vous, le gaz a-t-il une place ou un rôle à jouer dans la transition énergétique ?
Le rôle du gaz est voué à diminuer dans les pays développés, car ces pays ont des objectifs de réduction des émissions à effet de serre ambitieux. Même si certains, tels les Etats-Unis sont plus favorables au captage et au stockage du carbone (CCS), ça ne sera pas vraiment suffisant pour stabiliser la demande. Donc, je pense que les demandes européenne, américaine, ou encore japonaise, par exemple, sont amenées à diminuer. La véritable question se pose en fait pour les pays en voie de développement où la demande énergétique augmente encore. En particulier ceux qui utilisent beaucoup de charbon devraient continuer à voir leur demande en gaz augmenter. En effet, le gaz peut avoir un rôle à jouer pour pousser le charbon vers la sortie, à condition que ce gaz soit compétitif et propre. Il va falloir faire très attention aux émissions de méthane, et il faut aussi pouvoir être en mesure de décarboner ce gaz dans son utilisation finale via la capture du CO2 et son stockage. Dans ces conditions, je pense que le gaz aurait un rôle à jouer et pourrait contribuer à faire augmenter la demande. Néanmoins une demande croissante en énergies fossiles pour aider au développement est souvent vu d’un mauvais œil par certains organismes de financement ou des ONG des pays développés. Cette division entre les pays développés et ceux en voie de développement est d’ailleurs cruciale; elle va probablement réapparaître à l’occasion de la COP 28[4]. Les enjeux pour ces pays sont d’allier équité, impératifs de développement économique et objectifs de décarbonation dans le cadre des Scénarios Net Zero[5].
Mais à terme, on devrait observer une diminution de la demande globale de gaz. Plus les scénarios sont ambitieux en termes climatiques, plus la demande de gaz est faible, mais aussi, parallèlement, plus la quantité de CCS[6] nécessaire est importante.
Que pouvez-vous nous dire sur votre rôle au sein de la conférence annuelle Gastech ?
J’ai rejoint le Governing Body[7] de Gastech[8] fin 2020. Le rôle du Governing Body est de sélectionner les papiers qui seront présentés durant la conférence. Ces travaux des candidats sont répartis selon différents thèmes, comme l’évolution des marchés gaziers, de la régulation, les nouvelles technologies climatiques, le CCS, ou encore l’utilisation de nouveaux carburants dans l’aviation, ou le secteur maritime. Ces papiers couvrent un large éventail autour du gaz naturel, de l’hydrogène et ses dérivés. Chacun des membres du Governing Body note les résumés. En 2022, je suis devenue un des trois co-chairs du Governing Body, ce qui inclut la préparation de chaque conférence Gastech. Le rôle du co-chair consiste à échanger autour de l’organisation de la conférence en général, mais porte aussi sur le programme et sur la diversité des papiers qui vont être présentés. On essaie de donner davantage la parole aux femmes.
Comment voyez-vous la place de l’hydrogène décarboné par rapport à la transition énergétique, dans l’objectif France 2030 ?
Je suis opposée au fait de mettre de l’hydrogène partout. Pour moi, l’hydrogène est un vecteur à utiliser avec parcimonie, quand c’est justifié de façon technologique et économique. Les deux premières choses à faire dans une stratégie de décarbonation, c’est diminuer la demande, c’est-à-dire un mix d’efficacité énergétique et de sobriété, comme on l’a vu au cours des deux dernières années. On doit aussi électrifier, tout en ayant un mix électrique le plus propre possible. Pour certains, ça signifie plus d’énergies renouvelables. En France, l’approche, un peu différente, inclut le nucléaire, qui est aussi une énergie zéro carbone. Nos voisins outre-Rhin n’ont pas la même vision. Et en troisième position, l’hydrogène arrive sur des secteurs considérés comme difficiles à décarboner. Cela inclut les usages existants de l’hydrogène, comme la fabrication d’ammoniac dans le secteur des engrais, la fabrication de méthanol, l’utilisation dans les raffineries et la sidérurgie, mais aussi les secteurs de l’industrie qui nécessitent de hautes températures. Pour la basse température et la moyenne température, les procédés peuvent éventuellement être électrifiés. Les transports complexes (aviation, secteur maritime) nécessiteront probablement d’autres formes que de l’hydrogène pur, telles que les molécules hydrogénées. Enfin, on peut avoir recours à l’hydrogène dans le cadre de la génération d’électricité, pour faire un stockage saisonnier. Cette molécule a son intérêt, mais ne doit pas être mise partout. Ceci dit, cette tendance a un peu fléchi récemment.
Quel regard portez-vous sur la découverte de l’importante réserve d’hydrogène en Lorraine ?
Je vais me pencher sur cet hydrogène naturel, ou géologique, afin de l’étudier. Naturellement, du point de vue de la sécurité énergétique, de l’hydrogène produit sur notre territoire serait particulièrement intéressant. Parmi les nombreuses interrogations, on se demande : les technologies sont-elles prêtes ? Dans quelle mesure peut-il être produit à un coût compétitif ? Il faudrait aussi pouvoir l’estimer, calibrer de façon plus fine les quantités de cet hydrogène potentiellement disponible.
Quels conseils donneriez-vous à un ingénieur, un technicien ou un scientifique, intéressé par ces thématiques et qui arrive sur le marché du travail ?
Mon principal conseil est de faire du networking. Dans les moyennes ou grandes villes, des événements, parfois gratuits, sont organisés par des universités, ou différentes institutions, notamment sur la thématique de l’énergie. Cela offre déjà l’occasion d’écouter ce qui se dit, mais aussi de participer, de rencontrer du monde et de commencer à se faire connaître. C’est totalement différent de ce qui se passait il y a vingt ans, quand je suis entrée sur le marché du travail. A présent, on dispose également d’outils comme Linkedin. Certaines personnes font des réflexions relativement intéressantes et se bâtissent un réseau progressivement. Lorsque mes assistants de recherche sont proches de l’obtention de leur diplôme, on coécrit des papiers ensemble. Ils disposent déjà de leur petit réseau Linkedin, sur lequel on publie le rapport pour le mettre en avant. Puis je le partage avec mon propre réseau pour attirer l’attention sur eux. Pour moi, les personnes plus expérimentées peuvent jouer le rôle de mentors pour les plus jeunes. Ce n’est pas toujours facile, ni donné à tout le monde. J’essaie d’encourager ces jeunes gens avec lesquels je travaille.
Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant qu’auteure ?
Quand j’ai commencé à travailler, j’étais chez Peugeot. Je faisais de la modélisation du système de reformage et j’utilisais beaucoup les articles de ressources documentaires de Techniques de l’Ingénieur : sur les piles à combustible, la thermodynamique, etc. J’étais vraiment une lectrice assidue. Puis, je suis passée dans un monde dans lequel l’ingénierie avait moins d’importance. A partir de là, malheureusement, j’ai moins utilisé les articles de Techniques de l’Ingénieur. Dans le type de société de conseil où j’évoluais, on ne faisait pas forcément de l’ingénierie. Mais pour moi, ces ressources étaient très importantes. Donc, quand j’ai été contactée par Techniques de l’Ingénieur, pour rédiger un article pas vraiment technologique, mais plus dans mes sujets : sécurité de l’énergie, géopolitique, suivi du marché[9], j’étais ravie car j’ai le plus grand respect pour cette publication. De plus, c’était l’occasion d’écrire en français, ce qui est très rare. La dernière fois que j’ai rédigé en français c’était à la demande de l’école des Mines, pour la revue des mines. C’est, je crois, ma seule publication en français en deux ans. Ne mentionnons même pas la période où j’étais chez BP, aucune publication en français !
Hydrocarbures, nitrates, ou encore matières plastiques. En mer, les polluants ne manquent pas. D’autant qu’à ces éléments bien palpables s’ajoute une pression anthropique sur les écosystèmes aussi intangible que pernicieuse : le bruit. Dans de nombreuses zones océaniques, l’environnement sonore du mal nommé Monde du silence s’apparente en effet plus à celui des abords d’une autoroute ou d’une zone de chantier qu’à l’ambiance feutrée d’une chambre sourde. En cause : la navigation des bateaux[1], certes, mais aussi les activités de prospection d’hydrocarbures en mer ou encore l’implantation d’éoliennes offshore.
L’implantation d’éoliennes offshore fait partie des activités génératrices de nuisances sonores pour la faune marine. Crédit : Image par Norbert Pietsch de Pixabay
« Il existe deux types de dangers acoustiques pour les espèces marines », explique le directeur commercial du leader européen de l’acoustique sous-marine Quiet-Oceans, Carl Bois, qui poursuit : « Il y a d’une part les bruits ponctuels d’une forte intensité, qui peuvent – comme c’est le cas pour les humains à terre – faire perdre aux animaux leurs capacités auditives de façon temporaire ou définitive. Une forte émission de bruit peut même tuer certains animaux marins… D’autre part, un second danger est constitué par le bruit continu, notamment le bruit de la navigation maritime, des “autoroutes de la mer”, qui empêche les animaux d’utiliser leurs capacités de communication et de repérage par le son : l’écholocalisation ».
Des connaissances scientifiques relativement récentes
Ce vacarme constant peut ainsi mettre en danger de très nombreuses espèces, comme le souligne le directeur commercial de l’entreprise implantée à Plouzané, près de Brest ; l’une des figures de proue du collectif Bretagne Ocean Power : « Au fil des découvertes de la recherche scientifique, on s’aperçoit que pratiquement toutes les espèces sont sensibles au bruit, y compris les plus improbables… Les coquilles Saint-Jacques, par exemple ». Une prise de conscience dont les origines remontent au milieu des années 1990, avec – notamment – la publication par W. John Richardson et ses collaborateurs de l’un des ouvrages de référence sur le sujet : Marine Mammals and Noise.
Comme le note dans un article paru en 2004[2] la professeure de droit Karen N. Scott, « un certain nombre de chercheurs ont [depuis lors] établi un lien entre [des cas] d’échouages multiples (et souvent mortels) et les essais des sonars militaires de l’OTAN et des États-Unis » : en Grèce, en 1996, mais aussi aux Bahamas en l’an 2000, ou encore sur les côtes des Îles Canaries en 2002. Et l’enseignante-chercheuse de souligner qu’en dépit de l’attention accrue portée par les scientifiques au problème du bruit des océans, « la pollution acoustique marine a fait l’objet de relativement peu d’attention réglementaire au niveau mondial ».
Un cadre réglementaire défini il y a peu
Les lignes ont toutefois fini par bouger, comme l’explique le directeur commercial de Quiet-Oceans Carl Bois : « Les moyens financiers mis par l’OTAN pour tenter d’établir un lien entre échouages et utilisation de sonar à des fins militaires ont contribué au progrès de la connaissance. Cela a conduit à la prise en compte de cet aspect dans la réglementation, notamment, en Europe, avec la directive-cadre Stratégie pour le milieu marin de 2008 ». Un texte transcrit en droit français, et qui prévoyait, en substance, le maintien ou la restauration, en 2020 au plus tard, d’un « bon état écologique » du milieu marin par les États membres de l’UE.
Pour y parvenir, la directive-cadre a notamment établi une série de onze « descripteurs » définissant cette notion de bon état écologique[3]. Des descripteurs parmi lesquels on trouve la biodiversité, les contaminants, ou encore les déchets… mais aussi, donc, le bruit sous-marin, considéré depuis lors comme une véritable pollution[4]. Un changement de statut qui est ainsi directement à l’origine de la création de Quiet-Oceans.
Des origines militaires
« Quiet-Oceans est née il y a 13 ans, en 2010, sous l’impulsion de fondateurs déjà actifs au préalable dans le domaine du bruit sous-marin, mais sous un angle militaire. Jusqu’à la publication de cette directive-cadre, l’acoustique sous-marine restait en effet cantonnée au domaine de la défense », retrace Carl Bois. La mise en place d’un cadre réglementaire autour de la pollution acoustique sous-marine a donc poussé ces spécialistes de la modélisation du bruit sous-marin et de l’instrumentation marine à mettre leurs compétences à profit en dehors des applications militaires. « Le développement de l’entreprise a suivi l’évolution de notre clientèle : d’abord les services de l’État, que nous avons accompagnés dans la mise en place de la réglementation, puis les industriels de la mer au sens large, tels que les entreprises des énergies marines renouvelables, mais aussi les acteurs de la navigation et des travaux maritimes », décrit le directeur commercial de Quiet-Oceans. L’entreprise mène ainsi aujourd’hui, de front, une quarantaine de projets, et s’implique par ailleurs dans des projets de recherche aux côtés d’universités et de centres de recherche, ou encore d’ONG. « Notre développement a aussi été guidé par la mise en place de technologies nouvelles », ajoute Carl Bois. Première d’entre elles : une plateforme de modélisation du bruit sous-marin, baptisée Quonops.
Prévoir et mesurer le bruit sous-marin
« La plateforme de modélisation du bruit Quonops est l’outil que nous utilisons le plus en Europe. Cette brique technologique nous permet en effet de fournir des cartes de bruit sous-marin, que ce soit pour les États ou les industriels de la mer. Ces cartes leur sont en effet notamment utiles pour élaborer leurs études d’impacts », résume Carl Bois.
Outre ce premier pilier sur lequel s’est bâtie Quiet-Oceans, l’entreprise a enrichi sa palette d’outils avec d’autres briques technologiques, toutes exclusives. « Le bruit sous-marin est un marché en développement, qui reste pour l’heure un marché de niche. Très peu d’outils sont donc disponibles sur étagère. Nous avons ainsi développé nos propres systèmes, et les faisons évoluer au fil de leur mise en œuvre sur le terrain », justifie Carl Bois.
Quiet-Oceans a ainsi notamment mis au point il y a peu une autre technologie propriétaire, baptisée SmartPAM, pour « passive acoustic monitoring ». Reposant sur un système de bouées, la technologie permet essentiellement de contrôler les niveaux de bruits effectifs et même de suivre la fréquentation d’une zone par la faune marine. « Tout cela en temps réel », souligne le directeur commercial de l’entreprise bretonne.
« L’objectif peut varier en fonction du pays dans lequel la technologie est déployée. En France, par exemple, on s’assure de l’absence de mammifères marins dans une zone de travaux, pour éviter de leur faire subir des impacts acoustiques. En Allemagne, l’approche consiste plutôt à fixer un seuil limite de bruit : lorsque l’on construit, par exemple, un parc éolien, une limite de 160 dB à 750 mètres est fixée. Nous mettons donc en place des bouées qui permettent de détecter en temps réel un éventuel dépassement de seuil », précise M. Bois. L’une d’elles est par exemple restée en service pendant près de quatre ans, dans le cadre d’un chantier côtier réalisé à Monaco. « Sur la base de la même électronique, nous sommes aussi en mesure d’installer des systèmes plus légers, en bordure de quai par exemple », ajoute le directeur commercial de Quiet-Oceans, avant de dévoiler un axe de développement sur lequel travaillent également l’entreprise et sa vingtaine de collaborateurs : la mesure du bruit des navires. « Cela devrait permettre d’apporter de la connaissance aux armateurs et les aider ainsi à réduire le bruit de leurs flottes », entrevoit Carl Bois.
La mesure du bruit des navires fait partie des axes de développement explorés par Quiet-Oceans. (Crédit : Image par Thanasis Papazacharias de Pixabay)
Des développements technologiques qui se poursuivent
Enfin, outre cette première piste, Quiet-Oceans explore par ailleurs un second axe de développement technologique et vise le développement d’un système de modélisation non plus du bruit sous-marin en tant que tel, mais de son évolution en fonction des différentes mesures de gestion possibles. « Par exemple l’exclusion des navires d’une zone donnée, ou la réduction de leur vitesse », illustre Carl Bois. « Nous cherchons à modéliser les effets de ce type de mesure sur le bruit, afin de permettre à nos clients de choisir les plus efficaces », ajoute finalement le responsable. Autant d’outils qui pourraient ainsi s’ajouter d’ici peu à l’arsenal de lutte contre la menace pernicieuse qu’est le bruit sous-marin.
[1] Bruits des moteurs et autres éléments liés à leur propulsion, mais aussi impulsions sonar.
[3] La définition du bon état écologique est révisée tous les 6 ans. En France, cette définition a été revue en 2019 par arrêté ministériel du 9 septembre 2019. Source
[4] La France reconnaît le bruit sous-marin comme une forme de pollution depuis 2010 (loi n° 2010-788 du 12 juillet 2010 Chapitre V, Article 166). Cette reconnaissance est ainsi inscrite dans le code de l’environnement (Chapitre 9, Section 2 « Protection et préservation du milieu marin »). Source
L’organisation des jeux olympiques est une responsabilité immense pour le pays hôte, en termes de préparation, de gestion et de sécurité. Aussi bien pour ceux qui organisent, que pour ceux qui participent, les athlètes.
Pour les organisateurs, la mise en place de centaines d’épreuves dans un périmètre réduit, dans et aux abords d’une ville (certaines épreuves auront lieu loin de Paris, comme le surf organisé à Tahiti), est un défi géographique, mais aussi un défi sécuritaire, alors que des millions de personnes viendront en juillet 2024 à Paris pour assister à une ou plusieurs épreuves. Le village olympique, qui doit accueillir la majorité des 15 000 athlètes sur près de 50 hectares, est également un chantier immense en termes de sécurité.
Ceci étant, la principale avancée juridique consiste à entériner l’usage de drones dans l’espace public, ce qui constitue déjà un virage majeur pour ces technologies, jusque-là cantonnées aux espaces privés.
Ce virage technologique en termes de gestion de la sécurité est corrélé à l’utilisation d’autres technologies, au premier rang desquelles l’intelligence artificielle, qui permet de traiter de grandes quantités de données et d’en extraire des informations pertinentes en fonction des objectifs recherchés. L’article de loi relatif à l’utilisation des images captées par des caméras ou des drones exclut aujourd’hui l’utilisation de la reconnaissance faciale.
Il faut également se préparer à ce que les drones puissent être utilisés de manière malveillante. L’utilisation de drones pour mener des attaques coordonnées se développe de plus en plus. On peut d’ailleurs le voir régulièrement à travers les informations publiées sur la guerre menée par la Russie en Ukraine. La menace d’une attaque de drones est prise très au sérieux par les organisateurs, qui ont notamment confié la tâche de prévenir ce péril à une entreprise française, EXAVISION. Cette dernière développe des caméras thermiques qui permettent de contrer les drones malveillants.
Enfin, les drones auront aussi un rôle clé dans la diffusion des épreuves sportives, en proposant des images avec un recul et un angle impossible à mettre en œuvre avec les caméras classiques. L’utilisation de drones pour filmer les épreuves est déjà courante dans de nombreux sports, mais va être généralisée aux prochains jeux olympiques, et associée à la captation réalisée par les caméras au sol, permettra aux téléspectateurs de suivre les épreuves via l’angle de leur choix, en réel, ou en réalité virtuelle.
Pour résumer, les prochains jeux olympiques permettent la généralisation de nouvelles technologies, dont les drones font partie : la popularité et la dimension de l’événement permettent d’étendre ces usages, temporairement à priori.
Fruit de huit années de R&D menées en collaboration avec l’Office Français de la Biodiversité et l’Université de Bretagne Sud, la solution de recensement de la mégafaune marine développée par WIPSEA – baptisée Harmony – est aujourd’hui pleinement opérationnelle.
Après l’avoir déployée à l’échelle commerciale aux côtés de partenaires spécialistes de l’acquisition des images et de l’interprétation des cartes de répartition obtenues grâce aux données de comptage, WIPSEA entend désormais faire évoluer sa solution pour la rendre compatible avec des images acquises non plus seulement par avion, mais aussi par drone… C’est ce que nous explique Gwénaël Duclos, fondateur et actuel co-gérant de WIPSEA.
Désormais à la tête d’une équipe de cinq collaborateurs, l’homme lève également le voile sur d’autres projets prometteurs dans lesquels s’est engagée l’entreprise basée à Lancieux, dans les Côtes-d’Armor.
Techniques de l’Ingénieur : Quel a été le parcours qui vous a mené à la création de Wipsea ?
Gwenaël Duclos : Avant de créer Wipsea, j’ai été ingénieur chez Thomson pendant 15 ans. Je travaillais sur des équipements qui compressent la vidéo en temps réel. Au moment où j’ai quitté l’entreprise, nous commencions à développer des solutions permettant de détecter certains éléments d’une vidéo – les visages par exemple – pour les épargner lors du processus de compression.
En parallèle, j’étais plongeur amateur et j’avais décidé de m’impliquer dans des missions d’éco-volontariat : j’allais, pendant mes vacances, aider des biologistes à recenser la mégafaune marine. En 2010, je me suis ainsi rendu à Madagascar, où j’emmenais chaque jour des touristes voir les baleines à bosse. J’avais aussi pour mission de prendre des photos destinées à identifier les baleines grâce au pattern unique présent sur leur queue. C’est là que j’ai découvert que les biologistes marins passaient ensuite des soirées entières à comparer ces photos avec leurs catalogues, uniquement à l’œil nu… Je m’en suis étonné auprès d’eux, et ils m’ont indiqué que si des prototypes de logiciels avaient bien été développés, jamais aucun d’eux n’avait débouché sur une véritable solution commerciale.
J’ai donc vu là une opportunité de mettre mon savoir-faire en analyse d’images à leur service, d’autant plus qu’au même moment, en 2010, la branche de Thomson pour laquelle je travaillais cherchait des volontaires au départ, dans le cadre d’un plan de licenciement. Je suis donc rentré de cette mission avec en tête cette idée de reconversion professionnelle.
Grâce au président de l’association malgache dans laquelle j’étais impliqué, Cétamada, j’avais aussi en poche le contact d’une personne travaillant dans un bureau d’études en biologie. Cette personne, mais aussi le responsable du master en écologie de Montpellier dans lequel elle a étudié, m’ont tous deux confirmé que les besoins en matière d’automatisation étaient importants. J’ai donc décidé de quitter Thomson, en m’étant au préalable inscrit dans ce même cursus, afin de me former à l’écologie. Cela m’a ainsi amené sur la nouvelle voie professionnelle que j’emprunte désormais.
J’ai ensuite été amené à faire mon stage de fin d’études en Australie, où j’ai aidé une chercheuse qui venait d’utiliser un drone pour cartographier toute une partie de la côte ouest-australienne. Elle était en effet responsable du recensement des dugongs, aussi appelés vaches de mer. Elle effectuait auparavant ce recensement depuis un avion, mais elle a un jour frôlé l’accident et a même perdu des proches dans un crash. Elle avait donc décidé d’opter pour une autre solution : le drone. Restait toutefois à trouver le moyen de lui éviter de passer six mois à scruter plusieurs dizaines de milliers d’images à la recherche de ces dugongs… C’est ainsi que j’ai commencé à travailler sur cette problématique, et qu’à mon retour en France, en 2013, j’ai fondé Wipsea.
À partir de là, la technopole Rennes Atalante[1] m’a aidé à définir mon marché et mes clients cibles. J’ai très vite identifié l’Office français de la biodiversité (OFB) comme un client rêvé… Et il s’est avéré que ses responsables s’étaient déjà intéressés à mes travaux menés en Australie ! La connexion s’est donc faite tout naturellement. Ils m’ont ainsi demandé de développer une solution qui leur permettrait un recensement semi-automatique des tortues marines du parc marin de Mayotte, sur la base d’images acquises par un drone. Nous avons ensuite co-construit plusieurs autres solutions : après les tortues marines, nous avons travaillé, à la demande de gestionnaires de parcs naturels marins en métropole, à la détection d’activités humaines : kitesurf, planche à voile, baignade… Cette collaboration a duré trois ans et a abouti à une solution qui est aujourd’hui opérationnelle, et qui nous a permis de cartographier l’intégralité des activités humaines sur les parcs.
D’autre part, nous venons de terminer un projet structurant – Semmacape[2] – mené avec des partenaires tels que l’Université Bretagne Sud, l’OFB, France Énergies Marines et l’Ifremer.
En quoi ce projet a-t-il consisté ?
Ce projet était dédié au recensement de toute la mégafaune marine – mammifères, oiseaux, gros poissons… – présente dans les aires marines gérées par l’OFB, mais aussi dans de futurs parcs éoliens. Le travail d’observateurs à bord d’avions a été remplacé par une solution qui allie caméras à très haute résolution et intelligence artificielle.
Une fois les éoliennes implantées, le vol à basse altitude n’est en effet plus possible. Or, la reconnaissance de la faune implique de voler à moins de 180 mètres de haut, ce qui correspond à la hauteur des éoliennes… L’idée était donc de faire voler un avion deux fois plus haut, et de se servir d’une caméra, mais aussi de l’IA, pour parvenir à distinguer les espèces, ce qui n’est pas possible à l’œil nu.
Nous voulions réussir à générer des cartes de distribution comparables à celles établies sur la base d’observations humaines ; c’était l’objectif final de Semmacape. Et nous y sommes parvenus. Nous avons d’ailleurs présenté en juin dernier un poster à ce sujet sur le salon Seanergy[3], pour lequel nous avons obtenu un prix spécial du jury. Cela a été une forme de consécration.
Qu’est-ce qui vous a conduit vers cette utilisation de l’IA que vous évoquez ?
À l’époque de mon stage en Australie, l’IA n’était pas encore aussi mature qu’aujourd’hui. Je n’avais donc pas fait appel à cette approche. Même si elles étaient satisfaisantes dans des conditions optimales, les performances de l’algorithme que j’avais développé étaient ainsi dégradées dès qu’il y avait du vent : certaines vagues apparaissant sur les images pouvaient être confondues avec un dugong… Ce verrou restait donc à faire sauter, ce que nous avons fait grâce au travail de R&D que nous avons mené au cours des huit dernières années : nous avons créé des réseaux de neurones capables, grâce au deep learning, de distinguer une multitude d’espèces marines, ou encore des activités humaines de loisir, avec beaucoup de fiabilité.
Outre le prix obtenu à Seanergy, une seconde consécration pour nous a été la sélection de notre solution par l’OFB, dans le but de recenser la mégafaune marine dans la zone de la future extension du parc naturel marin d’Iroise, au large de Brest. Pour cette application, l’approche sera hybride : des observateurs seront positionnés dans l’avion en plus de la caméra, afin de pouvoir comparer les résultats obtenus. Cette première expérimentation sur le terrain se veut une confirmation des résultats obtenus lors du projet de recherche que j’évoquais.
Quelles sont les autres voies que vous explorez en matière de R&D, les prochaines étapes que vous souhaiteriez franchir ?
Maintenant que nous en sommes arrivés là, que nous avons une solution d’IA performante pour analyser les images, notre souhait est d’aller plus loin, en diminuant le bilan carbone de cette solution grâce à des drones. L’impact carbone devient en effet un critère de plus en plus important dans les appels d’offres… Ce n’est toutefois pas une mince affaire à cause, notamment, de la réglementation… C’est en tout cas la prochaine étape, qui vient d’être amorcée grâce aux financements que nous avons obtenus dans le cadre d’un projet européen : WildDrone. Une thèse sur le sujet va être réalisée, en parallèle de douze autres travaux de thésards, dans l’optique de faire sauter tous les verrous technologiques qui demeurent en matière d’utilisation des drones pour le recensement de mégafaune terrestre et marine.
Nous avons par ailleurs appris que nous avions été sélectionnés par Ocean Winds, un consortium dans lequel figure notamment Engie, et qui gère le projet de parc éolien d’Yeu-Noirmoutier. Ils nous ont chargés de faire voler des drones pendant un an, parallèlement à un recensement aérien conventionnel de la faune marine. L’idée sera, là aussi, de comparer les deux technologies et la fiabilité des cartes de distribution qu’elles permettent respectivement d’atteindre. Ce projet vient de démarrer et se poursuivra sur toute l’année 2024. Pour réaliser ce projet, nous travaillons main dans la main avec la société montpelliéraine L’Avion Jaune, qui a été précurseure dans le domaine du drone.
Tout à fait. Grâce à notre technologie, nous aidons notamment de plus en plus d’acteurs de la pêche durable et de l’agroécologie. Avec l’Ifremer de Lorient, nous sommes par exemple en train de développer un filet de pêche intelligent : l’Ifremer a développé des filets équipés de caméras à l’entrée du filet. Notre technologie permet de remonter de l’information au pêcheur en lui indiquant les espèces capturées. Il peut ainsi décider de relâcher les poissons en activant une trappe dont est équipé le filet.
Cette technologie va permettre d’épargner tous les poissons non ciblés par la pêche, en les relâchant vivants. Cela va également faciliter le travail des pêcheurs, qui, depuis 2019, sont obligés de ramener au port ces prises indésirables.
Tout cela concerne les poissons pélagiques, mais nous avons aussi travaillé sur les chaluts destinés aux espèces benthiques, celles qui vivent au fond de l’eau : langoustines, concombres de mer… Une caméra couplée à la technologie d’analyse permet de détecter la présence de ces espèces et de ne faire descendre le chalut au fond qu’à ce moment-là. Quand ça n’est pas le cas, le chalut développé par l’Ifremer flotte quelques mètres au-dessus du fond. Cela permet d’épargner ces zones, mais aussi d’économiser du carburant, et donc de diminuer l’empreinte carbone de ces pêches. Nous avons appelé ce projet « Game of Trawls[4] » et, comme la série dont s’inspire ce titre, il est découpé en plusieurs saisons. La troisième va commencer et prendre par la même occasion une dimension européenne, notamment grâce à des partenariats en Suède.
Par ailleurs, pour les besoins de chercheurs en agroécologie, nos partenaires ont mis au point un système de caméra permettant de filmer des actes de prédations et nous avons mis au point une intelligence artificielle qui permet de savoir « qui mange qui » parmi une population d’insectes, d’identifier des prédateurs naturels de ravageurs, ceci dans le but de se passer de produits phytosanitaires pour protéger les cultures. Cela ne permet certes pas de déterminer les espèces très précisément, mais au moins de distinguer des morphotypes.
Quel est le niveau de maturité de ces projets ? Sur quoi pourraient-ils aboutir ?
Ces deux derniers projets sont encore au stade de prototype ; des prototypes destinés aux chercheurs. Mais la finalité reste malgré tout de développer des solutions qui pourront, un jour, servir à l’échelle commerciale. Notre objectif reste celui de défricher des domaines, avec l’idée de converger vers des produits diffusibles à grande échelle.
En revanche, pour notre solution de recensement de la mégafaune marine, nous avons déjà bel et bien abouti à un service commercial. Nous avons pour cela créé un groupement d’entreprises avec l’Avion Jaune et un bureau d’étude en écologie, Cohabys, qui s’occupe de toute la partie aval : réalisation de cartes de distribution, élaboration de recommandations…
Notre principal client jusqu’à présent était l’OFB, mais la montée en puissance de l’éolien offshore va nous amener progressivement une autre clientèle : Engie, EDF… Ces clients ont des besoins qui vont plus loin que des cartes de répartition : il leur faut un avis d’expert sur l’interprétation qui peut en être faite. Cela dépasse l’expertise de WIPSEA, et c’est pour cette raison que nous avons décidé de créer ce groupement d’entreprises, que nous avons baptisé PIXSEA.
[1] Rennes Atalante et la French Tech Rennes Saint-Malo ont fusionné en juin 2018 pour donner naissance au Poool.
Augmenter les capacités physiques humaines grâce à la robotique, certains y pensent, mais connaissons-nous les effets réels que ces dispositifs, tels que les exosquelettes, peuvent avoir sur nous ? En étudiant la réaction de notre cerveau à l’utilisation d’un sixième doigt, c’est ce que souhaite déterminer l’équipe de recherche française du Laboratoire d’Informatique, de Robotique et de Microélectronique de Montpellier (LIRMM) à l’Université de Montpellier. « Il est très important de savoir comment ces dispositifs peuvent affecter notre comportement ainsi que notre cerveau, explique Ganesh Gowrishankar, chercheur en robotique et neuroscience au LIRMM. Comprendre cela pourrait permettre de créer des règles éthiques sur leur utilisation. »
Le sixième doigt est piloté grâce à la mesure des signaux électriques des muscles. Crédit : Ganesh Gowrishankar /LIRMM
Le sixième doigt robotique, développé en collaboration avec le professeur Yoichi Miyawaki de l’Université d’électro-communication de Tokyo (Japon), peut être utilisé indépendamment des cinq autres biologiques. Celui-ci est même doté d’un retour haptique lui permettant de ressentir des mouvements du doigt. Les signaux électriques de ces muscles sont mesurés par électromyogramme (des électrodes collées sur la peau), puis transférés au servomoteur qui contrôle le doigt robotique. Grâce à un algorithme, l’équipe a isolé la partie de l’activité musculaire de l’avant-bras qui n’était pas mobilisée dans les mouvements des cinq doigts biologiques afin de l’utiliser pour commander le sixième mécanique. Selon le chercheur, il faudrait moins d’une heure pour que le cerveau l’adopte.
Et pour voir l’activité cérébrale en lien avec l’utilisation du doigt, les chercheurs ont utilisé une technique d’imagerie cérébrale fonctionnelle, l’IRMf[1], qui isole des zones spécifiques du cerveau associées à une perception ou une action particulière, ou à une cognition par un individu en détectant des changements locaux dans le flux sanguin cérébral liés à l’activité neuronale.
Mieux comprendre le cerveau
Alors, comment réagit le cerveau à l’ajout d’un nouveau membre ? Des expériences précédentes ont déjà mis en avant la capacité du cerveau à « accepter » un membre extérieur comme faisant partie intégrante du corps, en remplaçant par exemple visuellement la main d’un individu par son clone plastique. « Dans le cerveau, chaque membre a sa place : si vous perdez votre main et que vous la remplacez par une autre robotique, cette dernière va prendre sa place dans le cortex cérébral, affirme Ganesh Gowrishankar. Mais grâce à nos recherches, nous savons que le cerveau est également capable d’accepter un nouveau membre, un sixième doigt. Mais où exactement ? Nous savons que son utilisation est intégrée dans une partie non utilisée du cortex cérébral. Nous avons notre petite idée sur le lieu exact, mais nous devons le confirmer par quelques expériences. »
[1] Imagerie par résonance magnétique fonctionnelle
Vous vous réjouissiez de pouvoir continuer à siroter votre boisson grâce à des pailles en papier. Si l’expérience n’est pas toujours optimale, avec certaines pailles qui se bouchent ou se délitent, des chercheurs belges lancent une nouvelle alerte un peu plus grave. Selon leurs résultats publiés le 24 août dans la revue Food Additives & Contaminants, les pailles en papier vendues sur le marché contiennent bien trop de poly- and perfluoroalkyl substances (PFAS), un groupe de plus de 12 000 polluants synthétiques connus pour être potentiellement nocifs pour la faune, les humains et l’environnement. Les industriels ajoutent ces PFAS lors de la fabrication des pailles en papier ou en bambou pour les rendre hydrofuges. Tout comme les additifs du plastique, les PFAS peuvent alors migrer vers la boisson avec laquelle ils sont en contact.
Les chercheurs belges ont examiné les concentrations de 29 PFAS dans 39 marques différentes de pailles disponibles dans le commerce sur le marché belge. Au menu des tests : 20 pailles à usage unique en papier, 5 en bambou et 4 en plastique. Mais aussi 5 pailles réutilisables en verre et 5 en acier inoxydable. « Les PFAS étaient présents dans presque tous les types de pailles, à l’exception de celles en acier inoxydable », partagent les chercheurs. 16 PFAS ont ainsi été observés à des concentrations au-dessus de la limite de quantification.
Des pailles en papier particulièrement touchées
Si les chercheurs ont trouvé d’importantes variations entre les pailles provenant des mêmes matériaux, la fréquence de détection est la plus élevée dans les matériaux d’origine végétale, à savoir le papier et le bambou. Des PFAS ont ainsi été détectés dans presque toutes les pailles à base de papier (18 sur 20), avec des concentrations très variables selon les marques, atteignant jusqu’à plus de 7 nanogrammes par gramme de paille (ng/g). Des PFAS ont été retrouvés dans 4 des 5 pailles en bambou, avec une concentration maximale de 3,5 ng/g. « La présence de PFAS dans les pailles végétales montre qu’elles ne sont pas nécessairement biodégradables et que l’utilisation de telles pailles contribue potentiellement à l’exposition humaine et environnementale aux PFAS », concluent les chercheurs.
Fait étonnant, deux des cinq pailles en verre contenaient des PFAS. L’une d’entre elles en présentait même un taux de 6,65 ng/g. Enfin, trois des quatre pailles en plastique contenaient des PFAS quantifiables, avec un maximum de 0,92 ng/g. À titre d’information, l’agence de protection de l’environnement américaine (USEPA) préconise de limiter à 4 ng par litre la présence de PFAS dans l’eau potable. Dans ces conditions, selon les chercheurs, les pailles en acier inoxydable semblent constituer « l’alternative la plus durable », car « elles peuvent être réutilisées, ne contiennent pas de PFAS et peuvent être entièrement recyclées ».