Attaques informatiques : le hardware devient une cible

Régulièrement, la presse se fait l’écho d’applications mobiles qui récupèrent vos données personnelles à votre insu. Mais il existe une menace encore plus forte, mais qui reste très discrète : le piratage de composants électroniques intégrés dans les téléphones.

Une récente étude menée par des chercheurs de l’Université de Pittsburgh Swanson School of Engineering a révélé que le circuit spécialisé dans la génération d’images (GPU-Graphics Processing Unit) de certains smartphones Android, intégrant une puce Qualcomm Adreno, pouvait être utilisé pour espionner et récupérer des données personnelles.

Présentée en mars 2022 lors de la conférence ASPLOS en Suisse, une attaque reposant sur cette faille de sécurité matérielle permet de déduire différentes données d’identification (dont les logins et mots de passe) sans nécessiter de privilège système ni provoquer de changement notable dans le fonctionnement ou les performances de l’appareil. Le pire est que ce piratage passe inaperçu ! Google a confirmé qu’il publierait une mise à jour de sécurité Android dans le courant de l’année pour résoudre ce problème.

Effet domino

Les attaques visant le hardware ont d’abord été imaginées pour « le vol de données bancaires sur les puces de nos cartes bleues, détaille dans le journal du CNRS Lilian Bossuet, professeur à l’université Jean Monnet de Saint-Étienne et membre du laboratoire Hubert Curien. Ces approches sont à présent appliquées aux téléphones portables, dont les circuits sont mal protégés. La situation est cependant encore pire dans l’Internet des objets, où les appareils sont à la fois omniprésents et très peu, voire pas du tout, sécurisés. »

Ordinateurs, réseaux de communication, capteurs… Tous les appareils électroniques intégrant des processeurs. Il suffit qu’un composant physique soit compromis pour impacter les différentes couches de cybersécurité d’un système. L’effet serait dévastateur. Or, les puces modernes sont des dispositifs très complexes constitués de milliards de transistors. Leur compromission peut se faire à différentes étapes (conception, fabrication, assemblage, test), mais par contre la détection est très difficile.

Les modifications physiques apportées à un seul circuit intégré peuvent être bien cachées parmi le nombre de composants valides et peuvent fonctionner longtemps sans être détectées. Une vulnérabilité matérielle bien conçue peut donc passer inaperçue !

À l’occasion de la conférence Black Hat sur la sécurité à Las Vegas, en 2012, le chercheur Jonathan Brossard avait créé une backdoor baptisée Rakshasa qui remplace le Bios d’un ordinateur. Son programme malveillant pouvait compromettre le système d’exploitation au moment du démarrage sans laisser de traces sur le disque dur. Jonathan Brossard avait ainsi démontré que le backdooring permanent du matériel était possible.

Espionnage économique

La situation est d’autant plus inquiétante que les attaques matérielles concernent de multiples dispositifs : systèmes de contrôle d’accès, appareils de réseau, systèmes de contrôle industriel, systèmes de surveillance…

Outre l’intégration de portes dérobées (ou backdoor), ces attaques peuvent être utilisées pour de l’écoute clandestine, la génération d’erreurs entraînant l’arrêt d’une machine, le contournement des systèmes d’authentification informatique…

Autant de techniques mises à profit pour de l’espionnage économique ou perturber le bon fonctionnement d’industriels sensibles. Fin 2018, des usines chinoises avaient implanté des puces de surveillance et de contrôle du réseau sur des cartes mères fabriquées pour Supermicro. Quelques années plus tôt, des défaillances surprenantes de composants avaient été détectées chez des entreprises de défense telles que Raytheon, BAE, Northrop Grumman et Lockheed.

Le risque d’acquérir des composants matériels avec une porte dérobée est donc une réalité. Mais les Chinois ne sont pas les seuls à exploiter cette technique. La NSA a aussi demandé aux fabricants américains d’implanter une porte dérobée dans les produits exportés.

Mais comment se protéger face à toutes ces menaces ? « Pour des questions de performances, de nombreux processeurs partagent des zones de mémoire cache, où ils peuvent laisser des informations qui deviennent alors vulnérables. Il faut réfléchir à de nouvelles architectures qui permettent d’isoler physiquement les informations critiques. Mais renforcer la sécurité a forcément un coût. S’il est accepté pour des applications bancaires ou militaires, il sera plus difficile à tolérer pour des usages conventionnels ou domestiques », a prévenu Lilian Bossuet, dans le journal du CNRS.

Avec Hygo, Alvie aide les agriculteurs dans leurs pulvérisations

Réduire de moitié l’utilisation des produits phytosanitaires avant 2025. Tel est l’objectif fixé par le Plan Écophyto II, publié fin 2015. Une perspective à laquelle la start-up Alvie pourrait bien contribuer grâce à sa solution Hygo. En combinant les données météo ultra-locales – acquises grâce à un capteur connecté embarqué sur le pulvérisateur – et des données externes, notamment agronomiques, la technologie développée par Alvie apporte en effet aux agriculteurs, via une application mobile, des conseils leur permettant de diminuer jusqu’à trente pourcents les doses de produits pulvérisées. Hygo permet également aux exploitants de tracer précisément leur utilisation de produits phytosanitaires et leurs conditions d’application, les libérant ainsi d’une grande partie des contraintes administratives liées à l’utilisation de ces substances. Brevetée, la technologie Hygo est en constante amélioration et devrait bientôt, après les grandes cultures, s’ouvrir à d’autres marchés, comme nous le dévoile sa cofondatrice Edita Bezeg, actuelle Directrice générale de la start-up.

Techniques de l’Ingénieur : Quel a été votre parcours avant la création d’Alvie ? Qu’est-ce qui vous a conduits à fonder cette entreprise ?

Edita Bezeg © Alvie

Edita Bezeg : Nadir et moi avons des racines à la campagne et une affinité pour l’agriculture. Nous avons travaillé dans les champs quand nous étions étudiants et, de mon côté, mon grand-père avait de grandes exploitations en Tchéquie et en Slovaquie, qui ont malheureusement été collectivisées pendant la période communiste. Nous avons commencé nos carrières plutôt du côté du conseil, dans d’autres start-up technologiques, mais nous avions cette envie de retourner vers nos racines en lançant un projet dans le domaine de l’agriculture. À trente ans, nous avons décidé de quitter nos postes afin de monter notre propre entreprise. Nous avons commencé avec une autre idée, en lien avec l’agriculture biologique : nous voulions développer un logiciel à destination des agriculteurs bio, mais nous nous sommes rapidement rendu compte que beaucoup d’entre eux n’étaient pas intéressés et que cette idée n’allait donc pas fonctionner. Nous avions en tout cas débuté un programme d’incubation à Euratechnologies, à Lille. Nous avons donc poursuivi et procédé à de nombreux échanges avec des agriculteurs et d’autres acteurs de ce secteur. Nous avons fini par rencontrer un jeune agriculteur, Maxime, qui nous a dit qu’il essayait de moduler et d’optimiser les traitements selon les conditions dans ses champs, mais qu’il manquait selon lui deux choses : premièrement la traçabilité et deuxièmement la précision. Nous nous sommes donc penchés sur cette problématique, et nous nous sommes rendu compte qu’elle était partagée par beaucoup d’agriculteurs. Nous avons ainsi décidé de fonder Alvie en 2020.

Tant sur le plan matériel que logiciel, comment la technologie que vous avez développée fonctionne-t-elle ? Quels sont ses principaux intérêts ?

Chez Alvie, nous avons une approche de développement des produits et des technologies très focalisée « client ». Nous sommes vraiment proches des agriculteurs, dans les champs, ce qui nous permet de voir comment la technologie peut leur être utile dans leur pratique quotidienne. Chaque fonctionnalité de notre solution émane d’une demande de nos clients, et l’on peut même dire qu’il s’agit de co-développement. Cette solution que nous proposons aujourd’hui s’appelle Hygo. Cet outil d’accompagnement de la pulvérisation permet de s’assurer que la protection des plantes fonctionne bien. Cela permet d’alléger la charge mentale des agriculteurs liée à toute la réglementation et la nécessité d’obtenir de bons rendements, mais aussi d’alléger la dose de produits phytosanitaires nécessaires. Le système que nous avons développé repose sur deux composants. Le premier est un capteur météo embarqué, qui fonctionne sur le protocole SigFox (1). Le capteur s’installe sur un pulvérisateur agricole avec des aimants et dispose de sondes d’hygrométrie et de température. Ce dispositif permet ainsi de collecter des données météo très locales, dans le champ, suivant le mouvement du pulvérisateur. Le capteur est couplé à une application mobile très simple, qui utilise, donc, les données issues du capteur, mais aussi des données externes et une grande base de connaissances agronomiques, afin de fournir aux agriculteurs des conseils sur l’optimisation des traitements, la planification et la dose. On peut ainsi diminuer la dose de façon opportuniste : si on sait que les conditions sont réunies pour que le produit fonctionne très bien, on peut diminuer la dose par dix, vingt voire trente pourcents, sans perte de rendement. Hygo permet également aux agriculteurs de tracer précisément leurs utilisations de produits phytosanitaires, avec leurs conditions d’application. Cela leur est utile pour des questions de reporting, mais également dans une démarche d’amélioration continue, en leur permettant d’identifier les raisons pour lesquelles un traitement n’aurait pas bien fonctionné. Nous avons déposé un brevet pour cette solution il y a deux ans, portant sur l’ensemble de la technologie, c’est-à-dire l’association d’un capteur embarqué avec l’application permettant d’optimiser les intrants dans l’agriculture.

Extrêmement facile d’utilisation, le capteur proposé par Alvie s’installe sur le pulvérisateur à l’aide de simples aimants. © Alvie

Comment avez-vous réalisé le développement de cette solution ?

Pour le matériel, nous avons eu l’appui d’un partenaire, un bureau d’étude français avec lequel nous collaborons. Nous avions, au départ, pensé développer notre propre capteur, mais cela aurait demandé beaucoup de temps et des ressources importantes. Nous avons trouvé le matériel dont nous avions besoin sur le marché, et n’avons eu qu’à réaliser quelques modifications. Toute la partie logicielle, que ce soit la partie agronomique ou la partie conseil, a en revanche été développée entièrement en interne.

Avec quels pulvérisateurs le capteur est-il compatible ?

Il fonctionne avec n’importe quel type de pulvérisateur. Il est complètement autonome et ne nécessite donc pas d’être connecté sur l’Isobus (2). L’utilisation du protocole SigFox permet, en plus, une durée de vie de la batterie d’environ 3 à 4 ans. Ce matériel embarqué reste donc quelque chose de très simple.

Le fonctionnement de la solution nécessite-t-il, malgré tout, un pulvérisateur de dernière génération, c’est-à-dire doté d’un système de coupure automatique de tronçons ou de coupure buse par buse ?

L’approche que nous avons adoptée est avant tout prédictive. Nous n’avons donc pas besoin d’intervenir sur le flux de produit. Encore une fois, nous avions l’objectif de rendre le produit le plus simple possible à utiliser, car nous savions que tous les agriculteurs ne disposent pas forcément d’un pulvérisateur de dernière génération.

Sur le plan logiciel, avez-vous fait appel à des formes « d’intelligence artificielle » ?

Nous n’aimons pas trop ce terme, qui nous semble un peu excessif. Mais nous avons effectivement une partie de machine learning visant l’amélioration des prévisions à la parcelle. Nous utilisons pour cela les données du capteur ainsi que des données externes afin d’affiner les prévisions météo que nous fournissons aux agriculteurs.

Quels sont les coûts de votre solution ?

Pour la partie matérielle, il faut acheter le capteur, mais nous avons vraiment eu à cœur de rendre ce boîtier accessible. Il est donc proposé à 150 €, auxquels s’ajoute un abonnement annuel. Nous proposons deux offres : une offre complète incluant les outils de traçabilité, modulation et toutes les autres fonctionnalités à 450 € par an ; et une offre focalisée sur la traçabilité, qui permet aux agriculteurs de se décharger de la partie administrative sans forcément chercher à moduler la dose, à 270 € par an.

Quelle économie un agriculteur peut-il réaliser en modulant, grâce à votre solution, les doses de produits pulvérisés sur ses cultures ?

En utilisant la partie modulation avec une approche dite « opportuniste », l’agriculteur peut atteindre une économie de produit de l’ordre de 30 %. Si un agriculteur l’utilise pour tous ses traitements, sa facture « phytos » annuelle peut ainsi être réduite de 10 à 15 %. La solution est donc vite rentabilisée. Nous sommes également certifiés CEPP, « certificat d’économie de produits phytosanitaires », un système comparable aux CEE (3) dans l’énergie. Tous les organismes vendant des produits phytosanitaires sont obligés d’investir pour leurs clients – les agriculteurs – dans des solutions qui les aident à optimiser leur utilisation de produits. Il faut pour cela que la solution soit certifiée par une commission, avec l’INRAE (4), des experts académiques… Notre solution a donc été certifiée, ce qui atteste des performances de notre module d’optimisation des doses.

Au-delà des produits phytosanitaires, les fertilisants liquides pourraient-ils également faire partie des produits pouvant bénéficier de votre solution ?

Tout à fait. C’est justement une partie que nous lançons cette semaine (interview réalisée le 28 mars 2022, NDLR), et cela va permettre aux agriculteurs d’optimiser le positionnement de produits de fertilisation. On sait qu’aujourd’hui il y a de grands enjeux sur les engrais, sur leur efficacité… Et cet automne, nous ajouterons également une partie sur la modulation de ces engrais. Un de nos axes de travail assez important pour Hygo est aussi celui des produits de biocontrôle. Aujourd’hui, les produits de biocontrôle pulvérisés sont en effet a priori moins efficaces que les produits phytosanitaires conventionnels. Nous cherchons donc également à faire d’Hygo un outil utile pour mieux positionner les traitements réalisés à l’aide de produits de biocontrôle et augmenter ainsi leur efficacité. Nous collaborons avec des producteurs tels que Certis, avec qui nous travaillons depuis deux ans, afin d’identifier les paramètres d’efficacité de ces produits et de les intégrer ensuite dans notre solution. Cela permettra d’accompagner les agriculteurs dans leur passage vers des produits de biocontrôle.

Grâce à l’application mobile développée par Alvie, les agriculteurs peuvent bénéficier de conseils, notamment sur la planification de leurs traitements phytosanitaires. ©Alvie

Outre ces deux axes de travail, quelles sont les perspectives d’amélioration sur lesquelles vous planchez ? Quels sont vos projets pour les mois et années à venir ?

Nous travaillons de manière continue sur l’ajout de critères supplémentaires dans nos algorithmes. Chaque année nous réalisons de nouveaux essais agronomiques afin de pousser un peu plus loin l’optimisation des doses. Hygo est aujourd’hui utilisée notamment sur les grandes cultures, comme la pomme de terre, les céréales, mais également le maraîchage. Environ 350 exploitations en bénéficient. L’année prochaine nous souhaitons également aller vers les fruits, la vigne… Notre objectif est de doubler notre base utilisateurs cette année. Nous avons commencé à 300 au début de l’année et visons donc les 600 d’ici quelques mois. Notre objectif pour cette année est également de développer les partenariats avec les coopératives. Plusieurs d’entre elles distribuent déjà ou sont en train de tester notre solution. Nous espérons que leur nombre va croître l’année prochaine. Nous sommes aujourd’hui une équipe de onze personnes, qui se consacrent en majorité à la recherche et au développement, mais nous envisageons de renforcer nos équipes commerciales. Nous souhaitons vraiment nous positionner comme un acteur de l’accompagnement des agriculteurs, avec l’objectif de leur faciliter la vie. Nous ne sommes pas une start-up qui développe une technologie simplement pour développer une technologie… Les agriculteurs ne sont aujourd’hui pas dans une position facile en ce qui concerne les traitements à l’aide de produits phytosanitaires. Il y a des frictions entre eux et le grand public, qui les voit parfois comme des pollueurs. Nous voulons vraiment les aider, les soutenir dans leurs démarches d’amélioration, et apporter une communication positive sur leurs pratiques : montrer qu’ils font bien leur métier pour nous permettre de nous nourrir chaque jour.


(1) Opérateur placé récemment en redressement judiciaire, mais dont un repreneur devrait poursuivre les activités prochainement.

(2) Norme (ISO 11783) dont l’objectif est de rendre compatible la communication entre un tracteur et son outil attelé, même s’ils ne sont pas du même constructeur. Elle permet également l’échange de données entre le tracteur et un logiciel de gestion de parcelles. (Source : Arvalis – Institut du végétal)

(3) Certificats d’économies d’énergie

(4) Institut national de recherche pour l’agriculture, l’alimentation et l’environnement

Telaqua : l’irrigation connectée

Créée en 2018, Telaqua a pour ambition d’accompagner les agriculteurs pratiquant l’irrigation. Pour cela, l’entreprise propose d’équiper leurs systèmes d’arrosage avec des capteurs connectés, reliés à une application mobile, qui leur permettent ainsi à la fois d’être alertés si un problème survient, mais également de réaliser des actions de planification et d’obtenir une analyse du fonctionnement du système. Grâce à cette utilisation de l’IoT¹, mais aussi, demain, du machine learning, l’un des objectifs de Telaqua est ainsi de rendre la gestion de ces systèmes d’irrigation de plus en plus intelligente, comme nous l’explique son cofondateur et actuel dirigeant Sébastien Demech.

Techniques de l’Ingénieur : Comment Telaqua est-elle née ?

Sébastien Demech. © Telaqua

Sébastien Demech : L’idée de la création de l’entreprise revient à mon associé Nicolas Carvallo. Il est franco-chilien et son père est expert en systèmes d’irrigation au Chili. Nicolas y avait créé une première entreprise puis est revenu en France après cette expérience. C’est à ce moment-là que nous nous sommes rencontrés et que nous nous sommes dit qu’il y avait quelque chose à faire dans ce domaine en France. J’étais ingénieur informatique, et n’avais donc pas de compétences spécifiques sur le sujet, mais l’idée m’a plu et le courant est bien passé avec Nicolas…

La région d’Aix-en-Provence, dans laquelle vous avez choisi de vous implanter, a-t-elle eu une influence sur votre projet ?

Je suis originaire de Marseille, c’était donc intéressant pour moi de revenir dans la région. Mais surtout, nous avions trouvé une association d’agriculteurs irrigants qui était basée à Aix-en-Provence. Cela avait donc du sens de choisir le Sud.

Quels sont les différents éléments matériels sur lesquels repose votre solution ?

Nous avons développé un capteur de pression plug & play, le « Mano », qui permet de mesurer à la fois la pression dans le système et le débit d’eau. Nous proposons également un boîtier de communication, l’Agromote. Il s’agit de la partie « surveillance » du système d’irrigation et cela permet de s’assurer qu’il n’y a pas de fuite d’eau ou d’autres anomalies. Avec ce même boîtier, on va également pouvoir piloter des vannes ou des pompes et les programmer à distance, ce qui permet ainsi de planifier son irrigation. L’intérêt de combiner ces éléments réside justement dans le fait, lorsque l’on planifie une irrigation, de pouvoir s’assurer que les vannes sont bien ouvertes, que les pompes fonctionnent bien et donc que chaque plante a bien reçu la bonne quantité d’eau. De plus, un planning d’irrigation étant basé sur une modélisation, on peut être certain, avec ce système, que les quantités d’eau apportées correspondent à celles intégrées dans le modèle. Si jamais tout ne s’était pas passé comme prévu, on va ainsi pouvoir modifier sa modélisation. Nous avions, au départ, choisi de faire réaliser l’assemblage de ces équipements en Allemagne, mais il s’est finalement avéré qu’un très bon assembleur était présent à Marseille, nous avons donc décidé de faire appel à lui et cela se passe très bien.

Avec son « Mano », Telaqua propose un capteur de pression plug & play permettant aux agriculteurs d’obtenir un bilan de santé de leur système d’irrigation. © Telaqua

Quel réseau utilisez-vous pour assurer la transmission des données ?

Nous utilisons le réseau LoRaWAN. La couverture est très bonne, mais nous pouvons aussi, si besoin, installer des gateways, des passerelles qui permettent de créer un réseau LoRa local et de transmettre ensuite les données sur le cloud via la 3G/4G, voire par satellite. Nous adoptons notamment cette solution pour des projets réalisés à l’étranger.

Une fois transmises, comment exploitez-vous ces données ? Quelles informations pouvez-vous en tirer ?

Nous affichons toutes les données sur une application mobile et web, qui permet aux agriculteurs – que ce soit le chef de culture, le technicien, voire le gérant – à la fois d’être alertés si un problème survient, mais également de planifier, en ayant une action sur les objets connectés et aussi d’obtenir une analyse : l’utilisateur reçoit des graphiques, du reporting qui lui permettent d’analyser le fonctionnement de son système d’irrigation. Nous avons également, derrière cela, une brique « IA » que nous sommes en train de monter, qui va venir aider l’agriculteur dans sa maintenance. L’objectif est de réaliser de plus en plus de la maintenance prédictive. Si je prends l’exemple typique d’un filtre, l’objectif est de prévoir son nettoyage avant même qu’il ne soit complètement encrassé, afin d’éviter une perte de pression. Nous développons ces algorithmes d’intelligence artificielle en partenariat avec l’Université d’Aix-Marseille depuis le début de l’année. Nous ne disposions pas, au départ, d’une quantité suffisante de données, mais nous allons désormais pouvoir exploiter nos bases de données qui se sont enrichies au fil du temps, afin de déterminer le type d’IA nécessaire et enrichir ces mêmes données. L’idée est en effet également d’intégrer d’autres types de données, comme la météo ou divers paramètres agronomiques.

Concrètement, comment un agriculteur irrigant peut-il bénéficier de cette solution ?

L’agriculteur doit acheter les capteurs et souscrire à un abonnement pour accéder au réseau et à l’application. Son montant varie en fonction du nombre de capteurs. Toute la partie analyse des données, alertes… est ainsi incluse dans l’application et accessible à volonté pour l’utilisateur. Les alertes peuvent être envoyées par sms, mail ou en push.

Quel est le coût de cette solution ?

En fonction des capteurs, les prix vont de 300 à 1 000 €. Le nombre de capteurs, que nous installons à la vanne, va varier en fonction des types de cultures. Pour de l’arboriculture, on peut compter une vanne tous les deux ou trois hectares, alors que le maraîchage nécessite plusieurs vannes par hectare. Le coût se situe en tout cas en moyenne entre 500 et 600 € par vanne.

La mise en œuvre des capteurs nécessite-t-elle de modifier l’installation d’irrigation préexistante ?

Non. Nous nous installons sur les systèmes existants, principalement aujourd’hui sur des systèmes de type goutte-à-goutte. Nous sommes pour l’instant très peu présents sur l’irrigation par aspersion.

L’installation du système développé par Telaqua ne nécessite pas de modifier l’installation d’irrigation. ©Telaqua

Vous avez conclu en février dernier un partenariat stratégique avec l’entreprise Ombrea, spécialiste de la gestion du climat et de la protection des cultures face aux aléas climatiques. Quels sont les objectifs de cette alliance ?

Nos deux entreprises ont été créées quasiment en même temps, et à proximité l’une de l’autre. Nous nous sommes donc naturellement rencontrés. Ombrea est notamment spécialisée dans les ombrières connectées et cherchait une solution pour gérer l’irrigation. Le partenariat va donc porter là-dessus. Nous allons nous occuper de la partie maintenance et ouverture/fermeture de vannes, et Ombrea de tout son écosystème permettant de créer un microclimat au-dessus des plantes. Nous avons réalisé un pilote technique, qui va nous permettre d’effectuer les premiers tests et nous verrons ensuite vers où cela nous mènera… ! Ce pilote est installé sur une exploitation dans le Var dédiée à la culture de pivoines. L’objectif est de réduire la consommation d’eau, mais également d’automatiser l’irrigation afin de faire gagner du temps à l’agriculteur et d’améliorer la qualité des fleurs. Pour gérer les ombrières, Ombrea utilise des données météo, des sondes d’humidité implantées dans le sol, des capteurs d’ensoleillement… Ils vont ensuite coupler toutes ces données pour voir quels sont les besoins des plantes, et vont nous les envoyer afin que nous ajustions les paramètres d’irrigation en conséquence.

Avez-vous d’autres projets de partenariats de ce type ? Combien d’exploitations bénéficient à ce jour de votre solution ?

Telaqua a déjà une trentaine d’installations à son actif, en France mais également à l’étranger, comme ici, au Chili. © Telaqua

Tout à fait ! Nous avons d’autres partenaires potentiels avec qui nous sommes en discussions. Notre objectif est de créer un véritable écosystème autour de l’irrigation. Nous avons pour l’heure équipé une trentaine d’exploitations, ce qui représente environ deux à trois cents capteurs en fonctionnement aujourd’hui. Nous prévoyons d’accélérer fortement au cours des mois à venir, notamment au niveau international. Nous sommes actuellement une équipe de 19 personnes, mais nous recrutons en permanence, notamment des commerciaux ainsi que des développeurs web et électronique. Nous avons ainsi l’ambition d’atteindre une trentaine de collaborateurs d’ici la fin de l’année.

Quelles sont les éventuelles perspectives d’évolution technologiques sur lesquelles vous travaillez ?

La technologie est mature, elle fonctionne très bien. Nous avons déjà réalisé plusieurs installations en France, en Europe, en Afrique et en Amérique du Sud. Il reste toutefois, bien entendu, toujours des améliorations possibles. Nous cherchons notamment à accroître l’autonomie en énergie, nous travaillons sur l’écoconception… Les appareils fonctionnent pour l’instant avec une pile au lithium, à remplacer tous les deux ans, l’objectif, à terme, serait de les rendre autonomes en énergie. Il existe de multiples façons d’y parvenir, à nous de trouver la meilleure.


¹ Internet of Things

Les investissements en direction des innovations quantiques décollent !

Le gouvernement Français a élaboré le Plan Quantique 2030, avec un investissement de 1,8 milliards d’euros sur cinq ans pour développer les innovations dans ce secteur. Il s’agit cependant de fonds qui sont répartis dans trois domaines et non fléchés vers certaines startups : la recherche académique publique, l’aide au transfert des technologies issues de laboratoires publics vers des entreprises privées pour une exploitation au maximum de leur potentiel et la formation, destinée à produire des spécialistes de haut-niveau (en ingénierie et informatique quantique). Les startups doivent donc trouver par elles-mêmes les financements dont elles ont besoin, et s’adresser en particulier aux organismes dédiés à ce type d’opération.

Dans le domaine quantique Français, quels sont les montants en jeu ?

La compétition internationale très rude, dans le domaine quantique, avec des concurrents tels que les géants Américains Amazon, IBM ou Google pour la fabrication d’un ordinateur quantique par exemple, oblige les startups Françaises à mettre la barre très haut concernant les résultats expérimentaux à atteindre, et donc à recruter des théoriciens et des ingénieurs de niveau très élevé ainsi que du matériel quasiment conçu sur-mesure et des consommables très onéreux. Alice&Bob a par exemple déclaré que l’argent levé le 10 mars 2022, à savoir 27 millions d’euros, allait servir à recruter les meilleurs chercheurs et ingénieurs au monde, à acheter le meilleur matériel présent sur le marché et à développer des partenariats concernant l’utilisation de son futur ordinateur quantique.

Comment ces fonds sont-ils obtenus ?

Le financement d’une start-up peut avoir plusieurs finalités : le démarrage de l’activité et le développement de cette activité (en terme d’accélération de croissance ou en terme d’expansion à l’international).

Concernant la phase de démarrage d’activité, les fondateurs de la start-up apportent leur propre argent ainsi que celui de leurs proches pour lancer l’activité. Cet argent est surnommé « love money ». Une levée de fonds complémentaire peut être nécessaire, désignée par « capital amorçage ».

Cette levée de fonds peut s’effectuer auprès de Business Angels qui sont des particuliers, anciens chefs d’entreprise à la tête d’un patrimoine important et dotés d’une grande expérience entrepreneuriale. Elle peut s’effectuer également auprès d’organismes dédiés à ce type d’investissement appelées « Venture Capitalists » ou VC, qui sont des banques, compagnies d’assurance ou autres qui opèrent pour le compte de clients.

Pourquoi est-ce difficile d’obtenir des fonds auprès des organismes dédiés ?

Dans le domaine du quantique, les investisseurs parient sur le succès des technologies en cours de développement, qui laissent cependant certains experts dubitatifs.  La théorie sous-tendant ces innovations doit être irréprochable et les spin-offs de laboratoires publics tels que ceux du CNRS, du CEA et INRIA par exemple ont plus de chance d’obtenir gain de cause.  Par exemple, la théorie sous-tendant l’innovation de Pasqal, « les atomes froids », s’appuie sur les résultats des travaux de Claude Cohen-Tannoudji, Prix Nobel de physique 1997.

Quel est le retour sur investissement espéré par les investisseurs du quantique ?

Le futur marché du quantique est estimé à mille milliards de dollars pour les projections les plus optimistes, et s’adresse aux domaines de la chimie, l’intelligence artificielle, la pharmaceutique, la géopolitique, la finance, la communication, la cryptographie, etc.

Deux exemples de Venture Capitalists

Le premier exemple est Bpifrance, organisme public ayant pour missions de financer des entreprises de petite et moyenne tailles ainsi que les entreprises de taille intermédiaire et les entreprises innovantes. La règle de l’aide financière étant de un euro d’aide pour deux euros de fonds propres, les investissements apportés par Bpifrance aux startups du domaine quantique ne peut qu’être minoritaire bien qu’étant appréciable, en particulier lors de la phase d’amorçage.

Un autre exemple d’organisme Français, dédié exclusivement au quantique, est « Quantonation », dont la création date de 2018 . Ce Venture Capitalist couvre tous les domaines en lien avec le quantique : hardware (élaboration de processeurs quantiques, capteurs), software (développement d’algorithmes de correction d’erreurs), sécurité (clés quantiques et cyber-sécurité) et investit dans des startups européennes.

Beaucoup de candidats et peu d’élus

L’écosystème de l’entrepreneuriat Français lié à l’univers quantique démontre des caractéristiques spécifiques, en particulier au niveau des montants requis des investissements, très importants. Les fonds privés issus de Venture Capitalists deviennent nécessaires à cause d’une concurrence internationale très rude. Ils sont cependant difficiles à obtenir.


(1) Lire l’article de presse mentionnant le record de levées de fond des startups Françaises

A2D : les données, vues du ciel

Créée en 2017, A2D s’adresse à tous les métiers et à toutes les entreprises dont le besoin est de collecter et d’interpréter des données. Grâce à un moteur d’analyse et de prise de décision suffisamment générique, l’entreprise est en effet capable de développer rapidement des outils adaptés aux spécificités de chaque secteur et aux besoins propres à chaque entreprise. Après avoir mené un important projet avec le gestionnaire de réseau électrique Enedis, A2D a par exemple été sollicitée par le port de La Rochelle, qui lui a confié une étude de faisabilité concernant des ouvrages d’art. Poursuivant son travail continu de développement et d’innovation, la start-up cherche à multiplier les possibilités d’industrialisation de sa technologie, comme nous l’explique son fondateur et actuel dirigeant Pierre Loonis.

Techniques de l’Ingénieur : Comment A2D a-t-elle vu le jour ? Quels étaient vos objectifs, vos motivations de départ ?

Pierre Loonis ©A2D

Pierre Loonis : J’ai créé A2D fin 2017 pour pouvoir accélérer le transfert d’outils technologiques et scientifiques que j’avais construits depuis une vingtaine d’années en tant que chercheur. Je suis en effet un ancien chercheur académique. L’avènement des drones et la rapidité avec laquelle cette technologie a atteint sa maturité ont permis de rendre possible la construction d’applications autour de l’interprétation rapide, précise et intelligente de données. L’objectif avec A2D a donc été de construire des applications adaptées aux besoins métiers, qui puissent offrir le maximum de confiance sur l’usage de la donnée en tant qu’information brute, mais aussi sur son interprétation, qui doit pouvoir se faire avec le maximum de fiabilité et de transparence pour l’utilisateur final.

Quels services proposez-vous ? Quels sont vos domaines d’expertise ?

Nous réalisons avant tout de l’inspection automatisée à partir de flux de données qui sont fonction des différents métiers. Le moteur d’A2D est un moteur générique contenant les outils d’analyse et de prise de décision, auquel s’ajoutent, en périphérie, des surcouches logicielles. Notre vocation est de fiabiliser la prise de décision finale en intégrant l’ensemble du process, depuis l’acquisition jusqu’à l’interface homme-machine de restitution de la décision. Nous nous adressons ainsi à tous les métiers, toutes les entreprises, qui ont besoin de collecter et d’interpréter leurs données. Nous travaillons par exemple avec un grand groupe comme Enedis, pour faire de l’inventaire de données concernant leur réseau. Nous nous ouvrons progressivement à des secteurs de plus en plus divers, comme les grands ports maritimes, qui ont aussi des besoins dans le domaine des infrastructures et des ouvrages d’art.

Quelle est votre approche en matière d’analyse d’images ?

Nous sommes aujourd’hui très précis, car les capteurs miniaturisés dont nous disposons ont une grande résolution. Ils permettent donc d’accéder très rapidement et très finement à des informations extrêmement précises. Le propre de nos actions implique un travail sur des projets complexes en matière d’analyse d’image, puisque nous travaillons en environnement extérieur, où rien n’est contrôlé. Il faut donc une réelle intelligence dans le système de traitement de l’image, qui passe par l’incorporation de systèmes de gestion d’incertitude et de prise de décision.

Dans le cadre d’un projet mené avec Enedis, A2D a développé une solution permettant la détection automatique de défauts présents sur les infrastructures de distribution de l’électricité. ©A2D

En quoi votre collaboration avec Enedis a-t-elle consisté ?

Nous travaillons avec d’Enedis depuis 2018. Le projet s’est achevé l’année dernière et les résultats sont excellents. La preuve de concept est achevée ; nous avons abouti à l’identification d’une vingtaine de catégories d’objets quasiment en temps réel : isolateurs, anneaux, câbles, disjoncteurs… C’est-à-dire tous les organes situés au niveau des lignes haute-tension. Tout cela avec une détection des anomalies réalisée selon les process propres à l’entreprise.

La solution développée par A2D dans le cadre de sa collaboration avec Enedis permet d’identifier automatiquement et quasiment en temps réel près d’une vingtaine de catégories d’objets : câbles, isolateurs, disjoncteurs… ©A2D

Comment comptez-vous mettre à profit l’expertise développée dans le cadre de ce projet ?

Nous commençons toujours par une preuve de concept. En tant que start-up, nous travaillons en effet toujours sur des choses qui n’existent pas. Cela a par exemple été le cas également pour le port maritime de La Rochelle, qui nous a confié une étude de faisabilité pour des ouvrages d’art. Une fois le stade de preuve de concept atteint, nous obtenons des outils suffisamment génériques et adaptatifs que nous pouvons ensuite spécialiser en fonction des besoins de chaque autre client, qui sont souvent similaires sans être pour autant tout à fait identiques. Nos algorithmes d’intelligence artificielle permettent d’aller modifier l’outil de prise de décision afin de l’adapter aux spécificités métiers.

Le port maritime de La Rochelle a également fait appel à A2D pour l’inspection d’ouvrages d’art. ©A2D

Quelles techniques dites « d’intelligence artificielle » mettez-vous en œuvre ?

Le terme est galvaudé, mais il existe effectivement des outils de type réseau connexionniste, de type réseaux de neurones, qui permettent l’apprentissage, dans une situation précise, d’une correspondance entre les données d’entrée et ce que l’on souhaite voir en sortie. En utilisant un réseau de neurones en fin de chaîne, nous parvenons à traduire les couches internes de traitement de signal en une mesure interprétable par l’être humain. Cela permet ainsi d’apporter une interprétation fine au client final. À l’origine, dans les années 50, les réseaux de neurones ont été conçus pour modéliser une rétine dans l’œil humain. Au cœur de notre processus de traitement du signal, nous utilisons donc aussi des réseaux connexionnistes adaptés pour aller chercher des caractéristiques dans l’image, qui vont ensuite être travaillées pour apporter un sens interprétable par l’Homme à la donnée. Il s’agit donc globalement d’un « système de systèmes » : nous avons des composants, que l’on assemble, dont certains sont capables d’apprendre. C’est ce qui nous a demandé le plus de temps : parvenir à créer une bibliothèque de composants et un système d’analyse et de traitement suffisamment génériques pour pouvoir, en quelques mois, construire une application métier complexe, fiable et transparente.

Sur le plan matériel, à quels types de capteurs faites-vous appel ?

Le drone est un vecteur qui permet d’apporter un capteur pertinent sur une scène à inspecter. Nous sommes positionnés non seulement sur la preuve de faisabilité technique, mais aussi sur la preuve de faisabilité économique. Nous cherchons donc le capteur le plus viable économiquement pour apporter à notre client la solution la plus pertinente et pérenne. Les capteurs optiques, dans le visible, et les processus de capture associés sont tellement performants aujourd’hui que l’on peut faire de la reconstruction 3D simplement à partir d’un flux vidéo, avec un niveau de précision suffisant pour un grand nombre d’applications. Cela permet de réduire les coûts, mais demande une expertise solide dans le domaine du traitement de signal. Si nous avions besoin d’atteindre une précision submillimétrique au niveau de la reconstruction 3D, nous pourrions tout à fait utiliser du LiDAR, mais ça n’est pas forcément nécessaire pour de nombreuses applications.

Quelle est l’importance du drone en tant que tel ? Faites-vous appel à certains modèles en particulier ?

Comme je l’évoquais précédemment, le drone nous sert à amener un capteur sur une scène. Beaucoup de drones sont donc utilisables dans le cadre de nos missions. Nous avons cherché à ne pas être tributaires d’un constructeur ou d’un autre. Ce qui nous importe est la qualité du capteur. Même si certains capteurs embarqués sur des drones commerciaux ne sont pas adaptés, la grande majorité d’entre eux est largement suffisante par rapport à nos besoins. Nous avons une équipe de dronistes capables d’aller réaliser une inspection, mais certains clients ont aussi leurs propres équipes. Nous définissons donc avec le client le protocole d’acquisition le plus adapté aux systèmes d’interprétation, afin que le dialogue entre le module d’acquisition et le module d’interprétation de données se fasse le mieux possible, mais nous ne lui imposons pas de contrainte quant au type d’équipement à utiliser. Par ailleurs, quand nous concevons une application dont les besoins en matière d’équipement sont inconnus au démarrage de la preuve de concept, nous utilisons des drones qui sont des plates-formes de test ; des châssis en carbone sur lesquels nous installons les éléments souhaités, que nous faisons voler afin de comprendre la physique de l’application sur laquelle nous travaillons. Une fois que nous avons testé un certain nombre de capteurs, de fusion de capteurs, de positionneurs GPS particuliers…, alors nous revenons à la caractérisation fine de nos besoins et nous déterminons la solution existant sur le marché la plus proche de nos besoins, toujours dans une optique de réduction des coûts.

Comment jugez-vous l’évolution du cadre réglementaire auquel vous êtes soumis en tant que professionnel ?

Le cadre réglementaire est plutôt contraignant, mais heureusement ! Nous utilisons quand même des engins potentiellement dangereux, qui pourraient tomber sur du public. La France a toujours été en avance sur ce sujet, dès la naissance du marché du drone. Il faut prendre en compte a minima la liberté des personnes, puisque l’on va capter de l’information en hauteur qui n’est pas forcément à mettre dans les mains de tout le monde. La réglementation s’est donc quelque peu durcie, mais surtout pour le grand public. Cela oblige les gens à maîtriser leur pilotage. Pour les professionnels, tout était déjà très rigoureux dès les débuts. Quand nous volons dans des conditions d’exploitation industrielles, nous sommes aussi regardés de près en matière de sécurité. Nous devons absolument tendre vers le zéro défaut, le zéro accident. Nous sommes donc hyper-rigoureux sur la partie sécurité ; et la réglementation va bien dans ce sens… On ne peut pas faire n’importe quoi quand on est, par exemple, en train de survoler des lignes électriques sous tension. Pour nous, les réglementations ne sont donc pas des contraintes, mais des cadrages qui permettent de travailler professionnellement.

Quels sont vos projets de développement à plus ou moins long terme ? Quels sont les principes qui guident votre travail d’innovation ?

Nous sommes constamment en train de réaliser du développement et de l’innovation, afin de démontrer les possibilités d’industrialisation de la technologie dans un métier donné. Nous sortons donc constamment de nouveaux produits sur de nouveaux applicatifs, utilisant et exploitant les technologies de l’information, de traitement de signal, de modélisation 3D, de visualisation… dans des configurations différentes de ce que l’on voit au quotidien. Nous voulons mettre l’essence même de ces technologies au service du client final. Nous mixons et intégrons ces différentes sciences et techniques de façon à les rendre en premier lieu intéressantes pour le client, tout en maîtrisant l’intégralité du processus de traitement de l’information. Il n’est pas possible de prendre une décision fiable quand on ne connaît pas bien sa donnée. Il s’agit d’un principe générique de la notion d’information. Il faut qualifier cette information et faire en sorte que lorsque l’on en donne une interprétation, on donne aussi le contexte qui nous a amenés à cette interprétation. Cela permet ainsi de prendre, in fine, la décision finale la plus pertinente. Nos systèmes sont des systèmes d’aide à la décision.

Le rôle de l’être humain reste donc central… ?

Dans tout système de prise de décision, le dernier geste, la dernière réflexion doivent revenir à l’être humain, qui est le seul à même d’embrasser les différentes dimensions du problème. Pour le cas de nos applicatifs liés à des environnements non contrôlés, ce serait mentir que de dire que nous sommes capables d’avoir une prise de décision fiable dans tous les cas et dans les temps impartis. Nous voulons rester humbles et apporter la technologie dans le but de réduire le temps de travail laborieux et difficile pour un être humain, qui n’a pas envie de passer des heures sur une vidéo à détecter des défauts. Nous utilisons la machine et son intelligence pour mettre en exergue des suspicions d’anomalies métiers, et c’est ensuite à l’expert humain, celui qui détient la vraie intelligence d’analyse, de prendre la décision finale en quelques clics de souris. Il conserve ainsi toute sa capacité de raisonnement pour des tâches plus importantes.

CarbonWorks : une technologie de rupture pour valoriser le CO2

Créée en 2021 à l’initiative de deux entreprises, Fermentalg et Suez, CarbonWorks est ainsi le fruit de leurs savoir-faire industriels respectifs. La jeune société s’attelle au développement de photobioréacteurs permettant d’apporter de manière optimale aux microalgues les photons dont elles ont besoin, au bon moment, de la bonne manière, avec le bon spectre, sans pour autant les inhiber. Après avoir installé un premier démonstrateur en septembre dernier à Cestas, en Gironde, CarbonWorks a annoncé le 1er mars 2022 une levée de fonds de 11 millions d’euros, qui va notamment lui permettre de poursuivre son parcours vers une phase d’industrialisation dont le lancement pourrait avoir lieu en 2024, comme le prévoit le Président de l’entreprise, Guillaume Charpy.

Techniques de l’Ingénieur : Comment CarbonWorks a-t-elle vu le jour ?

Guillaume Charpy (© CarbonWorks)

Guillaume Charpy : Le projet remonte à 2015 et résulte de la collaboration entre deux entreprises, à savoir, Fermentalg, société spécialisée dans les techniques de fermentation de microalgues, et Suez, que je présenterais dans ce cadre comme un « acteur de l’évolution de la ville ». Cette collaboration a débuté sur la base d’une question : comment les microalgues peuvent-elles être utilisées de manière à dépolluer la ville ? La réalisation la plus emblématique est celle qui a été faite carrefour Alésia à Paris en 2017. Il s’agissait d’une colonne Morris, dont l’objet était de capter l’air ambiant de cette place et de le dépolluer à l’aide des microalgues. On parlait alors de capture de pollution au sens large, et non pas spécifiquement de CO2. Suez a ensuite poursuivi ses recherches avec l’appui de Fermentalg et les deux entreprises ont fini par se demander si, au fond, il ne pouvait pas y avoir autre chose. C’est cet « autre chose » qui est à l’origine de la création de CarbonWorks : non plus la capture de pollution, mais la capture de CO2. Une orientation s’est fait jour assez rapidement, celle de la capture de gros volumes, sans laquelle cette brique ne pourrait constituer une solution viable pour lutter contre le changement climatique. La réflexion s’est donc axée sur les quantités de CO2 que peuvent capturer les microalgues photosynthétiques, et la façon d’intensifier cette capture. Autrement dit, quelle rupture, quelle révolution technologique doit-on apporter pour permettre une capture digne de ce nom, capable de piéger des volumes de CO2 très importants ? CarbonWorks a ainsi été créée au mois de juillet 2021, en héritant de l’ensemble des travaux menés précédemment par Suez et Fermentalg, et de la propriété industrielle qui en a résulté.

Quelles ont été les principales étapes qui vous ont menés au développement de cette technologie de capture de CO2 ?

Durant les cinq années de développement conjoint, un certain nombre de systèmes différents ont été construits et testés. On appelait cela, à l’époque, des puits de carbone, mais lors de la création de CarbonWorks, nous avons tout de suite abandonné ce terme. Nous ne sommes en effet pas dans l’idée d’un « puits de carbone », mais plutôt dans la « CCU¹ » : le captage et la valorisation du carbone, qui n’est en aucun cas de la séquestration, à laquelle s’attache beaucoup plus un puits de carbone. Au-delà de ces aspects sémantiques, qui ont leur importance, nous avons axé nos développements technologiques autour de la compacité de nos installations – que l’on appelle photobioréacteurs – ainsi que de leur productivité élevée, obtenue grâce à une maîtrise aussi précise que possible de la lumière. La réaction de photosynthèse dépend en effet de l’énergie photonique. Tout l’enjeu consiste donc à apporter à la microalgue les photons dont elle a besoin, au bon moment, de la bonne manière, avec le bon spectre, sans pour autant l’inhiber, et le tout sans perte de photons, afin d’obtenir une très bonne productivité des microalgues et une maîtrise aussi parfaite que possible de la consommation d’énergie. Tous nos travaux tournent autour de cette question de la distribution et de la diffusion de la lumière, ainsi que de l’accès de l’algue à cette lumière.

Hormis ce travail autour de la lumière, les algues en tant que telles ont-elles également fait l’objet de travaux de R&D ?

Oui, mais avec une approche très différente de celle que je viens d’exposer… Bien sûr, toutes les algues photosynthétiques sont capables de capturer du carbone. Mais la capture du carbone ne fait pas tout, il faut également avoir un modèle économique qui permette de faire de cette capture quelque chose de robuste. La question qui se pose est donc la suivante : que fait-on de la microalgue une fois qu’on l’a produite ? La réponse que nous y avons apportée a consisté à choisir telle ou telle microalgue de manière à répondre aux besoins des industriels en matières premières naturelles, afin de fournir à ces industriels de la matière première produite à partir des microalgues. Le choix de la microalgue est donc moins lié à une performance accrue de capture de carbone qu’à une performance accrue du modèle économique qui est lié à cette capture. Les capacités de capture ne sont, certes, pas toujours comparables. Nous avons donc réalisé des travaux consistant à accroître la capacité des microalgues à capturer le carbone, mais ceci à partir d’une souche qui réponde à une problématique en aval.

Le choix de l’espèce de microalgue est, certes, fonction de sa capacité à capter le CO2, mais aussi, et surtout, des possibilités qu’elle offre en matière de production de molécules d’intérêt (© CarbonWorks).

Comment ces microalgues sont-elles mises en contact de manière optimale avec la lumière ? À quoi le « photobioréacteur » que vous évoquez ressemble-t-il ?

Il faut l’imaginer comme un bassin fermé, dans lequel on place la souche de microalgue que l’on cherche à développer, et dans lequel on apporte le CO2 que l’on cherche à capturer, en sortie d’émission de l’industrie. On va « brancher un tuyau » pour apporter directement ces émissions dans le bassin que je viens de décrire. Les microalgues vont ainsi faire leur travail de photosynthèse et donc capturer le carbone pour croître et se multiplier. Elles vont rejeter l’oxygène dans l’atmosphère et « faire ce qu’elles savent faire » si je puis dire. C’est-à-dire produire la molécule qu’elles savent parfaitement synthétiser. Plus l’algue se développe et se reproduit, plus elle est en capacité de produire la molécule d’intérêt, outre la capture de CO2 qu’elle réalise. Hormis le CO2, nous apportons évidemment de la lumière artificielle dans ce bassin fermé, sur toute sa profondeur. C’est la grande différence avec les systèmes de culture extensive de microalgues, qui sont généralement éclairés directement par le soleil. La réaction de photosynthèse a donc essentiellement lieu à la surface ; la lumière du soleil ne peut pas pénétrer profondément.

Avez-vous développé un modèle de photobioréacteur standard, ou des paramètres tels que ses dimensions restent-ils à définir ?

Tout cela est effectivement en cours d’élaboration, il y a un grand nombre de paramètres à prendre en compte. Nous avons pour l’instant un démonstrateur qui fait 10 m³, qui reproduit fidèlement ce que nous souhaitons réaliser à grande échelle, mais il n’est pas du tout évident que la dimension de référence de ce démonstrateur soit celle du bassin sous sa forme ultime. Ce sont des éléments en constante évolution.

Une fois produites par les algues, comment les molécules d’intérêt pourront-elles être récupérées ?

Nous sommes spécialistes des microalgues, en revanche, nous ne développons pas les applicatifs. Nous sommes donc en partenariat avec des entreprises intéressées par les matières premières naturelles que nous pourrons leur apporter. Nous irons ainsi plus ou moins loin dans le traitement de la biomasse de façon à répondre à leurs besoins. Nous avons par exemple conclu un partenariat avec l’entreprise Immunrise, qui produit un fongicide combattant notamment le mildiou. On n’a, dans ce cas, pas besoin de traiter la biomasse : on la récolte au fur et à mesure de sa production, et cette biomasse est ensuite tout simplement conditionnée par la société Immunrise, sans extraction de la molécule. La molécule s’exprime naturellement à partir de la biomasse que nous fournissons. Il s’agit donc dans ce cas-là tout simplement d’une récolte. Dans d’autres cas de figure, nous pourrions être amenés à faire ce que l’on appelle un DSP, ou « downstream processing », qui consiste, une fois la biomasse récoltée, à extraire la molécule d’intérêt. Il n’y a dans ce cas pas un procédé unique, mais mille procédés qui dépendent de l’algue produite et du produit fini attendu : de sa nature, mais aussi de sa forme, de son conditionnement, de sa concentration… Nous nous définissons comme fournisseurs d’une plate-forme technologique de capture de CO2 et de production de matières premières, mais aussi comme des spécialistes de la production de biomasse, et de l’extraction de ces molécules d’intérêt. En revanche, nous ne nous consacrons pas à l’applicatif. Nous produisons pour le compte d’autres entreprises spécialisées dans diverses applications.

Vous avez mis en place un démonstrateur d’un volume de 10 m³. Quels sont ses capacités de capture et les objectifs visés avec cette installation ?

Ses capacités de capture de CO2 sont infimes, elles ne sont pas significatives. Nous n’en sommes pas encore au stade de notre mission ultime, qui est de capturer des volumes importants de CO2. Nous en sommes au stade des tests technologiques. Tout l’objet du démonstrateur est là : tester la technologie pour être capables de monter en échelle.

Après la réalisation, il y a peu d’une levée de fonds de 11 millions d’euros, quelles prochaines étapes espérez-vous franchir ?

Nous sommes très heureux du tour de table mené conjointement par BNP Paribas, Bpifrance, Demeter Investment Managers via son fonds Agrinnovation et Aquiti Gestion via NACO en association avec la région Nouvelle-Aquitaine. Cela nous donne en effet accès, en plus de nos fondateurs Fermentalg et Suez, à des ressources, des compétences, à un réseau, ce qui est très important pour nous. Nous visons en effet essentiellement deux choses. La première que j’ai mentionnée est de poursuivre notre travail sur cette plate-forme technologique dans une perspective de montée en échelle, ce qui suppose la résolution de mille difficultés, l’industrialisation de nos équipements… Le deuxième point concerne le développement de partenariats avec des industriels en aval de nos productions afin de rendre la capture de carbone effective dès que nous monterons en échelle. Nous avons certes besoin de l’amont – des émetteurs de CO2, qui sont pléthoriques – mais également de l’aval, c’est-à-dire d’utilisateurs de matières premières naturelles. Nous développons donc ces partenariats de manière à avoir matière à capter du CO2.

Vous prévoyez ainsi le développement d’une unité semi-industrielle pour 2023. Quelles seront ses évolutions par rapport au démonstrateur actuel ?

Nous visons deux évolutions principales. La première, une croissance en volume ; on sera à plusieurs dizaines de mètres cubes. Le deuxième élément consistera en une approche beaucoup plus développée des différentes briques technologiques. Nous allons améliorer ces éléments en matière de performances, de fonctionnalités ou encore de sobriété.

Cette unité semi-industrielle augurera-t-elle de la forme finale que prendraient de futures usines ?

J’ai le sentiment, même si l’on découvre évidemment les choses à mesure qu’elles se dévoilent sous nos yeux, qu’avec cette unité de taille semi-industrielle nous aurons effectivement l’essentiel. Il y aura, certes, une montée en échelle et une industrialisation de nos équipements, mais une future usine ressemblera fortement à ce que nous réaliserons sur cette unité semi-industrielle.

Quelles sont vos ambitions en matière d’industrialisation ?

Nous nous projetons en tant que concepteur, constructeur et exploitant, pour le compte de tiers. Nous pourrions, avec cette approche, multiplier les unités de production de manière assez massive, ce qui est notre objectif, afin de parvenir à une capture massive de carbone. La dissémination est donc à nos yeux quelque chose de tout à fait essentiel. Et nous souhaitons qu’elle se produise pour le compte de tous les industriels intéressés par ces matières premières naturelles que nous pourrons leur fournir. Le développement de partenariats nous semble donc absolument essentiel : si nous avons, in fine, dix, vingt ou trente industriels intéressés, nous serons en mesure de disséminer autant d’unités industrielles, voire plus encore en fonction des volumes demandés ; et ce chez tous les émetteurs de CO2. Notre objectif est de démarrer nos travaux à l’échelle industrielle en 2024. La dissémination pourrait donc démarrer, probablement, en 2025. Nous croisons en tout cas les doigts ! Face au changement climatique, ce ne doit pas être la seule solution, mais cela peut en tout cas constituer une partie de la réponse.


(1) Carbon Capture & Utilisation

Ingénieuses 2022 : Et les nominées sont…

À l’issue des délibérations, les nominé·e·s suivant·e·s ont été désigné·e·s (par ordre alphabétique) : 

Prix à destination des écoles d’ingénieur·e·s (quatre prix seront décernés) :

  • CentraleSupélec pour son projet « Summer Camp CentraleSupélec » ;
  • l’ENIT, pour son projet : « Égalité, diversité et surtout Adelphité » ;
  • l’EPITA, pour son projet « 404Elles » ;
  • l’ESEO, pour son projet « Arduin’elles » ;
  • l’INSA Rouen Normandie, pour son projet « Ondes égalité » ;
  • l’INSA Toulouse, pour son projet « La journée Femmes en sciences fête ses 5 ans » ;
  • Polytech Angers, pour son projet « Polytech Angers s’engage pour plus d’égalité ».

Prix Cap Ingénieuses :

  • l’ESILV, pour son projet « Cap vers la diversité à l’ESILV » ;
  • Polytech Marseille, pour son projet «Les ingénieuses du piano solaire de Marseille 13°».

Prix de l’élève-ingénieure France :

  • Louise BAEHR, élève-ingénieure à l’IMT Nord Europe ;
  • Sophie DER AGOBIAN, élève-ingénieure à Polytech Nice Sophia ;
  • Carole JOLY, élève-ingénieure aux Arts et Métiers – campus de Lille ;
  • Clara WANG WAH, élève-ingénieure à l’École de l’air.

Prix de la femme ingénieure (deux prix seront décernés) :

  • Yulia AKISHEVA, diplômée de l’ISAE-Supaéro et actuellement doctorante rattachée à l’école ;
  • Maelys BELIAZI, diplômée de l’ENAC et ingénieure système en GNSS (navigation par satellite) chez Safran Electronics & Defense ;
  • Pauline DELANDE, diplômée de l’INSA Toulouse et ingénieure opérations bord des satellites d’observation de la Terre au Centre national d’études spatiales (CNES) ;
  • Sylvie PIERUNEK, diplômée de l’INSA Toulouse, docteure de l’INSA Lyon et responsable de l’équipe d’implémentation physique des microcontrôleurs chez STMicroelectronics ;
  • Véronique PROUVOST, diplômée de Polytech Annecy-Chambéry et responsable de la transformation digitale opérationnelle chez Arc France.

La lauréate du prix de l’élève-ingénieure Maghreb sera sélectionnée par notre partenaire l’Agence universitaire de la Francophonie au Maghreb.

Les noms des lauréat-e-s seront dévoilé-e-s lors de la cérémonie de remise des prix Ingénieuses 2022, événement ouvert au public, qui se tiendra à Paris en présentiel, le jeudi 19 mai 2022. Le lieu de l’événement sera communiqué ultérieurement sur le site Ingénieuses.

 

L’ONF lance des projets label bas-carbone pour ses forêts

Nicolas Philippe est chef du département production et services à l’ONF. Son rôle ? Proposer aux collectivités et aux entreprises les services et expertises de l’ONF. Depuis le début de l’année, il leur propose de labelliser des projets de compensation carbone pour aider à adapter les forêts françaises au changement climatique. Entretien.

Techniques de l’Ingénieur : L’ONF a lancé depuis le début de l’année une nouvelle offre de compensation carbone à travers le label bas-carbone. Quel est l’intérêt de cette nouvelle démarche ?

Nicolas Philippe : Aujourd’hui l’ONF gère 4,6 millions d’hectares de forêts publiques en France métropolitaine. Cela représente 25 % des forêts françaises. Nous avons 4 missions : valoriser la ressource en bois, protéger l’environnement et la biodiversité, prévenir les risques naturels – incendies, risques littoral et montagne – et accueillir le public en forêt tout en gérant la multifonctionnalité de ces espaces publics.

Sur les 4,6 millions d’hectares que nous gérons, le dérèglement climatique impacte directement environ 300 000 hectares. Sur ce total, 50 000 hectares sont déjà clairement identifiés, dont 20 000 hectares définitivement impactés pour lesquels nous devons mener des actions rapidement. Nous avons décidé de le faire dans le cadre du label bas-carbone.

Quelles sont les méthodes que vous utilisez pour reconstituer les forêts françaises impactées ?

Nous travaillons sur les trois méthodes forestières du label bas-carbone : le boisement sur terrain nu, la reconstitution de l’espace dégradé par des impacts qui peuvent être des incendies, des tempêtes, des crises sanitaires ou des dépérissements. Et la troisième méthode, c’est l’amélioration des rendements de taillis sous futaies. Sur les forêts impactées, nous allons principalement être sur de la reconstitution forestière.

Après la Seconde Guerre mondiale, la France a fait des plantations massives d’épicéas en plaine notamment dans le Grand Est sur les zones de guerre. À Verdun par exemple, nous avons planté 10 000 hectares d’épicéas. Aujourd’hui, le scolyte y dévaste tout. Bien évidemment la régénération naturelle ne pourra pas prendre puisque si on plante la même essence, elle sera de nouveau attaquée. En replantant d’autres essences, nous allons limiter l’impact du scolyte et permettre de séquestrer du carbone.

Dans cette perspective, pourquoi avoir opté pour le label national bas-carbone ?

Nous avons décidé de travailler avec le label bas-carbone car il demande un travail de fond. En 2021, nous avons notifié 1 500 hectares de projets sur toute la France au ministère de la transition écologique et solidaire pour une quarantaine de projets. Nous avons déposé aujourd’hui 160 hectares de dossiers validés par le ministère, soit à peu près 10 % de la surface notifiée.

Sur les dossiers déjà labellisés, des entreprises sont-elles déjà engagées ?

Nous avons une dizaine de financeurs sur des projets labellisés et une trentaine d’autres demandes sur les projets à venir. Les financeurs ont souvent un intérêt à mener une action de reconstitution forestière en proximité d’un site de production pour être dans une dynamique de responsabilité sociétale des entreprises et faire adhérer les collaborateurs à cette dynamique. Dès qu’un financeur est intéressé par un projet, nous le labellisons.

Quelle est la taille d’un projet et quelle quantité de CO2 stocke-t-il ?

Un projet, c’est en moyenne une dizaine d’hectares. À l’hectare, vous stockez entre 150 et 180 tonnes de CO2. Cela va dépendre de la zone géographique et des essences. En plaine par exemple, les arbres poussent plus vite qu’en montagne. Si vous plantez des résineux, vous avez une croissance plutôt rapide et avec des feuillus, une croissance plus lente. Pour autant, le peuplier est un feuillu, mais à croissance rapide. Sur les résineux, on trouve beaucoup de Douglas, une essence prisée par les marchés et à croissance rapide donc avec une capacité de stockage de carbone plus importante.

Concrètement, si vous faites de la monoculture de Douglas, vous allez stocker beaucoup plus de CO2, autour de 250-300 tonnes à l’hectare mais vous affichez un projet pauvre en co-bénéfices et biodiversité. À l’ONF, nous privilégions les plantations mixtes avec de forts co-bénéfices, car nous sommes convaincus de la résilience des forêts mosaïques face au changement climatique.

Chaque année, l’ONF plante 7 millions de plants, avec 49 % de résineux et 51 % de feuillus. Face à l’impact du changement climatique, nous devons planter bien plus qu’auparavant. Nous savons pertinemment que si nous ne nous inscrivons pas dans des logiques comme le label bas-carbone, il y a un certain nombre d’espaces que nous ne pourrons pas traiter.

Sur les crédits internationaux labellisés dans le cadre du marché du carbone, la tonne de CO2 compensée coûte entre 15 et 20 dollars. Sur le marché réglementaire européen, nous sommes entre 50 et 60 euros la tonne. Le label bas-carbone, qui est volontaire, se situe entre les deux. Les projets se situent entre 30 et 35 euros la tonne de CO2 compensée mais c’est un marché qui croît avec des prix à la tonne qui augmentent.

Recyclage chimique des plastiques : une filière mondiale en phase de test

Le cabinet de consulting ecoprog recensait plus de 90 projets de recyclage chimique des polymères dans le monde en 2021. En revanche, sur la vingtaine de sites ayant démarré une activité, peu ont atteint l’échelle commerciale.

La nouvelle édition du rapport de Polyvia, intitulée Recyclage chimique : Où en sommes-nous ? Retour sur les annonces de 2021, répertorie de nombreux projets récents, principalement en Europe, aux États-Unis et en Asie.

En voici quelques-uns, sélectionnés parmi des dizaines d’autres. Pour avoir une vision d’ensemble, nous vous invitons à lire le rapport complet.

L’Europe et les États-Unis en tête

En 2021, l’Allemagne semble être le pays le plus impliqué dans le recyclage chimique des plastiques :

  • L’entreprise SABIC a démarré en 2021 la production de sa gamme de polymères issus du recyclage chimique.
  • Covestro AG a développé un procédé de recyclage chimique des mousses de PU flexibles issues des matelas usagés. Une unité pilote a déjà été installée.
  • Biofabrik et ENESPA AG ont annoncé que « la plus grande usine de recyclage chimique au monde » sera créée à Dresde. Une première unité de pyrolyse a démarré en 2021 et de nouvelles installations devraient voir le jour.
  • LyondellBasell a démarré la production commerciale de PE et de PP à partir d’éthylène et de propylène issus du recyclage chimique de déchets plastiques.

La pyrolyse a le vent en poupe

Le procédé de pyrolyse semble particulièrement intéresser les entreprises, surtout en Europe.

Dow a ainsi annoncé des investissements significatifs concernant la pyrolyse, en Europe et aux États-Unis, afin de proposer, dès 2022, des polymères issus du recyclage chimique. Si les types de déchets concernés ne sont pas encore confirmés, il semblerait qu’il s’agisse de déchets mélangés constitués à 90 % de polyoléfines, au minimum.

Toujours concernant la pyrolyse, le groupe pétrolier Shell prévoit le démarrage d’un site de recyclage chimique capable de convertir 60 000 tonnes de déchets par an. Celui-ci sera implanté en 2022 à Rotterdam. Un autre site d’une capacité de 350 000 tonnes sera lancé en 2024.

6 nouveaux projets annoncés en France

La France devrait accueillir deux projets d’envergure, dont la plus grande usine de recyclage chimique du monde. En effet Eastman et Loop Industries viennent d’annoncer en janvier 2022 leur intention d’installer en France deux usines géantes de recyclage chimique. La première usine traitera des déchets d’emballage et la seconde convertira des textiles en PET.

Par ailleurs, en France, plusieurs nouveaux projets sont en cours ou ont été annoncés en 2021.

  • La start-up française Polyloop a développé un procédé de recyclage des PVC composites souples par dissolution sélective et précipitation et l’a adapté au recyclage de masques respiratoires non contaminés.
  • La société britannique Plastic Energy (évoqué dans l’article sur le précédent rapport) et le français Axens ont récemment signé un accord de collaboration stratégique, afin de commercialiser une technologie de pyrolyse par conversion thermale anaérobique (TAC).
  • Plastic Energy et ExxonMobil collaborent dans le cadre d’un projet de recyclage avancé en France. Il s’agit d’un des plus grands projets européens de conversion des déchets plastiques postconsommation.
  • Dow Polyurethane et H&S Anlagentechnik construiront une unité de recyclage chimique des mousses de matelas PU sur le site d’Orrion Chemicals Orgaform, près d’Orléans.
  • Un projet de purification d’huiles de pyrolyse est en cours de développement par Repsol, Axens et L’IFPEN (procédé Rewind Mix).
  • La société française Carbios, spécialisée dans le recyclage enzymatique du PET, vient de signer un accord avec Equipolymers afin d’implanter une unité de recyclage de PET sur son site de Schkopau, en Allemagne.
  • Un projet de site de recyclage de pneus a été lancé par Michelin. Le contrat a été remporté par McDermott International.

L’analyse de données satellites montre que la forêt Amazonienne se fragilise dangereusement

La forêt Amazonienne est considérée comme un élément de basculement potentiel dans le système climatique de la Terre. Elle abrite une biodiversité unique, influence fortement les précipitations de toute l’Amérique du Sud et stocke d’énormes quantités de carbone, ce qui en fait un élément central de notre planète.

Des projections qui varient selon les modèles

Les simulations concernant les changements qui toucheront la forêt amazonienne dans le futur varient d’un modèle à l’autre. Alors que les premières études ont montré que la forêt amazonienne pourrait connaître un fort dépérissement d’ici la fin du XXIe siècle, d’autres études montrent une plus grande variété de résultats.

Compte tenu des fortes incertitudes de ces projections modélisées, une équipe de chercheurs britannique¹ a préféré s’appuyer sur l’analyse de données d’observation afin d’y déceler des signes de perte de résilience en Amazonie.

L’analyse de jeux de données satellitaires révèle un ralentissement critique

L’étude publiée en open access dans le journal Nature, a été réalisée dans le cadre du programme européen H2020 « Tipping Points in the Earth System » (TiPES) auquel l’université d’Exeter participe.

Grâce à une analyse statistique avancée des données satellitaires relatives aux changements de la biomasse végétale, elle a ainsi révélé un ralentissement critique, qui peut être considéré comme un affaiblissement des forces de restauration de la forêt Amazonienne.

Dans un communiqué de presse, Chris Boulton du Global Systems Institute explique : « Des études précédentes, basées sur des simulations informatiques, indiquaient que de grandes parties de l’Amazonie peuvent être engagées dans un processus de dépérissement avant de montrer un fort changement dans l’état moyen. Notre analyse observationnelle montre maintenant que dans de nombreuses zones, la déstabilisation semble en effet déjà en cours. »

Par ailleurs, afin de déterminer les causes de cette perte de résilience, les scientifiques ont mis les résultats en relation avec les précipitations sur une zone donnée, affectée par trois épisodes de sécheresse significatifs (2005, 2010, 2015).

Sans surprise, les zones plus sèches apparaissent comme plus à risque que les zones plus humides. Par ailleurs, les zones forestières à proximité des routes et des terres exploitées par l’homme sont d’autant plus menacées.

La transformation de l’Amazonie en savane pourrait arriver vite. Malheureusement quand le basculement lui-même sera observable, les choses seront probablement irréversibles.


¹ Potsdam Institute For Climate Impact Research et University of Exeter’s Global Systems Institute

Plan d’investissement « France 2030 » : Techniques de l’Ingénieur présent pour accompagner les industriels et la R&D

Doté de 34 milliards d’euros déployés sur 5 ans, le plan « France 2030 » vise à développer la compétitivité industrielle et les technologies d’avenir autour de 10 objectifs.

Objectif 1 : Faire émerger en France des réacteurs nucléaires de petite taille

Face à un besoin de renouvellement du parc existant, quels sont les objectifs visés pour les futurs réacteurs nucléaires, les principales ruptures technologiques ? La recherche française maintient notre industrie nucléaire à sa place de leader sur la scène internationale et l’article fondamental Réacteurs nucléaires du futur en fait un panorama.

Objectif 2 : Devenir le leader de l’hydrogène vert

Du fait de sa combustion non polluante, l’hydrogène est envisagé comme un des vecteurs énergétiques prioritaires dans le plan France 2030. N’existant pas à l’état naturel, l’hydrogène est à ce jour majoritairement produit à partir d’hydrocarbures et un peu par électrolyse. C’est un enjeu majeur des années à venir et de nombreux articles fondamentaux permettent d’en bien comprendre toutes les facettes, comme par exemple Hydrogène, Filière hydrogène : principaux verrous et intérêt du Power to Gas, Applications mobiles et stationnaires de l’hydrogene dans la transition énergetique.
Le livre blanc Hydrogène décarboné : où en est la France ? permet d’avoir une vision claire du sujet et le webinar  Hydrogène – les enjeux autours de la conception des réservoirs pour le stockage aborde une des problématiques liées à cet objectif.

Objectif 3 : Décarboner notre industrie

L’utilisation des ressources fossiles non renouvelables telles que le pétrole, le gaz naturel ou le charbon aboutit, en fin de cycle, à la production de dioxyde de carbone, principal gaz à effet de serre d’origine anthropique. Avec en visée une réduction de 35% de nos émissions de gaz à effet de serre, l’enjeu est donc à la fois industriel, économique et environnemental. Deux articles de référence pour bien comprendre : Gaz à effet de serre : enjeux de réduction et méthodes de comptabilisation et Captage et stockage du CO2 dans le contexte de la transition énergétique. Le sujet permet d’ouvrir d’autres perspectives, telles que décrites dans l’article de référence Piles bactériennes : de l’énergie propre avec de l’eau sale.    
Le webinar Usine décarbonée et efficacité énergétique : 2 défis majeurs à court terme pour l’industrie complète ces informations et le livre blanc Le plan français pour décarboner le secteur aérien montre comment un secteur en particulier envisage le sujet.

Objectif 4 : Produire près de 2 millions de véhicules électriques et hybrides d’ici 2030

Le projet est clair : devenir la nation qui roulera le plus au « vert », avec des voitures produites en France et, en 2030, 2 millions de véhicules hybrides et électriques. Il faut donc changer de paradigme et se poser les bonnes questions, avec l’article de référence Moteur thermique et les enjeux du changement climatique.
Le plan mise sur l’innovation et les technologies de rupture pour faire entrer la France dans un système vert, engageant les constructeurs automobiles et toute la chaîne de production, équipementiers et sous-traitants. Trois giga-factories sont actuellement en développement, des investissements sont à poursuivre sur les batteries, le tissu industriel et la montée en modernisation et la digitalisation.  L’article de référence Véhicules automobiles hybrides électriques et leurs motorisations est la clé de compréhension du sujet et la conférence en ligne Smart Charging : Étape clé des tests du véhicule électrique ou hybride rechargeable complète en abordant le point de la mutation vers l’électrification.
Autour du véhicule électrique, des questions se posent bien au-delà de la motorisation, avec par exemple les Systèmes d’alerte pour véhicules électriques – Sécurité et design sonore (article de référence) de ces engins réputés silencieux.
Est-ce que d’autres solutions pourraient émerger ? La réflexion est ouverte avec les livres blancs Voitures à hydrogène : la fausse bonne idée ? ou encore le sujet des véhicules autonomes avec deux dossiers  Le véhicule autonome MADE IN France et Le véhicule autonome redéfinit notre mobilité.    

Objectif 5 : Produire le premier avion bas-carbone 

Le secteur du transport aérien entreprend déjà des efforts importants pour améliorer son empreinte carbone par l’utilisation de carburants verts ou décarbonés. En ce sens, l’objectif de produire en France, d’ici 2030, le premier avion bas-carbone semble atteignable ! Le plan d’investissement « France 2030 » va y contribuer en soutenant les industriels qui s’engagent sur cette voie. Carburants aéronautiques est l’article de référence incontournable pour comprendre un des grands pans de la problématique.

La R&D française s’est emparée du sujet, les articles de référence Electrification des aéronefs et L’aile volante à hydrogène – Conception, défis et enjeux en sont la preuve, et le livre blanc Aéronautique : construire aujourd’hui l’avion de demain présente bien le projet.

Et pour bien mesurer cet élan, visionnez le webinar : L’avion du futur a besoin de vos compétences pour décoller !  

Objectif 6 : Investir dans une alimentation saine, durable et traçable

2 milliards d’euros sont dédiés à cet objectif, essentiellement déployés dans le numérique, la robotique et la génétique afin d’accélérer la révolution agricole et agroalimentaire.
Comment bien commencer ? Avec les articles de référence Écoconception des aliments, bioproduits, bioprocédés et procédés alimentaires et Responsabilité sociétale des entreprises (RSE) dans le secteur agroalimentaire.
Tracer le chemin du produit alimentaire à travers toutes ses transformations jusqu’à sa consommation et s’adapter aux changements de process reste essentiel. La traçabilité agroalimentaire : un outil de gestion des risques sanitaires est donc un article de référence également précieux.
Les innovations vont également servir le monde agricole, comme le montre le livre blanc Technologies spatiales au service de l’agriculture.
Des questions restent ouvertes sur ce secteur, abordées par exemple par le livre blanc Huile de palme : boycott, taxe… quelle solution ? ou le webinar Identifier les contaminants dans les industries de la santé et de l’agro-alimentaire.

Objectif 7 : Produire 20 biomédicaments contre le cancer et les maladies chroniques, et créer les dispositifs médicaux de demain   

La désindustrialisation de la France dans le domaine de la santé a été pointée du doigt lors de la crise sanitaire liée au Covid-19. Pour y remédier, « France 2030 » va déployer une enveloppe qui viendra compléter le « plan Santé innovation 2030 » lancé en juin 2021 et doté de 7 milliards d’euros.
Pour la production de nouveaux médicaments, les laboratoires pharmaceutiques s’appuient de plus en plus sur des outils complémentaires dont les biotechnologies, les nanotechnologies et l’informatique. Pour autant, les méthodologies classiques de synthèse chimique conservent leur intérêt, à découvrir dans l’article de référence Sources actuelles et futures des médicaments.
Différentes ressources sont à votre disposition sur ces sujets, avec par exemple :

Objectif 8 : Placer la France en tête de la production des contenus culturels et créatifs

Un objectif qui paraît moins industriel que les autres, avec néanmoins des points de convergence, comme par exemple les logiciels actuels exploités en réalité virtuelle (article de référence). Sortis de leur fonction principale – le jeu – ces logiciels peuvent être exploités dans un contexte professionnel et industriel.

Objectif 9 : Investir dans la nouvelle aventure spatiale

La moitié de l’enveloppe du plan « France 2030 » serait dédiée au « NewSpace », avec une forte ambition sur les mini-lanceurs réutilisables d’ici 2026, les micro et minisatellites ou encore les constellations de demain, en misant sur une plus étroite collaboration entre industriels et acteurs de l’innovation.
Cet objectif est multifacette, allant des Trajectoires spatiales (Missions interplanétaires) (article de référence) aux problématiques de propulsion, et la question de la Propulsion électrique pour les systèmes spatiaux (article de référence) ou encore les aspects matériaux, dont la Fabrication additive en aéronautique et en spatial (article de référence).
Les livres blancs Les ambitions françaises sur le marché spatial mondial et La propulsion spatiale, nouvel enjeu d’innovation ou encore Les nanosatellites vont-ils faire la loi dans l’espace ? sont de bons résumés des défis et des moyens.
L’aventure spatiale irradie d’autres domaines de recherche, c’est à découvrir par exemple en visionnant le webinar Le spatial au service de la médecine : transfert de technologies et expériences en microgravité.

Objectif 10 : Investir dans l’exploration des fonds marins

La France, deuxième puissance maritime du monde, se doit d’investir pour comprendre et connaître les grands fonds marins avec des innovations de rupture à conduire pour mener ses explorations et permettre le travail scientifique. L’État engage donc les acteurs à explorer toutes les potentialités de ces ressources naturelles, avec 300 millions d’euros consacrés à cette richesse vivante.
La recherche française a déjà pris la voie, comme le montrent par exemple les articles de référence Valorisation industrielle des microalgues photosynthétiques et Carburants à base d’algues oléagineuses – Principes, filières, verrous ou encore Les champignons marins et leurs applications biotechnologiques.
Les ressources océaniques sont une source d’inspiration pour de nombreux secteurs industriels, comme le détaille le livre blanc Les océans : une immense richesse pour le biomimétisme.

Pour profiter de l’intégralité des ressources documentaires, utilisez le code FRANCE2030 et bénéficiez de 10% de réduction pour toute souscription en ligne (valable jusqu’au 30 juin 2022).

Un procédé de recyclage chimique rapide des polycarbonates et polyesters

À l’heure actuelle, 99 % des déchets thermoplastiques sont recyclés par voie mécanique*. Malheureusement, les cycles de recyclage répétés conduisent à une détérioration de la matière et ne permettent pas de fonctionner en boucle fermée. Parce qu’elles permettent d’envisager un recyclage « à l’infini », les méthodes de recyclage chimique font l’objet de nombreuses recherches et intéressent fortement les industriels.

Un procédé rapide et sélectif

Le procédé de dégradation sélective proposé par les chercheurs du Centre for Sustainable and Circular Technologies (CSCT) de l’université de Bath repose sur l’utilisation de complexes de zinc(II) et de méthanol.

Cette méthode, détaillée dans le papier publié en open access dans le journal ChemSusChem, est d’autant plus intéressante qu’elle est rapide et consomme peu d’énergie. Ils expliquent ainsi être parvenus à décomposer complètement des perles de BPA-PC en 20 minutes, à température ambiante.

Les produits de la décomposition, le bisphénol A et le carbonate de diméthyle (DMC) peuvent ainsi être récupérés, pour former à nouveau du polycarbonate, ou pour d’autres utilisations, le DMC étant un solvant vert et un élément qui entre dans la composition d’autres produits chimiques industriels.

Une méthode polyvalente pour une démarche circulaire

Cette méthode a aussi l’avantage de fonctionner sur des polyesters comme le PLA ou le PET.

L’équipe a ainsi démontré, dans une démarche circulaire, la possibilité de produire plusieurs poly(ester-amide) renouvelables (PEA) à partir de monomères téréphtalamides dérivés de bouteilles PET usagées.

Les matériaux obtenus présentent d’excellentes propriétés thermiques et sont, par exemple, utilisables dans des applications biomédicales, comme l’administration de médicaments et l’ingénierie tissulaire.

Dans un communiqué de presse, le professeur Matthew Jones, co-auteur de l’étude et chercheur au CSCT de l’université de Bath, déclare : « Il est vraiment passionnant de voir la polyvalence de nos catalyseurs dans la production d’une large gamme de produits à valeur ajoutée à partir de déchets plastiques. »


* Source : IFP Énergies nouvelles

Le GIEC appelle à agir tout de suite

Dernier opus du GIEC, le nouveau rapport sur l’atténuation du changement climatique complète les deux précédents du 6e cycle d’évaluation de l’instance onusienne. Si le précédent avait été étouffé médiatiquement par le début de la guerre en Ukraine, celui-ci va probablement trouver plus d’écho.

Il confirme – comme si c’était encore nécessaire – que les émissions mondiales de gaz à effet de serre (GES) dues aux activités humaines ont augmenté (voir encadré en bas de l’article), et ceci dans tous les secteurs. Les deux plus gros émetteurs, quand on prend en compte leurs consommations d’énergie, sont le secteur du bâtiment (34 %) et l’industrie (24 %). Les zones urbaines ont vu leur part augmenter en cinq ans, à cause de l’urbanisation, de la hausse de la population et de leur niveau de revenu. La tendance est à une baisse de l’intensité carbone (quantité de CO2 émise par la combustion des énergies fossiles et les process industriels par unité d’énergie primaire), mais le niveau depuis 2010 (-0,3 % par an) est 11 fois plus faible que ce qu’il faudrait pour limiter le réchauffement à 2°C (-3,5 %) et 25 fois pour le limiter à +1,5°C. Nous sommes donc plutôt sur la trajectoire d’un réchauffement autour de +3°C…

Face à ce terrible constat répété par le GIEC depuis longtemps et aux effets à venir du bouleversement climatique, les scientifiques tirent encore la sonnette d’alarme : « On ne peut pas attendre l’année prochaine, ni le mois prochain, ni demain, il faut agir dès aujourd’hui » ont lancé les représentants officiels du GIEC comme Jim Skea, co-directeur de ce rapport. Notamment, le Secrétaire général des Nations Unies, Antonio Guterres, a affirmé que continuer d’investir dans les énergies fossiles est une « folie morale et économique ». Pour atteindre la neutralité carbone d’ici 2050, les émissions de GES (CO2, mais aussi méthane) doivent diminuer d’un tiers à une moitié par rapport à celles de 2010 dans les huit prochaines années. Huit ans, c’est maintenant.

Un panel de solutions

Comment faire ? À l’instar de 18 pays (seulement) qui ont réussi à baisser leurs émissions pendant plus de 10 ans, le GIEC rappelle les trois leviers utilisés dans le domaine de l’énergie : la décarbonation de la production, les gains d’efficacité et la réduction de la demande.

Premièrement, pour la décarbonation, le rapport insiste sur le rôle prépondérant des énergies renouvelables, notamment car leurs coûts ont beaucoup diminué depuis 2000 : -85 % pour le solaire photovoltaïque, -55 % pour l’éolien, -85 % pour les batteries lithium-ion, et que leur déploiement s’est accéléré. Le rapport évoque aussi d’autres solutions bas-carbone comme le captage-stockage du CO2 émis lors de la combustion des fossiles, le captage de CO2 dans l’air (carbon dioxide removal) ou le nucléaire. Mais quand le GIEC fait une analyse de ces dernières solutions au prisme des 17 objectifs de développement durable, elles sont clairement moins bien notées que les énergies renouvelables, comme le fait remarquer Yves Marignac, expert de l’Association négaWatt dont le scénario est désormais cité par le GIEC parmi les travaux prospectifs ayant promu la démarche sobriété-efficacité-renouvelable.

Deuxièmement, concernant l’efficacité énergétique, les solutions sont déjà connues et font parfois déjà l’objet de politiques publiques : augmenter l’électrification des process industriels et du transport, baisser la masse des véhicules, développer l’usage du vecteur hydrogène décarboné (pour l’énergie et la chimie), etc. Il est à noter que le GIEC insiste aussi sur l’efficacité en termes de matières dont une des composantes est l’économie circulaire. Elle est notamment valable dans les zones urbaines par le biais des constructions de bâtiments et l’isolation du parc existant.

Selon les études compilées par le GIEC, les plus grands potentiels de réduction des émissions de GES pour des coûts d’abattement inférieur à 20 $ la tonne de CO2eq sont les énergies solaire et éolienne, l’efficacité énergétique, les actions sur les écosystèmes naturels et la réduction des émissions de méthane (charbon, pétrole, gaz et déchets). Jusqu’à 100 $/tCO2eq, le rapport estime que les solutions ont un réel intérêt pour l’atténuation du changement climatique (voir le graphe page 50 du résumé pour décideurs).

Une première pour la sobriété

Troisièmement, ce nouveau rapport du GIEC insiste sur la réduction de la demande d’énergie, soit de manière transversale (chapitre 5), soit spécifiquement au secteur du bâtiment (chapitre 9). « C’est une première d’avoir autant de parties sur ce sujet, et cela a même permis d’introduire le concept de sobriété dans le chapitre 9 et dans le résumé pour décideurs. Auparavant, on ne parlait que de “changements de comportement”. Il y a ainsi tout un nouveau champ de recherche qui s’ouvre sur la sobriété » analyse Yamina Saheb, une des auteures principales du chapitre sur le bâtiment. Elle a recensé plus de 300 publications scientifiques portant sur la sobriété, parfois sans qu’elle soit nommée ainsi. Mais son potentiel, lui, est très clair : la sobriété pourrait réduire les émissions du secteur du bâtiment de 10 % d’ici 2050, tandis que les énergies renouvelables compteraient pour 9 % et l’efficacité énergétique pour 42 %.

Il y a un réel avantage à combiner sobriété et efficacité. Plus largement, le rapport du GIEC identifie une soixantaine d’actions permettant de réduire la demande de services et qui conduiraient à diminuer les émissions de GES d’ici 2050 de 40 à 70 % : mobilités douces, régime végétarien, économies d’eau, moins de voyages en avion, maisons passives, production et consommation de biens durables, etc. De nombreux défis sont à relever pour activer ces changements socioculturels, en termes d’innovation (notamment numérique), de motivations individuelles, de décentralisation, de régulation, de signal-prix et de politiques publiques permettant d’acter des choix collectifs et de développer les infrastructures nécessaires (par exemple pour le vélo).

Pour arriver à développer toutes ces solutions, il faudra investir 3 à 6 fois plus que les niveaux actuels de flux financiers vers la transition écologique. Encore un autre défi !

Hausse des émissions de gaz à effet de serre : repères

Les émissions mondiales de GES ont atteint 59 GtCO2eq en 2019 soit +12 % par rapport à 2010 et +54 % par rapport à 1990. L’augmentation des émissions anthropiques entre 2010-2019 est à un niveau supérieur à toutes les décennies précédentes (voir graphique), même si on constate un ralentissement du taux de croissance (+1,3 % par an) par rapport à 2000-2009 (+2,1 % par an).
Les émissions cumulées de 1850 à 2019 sont égales à 2 400 GtCO2eq dont 410 GtCO2 ont été émises depuis 2010 ! Pour avoir une chance sur deux de ne pas dépasser les +1,5°C de réchauffement planétaire moyen, le « budget carbone » restant est de 500 GtCO2. Il est de 1 150 GtCO2 si on veut limiter le réchauffement à +2°C (avec 67 % de chance).
Les 10 % des ménages les plus aisés dans le monde comptent pour 34 à 45 % des émissions globales de GES. Il y a donc un enjeu d’équité pour arriver à une transition juste permettant de réduire les émissions des plus riches tout en réduisant la pauvreté et en assurant un niveau de vie décent pour tous.

Historique des émissions anthropiques dans le monde entre 1990 et 2019, avec la part relative des différents gaz à effet de serre. Source : IPCC AR6 WGIII

Pilote de chasse : un métier ultra exigeant, mais passionnant !

Gilbert Michel, dit « GRULL », est colonel en retraite, administrateur trésorier de l’association des pilotes de chasse. Il a été pilote dans l’Armée de l’Air française pendant une trentaine d’années. Il nous raconte avec passion et nostalgie les exigences très fortes de ce métier ainsi que ses satisfactions.

Techniques de l’Ingénieur : Les avions de chasse sont des concentrés de technologie. Quelles sont les compétences nécessaires pour les piloter ?

Gilbert MICHEL, dit « Grull » – crédit photo : Gilbert Michel

Gilbert Michel : Les compétences nécessaires pour exercer le métier de pilote de chasse se répartissent selon trois fondamentaux : savoir, savoir-être et savoir-faire.

Le savoir consiste à acquérir un volume très important de connaissances couvrant tous les aspects liés à son métier. Un pilote de chasse a le niveau d’études initial de bac scientifique et atteint un « doctorat » bac+10 en obtenant sont brevet de chef de patrouille vers l’âge de trente ans.

Il doit, au cours des premières années, maîtriser bon nombre de sciences ou tout au moins acquérir de solides connaissances tournées vers l’aéronautique telles que mécaniques (aérodynamique, avions, moteurs, servitudes, instruments, radio, systèmes d’armes…), armements classiques et nucléaires, technique du tir aérien, guerre électronique, météorologie, médecine Aéro, protocoles de combat en ambiance NRBC (Nucléaire, Radiologique, Biologique et Chimique)… Il suit aussi une formation spécifique destinée à savoir survivre en cas d’éjection en zone ennemie, voire même simplement en milieu aquatique, désertique, tropical, polaire…

Le pilote de chasse ne fait qu’un avec son avion d’armes, il le connaît par cœur : son fonctionnement, son utilisation, ses circuits, ses limitations… et le traitement réflexe des pannes éventuelles voire aussi les avaries liées à un dommage de guerre. Son siège éjectable est son dernier salut et l’entraînement aux procédures de secours est régulier.

Le pilote de chasse étudie, connaît et sait reconnaître les matériels de guerre étrangers.

Maquette du Mirage 2000 Cristal à l’échelle 1 pour l’instruction des pilotes et mécaniciens – crédit photo : Gilbert Michel

Outre des qualités physiques dignes d’un grand sportif, le savoir-être du pilote de chasse fait référence à ses qualités humaines indispensables pour progresser tant individuellement que collectivement. Le pilote ne se ment pas et ne ment pas : son travail, son honnêteté et son humilité sont sans cesse mis à l’épreuve en vol comme au sol. Noté tout au long de sa carrière, le pilote de chasse est officier ; il doit admettre ses erreurs et faiblesses et se perfectionne parce qu’il est exigeant envers lui comme envers ses frères d’armes.

Enfin, le pilote de chasse doit faire preuve d’un esprit de cohésion incomparable, car les vies des membres de son unité ou de sa patrouille sont aussi en jeu et dépendent de lui quand il en est le chef.

Enfin, le savoir-faire ne peut s’acquérir que par la pratique, c’est-à-dire par le vol.

Les séances de simulateur permettent certaines formes d’entraînement, mais ne remplacent pas les deux cents heures de vols annuels.

Simulateur de vol Mirage 2000 – crédit photo : Gilbert Michel

Les savoirs, savoir-être et savoir-faire, sont un tout complet exigeant et passionnant conférant au pilote de chasse toutes les compétences nécessaires pour exercer ce métier incomparable…

Les avions de chasse se déplacent à des vitesses très élevées, dépassant parfois Mach 1, et les accélérations subies sont importantes. Quelles sont les exigences physiques pour un pilote de chasse ? Comment les acquiert-on ?

L’être humain n’est pas fait pour voler. Le pilote de chasse doit donc connaître son corps, ses forces et faiblesses, et doit l’adapter au vol par un entraînement physique régulier d’assez haut niveau. La première étape consiste déjà à obtenir son « certificat d’aptitude médicale pilote de chasse ».

Nous ne sommes pas physiquement égaux à la naissance et les candidats présentant le moindre défaut médical ne sont pas admis  ; c’est alors un rêve qui s’effondre. Des petits défauts de vue par exemple peuvent subvenir en cours de carrière, mais les tolérances sont très faibles.

Un des points cruciaux est le développement des capacités de visualisation dans l’espace de l’élève pilote qui lui permettront de piloter son appareil dans n’importe quelle position et selon des circonstances physiques très particulières, dont seul l’entraînement apporte familiarisation et maîtrise.

Ensuite, il faut pratiquer des activités physiques permettant de supporter les accélérations brutales du rythme cardiaque en mission. Les sports d’endurance tels que les semi-marathons sont proscrits, car ils procurent un cœur volumineux au rythme lent, très pénalisant pour les accélérations verticales (les g) des avions d’armes. En revanche, les sports individuels de type tennis ou squash ou les sports collectifs avec efforts violents et brefs sont très conseillés, car ils procurent aux pilotes des cœurs moins volumineux capables de supporter des accélérations et décélérations cardiaques très rapides.

D’autres sports permettent de développer des qualités diverses telles que la concentration et la précision (tir au pistolet), l’adresse (lancer de ballon dans le panier de basket), la tactique et l’agressivité (l’escrime), l’effort intelligent (la course d’orientation) et la maîtrise de soi (natation en apnée). Ces cinq épreuves sont déclinées dans le fameux « PAM » (Pentathlon Air Militaire).

Enfin, il y a des entraînements avec des appareils spécifiques tels que la centrifugeuse qui permet au pilote de s’entraîner à supporter des accélérations progressives et continues de plusieurs g (pour mémoire, « une accélération de plusieurs g » signifie que la force ressentie est équivalente en intensité à celle de plusieurs fois son poids) ; ou encore des « machines infernales » permettant au pilote de prendre conscience des faiblesses de son corps en matière d’illusions sensorielles ou en cas d’hypoxie (manque d’oxygène) par exemple…

Centrifugeuse Défense Bretigny – crédit photo : Gilbert Michel

Les pilotes de chasse sont des militaires et leurs missions, incluant des combats aériens, peuvent leur coûter la vie. Comment gérez-vous ce risque, ainsi que le stress inhérent à votre métier ?

Les risques du métier de pilote de chasse sont très nombreux, mais statistiquement, il est plus dangereux de prendre la route… Une fois cette banalité citée, il faut reconnaître que l’on ne pense pas au pire avant chaque décollage.

En revanche, on envisage de très nombreuses situations lors du briefing dispensé avant chaque mission. C’est la fameuse rubrique du « what if » : que fait-on si on a telle panne, tel problème à tel point de la mission ? Les scénarios A, B, C… sont donc déclinés au sol et une fois en vol, on décide vite, très vite ; quelquefois on optera pour la solution A prime ou B seconde, mais on sera préparé, donc serein et concentré… mais pas stressé.

Les pilotes de chasse dominent donc leur stress grâce à un entraînement intensif qui procure la certitude de réussir sa mission avec sûreté et sécurité. Se sentir capable de gérer une grande partie des risques grâce à la longue et précieuse expérience acquise durant les vols permet de rester serein, mais tout au long de sa carrière opérationnelle, il faut rester vigilant et savoir se remettre en question, travailler, réviser…

La question posée précédemment évoque aussi forcément le pire des scénarios. Le stress et la peur ne sont-ils pas des sensations proches… au point de se rejoindre en tous les cas ?

Mourir en mission de guerre pour son pays ou au nom de son pays, c’est avant d’épouser la carrière militaire qu’il faut y penser… et pour sûr, l’enterrement d’un frère d’armes en service aérien commandé reste toujours une épreuve très difficile et intime, mais il faut continuer à voler et le plus vite possible… La technologie moderne des avions de chasse permet de nos jours des taux de fiabilité impressionnants, mais le facteur humain reste prépondérant dans les causes des accidents aériens, près de 80 %…

Pour finir sur une note plus encourageante et en toute confidence, lorsque j’étais jeune élève puis pilote de chasse, mon stress s’extériorisait par une très forte toux. C’était à m’en décrocher les poumons et très caractéristique ; je ne toussais pas le week-end. Dès lors que je commençais à briefer la mission, je ne toussais plus, le stress était parti… Ce stress de ne pas réussir mon vol, ma mission, ma qualification, était parti.

Plus tard, je toussais beaucoup moins, mais encore pas mal, avec la volonté de toujours faire le mieux possible voire de rester le meilleur… Et bien plus tard encore, je ne toussais quasi plus de stress, mais lorsque cela m’arrivait, je repensais à mon métier de pilote de chasse, le plus beau métier du monde, celui pour lequel j’avais travaillé avec tant de passion et de volonté pour réussir.

Techniques de l’Ingénieur est partenaire de Production Temps Réel

Production Temps Réel appelé également Real Time Manufacturing, sont des rendez-vous Experts du pilotage de l’entreprise industrielle. Ils réunissent près de 120 industriels autour de sujets tels que la transformation industrielle et digitale des usines, de l’amélioration continue, la cybersécurité… 

Cet événement est idéal pour faire des rencontres et partager des expériences entre décideurs et professionnels du secteur, investir dans de nouveaux marchés, trouver des solutions pour répondre aux enjeux de performance et réaliser des partenariats pour la conduite de vos projets.

Au cours de cette journée, il vous sera proposé:

  • des échanges avec les experts lors de rendez-vous one-to-one pour découvrir les offres pour améliorer la performance industrielle ;
  • des conférences pour découvrir les solutions innovantes en termes de transformation digitale ;
  • des ateliers participatifs pour mieux appréhender les offres du marché avec des solutions éprouvées et des exemples concrets ;
  • de mettre en avant votre retour d’expérience avec des benchmarks par petit groupe de professionnels.

Des espaces conviviaux seront aussi disponibles pour faire du networking et nouer des relations humaines.

Pour participer et repérer les offres pour adapter et ajuster votre production aux défis futurs, inscrivez-vous ici.

Un mois dans l’espace #27

Le 26 février dernier, dès l’annonce des premières sanctions européennes envers la Russie, après l’invasion en Ukraine, l’agence spatiale russe Roscosmos n’avait pas tardé à répliquer, en suspendant les activités de son lanceur Soyouz à Kourou, en Guyane française. Aussitôt, la centaine d’ingénieurs et techniciens russes avaient quitté le port spatial français pour rentrer en Russie. 

Le contexte international restant extrêmement tendu, puisque l’invasion est en cours, le divorce spatial entre Russes et Européens s’est poursuivi au mois de mars. Le 17 mars, l’agence spatiale européenne, l’ESA, a décidé de mettre un terme à sa coopération avec la Russie. Première victime, la mission ExoMars, dont le lancement devait avoir lieu en 2022, et qui est décalé, peut-être à 2026, au mieux. Elle avait déjà été repoussée en 2020 pour cause de pandémie.

Le décollage de cette mission devait avoir lieu à Baïkonour, au Kazakhstan, à bord de la fusée russe Proton. Le rover ExoMars devait même être déposé sur le sol martien par un atterrisseur russe, le Kazatchok.

La guerre en Ukraine rebat les cartes de la coopération spatiale

Mais ce n’est pas tout : les autres missions de l’ESA prévues en partenariat avec la Russie sont toutes sur la sellette. C’est notamment le cas pour le lancement de satellites pour la mission Galileo, mais aussi pour le projet de télescope spatial Euclide, la mission d’observation de la Terre EarthCARE, et le lancement d’un satellite militaire pour le compte de la France.

Tout ce contexte rend essentielle la mise en service d’Ariane 6, qui effectuera son premier vol cette année, et dont le succès sera prépondérant pour développer une stratégie spatiale indépendante de la Russie. Évidemment, la Nasa fait office de partenaire privilégié aujourd’hui, et l’agence américaine est déjà en pourparlers avec l’ESA pour minimiser les conséquences du retrait russe sur les projets spatiaux en cours.

Dernier épisode en date, le 22 mars dernier. OneWeb, fournisseur d’accès à internet, a dû se rabattre sur son concurrent, SpaceX, pour continuer à lancer ses satellites et compléter sa constellation. Pour rappel, la Russie avait, au début du mois de mars, mis la pression sur OneWeb pour que ses satellites ne soient pas utilisés à des fins militaires. Devant le refus de OneWeb, la Russie a finalement décidé d’annuler le lancement de 36 satellites de la constellation, qui devaient être lancés via l’utilisation d’une fusée Soyouz.

Entre-temps, le 18 mars, un équipage de trois cosmonautes russes a décollé de Baïkonour pour rejoindre la station spatiale internationale. Les trois arrivants ont été accueillis par les quatre occupants américains de la station, chaleureusement d’après les images. Petit détail cocasse, les combinaisons des cosmonautes russes étaient jaunes et bleues, les couleurs du drapeau national ukrainien. Un clin d’œil bien involontaire à n’en pas douter, les combinaisons étant préparées des mois à l’avance pour ce type de mission.

La situation, si elle reste tendue, a tout de même connu une désescalade, depuis les propos stupéfiants de Dmitri Rogozine, le chef de l’agence spatiale russe Roscosmos, qui avait publiquement alerté sur un risque de désorbitation incontrôlée de l’ISS, le 14 mars dernier. La raison serait liée aux difficultés à approvisionner l’ISS en carburant, à cause des sanctions européennes. Evoquant à demi-mot la possibilité que la station spatiale s’écrase sur Terre, publiant une carte des lieux sur Terre ou l’ISS pourrait se crasher… carte qui montrait que le territoire russe serait majoritairement à l’abri si une telle catastrophe était amenée à se produire.

Si l’annonce de Dmitri Rogozine, un proche de Vladimir Poutine, n’est pas prise trop au sérieux par les dirigeants occidentaux car le chef de l’agence spatiale russe est coutumier des déclarations provocatrices, les américains ont décidé de tester, dans les semaines à venir, la possibilité d’ajuster l’orbite de la station spatiale internationale via le module Cygnus OA-17, aujourd’hui amarré à l’ISS. Elon Musk avait, le 17 mars, également évoqué la possibilité d’intervenir sur l’ISS via un module Crew Dragon, si nécessaire.

Quoi qu’il en soit, les mois qui viennent vont voir les agences spatiales européennes et américaines, au minimum, se hâter pour développer une stratégie spatiale indépendante de la Russie. Cette évolution, très profonde, va perturber les programmes en cours pour plusieurs années.

Image de une : Les cosmonautes russes sont arrivés dans l’ISS. Crédit : Roscosmos

Piéger la chlordécone dans le sol pour limiter la contamination des plantes

Aux Antilles françaises, la pollution des sols et des cours d’eau par la chlordécone est responsable d’une crise environnementale, sanitaire et socio-économique sans précédent. En cause : l’utilisation d’un insecticide dans les bananeraies jusqu’en 1993. On estime qu’environ 300  tonnes ont été déversées en Martinique et en Guadeloupe durant 20 ans. Aujourd’hui, les habitants consomment des produits locaux parfois contaminés, présentant un danger pour leur santé. Face à cette situation, l’IRD (Institut de recherche pour le développement) et le CNRS ont mené un projet de recherche pour tenter de piéger la chlordécone dans le sol, en partenariat avec Valecom, une entreprise martiniquaise.

Les scientifiques ont testé la capacité du biochar à séquestrer la molécule toxique. Pour cette expérimentation, ce charbon biologique provenait de Valecom, qui le fabrique à partir de boues de stations d’épuration. Celles-ci sont d’abord transformées en biogaz ; le résidu organique issu de ce processus est ensuite soumis à un procédé de pyrolyse pour produire du biochar. Des essais ont été réalisés en laboratoire en cultivant des radis sur un sol contaminé dans lequel a été ajouté du biochar, à raison de 3 à 10 % de la masse totale de terre. Résultat : comparé à un sol qui n’en contenait pas, les chercheurs ont observé une augmentation du taux de piégeage de la chlordécone dans le sol contenant du biochar six fois plus élevé. Et au final, les légumes se sont révélés six fois moins contaminés.

« Il s’agit de travaux préliminaires qui semblent intéressants, mais il sera nécessaire d’aller au-delà, précise Thierry Woignier, directeur de recherche au CNRS (Institut Méditerranéen de Biodiversité et d’Écologie – IMBE de Martinique). Nous ne sommes néanmoins pas surpris par ce résultat, car nous avions auparavant réalisé des essais comparatifs en plein champ avec l’ajout de compost et nous avions déjà noté sa capacité à piéger la molécule. Sur des radis par exemple, nous avions observé que le taux de transferts de la chlordécone vers le légume était 10 fois plus faible. »

Facilement dégradable, le compost présente l’inconvénient de nécessiter des apports réguliers dans le sol, tous les 2-3 ans. Quant au biochar, c’est une matière organique beaucoup plus stable dans le temps. Sa capacité à piéger la chlordécone s’explique par sa grande porosité qui se traduit par une importante surface spécifique, s’élevant à une centaine de m² par gramme.

Gorger les sols en eau pour créer un milieu anaérobie

À l’avenir, l’utilisation d’une technique de séquestration de la chlordécone pourrait devenir une alternative aux méthodes dites de bioremédiation ou ISCR (In Situ Chemical Reduction) proposé par le BRGM (Bureau de recherches géologiques et minières), dont l’objectif est de transformer la molécule dans le but de décontaminer les sols pollués. Surtout qu’en pratique, ces techniques de décontamination, actuellement en cours de développement, se révèlent complexes à mettre en place et coûteuses. Certaines d’entre elles nécessitent par exemple la mise en place d’un milieu anaérobie pour être efficaces. « Il est alors nécessaire de gorger les sols pollués en eau pour éviter que l’oxygène ne rentre à l’intérieur, puis de les bâcher pour éviter qu’elle ne s’évapore, explique Thierry Woignier. Ces techniques sont difficiles à mettre en œuvre, et elles ne peuvent être utilisées que sur des sols plats. De plus, nous ne sommes pas totalement sûrs de parvenir à détricoter totalement la molécule de chlordécone, avec le risque qu’il reste toujours des métabolites dans les sols qui présenteraient une certaine toxicité. »

Un autre élément vient perturber l’efficacité des techniques de décontamination : la nature des sols. Environ la moitié des sols contaminés de la Martinique sont appelés des andosols. Ce sont des sols très jeunes, situés dans le nord de l’île, et issus des éruptions volcaniques. Ils sont composés d’argiles particulières, nommées allophanes, qui présentent une importante microporosité dite fractale. « Ces sols ne sont pas décontaminables à l’aide de ces techniques, car la chlordécone vient se fixer à l’intérieur de ces micropores et devient inaccessible aux bactéries utilisées par les méthodes de bioremédiation ou de phytoremédiation. La technique de séquestration pourrait alors être une alternative face à ces difficultés. Nous allons poursuivre nos travaux de recherche en répondant à un appel à projets dans le cadre du quatrième Plan National d’Action Chlordécone (PNAC) », conclut Thierry Woignier.

Le Falcon 10X, un jet d’affaires « augmenté »

Les jets d’affaires sont utilisés en tant que moyens de transport individuel en lieu et place d’un voyage dans un avion de ligne standard. Les voyages en jet autorisent une grande flexibilité (puisque c’est le passager qui décide des horaires de décollage et du nombre d’escales), une totale confidentialité, une arrivée dans un aéroport parfois inaccessible aux avions standards, un confort inégalé (certains jets, comme le Falcon 10X, sont équipés comme des studios, avec cuisine équipée, salon et chambre avec salle de bain).

Ce moyen de transport est cependant inaccessible au commun des mortels car le Falcon 10X, par exemple, coûte soixante-quinze millions d’euros à l’achat et son entretien annuel est estimé à une somme comprise entre six cent mille et sept cent mille dollars. Et il faudra être patient car il ne sera disponible qu’en 2025.

Quelques caractéristiques techniques du Falcon 10X : légèreté, résistance et aérodynamisme

La voilure du Falcon 10X est constituée en matériaux composites, et en particulier en fibre de carbone. Ce matériau est aussi résistant que l’acier, mais pèse nettement moins lourd. De plus, la forme de cet avion est optimisée vis-à-vis des courants d’air. Ces trois caractéristiques minimisent dans la mesure du possible la consommation de carburant de l’avion.

En effet, un avion ne peut décoller que si l’air exerce une force verticale assez importante pour compenser le poids de l’avion.

En mouvement, l’avion subit une force de la part de l’air qui peut se décomposer en deux composantes, l’une de direction verticale et orientée du bas vers le haut, qu’on appelle « portance » et l’autre de direction horizontale et de sens opposé au mouvement, appelée « traînée ».

La traînée et la portance ont des caractéristiques qui dépendent entre autres de la forme du corps et des ailes de l’avion. Le fait que l’air passant sur la surface supérieure de l’aile soit rabattu vers le bas implique une variation d’une grandeur appelée « quantité de mouvement » de l’air qui, selon les première et troisième lois de la mécanique newtonienne, génère l’apparition de la portance. Cette dernière force doit être d’autant plus importante que le poids, et donc la masse, de l’avion sont élevés.

Par ailleurs, la traînée est plus ou moins importante en fonction du profil de l’aile. Un profil défavorable donne naissance à des tourbillons d’air en arrière de l’aile, qui freinent fortement l’avion. Un profil favorable, au contraire, minimisera la résistance de l’air, et donc la consommation de carburant.

Sur l’image ci-dessous, on constate que le Falcon 10X est optimisé du point de vue aérodynamique, car il n’apparaît quasiment aucun tourbillon dans le sillage de l’avion.

Crédits photo :Dassault Aviation

Une exclusivité du Falcon 10X : la vision synthétique combinée

Cet avion possède une assistance très précieuse pour les pilotes : le système de vision combinée (CVS) permettant de « voir » le paysage lorsque les conditions climatiques sont difficiles et/ou lorsqu’il fait nuit. Ce système est issu de la recherche militaire et est embarqué dans l’avion de combat français, le « Rafale ».

Ce système est alimenté par des caméras multicapteurs, placées sur la partie avant de l’avion, qui enregistrent des données simultanément en lumière visible et en ondes infrarouges (les ondes infrarouges sont également appelées ondes de chaleur car elles sont dégagées par des corps chauds tels que le corps humain ou le sol et les bâtiments rayonnant de la chaleur durant la nuit). Ces données sont fusionnées avec des images préenregistrées dans des banques de données et choisies grâce à la position de l’avion, pour former le paysage que les pilotes sont censés voir dans des conditions normales de visibilité.

Ce paysage synthétique est projeté sur des écrans en position haute et en grand angle, ce qui permet aux deux pilotes de voir simultanément la même chose et donc de synchroniser leurs actions.

Cockpit du Falcon 10X. Crédits photo : Dassault Aviation

Ce système a été homologué et confère au vol un niveau de sécurité très élevé pour les passagers.

(Crédits photo de Une : Dassault Aviation)

Congrès Plasturgie et Environnement : le nouveau rendez-vous incontournable de la filière plasturgie et composites

Ce congrès d’un nouveau genre est coorganisé par la Société Française des Ingénieurs des Plastiques (SFIP) et l’IMT Nord-Europe, avec le soutien de PLASTICS EUROPE, POLYMERIS et POLYVIA. Nous avons interviewé Laurence Dufrancatel, vice-présidente de la SFIP, afin qu’elle nous en dise plus sur cet événement.

Laurence Dufrancatel est vice-présidente de la SFIP (Crédit SFIP)

La SFIP est une association loi 1901 créée en 1983.

Composée de près de 200 adhérents, dont une trentaine de sociétés, elle rassemble les acteurs de la filière plasturgie afin d’en promouvoir les activités et les métiers.

La SFIP est dirigée par un Directoire d’une vingtaine de membres industriels et académiques, ainsi que par un bureau constitué de 7 personnes.

Techniques de l’ingénieur : L’environnement fait désormais partie des préoccupations majeures des plasturgistes. Quel est le contexte de la création de ce congrès ?

Laurence Dufrancatel : Jusqu’à présent, les questions environnementales étaient abordées dans les différents congrès internationaux parmi d’autres thématiques, au cours de sessions dédiées. Par exemple, lors de l’événement « materials for future mobility » organisé par la SFIP et la SIA¹ en 2021, l’économie circulaire était traitée, mais n’était pas l’objet principal et unique du congrès.

Face à la forte demande de nos adhérents et compte tenu des évolutions rapides concernant la place des questions environnementales en plasturgie, nous avons décidé de la création de ce congrès. Si la plasturgie reste le thème central, les interventions seront focalisées sur les bilans environnementaux, la réduction des émissions, le recyclage et l’utilisation de matières alternatives.

En quoi ce congrès répond-il aux attentes des industriels ?

Les participants à ce congrès pourront enrichir leurs connaissances et échanger autour de problématiques comme l’utilisation et le sourcing de matière recyclée, l’analyse de cycle de vie ou l’évolution des réglementations.

Pour les industriels, l’un des intérêts majeurs de ce congrès est de pouvoir découvrir de nouvelles technologies et des sources de matière pouvant représenter une alternative au pétrole dans les années à venir. Lors de la sélection des sujets qui nous ont été proposés, l’accent a donc été mis sur la pertinence des apports scientifiques, mais aussi sur la diversité des interventions.

Comment s’est faite la sélection des sujets et des intervenants ?

Les sociétés intervenant dans le congrès ont été choisies via un appel à projets ou par sollicitation des membres du comité scientifique dont je fais partie.

Dans le cadre de ce congrès, nous avons reçu énormément de propositions de sujets, ce qui nous a amenés à créer des sessions parallèles ainsi qu’une table ronde, afin de ne pas écarter des propositions de qualité.

Comme la force de ce congrès réside aussi dans son aspect pluridisciplinaire, nous avons veillé à sélectionner des acteurs provenant de marchés variés : automobile, cosmétique, bâtiment, sport et loisirs, équipements électriques (…) dans le but de favoriser l’enrichissement et la capacité d’innovation.

En deux jours, 31 conférences seront au programme. Si on ajoute la table ronde, les participants pourront ainsi découvrir les témoignages d’une quarantaine d’intervenants, ce qui équivaut facilement au double des congrès habituels.

Comme le programme est dense, nous avons fait en sorte de laisser des temps de pause permettant aux différents participants d’échanger et de partager ensemble leurs expertises, notamment dans la partie expositions du congrès.

Enfin, nous savons par expérience que les industriels apprécient aussi de se retrouver de manière informelle et après ces 2 années difficiles, nous sentons un fort besoin de se retrouver et de discuter physiquement. Afin qu’ils puissent prolonger leurs échanges et multiplier les opportunités de business, un dîner de gala est ainsi prévu à l’issue de la première journée.

Vous désirez vous inscrire au congrès plasturgie et environnement, qui aura lieu les 18 et 19 mai 2022 à Douai ? Réservez votre place au plus vite !

(Crédit photo visuel de une : SFIP)


(1) Société des ingénieurs de l’automobile

Écoutez notre podcast Cogitons Sciences : Clément Thivin, un ingénieur pas bateau [Des ingénieurs qui cassent la routine #3]

Comment passer des directions assistées pour automobiles aux voiliers de haute technologie ? Est-il possible pour un ingénieur de faire son métier de sa passion ? Comment une page blanche devient un bateau capable de faire le tour du Monde ? Qu’est-ce qu’un ingénieur d’études peut apporter à des skippers ?

Pour nous répondre, nous recevons Clément Thivin, ingénieur d’études « mécanique et systèmes » au bureau d’études de MerConcept, l’écurie de course au large créée par le navigateur François Gabart en 2006.

Écoutez l’épisode ici

De l’intérêt à la passion [1:30 – 7:51]

Lors du cursus d’ingénieur de Clément Thivin à l’INSA de Lyon, ses professeurs l’encouragent à suivre leur ancien élève, François Gabart, qui participe au Vendée Globe Challenge, fin 2012. Dans les médias, Clément Thivin découvre le projet de « construction d’un trimaran de course pour battre le record du tour du monde à la voile en solitaire » par MerConcept. Ce sera sur ce projet qu’il travaillera durant son stage en 2014.

C’est en poste chez JTEKT Technology que Clément Thivin comprend qu’il est passionné par la voile et que c’est là qu’il veut travailler. Ses candidatures ne sont pas retenues. Puis, en intégrant les Chantiers de l’Atlantique, il s’approche de l’océan et acquiert de l’expérience dans le secteur naval. Ensuite, « dans un média spécialisé, j’ai vu une offre de MerConcept ». Elle correspond bien à son profil. Il postule. Il est recruté.

Concevoir un bateau compétitif [8:09 – 17:10]

C’est donc en 2019 que Clément Thivin revient chez MerConcept. Il travaillera d’abord sur l’Imoca 11th Hour Racing. Il explique la différence de design entre cet Imoca, dessiné pour un équipage, et « l’Imoca Apivia, skippé par Charlie Dalin ».

L’acquisition du vocabulaire nautique est comparée par Clément Thivin à l’arrivée « dans un nouveau pays ». « L’ingénieur d’études doit produire des pièces, des systèmes » pour le bateau. Clément Thivin illustre sa charge de travail : « En août 2019, le bateau était une page blanche. À l’été 2021, il a navigué. En novembre, il a traversé l’Atlantique ». Ces bateaux sont conçus pour « participer à des courses et si possible les gagner ». Il faut à l’ingénieur d’études « un bon niveau de confiance et de doute » pour « prendre les décisions vitales pour la performance du bateau ».

À l’écoute des skippers  [17:30 – 28:33]

« On fait un bateau pour que les skippers puissent l’exploiter au maximum pendant les courses. Ils doivent être très impliqués dans le design du bateau et la philosophie des systèmes », explique Clément Thivin. Le « retour est immédiat pendant toutes les phases de conception ». « Capables de passer trois mois en mer tous seuls sur leur bateau, ils ont des choses à raconter. », ajoute Clément Thivin. « Les courses de bateaux rythment nos journées. La cartographie est le seul accès à la performance. Les pointages permettent de connaître les positions des bateaux ».

Écoutez l’épisode ici

Références citées :

MerConcept

The OceanRace est la course à laquelle va participer l’Imoca 11h

Hour Racing

Les Chantiers de l’Atlantique à Saint-Nazaire

JTEKT Technology

L’INSA de Lyon

L’Université d’Aalto à Helsinki, en Finlande

Ressources pour aller plus loin :

Le média spécialisé dans la voile de compétition Tip & Shaft

Le festival de films documentaires Sailorz

Le livre « La longue route » de Bernard Moitessier

« Maiden », le documentaire sur la skippeuse britannique Tracy Edwards

Le Off Shore film festival, consacré à l’aventure en mer

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Marie-Caroline Loriquet, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

(Crédit photo portrait de Clément Thivin : MerConcept)

Une semaine de conférences et d’ateliers dédiée au verre

Utilisé à l’état naturel depuis la Préhistoire, et fabriqué depuis – approximativement – l’an 3500 av. J.-C., le verre, élément omniprésent qui a traversé les âges, est en perpétuelle évolution. Plusieurs millénaires plus tard, 2022, proclamée par les Nations Unies “Année internationale du verre”, célèbre ce matériau si cher à nos usages quotidiens. C’est dans ce contexte exceptionnel que se déroule du 4 au 8 avril la semaine “Le verre dans tous ses états”, organisée au lycée Jean Monnet, à Yzeure, en région Auvergne-Rhône-Alpes. L’occasion de se retrouver autour d’une série de conférences, de tables-rondes et d’ateliers, axés toutes sur le verre : son histoire, sa composition, ses propriétés mécaniques et physico-chimiques, son design, son recyclage, ou encore les métiers du verre, entre autres sujets abordés. Il sera aussi possible d’admirer une exposition d’œuvres de créateurs verriers.

La semaine, organisée sous la houlette de l’Ecole nationale du verre et de l’Année internationale du verre, regroupe de nombreux partenaires : Moulins Communauté, l’Université Jean Monnet (Saint-Etienne), le lycée CFA Dorian, le lycée Lucas de Nehou, la Fédération des industries du verre, la Fédération du cristal et du verre, la Fédération française des professionnels du verre, le club Rotary de Moulins-Yzeure et l’Union pour la science et la technologie verrières. 

La fabrication et l’industrie du verre vous intéressent ? Pour en apprendre plus sur le verre, nous vous proposons de découvrir notre base de ressources documentaires “verres et céramiques”. Une sélection d’articles sera bientôt disponible en accès libre, pour une période limitée !

Retrouvez tout le programme des événements tenus en France en 2022, en l’honneur du verre, sur cette adresse : https://www.anneeduverre2022.fr/

Géolocaliser les pipelines enterrés grâce à la mesure du champ magnétique

90 % du pétrole, du gaz et de l’eau produits dans le monde est transporté grâce à un important réseau de pipelines enterrés. Ces canalisations se révèlent très efficaces pour acheminer ces matières, mais nécessitent malgré tout une surveillance régulière. Après avoir travaillé une trentaine d’années dans le domaine des systèmes de protection de pipelines enterrés, Maher Kassir a décidé de créer une start-up avec son fils Luigi pour développer une nouvelle technologie de géolocalisation de ces infrastructures. Après plus de cinq années de recherche et développement, avec l’aide notamment du CNRS et de l’université de Cachan, l’entreprise est entrée dans une phase de commercialisation de son procédé. Rencontre avec le cofondateur de Skipper NDT.

Techniques de l’Ingénieur : Pourquoi est-il important de géolocaliser les pipelines ?

Maher Kassir, cofondateur de Skipper NDT. Crédit : Skipper NDT

Maher Kassir : Tout incident sur ces structures peut avoir des conséquences humaines, environnementales et matérielles dramatiques. Avec le temps, elles peuvent être soumises à des mouvements de terrain, à l’érosion des sols, mais aussi à des dommages provoqués par des travaux à la surface du sol. Comme par exemple en Belgique en 2004, lorsqu’une pelleteuse a percuté une canalisation, provoquant, deux semaines plus tard, une explosion faisant 24 morts. La réglementation est de plus en plus exigeante et ce qui était acceptable il y a dix ans ne l’est plus aujourd’hui. En France, une loi appelée DT-DICT ou loi anti-endommagement impose aux opérateurs de réseaux enterrés de les géolocaliser avec une précision d’au moins 40 cm. Aux États-Unis, en cas d’intempéries comme lors d’inondations, les installations doivent être inspectées sous 72 heures pour vérifier qu’aucune rupture ne s’est produite. Des raisons économiques poussent également à une meilleure surveillance. Il y a 15 ans, dans le golfe du Mexique, une fuite d’hydrocarbures a coûté 50 milliards d’euros à l’entreprise BP.

Même les canalisations d’eau font l’objet d’une surveillance renforcée depuis quelques années. Dans leurs contrats, les gestionnaires d’approvisionnement en eau imposent à présent des clauses aux opérateurs de pipelines pour leur demander de réparer les fuites, afin qu’ils n’aient plus à en supporter le coût.

La géolocalisation centimétrique de ces structures enterrées permet d’éviter une grande majorité d’incidents dus à des travaux de surface.

Comment fonctionne votre technologie ?

Certains métaux dans le sol, comme l’acier ou la fonte, génèrent un signal magnétique. Grâce à nos capteurs, nous enregistrons ces signaux à l’aide d’une technologie, mais qui n’est pas nouvelle en soi. Notre valeur ajoutée est d’avoir développé une famille d’algorithmes capables de convertir ces signaux magnétiques en positionnement géographique 3D et ainsi parvenir à cartographier ces canalisations dans le sol avec une précision de 20 cm en moyenne. C’est sur ce point que porte notre innovation, et qui a fait l’objet d’un brevet.

Quels types d’algorithmes avez-vous développés ?

Ils peuvent être schématisés en deux familles. Tout d’abord, les algorithmes de nettoyage qui permettent de pallier tous les défauts liés à une mesure magnétique par drone. Ils transforment une donnée brute, soumise aux imperfections des capteurs et aux interférences, en un signal utile le moins bruité et le moins biaisé possible. Ce sont par exemple des algorithmes de correction d’assiette à partir de centrales inertielles, des algorithmes de calibration/compensation de nos capteurs magnétiques, ainsi que du filtrage multispectral et différents types de correction de positionnement satellitaire.

Ensuite, nous utilisons des algorithmes propriétaires de détection et de géoréférencement de pipelines. Ils s’appliquent sur une donnée nettoyée et compensée permettant la création d’une carte magnétique de la zone d’inspection. Par méthode d’inversion, en se basant sur un modèle de réponse magnétique des canalisations développé par nos soins, les algorithmes sont capables de retrouver la source du signal magnétique mesuré sur la carte de la zone d’inspection de manière précise, robuste et répétable.

Carte du champ magnétique de deux canalisations enterrées. Crédit : Skipper NDT
Tracé des canalisations sur fond de carte. Crédit : Skipper NDT

Quels sont les atouts de votre procédé comparés à ceux déjà existants ?

Les systèmes conventionnels comme les cannes de mesure électromagnétiques et le radar à pénétration de sol GPR (Ground penetrating radar) nécessitent la présence d’un opérateur qui se déplace sur le terrain et sonde le sol avec un appareil. Il est donc nécessaire de déployer une personne sur place, ce qui prend du temps, est coûteux et présente un risque d’imprécision face à l’erreur humaine. Les radars GPR présentent en plus l’inconvénient de ne pas fonctionner dans certaines conditions, notamment dans les sols argileux ou saturés en eau. De notre côté, nous avons installé notre équipement avec ses capteurs sur un drone capable de voler sans intervention humaine, grâce à un plan de vol prédéterminé. Les données sont donc collectées de manière automatique par le drone, puis interprétées là aussi de façon automatique par nos algorithmes. De plus, nous sommes la seule technologie capable de géolocaliser, dans un milieu rural, les réseaux enterrés en fonte utilisés pour transporter l’eau.

Le drone équipé de capteurs pour la mesure du champ magnétique. Crédit : Skipper NDT

Quels sont les résultats obtenus dans la géolocalisation des canalisations ?

Nous avons d’abord testé notre système sur un banc d’essai au Cetim (Centre technique des industries mécaniques), construit en partenariat avec TotalEnergies. Puis, nous avons réalisé un premier essai, grandeur nature, avec GRTgaz l’année dernière. Il s’est révélé concluant, et nous avons poursuivi nos tests avec l’objectif de géolocaliser des pipelines sur plusieurs sites ayant des configurations différentes en termes de diamètre des canalisations, de profondeur et de type de terrain. Résultat, nous avons réussi à les localiser à 89 %, en respectant les critères de la classe A. Il s’agit de la plus haute classe de précision de la norme établie par la réglementation française et qui impose la cartographie des réseaux avec une précision inférieure à 40 cm. Les 11 % restants s’expliquent par des difficultés à survoler certaines zones, notamment à cause de la présence de routes et le fait que nous n’avions pas les autorisations de vol. Face à cette contrainte, nous avons développé une machine terrestre qui se déplace sur les routes.

Nous avons aussi réalisé plusieurs essais sur différentes configurations de canalisations avec Véolia et avons obtenu des résultats concluants.

La limite principale de notre technologie est qu’au-delà de 15 mètres de profondeur, la géolocalisation des canalisations n’est pas possible, car nous perdons le signal magnétique. Mais c’est très rare que les pipelines soient enterrés à cette profondeur, car cela coûte cher.

À quel stade se trouve votre projet ?

Nous sommes actuellement dans une phase commerciale. En France, nous avons signé des contrats avec GRTgaz et Véolia ainsi qu’avec TotalEnergies pour une intervention au Nigeria. Aux États-Unis, nous travaillons avec deux grands opérateurs : Enbridge et Kinder Morgan. En Asie, nous avons aussi signé et exécuté un contrat avec la compagnie pétrolière Petronas en Malaisie. Ces contrats couvrent diverses prestations, telles que la géolocalisation des canalisations onshore, les traversées sous-fluviales ou la détection de déformations mécaniques.

En parallèle, nous poursuivons nos travaux de recherche pour améliorer les performances de notre système, notamment dans le but d’alléger le poids de notre équipement sur le drone. Actuellement, il pèse 4,2 kg et nous souhaitons le réduire de moitié. En allégeant le poids, le drone aura plus d’autonomie et notre technologie sera plus facile à déployer, notamment au niveau du transport.

Le meilleur de la tech #17

Place aux électrodes dépoussiérantes

D’ici 2030, l’énergie solaire devrait représenter près de 10 % de l’énergie globale, à l’aide de panneaux solaires principalement implantés dans les déserts. Or, le pire ennemi du panneau solaire n’est autre que la poussière. En s’accumulant, elle bloque la lumière solaire et limite les performances du système. Un nettoyage est donc requis… qui requiert un peu moins de 40 milliards de litres d’eau chaque année ! Une méthode à la durabilité douteuse, d’autant plus dans les zones désertiques. Des chercheurs du MIT (Massachussetts Institute of Technology) ont choisi de privilégier une approche sans eau pour retirer les particules de poussière des panneaux solaires. En générant un champ électrostatique, ils ont d’abord estimé la charge des particules de poussière. L’objectif ? Déterminer le seuil du potentiel électrique à partir duquel la poussière sera repoussée par des électrodes chargées par induction. Le 11 mars 2022 dans Science Advances, l’équipe du MIT a révélé le développement d’un prototype. Il s’agit en fait d’une plaque de verre enduite d’oxyde de zinc dopé à l’aluminium sur le dessous – la première électrode – et d’aluminium sur le dessus – la seconde électrode. Le tout étant mobile afin d’éviter que la plaque nettoyante ne gêne l’apport de luminosité solaire. Les tests en laboratoire ont montré qu’avec l’application d’une tension proche de 12 kV, les poussières étaient retirées du panneau de telle manière que le système récupérait jusqu’à 95 % de la puissance perdue. Un premier pas vers le nettoyage à sec qui pourrait également intéresser les agences spatiales et leurs rovers martiens, qui carburent aussi à l’énergie solaire.

Des graines-robots inspirées des pissenlits

Déployer une myriade de capteurs sur une zone étendue est une tâche ardue, coûteuse aussi bien en temps qu’en argent. Pour mettre au point leurs capteurs, des chercheurs de l’université de Washington se sont donc inspirés d’une méthode naturelle très efficace : la dispersion des graines de pissenlit. Pesant à peine 1 mg, celles-ci arborent une structure en filaments hérissés qui ralentit fortement leur chute libre une fois que le vent les a emportées dans les airs. Présentés le 16 mars 2022 dans Nature, les capteurs millimétriques de l’équipe de Washington ont une masse 30 fois supérieure à celle de la graine de pissenlit ! Ce qui est finalement peu : tout juste 30 mg. Privés de batterie, ils fonctionnent uniquement grâce à l’énergie captée par des cellules solaires. Quant à la transmission des données (température, humidité, pression, ensoleillement), elle s’effectue sans fils et avec une portée allant jusqu’à 60 mètres. Mais la route menant à ces petits prodiges de technologie a été longue, avec pas moins de 75 designs différents testés par les scientifiques ! Désormais, les graines-robots chutent à environ 0,87 m/s et réussissent leur atterrissage plus de 95 % du temps. De plus, les résultats obtenus en environnement extérieur montrent une dispersion par le vent de 50 à 100 mètres de distance. De quoi intéresser à l’avenir des domaines comme l’agriculture digitale ou la surveillance climatique.

BirdBot : une autruche version robot

Elles ont beau parfois dépasser les 100 kg, les autruches parcourent la savane à une vitesse avoisinant les 55 km/h ! Une performance qui serait due à la structure de leurs pattes, et qui a de quoi faire de l’œil aux roboticiens… En effet, l’un des défis permanents dans la conception de jambes robotiques est celui de l’efficacité énergétique – une bonne partie de la consommation consistant à simplement soutenir sa propre masse en tenant la posture. Le groupe de locomotion dynamique de l’Institut Max Planck des systèmes complexes, associé à l’université de Californie, s’est mis en devoir de copier l’exemple naturel offert par l’autruche. C’est ainsi qu’est né BirdBot, des jambes robotiques dont le fonctionnement a été détaillé dans Science Robotics le 16 mars 2022. Quand il est à l’arrêt, la conception de BirdBot lui permet de répartir sa masse sur les divers joints qui le composent. De plus, son réseau de tendons élastiques stocke de l’énergie et permet un déplacement rapide et coordonné. Le résultat final est une locomotion robotique bipède dirigée à l’aide de quatre vérins, avec une haute efficacité énergétique.

Le rapport du GIEC étouffé par la guerre en Ukraine et le Covid-19 ?

Le 9 août 2021, le GIEC (groupe d’experts intergouvernemental sur l’évolution du climat) publiait le premier volet de son nouveau rapport consacré à l’état des connaissances sur la science climatique. C’était le lendemain de l’entrée en vigueur du passe sanitaire obligatoire. Le 28 février 2022, le GIEC publiait le deuxième volet de ce nouveau rapport sur les impacts, l’adaptation et les vulnérabilités face au changement climatique. C’était cinq jours après le début de la guerre en Ukraine.

Dans son nouveau rapport, le GIEC présente l’état des connaissances scientifiques, techniques et socio-économiques sur le changement climatique, ses causes, ses effets et les stratégies pour l’atténuer. Malgré l’importance des choix de société soulevés par le GIEC, l’épidémie de Covid-19 et la guerre en Ukraine ont-elles eu la peau de son traitement médiatique ?

Une pression médiatique faible face à la guerre et au Covid-19

Entre le 28 février et le 10 mars, le deuxième volet du rapport du GIEC enregistre 3 313 citations dans les médias, selon une étude de la plate-forme Tagaday. Celle-ci a évalué la pression médiatique du rapport du GIEC, soit « la proportion, en pourcentage, de citations pour un sujet donné sur le total de la production médiatique ». Ainsi, le rapport du GIEC représente 0,3 % de l’ensemble des contenus médiatiques produits depuis le 28 février. Cette évaluation repose sur un échantillon de 3 000 titres de la presse française et sites du web éditorial et de 397 chaînes et stations TV/radio.

« La guerre en Ukraine enregistre 55 fois plus de citations que le rapport du GIEC », résume l’étude. Avec 183 440 citations, la pression médiatique de la guerre en Ukraine s’élève à 17 %, alors que celle du Covid-19 était sur la période de 6 %.

L’étude veut toutefois relativiser l’idée d’une « faible couverture médiatique ». « Sa visibilité médiatique apparaît faible par contraste, estime Tagaday. L’importance du traitement consacré à la guerre en Ukraine est absolument exceptionnelle, à l’instar de la couverture médiatique de la Covid lors des périodes de confinement et lors des pics de contaminations. »

Le troisième volet du rapport du GIEC sera publié le 4 avril 2022. Aura-t-il une plus grande pression médiatique ?

Des microplastiques détectés pour la première fois dans le sang

Une étude parue dans Environment International dévoile la présence de microplastiques dans le sang humain. Les chercheurs de l’université libre d’Amsterdam, aux Pays-Bas, ont analysé des échantillons sanguins de 22 donneurs anonymes. Ils ont découvert des microplastiques chez 17 d’entre eux. « Il est scientifiquement vraisemblable que des particules plastiques puissent être acheminées jusqu’à des organes via le système sanguin », préviennent les auteurs.

« Pour la première fois, nous avons été capables de détecter et de quantifier de tels microplastiques dans du sang humain » prévient Dick Vethaak, écotoxicologue de l’université libre d’Amsterdam et co-auteur de l’étude. Les chercheurs ont développé une méthode d’échantillonnage qui mesure les concentrations massiques de polymères individuels dans l’échantillon (et non le nombre de particules). Ils ont ainsi découvert la présence de 1,6 microgramme de microplastiques par millilitre de sang.

Une exposition multifactorielle qui se retrouve dans le sang

« Considérant que les capillaires [les vaisseaux sanguins les plus fins, ndlr] ne mesurent généralement que 5 à 8 µm de diamètre, cela constitue une limite aux tailles de particules auxquelles on peut s’attendre en circulation dans ces microvaisseaux, et toute particule présente aurait probablement un impact sur la dynamique des fluides microvasculaires », explique l’étude. La méthode développée permet de mesurer tout microplastique de plus de 0,7 µm. Résultat : les chercheurs ont trouvé du PET dans la moitié des échantillons, du polystyrène dans un tiers et du polyéthylène dans un quart.

Comment ces microplastiques ont-ils pu pénétrer le sang ? Les voies d’absorption sont multiples. D’abord, les microplastiques peuvent entrer dans le corps par inhalation de particules présentes dans l’air. Et pour cause : les particules en suspension dans l’air entre 1 nm et 20 µm sont considérées comme respirables. Les particules inhalées ultrafines (<0,1 µm) peuvent être absorbées et s’accumuler dans les poumons.

Par ailleurs, l’ingestion de microplastiques peut provenir de nourriture ou d’eau contaminée. L’ingestion peut aussi provenir de microplastiques présents dans des produits de soins personnels comme du dentifrice, du brillant à lèvres ou des polymères dentaires. « L’absorption cutanée de particules fines est peu probable [via des produits d’hygiène ou des cosmétiques, ndlr], sauf si la peau est endommagée », précise l’étude.

Symposium : le Cetim organise une 1ère édition dédiée à la fabrication additive métallique

C’est le 19 octobre 2021 qu’acteurs académiques et de transfert et initiatives régionales annonçaient leur volonté de renforcer leur coordination dans le domaine stratégique de la fabrication additive pour apporter plus de lisibilité et de visibilité de l’écosystème de la R&D au bénéfice de toute la chaîne de valeur industrielle. À cette occasion, une  conférence de presse de lancement de cette initiative commune a eu lieu, où l’ensemble des partenaires se donnaient alors rendez-vous en avril 2022 pour l’organisation d’un symposium scientifique sur l’état des travaux de recherche.

C’est chose faite, l’heure est arrivée ! Le Cetim, GIS CNRS Head, la filière Manufacturing des Instituts Carnot, Addim-Alliance/Aerospace Valley, Initiative 3D / Cimes, Additive Factory Hub (AFH) et FIM organisent ainsi la première édition du Symposium international sur la fabrication additive métallique les 13 et 14 avril 2022 à Senlis.

Il s’agit d’un message national fort, à destination de l’international, pour valoriser l’ensemble des compétences académiques et industrielles et au-delà affirmer la volonté de poursuivre la démocratisation de la technologie.

Afin de permettre de faire profiter au plus grand nombre des avancées en la matière, les deux jours de conférences sont également dispensés sous une version digitale.

Organisé en collaboration avec les principaux acteurs mondiaux de R&D, le symposium – Metal-AMS – aborde chaque étape de la chaîne de valeur de la fabrication additive. Cette première édition se concentrera sur les domaines d’expertise comme la conception, les matériaux, la simulation, les procédés de production, le contrôle et la post-production, etc.

En cette circonstance, un site dédié a été créé, n’hésitez pas à aller le visiter juste ici : https://metal-ams.com/

Techniques de l’Ingénieur est partenaire de FIP – France Innovation Plastiques

Le salon FIP – France Innovation Plasturgie est l’évènement à ne pas manquer pour en apprendre plus sur cette filière qui se réinvente, découvrir un concentré d’innovations à forte valeur ajoutée, échanger avec des professionnels du secteur et partager des moments conviviaux. 

Ce salon de la filière plastiques et composites ouvrira ses portes pendant quatre jours consécutifs durant lesquels vous pourrez rencontrer 800 exposants répartis sur 4 espaces thématiques :

  • FIP, l’espace des technologies, matières et services de la filière ;
  • FIP Valorize, l’espace des solutions d’économie circulaire pour la plasturgie ;
  • FIP Transform, l’espace des transformateurs qui facilite la rencontre avec les donneurs d’ordre ;
  • IMD Innovative Materials Days, l’espace des matériaux innovants.

C’est l’occasion de comparer les différentes technologies, de trouver des sous-traitants pour vos projets, d’adapter vos outils de production à l’économie circulaire et de découvrir les matériaux du futur.

Au programme : de nombreuses conférences, démos et ateliers sur la place des matériaux plastiques et composites dans une nouvelle économie, la découverte de matériaux innovants et industrialisables, les perspectives du plan France Relance, les nouveaux marchés pour la plasturgie et les composites… Et bien d’autres sujets encore ! 

Vous trouverez des réponses concrètes pour développer vos projets et décrypter les nouveaux enjeux du marché. 

Alors n’attendez pas et prenez votre badge d’accès gratuit ici.

Si vous voulez en savoir plus, n’hésitez pas à aller sur le site de l’événement: 

https://www.f-i-p.com

Hydrogène, le début d’une vraie ascension ?

Il y a un mois, fin février, le ministre de l’Économie Bruno Lemaire a annoncé que 15 propositions d’entreprises françaises avaient été sélectionnées et notifiées à la Commission européenne dans le cadre du Projet important d’intérêt européen commun (PIIEC) en matière d’hydrogène. Avec les autres pays européens, ce sont environ 100 projets que la Commission examinera d’ici l’été pour qu’ils bénéficient d’un soutien financier public. Philippe Boucly, président de France Hydrogène (la fédération de la filière française), voit là une « dynamique d’accélération européenne » et se réjouit que « les 15 projets français sélectionnés […] vont permettre de redéployer des capacités industrielles avec trois types de projets prioritaires : développer une filière de l’électrolyse compétitive, accélérer la mobilité hydrogène et décarboner notre industrie ».

Projets prénotifiés par la France à la Commission européenne dans le cadre du PIIEC sur l’hydrogène (© Ministère de l’économie, des finances et de la relance)

L’hydrogène serait-il entré dans un âge d’or ? Des tentatives avaient déjà eu lieu dans les années 1970, 1990 et 2000 pour faire émerger ce vecteur énergétique, mais à chaque fois sans réel changement d’échelle. Aujourd’hui, l’enjeu de la décarbonation donne l’impression d’un nouveau cycle. Dès 2018, Nicolas Hulot, alors ministre de la Transition écologique et solidaire, avait lancé un plan Hydrogène à 100 millions d’euros. Prémonitoire ? En 2020, l’Union européenne publie sa Stratégie Hydrogène, tandis que l’Allemagne et la France rivalisent d’annonces financières : la première prévoit 7 milliards d’euros pour faire monter en puissance l’hydrogène décarboné et 2 Mds€ pour des partenariats industriels à l’international ; la seconde dédie aussi une enveloppe de 7,2 Mds€ à la filière hydrogène, complétée en 2021 par 1,9 Md€ dans le cadre de France 2030. Dans beaucoup de pays, l’attrait pour l’hydrogène est tout aussi fort, tel que l’a récemment montré le Conseil français de l’énergie.

Créer un marché sur le long terme

Comme l’argent coule à flots, les projets fleurissent aisément pour décarboner l’hydrogène, et les discours s’enflamment pour y voir LA solution de la transition énergétique. Mais pour l’instant, l’hydrogène est encore très dépendant des énergies fossiles et émet environ 900 millions de tonnes de CO2 par an. En effet, sur les 90 Mt d’hydrogène produits dans le monde, moins de 10 % font l’objet d’un captage du CO2 et moins de 0,5 Mt ont été produits par électrolyse de l’eau, selon l’Agence internationale de l’énergie (données 2020).

Les soutiens aux investissements amorcent néanmoins une nouvelle dynamique : cela suffira-t-il à faire émerger réellement une économie pérenne de l’hydrogène « vert » ? La Commission européenne s’y emploie en incluant petit à petit l’hydrogène dans ses réglementations, notamment celle du gaz, pour favoriser l’utilisation des infrastructures de réseau existantes, pour certifier l’hydrogène bas-carbone, et pour créer les conditions d’un marché concurrentiel, tout en acceptant provisoirement les soutiens publics. Elle multiplie également les points d’appui pour faire grandir un écosystème d’entreprises, par exemple avec l’Alliance pour un hydrogène propre.

Créer un marché ad hoc pour l’hydrogène « vert » est déjà un défi en soi, même s’il peut s’appuyer en partie sur celui existant du gaz et de l’hydrogène d’origine fossile. Mais pour ne pas rester un marché de niche, il faudra relever un défi encore plus grand : atteindre les volumes de production d’hydrogène prévu pour la transition énergétique. En plus des besoins actuels qui concernent l’industrie, il y aura également ceux des nouveaux usages (mobilité, power to gas, chimie organique). L’enjeu principal va donc être de développer et installer en masse des électrolyseurs dans les 20 prochaines années et de les alimenter avec une électricité décarbonée, à un coût économique raisonnable. À l’échelle de la France, les travaux de RTE, de l’Ademe et de négaWatt montrent l’ampleur de la tâche : alors qu’on part quasiment de zéro, il faudrait arriver en 2050 à une production d’hydrogène « vert » entre 60 et 135 TWh selon les scénarios. Pour donner un ordre de grandeur, cela équivaudrait à installer 10 à 20 MW d’électrolyseurs dans chaque canton. Aujourd’hui, les projets annoncés ou en cours comme Jupiter 1000 à Fos-sur-Mer, sont plutôt de l’ordre du mégawatt.

Porté aux nues depuis trois ans, l’hydrogène sera certes une composante importante de la transition énergétique, mais certainement pas la solution unique. Bénéficiant d’un important soutien public, la filière doit relever un défi industriel majeur et trouver un modèle économique lui assurant son avenir. Car on ne sait jamais combien de temps durent les subsides publics…

Une pile à combustible microbienne pour protéger les bétons armés en mer

Tous les bétons armés sont confrontés à la corrosion. Ceux exposés à un environnement marin, le sont encore plus, car le sel de l’eau de mer a pour effet d’accélérer ce phénomène. Ils servent par exemple à la construction de quais de ports, de piles de ponts ou de socles sur lesquels sont installées des éoliennes offshore. Pour éviter ces dégradations, l’une des solutions consiste à injecter un courant électrique dans l’armature métallique en acier des bétons pour stopper ou au moins ralentir la vitesse de corrosion. Ce procédé porte un nom : la protection cathodique. À Toulouse, des scientifiques du LMDC (Laboratoire Matériaux et Durabilité des Constructions), du LGC (Laboratoire de Génie Chimique) et de la start-up CorrOhm, ont développé un procédé pour produire ce courant électrique de manière écologique et renouvelable grâce aux micro-organismes présents dans les sédiments marins.

L’innovation à la base de ce travail de recherche n’est pas nouvelle. Dès 2002, le LGC, pionnier dans ce domaine, dépose le brevet d’un procédé appelé la pile à combustible microbienne. Il repose sur la capacité des bactéries à convertir directement en électricité une partie de l’énergie qu’elles produisent en dégradant la matière organique. C’est en collaborant avec le LMDC et CorrOhm, tous les deux spécialisés dans le génie civil et dont les travaux portent notamment sur les protections cathodiques, que l’idée est née d’adapter ce système pour protéger les bétons armés en mer.

« Il existe de nombreux micro-organismes dans les sédiments marins qui consomment la matière organique composée de planctons en décomposition, de déjections des poissons,… explique Benjamin Erable, chercheur CNRS au LGC. Comme nous, ils évacuent leurs électrons de bas niveau énergétique, en respirant l’air afin de les céder à des molécules d’oxygène. Mais ils sont aussi capables de céder ces électrons à de fines particules métalliques de matériaux conducteurs présents dans leur environnement. C’est grâce à ce principe que nous parvenons à capter le flux d’électrons qu’ils libèrent et produire de l’électricité. »

Des biofilms microbiens se forment à la surface des électrodes

Les chercheurs ont réalisé une expérimentation en introduisant une poutre en béton de 6 mètres de long positionnée à l’horizontale dans un bassin rempli d’eau de mer et plongé des électrodes en carbone dans une couche de sédiments marins. Progressivement, des micro-organismes sont venus se connecter à la surface de ces électrodes et former des biofilms microbiens. Et naturellement, ils ont extrait l’énergie provenant de la matière organique pour la céder aux électrodes. Ce dispositif, maintenu pendant 6 mois, a permis de faire la preuve en laboratoire de sa capacité à lutter contre la corrosion des armatures dans le béton.

« Le besoin en énergie pour mettre en place une protection cathodique est de l’ordre de 2 à quelques dizaines de milliampère par m2 d’acier à protéger, analyse le chercheur. Les micro-organismes des sédiments marins sont quant à eux capables de produire entre 1 et 2 ampères par m2 d’électrodes implantées dans les sédiments. Cela signifie que la pile à combustible microbienne est largement suffisante pour produire l’électricité nécessaire à la protection des bétons armés. Pour transmettre le courant, il suffit simplement de relier les électrodes à l’armature métallique du béton à l’aide d’un câble électrique. »

Comparé à d’autres procédés de protections cathodiques, ce nouveau système possède de nombreux avantages puisqu’il est est éco-conçu et donc sans danger pour l’environnement. Il se révèle également totalement autonome et ne demande pas d’intervention humaine. Des essais réalisés aux États-Unis ont démontré qu’une pile à combustible microbienne peut fonctionner pendant 4 ans.

Actuellement, les deux principaux systèmes de protection cathodique commercialisés sur le marché présentent tous les deux des inconvénients. Le premier consiste à utiliser des électrodes sacrificielles, composées d’un métal moins noble que l’acier, qui vont se dégrader à la place de ce dernier. Directement en contact avec le béton (collées en surface ou noyées à l’intérieur) et reliées à l’armature en acier de celui-ci à l’aide d’un câble électrique, la dégradation de ces électrodes génère un courant électrique qui protège le béton armé. Par contre, ce système implique une maintenance régulière puisqu’il est nécessaire de remplacer régulièrement ces électrodes. De plus, leur dégradation a également pour effet de libérer des composés chimiques dans l’eau tels que des ions magnésium ou aluminium, ce qui n’est pas neutre sur le plan environnemental.

La seconde solution, appelée protection cathodique par courant imposé, consiste à envoyer un courant électrique à la structure métallique du béton à l’aide d’un réseau d’électrodes auxiliaires (système anodique) placées elles-aussi au contact du béton et d’un générateur de courant continu. Mais ce système se révèle relativement coûteux à mettre en place et implique également une connexion au réseau électrique.

Des essais futurs en pleine mer dans plusieurs ports français

Reste maintenant à démontrer que ce nouveau système développé à Toulouse et baptisé Protection Cathodique BioGalvanique (PCBG) fonctionne en condition réelle. « Les travaux de recherche se poursuivent en laboratoire, cette fois-ci avec une poutre en béton positionnée à la verticale, précise Benjamin Erable. Des essais en pleine mer sont également prévus. Nous avons l’intention de fabriquer des prototypes de ce dispositif puis de les plonger dans plusieurs ports français afin de vérifier notamment que les différents types de sédiments marins puissent offrir une capacité suffisante d’extraction de l’électricité dont les structures en béton ont besoin. »  

Ce projet de recherche s’inscrit dans le cadre d’une thèse de doctorat réalisée au LMDC et au LGC, et financée par Corrohm, qui a vocation à commercialiser ce procédé. L’entreprise est notamment spécialisée dans le diagnostic de corrosion de l’acier dans son environnement et dans le développement de solutions anticorrosion innovantes.