Mathieu Bouarfa : « Garantir la qualité des produits nutri-santé pour préserver la confiance des consommateurs »

Techniques de l’Ingénieur : Pouvez-vous nous parler de votre parcours professionnel et des moments clés qui ont façonné votre expertise dans le domaine de la nutrition santé ?

Mathieu Bouarfa : En tant que biologiste biochimiste, ma compétence première est de connaître le fonctionnement du corps humain. Mon expertise dans la santé naturelle et le domaine de la nutrition santé me permet de reconnaître et de comprendre les actifs naturels, notamment de savoir comment ils fonctionnent.

J’ai eu la chance d’occuper des postes à responsabilité assez rapidement, ce qui m’a permis d’avoir une vision d’ensemble des métiers qui gravitent autour de la nutrition santé (réglementation, recherche & développement, formulation, stratégie, études cliniques à mener, etc.). En parallèle, je suis auteur scientifique et je forme des médecins, pharmaciens et futurs ingénieurs aux compléments alimentaires, à la cosmétique et la prévention santé. Enfin, je vulgarise la science derrière les compléments alimentaires et la prévention sur mon média interactif Nutrastream[1], très suivi sur les réseaux sociaux en France.
Pour résumer, mes activités comprennent le développement de produits fiables et conformes, et la transmission de l’information auprès d’un public large et varié.

Quels éléments ou expériences ont motivé votre intérêt pour le domaine de la nutrition santé ?

Parmi mes nombreux stages, celui en oncologie, plus précisément dans la recherche dans la lutte contre le cancer, m’a particulièrement marqué. C’est à partir de ce moment-là que j’ai souhaité utiliser mes connaissances scientifiques pour la prévention. Une alimentation variée et équilibrée est une des clés prioritaires pour la prévention de nombreuses maladies de civilisation.
Par ailleurs, les compléments alimentaires, quant à eux, restent un outil pertinent pour stimuler son corps, répondre à des besoins physiologiques, voire pour réduire certains risques de maladie.

Quelles évolutions récentes ou marquantes avez-vous observées dans le secteur des compléments alimentaires et de la nutrition santé au cours de votre carrière ?

Ces dernières années, le secteur des compléments alimentaires et de la nutrition santé a évolué vers des produits plus naturels et biologiques, ainsi qu’une personnalisation accrue grâce à l’analyse génétique. Cette personnalisation n’est pas encore fiable malheureusement, mais la recherche continue. Les compléments pour la santé mentale et cognitive, ainsi que ceux axés sur l’immunité, ont gagné en popularité, notamment après la pandémie. La science du microbiote a poussé les probiotiques et prébiotiques sur le devant de la scène, tandis que les protéines végétales et les produits durables répondent à des préoccupations environnementales et éthiques. Enfin, les progrès technologiques, comme l’encapsulation naturelle, améliorent la biodisponibilité des nutriments sans utiliser des additifs controversés.

Quel regard portez-vous sur le développement des compléments alimentaires ? Quelles opportunités voyez-vous dans son développement, et quelles sont les questions ou préoccupations qui vous semblent importantes à aborder ?

Le secteur des compléments alimentaires connaît une forte croissance, notamment avec la nécessité d’adapter une démarche de prévention. Des opportunités existent dans l’innovation, comme la biodisponibilité des actifs, de nouvelles techniques d’extraction de certaines plantes médicinales et enfin les produits durables. Cependant, des défis doivent être relevés, par exemple en matière de réglementation : plusieurs obstacles, dont des obstacles politiques, freinent l’accessibilité aux informations précieuses liées à la communication autour des bénéfices des compléments alimentaires (notamment la réglementation européenne des allégations de santé). Enfin, l’éthique marketing doit être rigoureuse pour préserver la confiance des consommateurs, tout en évitant les risques de surconsommation ou d’interactions avec des médicaments.

Quels conseils donneriez-vous à un étudiant ou à un ingénieur souhaitant faire carrière dans le secteur des compléments alimentaires, de la cosmétique ou de la santé ? Quelles compétences et qualités sont particulièrement recherchées aujourd’hui ?

Pour réussir dans le secteur des compléments alimentaires, de la cosmétique ou de la santé, il est essentiel de développer une solide base scientifique (biologie, biochimie, nutrition, et surtout développer la lecture critique d’articles scientifiques), et de se spécialiser en réglementation pour garantir la conformité des produits. Les compétences en R&D et l’innovation sont cruciales pour répondre aux attentes du marché, notamment en matière de durabilité et de produits naturels. L’analyse des données, l’utilisation de l’intelligence artificielle et la maîtrise du digital sont de plus en plus recherchées. Enfin, les soft skills, comme la gestion de projet, la créativité et le travail d’équipe, sont indispensables, tout comme une sensibilité à l’éthique et au développement durable.


[1] Nutrastream

Sibylle Marcotte : plongée dans les arcanes des réseaux de neurones

Amatrice de musique et de lettres, Sibylle Marcotte voue également, depuis son plus jeune âge, une véritable passion aux mathématiques. Une discipline qui représente pour elle à la fois un « défi intellectuel » et « une forme très particulière de beauté », vers laquelle elle a ainsi finalement décidé d’orienter son parcours post-bac.

Aujourd’hui doctorante au sein du Département de mathématiques et applications (DMA) et du Centre sciences des données à l’ENS-PSL, Sibylle Marcotte mène des travaux de recherche axés autour de la compréhension théorique des dynamiques d’apprentissage de réseaux de neurones.

Techniques de l’Ingénieur : Quel a été le parcours qui vous a menée jusqu’à ce doctorat en mathématiques appliquées ?

Sibylle Marcotte, doctorante au sein du Département de mathématiques et applications (DMA) et du Centre sciences des données à l’ENS-PSL
Sibylle Marcotte a entamé sa troisième année de doctorat au sein du Département de mathématiques et applications (DMA) et du Centre sciences des données à l’ENS-PSL. © Fondation L’Oréal – Clémence LOSFELD et Richard PAK

Sibylle Marcotte : Petite, j’avais un intérêt tout particulier pour les mathématiques. Je me suis donc assez naturellement orientée, au lycée, vers un parcours scientifique, qui m’a amenée, après le bac, à intégrer une classe préparatoire option maths-physique au Lycée Louis-le-Grand. J’ai ensuite passé les concours et, finalement, intégré l’École normale supérieure de Rennes, dans le département Mathématiques.

Durant mon parcours à l’ENS, j’ai essentiellement étudié des mathématiques assez fondamentales, mais aussi un peu de maths appliquées. Parallèlement à cela, j’ai observé durant cette période une ascension fulgurante de l’IA. Je me suis donc davantage tournée vers les mathématiques appliquées et j’ai suivi un master dans ce domaine à Sorbonne Université.

À l’issue de ce master, j’ai effectué un stage qui m’a finalement amenée jusqu’à un doctorat [mené au sein du Département de mathématiques et applications (DMA) et du Centre sciences des données à l’ENS-PSL, n.d.l.r.] qui porte sur la compréhension de l’entraînement d’un réseau de neurones.

Avez-vous le sentiment que votre genre a eu un impact sur le déroulement de ce parcours dans le secondaire puis le supérieur que vous venez de décrire ? Si c’est le cas, a-t-il été plutôt un frein, un handicap, ou au contraire un atout, un levier qui vous a permis d’avancer ?

Je pense avoir été assez privilégiée dans le sens où mes deux sœurs aînées avaient déjà une appétence scientifique. Je n’ai donc pas été confrontée à cette « barrière » qui peut parfois se manifester au sein de certaines familles quant au fait qu’une femme fasse des sciences.

Un aspect m’a également marquée durant ma scolarité au collège puis au lycée : toutes mes profs de maths ont été des femmes. Cela a donc en quelque sorte « normalisé » dans mon esprit le fait que des femmes aient une carrière scientifique. Ça n’est que plus tard que j’ai réalisé que c’était finalement quelque chose qui n’allait pas forcément de soi. J’ai donc eu une chance considérable. Il reste malgré tout, évidemment, de gros progrès à faire en la matière.

Quel est l’objet des travaux que vous menez actuellement, dans le cadre de votre doctorat ?

Nous avons vécu, au cours de la dernière décennie, une révolution scientifique en matière d’apprentissage automatique, et plus particulièrement d’apprentissage profond – le deep learning. Récemment, la généralisation d’outils tels que ChatGPT a d’ailleurs largement contribué à populariser ce domaine.

Paradoxalement, la théorie derrière tout cela est encore très mal comprise ! De nombreuses questions scientifiques restent donc en suspens. Pouvoir comprendre, ne serait-ce que partiellement, ce qui se déroule « en coulisses » pourrait pourtant nous aider à rendre la technologie plus sûre, plus efficace et économe…

L’entraînement d’un réseau de neurones artificiels consiste en un ajustement des paramètres de ce réseau durant la phase d’apprentissage. Le réseau acquiert, au fil du temps, une incroyable capacité de généralisation : il devient capable d’établir des prédictions justes sur des données inconnues. C’est cela qui fait le succès actuel du machine learning. Il est donc essentiel de comprendre ce qui s’est passé durant cette dynamique d’entraînement, comment on a réussi à atteindre ces bons paramètres qui ont les bonnes propriétés.

Je me suis donc intéressée aux fonctions conservées au cours de cette phase d’entraînement, de l’initiation, avant l’entraînement, jusqu’à la solution finalement atteinte.

C’est en fait l’opacité, le côté « boîte noire » des algorithmes d’IA que vous tentez d’éclairer en tentant d’y apporter de l’explicabilité ?

Exactement. Un réseau de neurones reste, en effet, une boîte noire. Au cours de son entraînement, cette black box se modifie via un processus de minimisation vers une unique solution, alors qu’il existe, au départ, une infinité de possibilités. Comprendre pourquoi c’est cette solution qui a finalement été atteinte est donc un enjeu central. Cela permettrait de comprendre pourquoi les modèles ont cette capacité de généralisation et pourquoi cela fonctionne si bien. Ce qui reste, à ce jour, assez inexplicable.

À quelles avancées êtes-vous justement parvenue, et que vous reste-t-il à découvrir ?

J’entame à l’heure qu’il est ma troisième et dernière année de thèse. Au cours des deux années précédentes, j’ai notamment caractérisé les lois de conservation selon différents algorithmes d’optimisation et pour différentes architectures de réseaux de neurones. Je cherche désormais à comprendre ce que cette information concernant la fonction conservée nous apprend concrètement sur la solution finale, et toutes les dynamiques qui entrent en jeu au cours de la phase d’apprentissage.

Cela pourrait-il éventuellement, aider à améliorer l’efficacité énergétique de « grands modèles de langage » (LLM) tels que ChatGPT ?

Il s’agit en effet d’un enjeu, même si je dois dire que, pour l’heure, mes travaux ne concernent pas des modèles aussi complexes que ChatGPT… Mais, effectivement, si l’on s’apercevait qu’un paramètre permet d’accélérer fortement la convergence, d’atteindre très rapidement la bonne solution, cela aurait très certainement un impact au niveau énergétique.

Mais les intérêts de la compréhension théorique des algorithmes d’apprentissage automatique ne s’arrêtent pas là : mathématiquement, la convergence vers la solution finale des algorithmes d’IA reste un sujet sur lequel on ne sait que très peu de choses. Toutes les propriétés mathématiques classiques qui permettent, traditionnellement, de démontrer un résultat de convergence sont en effet violées dans le cas de l’apprentissage d’un réseau de neurones. Il s’agit là d’un sujet de recherche très important actuellement.

Comment accueilliez-vous ce Prix Jeunes Talents France 2024 L’Oréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 9 octobre dernier ? Quelles perspectives cela ouvre-t-il pour vous et la poursuite de votre carrière ?

Je suis très heureuse d’avoir reçu ce prix, qui compte beaucoup pour moi ! J’admirais beaucoup les précédentes lauréates de ce prix que je savais exigeant. J’en éprouve donc beaucoup de fierté. La visibilité que cette récompense confère à mes travaux va forcément être un tremplin pour moi, pour ma carrière, et va m’ouvrir de nouvelles perspectives.

J’ai aussi beaucoup apprécié le fait d’avoir pu rencontrer les autres lauréates. Cela m’a permis de faire connaissance avec des femmes scientifiques brillantes, impliquées dans des champs de recherche très variés – biologie, physique… Des mondes très éloignés du mien finalement, ce qui m’a paru d’autant plus intéressant !

Avez-vous éventuellement en tête une idée d’action, de stratégie, de solution… qu’il vous semblerait pertinent de mettre en œuvre pour renforcer la place et la visibilité des femmes dans le monde scientifique ?

Comme je l’évoquais au début de notre entretien, j’ai vraiment été marquée par la représentativité des femmes dans le corps enseignant au cours de ma scolarité. Je pense que cela a joué un rôle important dans mon parcours. Cela me semble donc un bon moyen d’aider à renforcer la place des femmes dans des carrières scientifiques.

Durant ma thèse, j’ai par ailleurs pris part au réseau Femmes et Mathématiques, qui m’a notamment permis d’échanger avec des lycéennes et de leur présenter mon parcours. La réforme du lycée implique désormais d’effectuer des choix stratégiques quant aux matières suivies pour accéder, notamment, aux classes préparatoires scientifiques. Or, les filles sont sans doute moins bien informées sur le sujet. Il me semble donc essentiel qu’elles puissent trouver une source d’information extérieure, à défaut d’en disposer au sein de leur lycée.

Enfin, je pense qu’il est également important de prendre en compte les résultats d’enquêtes telles que celle menée en 2022 par Ipsos pour la Fondation L’Oréal autour des violences sexistes et sexuelles au travail dans le monde scientifique. Une femme scientifique sur deux a en effet déclaré avoir été victime de harcèlement sexuel sur son lieu de travail… Or, on a trop souvent tendance à considérer que le risque est moindre dans ces milieux éduqués, privilégiés. Il est donc important de prendre davantage conscience du problème, et de renforcer les actions de formation et de sensibilisation. J’en ai d’ailleurs bénéficié grâce à la Fondation L’Oréal et j’ai appris beaucoup de choses dont je n’avais pas conscience, malgré mon statut de femme scientifique.

Une question subsidiaire, pour terminer… Avez-vous éventuellement en tête un exemple de figure féminine marquante à vos yeux, de l’histoire des sciences ou du monde scientifique contemporain ?

Je ne vais pas être très originale, mais je dirais Marie Curie ! En dépit, notamment, de son genre et de ses origines polonaises, elle a en effet mené une carrière scientifique exceptionnelle, qui l’a amenée à recevoir deux Prix Nobel dans deux disciplines différentes – l’un en physique, l’autre en chimie. Si son mari, Pierre Curie a évidemment lui aussi joué un rôle majeur dans l’histoire des sciences, elle reste malgré tout à mes yeux la figure majeure de ce couple brillant. Elle a, en plus, donné naissance à une fille, Irène Curie, qui a également décroché, conjointement avec son mari Frédéric Joliot, un Prix Nobel de chimie… Pour toutes ces raisons, Marie Curie me semble donc une femme scientifique vraiment exceptionnelle !

« Il faut revenir sur les hypothèses de travail retenues pour évaluer la consommation d’eau du secteur agricole »

Irrigants de France[1] est une association qui fédère d’une part des groupements d’irrigants au niveau des départements. Historiquement, les adhérents étaient principalement situés au sud de la Loire, mais depuis quelques années, de nouvelles associations se mettent en place et rejoignent Irrigants de France, qui sont issus de zones au nord de la Loire. Cela concerne par exemple la Bretagne, le Jura, la Côte d’Or, ou les départements du Nord et du Pas de Calais.

D’autre part, de nombreuses associations nationales sont également adhérentes qui représentent différentes filières végétales (céréales, maïs, oléoprotéagineux, betteraves, légumes de conserve, pommes, pomme de terre, ou semences). Cette liste a également tendance à s’allonger depuis quelques années, car la question de l’accès à l’eau devient de plus en plus prégnante, même dans le nord de la France, pour tous les acteurs de l’agriculture.

Irrigants de France a pour mission d’être le porte voix de ses adhérents, dans une période où la ressource eau devient de plus en plus cruciale, et où ses usages deviennent de plus en plus scrutés.

Sabine Battegay, Responsable Environnement à l’AGPM et animatrice chez Irrigants de France, est revenue pour Techniques de l’Ingénieur sur la problématique de l’irrigation agricole au prisme du réchauffement climatique, et sur la distinction nécessaire entre consommation d’eau et prélèvement.

En quoi l’irrigation en agriculture, qui vient en complément de la pluviométrie, est-elle fondamentale pour les productions ?

Sabine Battegay : L’accès à l’eau joue un rôle sur les rendements, les quantités produites, la régularité de la production ainsi que sur sa qualité. Pour les haricots verts par exemple, il faut un apport d’eau au bon moment, sinon ces derniers développent des fils et sont de moins bonne qualité pour les consommateurs, et ne peuvent plus répondre aux cahiers des charges pour la mise en conserve ou le surgelé.

Tous ces paramètres agricoles ont donc un impact direct sur la pérennité des exploitations, et jouent un rôle important en termes d’économies et d’emplois au sein des territoires, notamment en lien avec l’aval et l’agro-alimentaire

Que met en place Irrigants de France pour porter ces enjeux au niveau national ?

Aujourd’hui, les actions d’Irrigants de France consistent à porter la voix au niveau national de ses adhérents. Il y a eu beaucoup de discussions, notamment lors des Assises de l’eau en 2019, du Varenne agricole de l’eau et du changement climatique en 2021, et du Plan eau dont les conclusions ont été annoncées par le Président de la République lui-même en mars 2023. Et enfin Michel Barnier, qui lors de son discours de politique générale a annoncé mettre de nouvelles actions et centres de discussions autour de la problématique eau.

Sabine Battegay, Responsable Environnement à l’AGPM et animatrice chez Irrigants de France
Sabine Battegay, Responsable Environnement à l’AGPM et animatrice chez Irrigants de France

Jusqu’au printemps 2023, on parlait toujours en France de prélèvement d’eau et pas de consommation d’eau. La distinction entre ces deux termes est très importante.

Les prélèvements d’eau sont parfaitement renseignés, quels que soient les usages : agricoles, pour les canaux, la production d’eau potable, le refroidissement des centrales électriques ou les usages pour l’activité industrielle.

Tout agriculteur qui irrigue a besoin d’une autorisation pour prélever l’eau dans le milieu, et il doit être en mesure de justifier la quantité des prélèvements, via un compteur d’eau, pour répondre aux nombreux contrôles.

Le Ministère de la transition écologique tient à jour les prélèvements effectués par les agriculteurs au niveau local, bassin versant par bassin versant, il est donc possible de connaître les volumes prélevés et leur évolution, années après années, même s’il y a un décalage temporel, le temps d’agréger les données.

Qu’est-ce qui a changé ?

Le 30 mars 2023, le Président Macron a annoncé les conclusions du plan Eau. Dans le même timing, l’Etat a communiqué sur la consommation d’eau et non plus sur les prélèvements. C’est un terme qui n’avait jamais été employé auparavant. Il correspond à l’eau prélevée moins l’eau rendue au milieu.

Cette distinction est favorable pour le secteur de l’énergie, qui est le premier préleveur d’eau en France, alors que l’agriculture arrive en quatrième position. Dès lors que l’on parle de consommation, l’activité agricole passe en première position. Dans toutes les communications officielles depuis, l’agriculture est donc passée du quatrième secteur en termes de prélèvements au premier secteur en tant que « consommateur ». Cette évolution  a beaucoup surpris les acteurs agricoles et elle a un impact négatif sur la perception de l’activité agricole par le reste de la société française.

Est-ce que le problème réside dans les hypothèses de travail retenues pour évaluer la consommation d’eau ?

Il faut revenir sur les hypothèses de travail retenues pour évaluer la consommation d’eau du secteur agricole. Ainsi, l’hypothèse de travail alors retenue, qui correspond à l’estimation de la consommation d’eau, est que l’eau utilisée par l’activité agricole n’est pas du tout rendue au milieu, sauf dans le cas de l’irrigation gravitaire. Or en, réalité, il faut retenir que l’irrigation ralentit le cycle de l’eau, et que la consommation réelle correspond uniquement aux produits agricoles exportés hors des champs : c’est-à-dire l’eau qui est contenue dans le produit agricole récolté (grains, haricot vert, pomme de terre, etc…).

Tout le reste, que ce soit l’évapotranspiration de la plante ou les résidus verts qui restent après récolte, constituent de la matière contenant de l’eau et qui est remise in fine dans le milieu. C’est pour nous un point fondamental à prendre en compte quand on évoque la consommation d’eau par les agriculteurs, et c’est un point sur lequel nous avons du mal à nous faire entendre.

Autant les prélèvements d’eau en France sont connus et renseignés, autant les consommations sont calculées à partir d’hypothèses de travail, avec tout ce que cela comporte en termes d’approximations.

Tendanciellement, est-ce que l’irrigation agricole augmente sur la dernière décennie ?

C’est très variable selon les types de production et les bassins concernés. Toutes les données sont disponibles sur le site du Ministère de l’Agriculture. Le ministère réalise tous les 10 ans le recensement agricole avec pour objectif d’actualiser les données sur l’agriculture française. Ces travaux permettent, culture par culture, et par départements, d’avoir une idée précise sur l’évolution de l’irrigation. En 2020, en France, 6,8 % des surfaces agricoles ont été irriguées, soit un peu plus de 1,8 million d’hectares. Comparées à 2010, les surfaces irriguées totales ont progressé de 15 %.

L’agriculteur irrigue lorsqu’il ne pleut pas. Les surfaces irriguées et les volumes mobilisés vont donc varier selon les années. Typiquement, par exemple 2024 a été une année pluvieuse, donc les producteurs n’ont pas beaucoup irrigué, comparativement à d’autres années. Alors que l’année 2020 (année du recensement agricole) s’est caractérisée par une période estivale très chaude et un mois de juillet exceptionnellement sec. Il faut aussi rappeler que l’irrigation coûte cher aux agriculteurs, ce qui rationne d’autant plus son usage. En résumé, les agriculteurs pilotent au mieux l’irrigation en fonction de la météo, des réserves hydriques dans le sol et du stade de la culture, car les végétaux cultivés ont des besoins en eau plus importants à certaines périodes de leur croissance. Les irrigants cherchent donc à apporter la bonne quantité d’eau et au bon moment.

Qu’en est-il de l’efficacité de l’irrigation ?

Globalement, l’efficience s’est améliorée. C’est-à-dire que la quantité d’eau à apporter pour produire une tonne de matière sèche a diminué. Cela a été rendu possible par l’amélioration des techniques agricoles. Par exemple au niveau des dates de semis pour le maïs. En précocifiant les dates de semis de 3 à 4 semaines en moyenne depuis une dizaine d’années, on a décalé dans le temps la période où la plante a le plus besoin d’eau à juin/juillet, au lieu de juillet/août : c’est ce qu’on appelle l’esquive.

Ensuite, il y a eu de très gros efforts de la part des sélectionneurs et des semenciers sur l’aspect génétique des plantes pour favoriser les variétés qui résistent bien au stress hydrique, et qui possèdent une meilleure efficience vis-à-vis de l’eau.

Enfin, les outils d’aide à la décision se développent énormément, avec une plus grande capacité à gérer les datas. On peut aujourd’hui tenir compte de l’eau qui est tombée, de la réserve utile du sol… Certains agriculteurs vont même jusqu’à installer des sondes pour évaluer la disponibilité de l’eau dans leurs sols cultivés. Les données météo sont également de plus en plus précises et apportent des informations importantes aux agriculteurs.

L’innovation joue aussi un rôle.

En effet, le matériel d’irrigation est de plus en plus innovant et efficace. Les aides de France 2030 ont été massivement utilisées par les agriculteurs pour renouveler leur matériel d’irrigation, tout cela va donc vers une utilisation de plus en plus efficiente des apports d’eau pour la production. Cela se traduit notamment par des pertes de plus en plus faibles de l’eau par évaporation, de l’ordre de 5 %. Les nouveaux matériels permettent de limiter l’effet négatif du vent, qui est le grand ennemi de l’irrigation. Car contrairement à ce que l’on pourrait croire, ce ne sont pas les températures chaudes de l’été qui nuisent au rendement de l’irrigation, mais bien le vent qui va faire augmenter mécaniquement l’évaporation.

Avec le réchauffement climatique, l’irrigation devient-elle un enjeu de survie pour les exploitations agricoles ?

On a aujourd’hui des étés plus secs dans des régions où historiquement cela n’était pas le cas, et on a également plus de surfaces irriguées que par le passé. Cette tendance est visible – notamment – grâce aux données du recensement général agricole (RGA) qui a lieu tous les dix ans, et dont la dernière édition date de 2020.

En termes d’évolution, on constate que le nombre d’exploitations au global diminue, cependant, entre 2010 et 2020, le nombre d’exploitations équipées en systèmes d’irrigation n’a pas baissé, pour la première fois depuis la création du RGA en 1970. Il y a plusieurs facteurs permettant d’expliquer cela, mais le principal est que les exploitations qui irriguent ont une plus grande pérennité.

Propos recueillis par Pierre Thouverez


[1] Irrigants de France

Le secteur textile innove pour économiser l’eau

L’industrie textile a toujours été une grande consommatrice d’eau. Les procédés, notamment l’ennoblissement, nécessaires pour obtenir la coloration, l’aspect ou les propriétés des tissus sont très gourmands en eau, et nécessitent la plupart du temps de chauffer cette eau, ce qui ajoute à l’équation une composante énergétique. 

De plus, la culture du coton, matière première de l’industrie textile, est également très exigeante en eau.

Le secteur innove donc sur tous les facteurs de production pour limiter la consommation d’eau, ce qui est à la fois une nécessité écologique et aussi économique, au vu de la raréfaction de la ressource eau. 

Ainsi, de plus en plus d’usines recyclent leurs eaux usées, qui correspondent, selon l’activité, à des volumes s’étalant entre 80 et 150 litres d’eau pour un kilo de tissu fabriqué. Les eaux usées issues de l’activité textile sont très concentrées en réactifs chimiques, souvent non biodégradables et persistants. L’objectif va donc être de débarrasser les eaux usées de leurs composants organiques et des couleurs. De nombreuses entreprises textiles optent aujourd’hui pour des stations d’épuration dites décentralisées, ce qui leur permet d’être autonomes dans le traitement si spécifique de leurs eaux, d’économiser les coûts de transport, et de réutiliser les eaux recyclées, avec à la clé des économies d’eau très importantes. 

Pour faciliter la décontamination des eaux usées, de gros efforts sont faits pour utiliser des colorants plus “propres”, c’est-à-dire chimiquement moins polluants et plus faciles à traiter à posteriori. C’est par exemple le cas des teintures dont le taux de liqueur est de plus en plus faible, ce qui permet de réaliser des économies d’eau importantes.

Ensuite, un autre aspect de l’innovation autour des usages de l’eau dans le textile concerne l’énergie utilisée pour chauffer l’eau utilisée pour les processus de teinturerie ou autres. Le développement de chaudière à haute performance énergétique, utilisables à la demande, permet de mieux calibrer les consommations d’eau, ainsi que de réduire les émissions liées à l’activité de teinturerie.

Toujours sur l’aspect teinture, la teinture au CO2 est un exemple de développement de procédés sans eau, où du CO2 supercritique est employé comme support de teinture. Résultat, une économie d’eau de 100% et un bilan environnemental drastiquement réduit. 

Evidemment, le recyclage des matières textiles est une solution très efficace pour économiser l’eau. Le recyclage des déchets textiles est de plus en plus répandu, les entreprises cherchant à développer une économie circulaire, synonyme d’économies en eau, en énergie et en procédés (teinturerie, finissage, lavage…), grâce à la réutilisation de fibres déjà teintes. 

Les déchets récupérés subissent un déchiquetage, puis sont directement refilés, éliminant ainsi le procédé de teinture, et permettant de fabriquer des textiles composés pour tout ou en partie de matériaux recyclés

Autre facteur de performance environnementale, l’impression. Les technologies d’impression numérique innovantes permettent aujourd’hui de colorer des tissus de manière durable et profonde, sans effets sur le toucher, et surtout sans utiliser d’eau. Aussi, ces technologies de plus en plus précises participent à économiser les tissus en imprimant à la demande et sur mesure.

Enfin, citons également le choix de la matière première comme élément central dans la capacité des industriels du textile à économiser l’eau. La culture du coton est relativement vorace en eau, et de nombreuses entreprises travaillent aujourd’hui à l’amélioration des techniques agricoles pour limiter la quantité d’eau apportée au coton pour sa culture. Le développement d’innovations biotechnologiques se concentre également sur la multiplication de cellules de plants de coton in vitro, dans des bioréacteurs, pour produire de la fibre de coton, sans eau.

La France touchée de plein fouet par le changement climatique

« Toutes les régions de France subissent déjà des effets néfastes du changement climatique, mais chacune présente des vulnérabilités différentes », prévient le Réseau Action Climat, à l’occasion de la parution de son nouveau rapport « La France face au changement climatique », mené en partenariat avec l’Agence de la Transition écologique (ADEME). Les fortes chaleurs gagnent les villes et ont tué plus de 5 000 personnes en 2023, près de 33 000 entre 2014 et 2022, selon Santé publique France. Le Sud affronte des sécheresses extrêmes, le Nord des inondations. Les côtes connaissent des vagues de submersion, les forêts dépérissent, les glaciers fondent et les Outre-mer subissent des cyclones tropicaux…

Fera-t-il 50°C à Paris l’été ? Le niveau de la mer augmentera-t-il de 2 mètres dès 2100 en Bretagne ? Le rapport du collectif d’ONG écologistes répertorie les impacts par régions du changement climatique – actuel et à venir – selon différents scénarios d’émissions de gaz à effet de serre. Car les catastrophes sont appelées à s’amplifier dans les prochaines années. Si le réchauffement climatique atteint déjà +1,1°C au niveau mondial, sur la décennie 2013-2022, le réchauffement moyen observé en France s’élève à 1,9°C. La France se prépare ainsi à un réchauffement climatique qui pourrait atteindre +4°C à la fin du siècle.

Un patrimoine naturel et culturel à protéger

Les phénomènes météorologiques extrêmes menacent de transformer les paysages français, le patrimoine naturel et culturel, ainsi que certaines cultures agricoles. Le Réseau Action climat rappelle que « les Régions et territoires, à toutes les échelles, ont un rôle essentiel à jouer dans la lutte contre le changement climatique ».

L’adaptation du territoire au changement climatique se décide notamment au niveau local. En particulier, les régions ont en charge le développement de la mobilité et des transports en commun, l’aménagement du territoire et la définition des zones d’accélération du déploiement des énergies renouvelables. Elles planifient la transition de l’économie, organisent la formation dans les domaines d’avenir et ont en charge le soutien à l’agriculture bio locale.

Mais une action à la hauteur des défis nécessitera davantage de moyens financiers, humains et techniques. L’Institut de l’Économie pour le Climat (I4CE) estime ainsi que les collectivités investissent 8,3 milliards d’euros par an pour la transition écologique. Pour respecter les objectifs climatiques, ce montant devrait atteindre les 19 milliards d’euros par an, rappelle le Réseau Action Climat. En outre, I4CE prévoit un besoin de 25 000 postes dédiés à temps plein aux projets climat, soit 1,5 milliard d’euros par an.

Pourtant, c’est tout l’inverse qui se passe et des centaines de projets locaux pourraient ne pas se concrétiser l’an prochain. Le collectif appelle donc le futur gouvernement à annuler les gels de crédits annoncés, et au contraire à lever les freins à l’investissement local pour le climat dans le budget 2025. « Le Fonds vert, présenté par l’ancien gouvernement comme le principal levier de financement de la transition écologique locale, ne cesse d’être réduit, dénonce le Réseau Action Climat. Moins d’un an après l’annonce de la déclinaison territoriale de la planification écologique, il a été raboté deux fois déjà : passé de 2,5 milliards dans le PLF 2024 à 2 milliards au mois de février (un montant “sanctuarisé” selon le ministre de la transition écologique), il est annoncé à seulement 1 milliard pour l’année 2025. »

L’IoT va devenir plus performant et plus sécurisé

L’Internet des objets (ou IoT pour « Internet of Things ») désigne un réseau de dispositifs physiques, de véhicules, d’appareils et autres objets dotés de capteurs, de logiciels et d’une connectivité réseau. Ces appareils « intelligents » peuvent collecter et partager des données, ce qui leur permet de communiquer entre eux et d’effectuer diverses tâches de manière autonome.

Le nombre de ces appareils connectés augmente rapidement. Mais la mise en œuvre de scénarios IoT se heurte encore à certaines limites et à des défis : confidentialité des données, interopérabilité, évolutivité, consommation d’énergie…

De nouveaux développements devraient accélérer et simplifier son introduction. Voici les quatre principales tendances.

1. Des systèmes IoT intelligents et réactifs grâce à l’IA

L’IA et le machine learning sont de plus en plus utilisés pour optimiser certains processus. L’IoT n’échappe pas à la règle. En analysant de grandes quantités de données, l’IA améliore les applications de l’IoT dans des domaines tels que la maintenance prédictive et la gestion de l’énergie. La combinaison des capacités analytiques de l’IA avec les capacités de collecte et de surveillance des données de l’IoT devrait permettre de créer un écosystème où les informations opérationnelles sont recueillies plus efficacement.

Mais l’intégrité des données, basée sur l’utilisation de sources de données fiables et authentiques, est cruciale pour instaurer la confiance dans les écosystèmes…

2. Des performances améliorées grâce au Edge computing

Le Edge computing (ou informatique en périphérie) permet de traiter les données plus près de la source. Cela réduit également la quantité d’informations qui doit être envoyée à un datacenter. D’où une latence plus réduite, ce qui est important pour les applications en temps réel telles que l’automatisation industrielle. Le développement des réseaux 5G améliorera encore la communication entre ces appareils et permettra un traitement des données plus rapide et plus efficace.

3. La sécurité de l’IoT renforcée grâce à la blockchain

Ces appareils gérant de plus en plus de données. Il est primordial d’assurer leur confidentialité et intégrité. La nature décentralisée de la blockchain, avec la capacité de garantir l’authenticité et la sécurité des transactions de données à travers le réseau, permet de relever ces défis.

4. Une meilleure gestion des appareils grâce à une nouvelle norme

L’eSIM SGP. 32 (eSIM pour « embedded SIM ») pour l’IoT a été créée pour répondre aux besoins des déploiements IoT. La SGP.32 est une nouvelle spécification publiée par la GSMA (Global System for Mobile Communications) en mai 2023 pour le provisionnement SIM à distance.

Ainsi, il ne sera plus nécessaire d’établir des connexions supplémentaires via Wi-Fi ou Bluetooth lors de la mise en service d’un appareil IoT. Cela simplifiera à la fois le matériel de l’appareil et les processus logistiques.

Les données de connexion et les paramètres requis pour la carte SIM peuvent être envoyés directement aux appareils par voie hertzienne (OTA). Cela facilite grandement le chargement, l’activation et la gestion des profils SIM des appareils IoT. Ceux-ci peuvent ainsi être gérés de manière plus efficace et plus souple tout au long de leur cycle de vie.

Lien entre phénomènes météo extrêmes et dérèglement climatique global : quelles sont les preuves ?

Tous les experts s’accordent sur un point : le réchauffement climatique va rendre ces événements extrêmes plus fréquents. En revanche, il est particulièrement difficile d’affirmer avec certitude qu’un lien de cause à effet existe lorsque survient une catastrophe. Pendant longtemps, la réponse apportée a ainsi été «c’est probablement » une conséquence du changement climatique, ce qui ne satisfaisait ni les citoyens, ni les climatologues.

Paradoxalement, la multiplication des événements météorologiques extrêmes a permis à la science d’évoluer sur cette question. Ces dernières années, on peut même affirmer qu’elle fait des pas de géants, grâce à l’attribution climatique, une science en plein essor.

L’attribution climatique, une discipline scientifique récente

L’origine de ce nouveau champ de recherche remonte à 2003. Après une crue de la Tamise particulièrement forte qui a inondé Oxford, le climatologue Myles Allen a publié un éditorial dans la revue Nature qui comportait une question d’ordre juridique : « Si ma maison perd de la valeur à cause du risque accru d’inondations, puis-je faire payer les gros pollueurs pour ce dommage ? »

Mais pour répondre à cette question, encore fallait-il prouver la responsabilité du changement climatique ! Le chercheur proposa ainsi une méthode d’attribution exploitant la puissance des modèles climatiques. Celle-ci permet, par exemple, de comparer la probabilité de survenue de ces inondations dans le monde actuel avec la probabilité d’apparition, dans un monde préindustriel « idéal » sans changement climatique (c’est-à-dire sans émissions de CO2 d’origine humaine).

Le concept a ensuite été repris et mis en pratique par d’autres équipes, en multipliant les simulations. Grâce à ces méthodes statistiques, les scientifiques arrivent ainsi à formuler des probabilités d’apparition fiables de ces phénomènes. Concernant les canicules, la climatologue britannique Friederike Otto[1] affirme même dans un article du Monde : « Dans nos recherches, presque toutes les canicules sont rendues plus probables et plus intenses par le réchauffement d’origine humaine. »

Un nouveau courant de recherche pour étudier les phénomènes extrêmes

Néanmoins, cette manière de procéder est peu adaptée aux événements les plus extrêmes, car ils sont rares et les données disponibles insuffisantes. En 2015, une nouvelle méthode d’attribution est alors née. Au lieu de comparer les fréquences d’apparition, celle-ci vise à comprendre l’influence du changement climatique sur les paramètres qui sont à l’origine de ces phénomènes.

Cette méthode est celle utilisée par le collectif ClimaMeter et l’équipe de recherche de Davide Faranda, spécialiste des événements extrêmes à l’Institut Pierre-Simon Laplace (IPSL)[2].

En voici un exemple d’application. Dans la nuit du 17 au 18 août 2022, la Corse a été frappée par un système orageux particulièrement violent avec des rafales de plus de 220 km/h. Cette méga-tempête s’est ensuite déplacée sur des centaines de kilomètres : Italie, Slovénie, Autriche et enfin République tchèque, causant la mort de plusieurs personnes et des dégâts considérables.

On appelle ce type d’orages des derechos. Or, s’ils sont fréquents dans les plaines américaines, on en dénombre seulement une poignée en France en plus de 100 ans. Cet événement exceptionnel rentre donc totalement dans le champ de recherches de Davide Faranda.

Pour savoir si cette tempête pouvait être attribuée ou non au changement climatique, son équipe a alors appliqué la nouvelle méthode qu’ils ont mise au point.

À la recherche des liens entre la tempête et le changement climatique

Dans un premier temps, ils ont cherché à identifier les grandes masses d’air et systèmes de haute et basse pression lors de la tempête.

Les causes ont rapidement été identifiées : des systèmes de basses pressions appelés « gouttes froides » entre le Portugal et la France ont fait remonter des masses d’air chaud venues d’Afrique, provoquant une canicule (l’été 2022 a été le plus chaud jamais enregistré en Europe).

Ensuite, les chercheurs ont voulu déterminer si une telle position des masses d’air s’était déjà produite avant que les effets du changement climatique soient perceptibles, donc avant 1979[3]. Or, il s’est avéré que cette configuration est fréquente, puisqu’elle s’est produite plus de 30 fois entre 1959 et 1979.

Dans ce cas, pourquoi cette configuration si classique a-t-elle donc provoqué une tempête aussi violente ? L’équipe de M. Faranda n’a pas tardé à trouver la réponse à cette question. Au moment de la tempête, la température de la Méditerranée était 5 degrés au-dessus de la moyenne saisonnière, ce qui a intensifié les forces de convection, conduisant à une tempête de forte intensité.

Par ailleurs, cette température anormale de la méditerranée n’est pas sans rappeler la situation de canicule marine qui a eu lieu à l’été 2024. Par conséquent, faudra-t-il s’habituer à voir ce genre de phénomène se reproduire ? C’est bien possible si l’on en croit les températures record relevées en 2024 : jusqu’à 30,8°C au large de la Corse mi-août.

Et s’il n’y a pas eu d’orage de type derecho cette année, cette température de surface anormalement haute en méditerranée a probablement joué un rôle dans les orages à répétition observés début septembre.

Une science qui a malheureusement de l’avenir

Selon la base de données internationale sur les catastrophes (EM-DAT), plus de 12 000 événements (hors séismes) ont été répertoriés depuis 1980. Mais ce n’est pas le plus frappant : les deux tiers de ces catastrophes se sont produits depuis les années 2000 ! Bien que les données récoltées avant l’essor des technologies de communication des années 1990 soient à considérer avec prudence, l’amplification des phénomènes météorologiques extrêmes reste néanmoins indéniable.

N’en déplaise aux climatosceptiques qui voudraient faire du climat une question d’opinion, les faits sont donc là. La science de l’attribution arrive bel et bien à prouver la réalité de l’impact du changement climatique sur l’apparition de catastrophes.

Espérons que cette nouvelle science nous aide à mieux anticiper ces phénomènes extrêmes auxquels nous devrons malheureusement nous habituer.


[1] Co-fondatrice du collectif World Weather Attribution (WWA) avec Geert Jan van Oldenborgh

[2] Au laboratoire des sciences du climat et de l’environnement (LSCE) de l’unité CNRS/CEA/Université Versailles Saint-Quentin-en-Yvelines.

[3] Le changement climatique a été reconnu pour la première fois comme un problème de portée mondiale en 1979, lors de la conférence mondiale du climat à Genève.

Traitement des matériaux : 6 articles pour guider votre choix

Le choix éclairé du traitement de vos matériaux peut permettre de prolonger leur durée de vie, de les alléger, de diminuer les coûts de fabrication…

Découvrez la sélection ci-dessous pour proposer des pièces plus durables et adaptées aux exigences techniques de votre projet.

Profitez également de 10% de réduction sur les offres du domaine Matériaux.

Bonne lecture !

Un sous-marin autonome pour inspecter les éoliennes offshore

L’éolien en mer est une énergie renouvelable qui doit permettre à la France d’atteindre ses objectifs en matière de transition écologique, notamment en produisant 40 % d’électricité d’origine renouvelable d’ici 2030.

Toutes ces éoliennes nécessiteront de la surveillance et des inspections détaillées. La France fera peut-être appel à la société Beam. Spécialisée dans les technologies éoliennes offshore, elle vient de déployer le premier véhicule sous-marin autonome au monde piloté par l’intelligence artificielle.

Baptisé SubSLAM X3, cet appareil intègre l’intelligence artificielle (IA), la robotique et les technologies avancées de localisation et de cartographie simultanées (SLAM – simultaneous localization and mapping).

Ce système complet fournit des vidéos avec une résolution 4K et des reconstructions 3D très précises. Des précisions de mesure de 0,1 à 0,15 % ont ainsi été vérifiées et accréditées par le Bureau Veritas, tant pour les mesures de défauts que pour la métrologie des distances.

Les informations recueillies permettent de planifier la maintenance préventive et les travaux correctifs sur les actifs éoliens offshore flottants, optimisant ainsi la durée de vie des structures et réduisant la nécessité d’une maintenance corrective. À la clé, des missions 50 % plus rapides et donc plus abordables selon l’entreprise.

3 000 mètres de profondeur

Comparée à son prédécesseur (SubSLAM X2), cette nouvelle version permet aux professionnels de bénéficier d’une visualisation, d’une analyse et d’une mesure plus rapides et plus précises des infrastructures offshore.

Des reconstructions 3D peuvent être utilisées pour effectuer des mesures répétées entre deux collectes de données : par exemple comparer « ce qui a été construit » avec « ce qui a été trouvé sous l’eau » pour confirmer la qualité de l’installation ou les exigences en matière d’outillage. Ces captures 3D permettent aussi de modéliser les différences d’une année sur l’autre pour comprendre la dégradation structurelle ou l’accumulation de la croissance marine.

Malgré sa taille réduite, le système est capable de fonctionner à des profondeurs allant jusqu’à 3 000 mètres et dispose d’une technologie de capteur améliorée pour une meilleure qualité d’image, en particulier dans des conditions de faible luminosité.

SubSLAM X3 a été testé à Seagreen, en Écosse. D’une capacité totale de 1 075 MW, c’est le parc éolien à fond fixe le plus profond au monde. Opérationnel depuis octobre 2023, il possède 114 turbines permettant d’alimenter plus de 1,6 million de foyers, soit l’équivalent de deux foyers écossais sur trois. Les premiers tests ont permis de recueillir des données cruciales sur le site, notamment sur la croissance et l’érosion marines.

Beam a prévu de déployer sa nouvelle technologie autonome sur l’ensemble de sa flotte de navires d’exploration, de véhicules télécommandés et de véhicules sous-marins autonomes au cours des années 2025 et 2026.

L’agriculture et le textile face à la raréfaction de la ressource eau

Il convient tout d’abord de distinguer l’activité agricole et l’activité textile pour évaluer leurs besoins respectifs en eau. Commençons par l’agriculture. Il est nécessaire de bien distinguer les prélèvements et les consommations d’eau pour bien situer les besoins de l’activité agricole. Les consommations correspondent aux quantités d’eau prélevée qui ne retournent pas dans le milieu. Ainsi, l’eau effectivement consommée réduit de facto la quantité d’eau disponible dans un milieu. Alors que l’eau prélevée, elle, retourne dans le milieu et redevient disponible. Il s’agit là d’une distinction importante, pour distinguer les différents usages de l’eau, entre ceux qui voient l’eau retourner dans le milieu naturel, et ceux qui aboutissent à une eau souillée, qui doit être traitée pour ne pas polluer l’environnement. 

En 2019, ce sont près de 31 milliards de mètres cubes d’eau douce qui ont été prélevés pour soutenir les activités humaines, en excluant l’eau prélevée pour le fonctionnement des activités hydroélectriques. 80% de ces prélèvements concernent les eaux de surface, et sont effectués pour : 

  • Le refroidissement des centrales de production d’électricité (49%)
  • L’alimentation des canaux de navigation (16%)
  • Alimentation et eau potable (17%)
  • Agriculture (10%, dont 8% pour l’irrigation)
  • Activités industrielles (8%)

L’activité agricole mobilise donc un dixième des prélèvements, majoritairement pour l’irrigation, qui permet de compléter les apports d’eau liés à la pluviométrie, et de pallier aux événements climatiques, comme les périodes de sécheresse par exemple. Ces derniers, de plus en plus nombreux sur le territoire français, dessinent d’ailleurs une carte des prélèvements qui évoluent ces dernières années. En effet, si l’irrigation se concentrait dans le sud du pays, aujourd’hui son usage est de plus en plus prégnant sur une large partie du territoire. Ainsi, entre 2010 et 2020, le nombre d’exploitations agricoles équipées en systèmes d’irrigation a augmenté de près de 78% dans le bassin Artois-Picardie.

Au-delà des épisodes de sécheresse, l’irrigation permet aussi aux agriculteurs d’améliorer leurs rendements, et ainsi de maximiser leurs productions de manière plus pérenne. 

En ce qui concerne la consommation effective de l’eau, cette dernière va varier largement selon les procédés d’irrigation utilisés. Cette consommation se calcule en estimant la quantité d’eau qui va retourner dans le sol et qui ne sera donc pas prélevée par la plante. Ainsi, la micro-irrigation présente une consommation d’eau proche des 100%, car elle est très efficace, alors que l’irrigation gravitaire, elle, voit la consommation d’eau varier entre 40 et 80%. Pour être calculée de manière précise, la consommation d’eau doit également prendre en compte la quantité d’eau rendue au milieu par la plante, par évapotranspiration et via les parties de la plante qui ne sont pas récoltées.

En ce qui concerne le textile, la problématique est différente. L’eau consommée pour les activités de ce secteur concerne principalement le procédé d’ennoblissement, qui va permettre aux tissus d’être colorés ou blanchis, d’acquérir leur aspect définitif ou leurs propriétés d’usages. Ces procédés utilisent la plupart du temps des produits chimiques, qui souillent l’eau : on parle ici donc de consommation et pas de prélèvements. En Chine par exemple, 20% de la pollution des rivières a pour origine l’activité textile. Sur notre territoire, la législation oblige les industriels du textile à trouver des solutions pour limiter leur consommation d’eau, notamment à travers la mise en place de filières REP et de la loi anti-gaspillage. L’industrie textile française développe ainsi des solutions pour produire des textiles en consommant moins d’eau. Avec une contrainte majeure : les grands pays producteurs de textiles, majoritairement situés en Asie, s’ils sont également touchés par la raréfaction des ressources en eau, continuent à produire des textiles à bas prix avec une empreinte environnementale importante et des conditions de travail extrêmement précaires… qui ne permettent pas à la France de développer une filière compétitive, pour le moment.

Les hôpitaux restent la principale cible des PME cybercriminels

Les attaques informatiques ne cessent d’augmenter. Depuis janvier 2023, le nombre d’incidents cyber a fortement progressé. Selon les données publiées par l’Institute for Security and Technology (IST), cette tendance s’est traduite par une augmentation de 73 % des attaques d’une année sur l’autre entre 2022 et 2023.

L’IST, un groupe de réflexion américain centré sur les impacts de la cybercriminalité, s’appuie sur les statistiques issues de la base de données du site eCrime.ch pour établir son rapport annuel.

Lorsque les gangs de ransomwares publient des informations sur leur site de fuite de données respectif, eCrime collecte et rassemble ces données, ce qui donne une visibilité limitée mais importante sur une violation donnée, notamment sur la quantité de données exfiltrées et le type d’informations sensibles qu’elles contiennent.

Comme l’année dernière, son étude indique que les secteurs de la construction et des hôpitaux et soins de santé continuent d’être les deux premiers secteurs avec le plus grand nombre d’incidents dans le monde.

Se focalisant sur l’impact, l’étude d’IST constate que le coût moyen de récupération d’une attaque de ransomware dans un hôpital atteint 2,2 millions de dollars en 2023.

Selon les données d’eCrime, les attaques de ransomware contre les hôpitaux et les établissements de santé ont bondi en 2023 (177 incidents), doublant presque par rapport à 2022 (89 incidents). Les établissements français ne sont pas épargnés. Depuis le 4 octobre, la clinique de La Sagesse à Rennes est victime d’une cyberattaque. L’accès à internet a été coupé dans l’établissement. Les urgences sont maintenues, mais des déprogrammations sont possibles.

Des franchises cybercriminelles

Ces chiffres sont inférieurs à ceux du rapport IC3 du FBI de 2023, qui classait les soins de santé et la santé publique comme le secteur d’infrastructure critique le plus touché en 2023 (249 incidents de ransomware rien qu’aux États-Unis). Ces établissements possèdent des données hautement confidentielles et précieuses sur les patients, qui peuvent être vendues sur le dark web.

En avril dernier, l’hôpital Simone-Veil, à Cannes, a été touché par une cyberattaque. Le groupe de hackers russes LockBit aurait mis la main sur… 61 gigaoctets de données personnelles de patients et d’agents publics.

Pour arriver à leurs fins (gagner de l’argent), les gangs spécialisés dans les attaques reposant sur des ransomwares utilisent un modèle dit « de double extorsion ». Il implique deux demandes de rançon distinctes.

Dans la première étape, les cybercriminels demandent le paiement d’une rançon en échange du « déchiffrement » des données de l’entreprise victime. Ils exigent ensuite un second paiement pour éviter que les données sensibles volées, qui ont été exfiltrées avant le chiffrement, ne soient divulguées et vendues au plus offrant.

En conclusion, ce rapport montre surtout que les groupes de ransomware sont de plus en plus actifs et cherchent à accroître leur activité en développant leurs services sous forme de franchise.

Monitoring embarqué : Touch Sensity poursuit son ascension

Forte d’une équipe composée aujourd’hui de seize personnes, la jeune pousse dispose désormais de ses propres locaux au sein de la Cité de la Photonique à Pessac, près de Bordeaux, dans lesquels elle a implanté ses bureaux, mais aussi un laboratoire.

Après avoir mené à bien le développement de plusieurs prototypes préindustriels, Touch Sensity[1] s’attelle ainsi, désormais, à la réalisation de tests en environnements représentatifs, en jouant sur des paramètres tels que la pression, la température, ou encore l’ambiance saline du milieu.

Quand nous avions rencontré sa présidente et directrice technique Anna Pugach, en 2021, la start-up avait amené sa technologie à un niveau de maturité de 3, environ, sur l’échelle TRL. Elle en est aujourd’hui à un stade 6 à 7, et pourrait atteindre le niveau 7-8 d’ici peu, comme nous l’explique Mehdi El Hafed, co-fondateur et directeur commercial et financier de Touch Sensity. Un dirigeant qui lève également le voile sur les perspectives ouvertes par la levée de fonds de 3 M€ réalisée en mai dernier par la jeune entreprise.

Techniques de l’Ingénieur : Commençons, si vous le voulez bien, par quelques rappels. Quel est, dans ses grandes lignes, le principe de base de la technologie sur laquelle vous travaillez ?

Touch Sensity-Mehdi El Hafed
Mehdi El Hafed a co-fondé Touch Sensity aux côtés d’Anna Pugach. © Touch Sensity

Mehdi El Hafed : Nous développons un système de monitoring qui permet de générer le modèle 3D d’une pièce structurelle et d’indiquer – en temps réel et à distance – tout ce qu’elle peut subir sur le plan des interactions physiques mécaniques : déformation, impact, endommagement, porosité, délaminage, torsion, dégradation thermique…

Concrètement, cette technologie se présente sous la forme d’un système électronique que l’on branche à la pièce, directement ou éventuellement via un câble d’une certaine longueur. En envoyant un signal au travers de la pièce, ce système va permettre de donner vie à un jumeau numérique en temps réel, comme on pourrait le faire avec un scanner portable.

Exclusive et brevetée, notre technologie n’utilise pas de capteur à proprement parler : c’est la pièce elle-même qui devient un capteur. Cela fonctionne avec de nombreux matériaux, les métaux, composites en fibres de verre et de carbone notamment. Nous faisons pour cela appel à un signal électrique, mais nous n’en exploitons pas directement les propriétés. Nous utilisons en effet des modèles mathématiques comparatifs – et non pas des modèles d’IA – qui nous permettent de comparer, à partir du signal émis, le signal reçu en temps normal et le signal reçu en cas d’interaction physique avec la pièce. Nous pouvons ainsi en déduire le type d’évènement subi par la pièce, sa localisation, ainsi que ses caractéristiques. Ces informations sont ensuite transformées en données numériques adaptées aux besoins du client, d’une cartographie 3D précise au millimètre à une simple caractérisation de la pièce indiquant si elle est à changer ou non.

Votre technologie se limite-t-elle justement à une « simple » évaluation qualitative des interactions subies par une pièce, ou permet-elle au contraire de quantifier le niveau, « l’intensité » de ces modifications physiques ?

Notre technologie permet effectivement de chiffrer ces modifications. Dans le cas d’une déformation, nous sommes par exemple en mesure d’évaluer cet aspect en pourcentage, avec une précision de l’ordre de 0,05 %. Nous pouvons aussi mesurer une fissure, localiser un impact… Certains évènements sont toutefois plus complexes que d’autres : dans le cas d’une oxydation par exemple, notre technologie permet uniquement de donner un ordre d’idée du niveau de cette dégradation par rapport à l’état normal de la pièce. Dans un cas comme celui-ci, notre solution ne remplace donc pas un capteur dédié, ou une analyse en laboratoire, mais permet en tout cas de fournir une première indication, une première vision sur l’état de la pièce, et ce, en temps réel et à l’aide d’une technologie embarquée.

Sur quels types de véhicules votre solution peut-elle être intégrée ? Comment l’accès à l’information se fait-il ?

Cette technologie peut être intégrée aussi bien à des avions qu’à des trains, des bateaux, des fusées ou encore des voitures, pour monitorer des pièces structurelles : le radôme ou les bords d’attaque pour un avion, le nez d’un train, le réservoir à hydrogène ou le pare-chocs de n’importe quel type de véhicule… Nous travaillons ainsi main dans la main avec nos clients pour intégrer ce système à l’électronique du véhicule en question.

L’accès aux informations se fait alors selon plusieurs niveaux de lecture : un simple voyant sur le tableau de bord d’une voiture, par exemple, indiquant à son conducteur que le réservoir d’hydrogène présente un défaut, mais aussi tout un ensemble de données bien plus précises auxquelles son garagiste pourra accéder via un dispositif mobile. Ces informations lui permettront ainsi de caractériser les dommages et d’en avoir un historique pour, in fine, le guider vers la meilleure solution de dépannage : réparation ou changement.

Dans le milieu aéronautique, ce seront cette fois des techniciens qui pourront directement récupérer les données une fois l’appareil au sol, alors que dans le ferroviaire, le transfert des données se fera en temps réel, au travers du même flux de données que celui déjà généré par tous les autres capteurs qui équipent déjà n’importe quel train.

Vous avez annoncé en mai dernier avoir réalisé une levée de fonds d’un montant de 3 M€. Quels étaient les objectifs de cette opération ?

Nous souhaitions tout d’abord pouvoir disposer d’un fonds de roulement nous permettant de lancer nos essais. Les environnements que nous visons, tels que l’aéronautique, impliquent en effet pour nous d’investir dans des ateliers spécifiques et de nouer des partenariats avec des sous-traitants. Notre objectif est aussi de poursuivre la montée en échelle de notre technologie et d’atteindre prochainement un TRL de 7-8, afin de pouvoir lancer l’industrialisation de notre solution en collaboration avec les quelque 25 clients européens – basés en France, en Allemagne et en Italie – qui nous font déjà confiance aujourd’hui. Pour certains cas d’usage très complexes, nous ne pouvons en effet pas avancer seuls. Notre objectif est de faire aboutir ces projets aux alentours de 2026-2027. Nous menons d’ailleurs aussi des discussions actuellement avec d’autres clients potentiels en Asie et aux États-Unis…

Nous allons toutefois aussi pouvoir nous lancer de manière autonome et proposer une première solution à destination des réservoirs d’hydrogène, avec un haut niveau de maturité. Il s’agit en effet d’un cas d’usage qui nous permet de nous lancer de manière indépendante, et dont les perspectives de développement se révèlent, en outre, en adéquation avec notre propre montée en maturité.

Touch Sensity
Touch Sensity s’apprête à lancer une première solution commerciale basée sur sa technologie, à destination des réservoirs d’hydrogène. © Touch Sensity

Enfin, cette levée de fonds avait aussi pour objectif de renforcer notre force commerciale ; elle nous a notamment permis de recruter un directeur commercial très expérimenté.

Ce cas d’usage précis du monitoring de réservoirs d’hydrogène que vous évoquiez se cantonne-t-il exclusivement à des réservoirs embarqués à bord de véhicules, ou pourrait-il également s’agir de réservoirs de stockage sur des installations de production ou de distribution ?

Nous visons tous types de réservoirs. Le monitoring est effectivement très demandé dans le cas des véhicules, mais nous avons aussi des demandes dans le domaine du stockage. Les cas d’usages sont cependant un peu différents : dans le cas du stockage, il s’agit plutôt de surveiller le « cyclage » des réservoirs, de monitorer leur vieillissement. Cela s’inscrit donc dans un temps plus long, avec une mesure moins fréquente, uniquement au moment du remplissage de ces réservoirs.

Quel modèle économique comptez-vous adopter pour commercialiser votre technologie et les différentes solutions qu’elle permettra de faire naître ?

Nous misons sur un modèle de licence technologique : nos clients seront complètement indépendants sur le plan de la fabrication de l’électronique, et pourront pour cela s’appuyer sur leurs propres fournisseurs et prestataires. Nous vendrons donc uniquement la possibilité d’utiliser notre technologie, mais aussi tout un ensemble de services d’accompagnement à la mise en place de la solution pour chaque cas d’usage. Cette approche permettra à nos clients d’être totalement indépendants de nous, ce qui, de mon point de vue, constitue un argument important pour une petite start-up telle que la nôtre, face, notamment, à des clients qui sont pour certains de très grands groupes.

En matière de coûts, où se situe votre approche par rapport à des technologies concurrentes actuellement disponibles sur le marché ? Quels seront, en outre, ses principaux avantages concurrentiels ?

Les principales technologies concurrentes à la nôtre sont des solutions basées sur l’utilisation de capteurs d’ondes sonores, de capteurs infrarouges, ou encore la tomographie par rayons X. Ces technologies restent encore assez chères, et nécessitent surtout, pour être mises en œuvre, d’extraire la pièce à monitorer. Ces technologies n’offrent, de plus, qu’une vision ponctuelle, à l’endroit où est positionné le capteur, là où notre technologie embarquée offre quant à elle une vision globale du matériau constitutif d’une pièce, tant en surface qu’en volume.

Une autre approche repose sur l’utilisation de fibre optique. L’inconvénient, outre sa fragilité, est que cette technologie n’offre qu’une vision binaire « on/off » en fonction de l’orientation de la fibre. Notre technologie permet quant à elle d’obtenir une véritable cartographie 3D et ce, pour un coût dix fois inférieur.

Enfin, notre technologie a aussi pour avantage de permettre d’établir un « passeport digital » d’une pièce, en la monitorant de sa fabrication à sa destruction, en passant par toutes les étapes de son cycle de vie.

Vous revendiquez pour l’heure l’usage de « modèles mathématiques », et non d’IA… Des algorithmes d’intelligence artificielle pourraient-ils toutefois, un jour, bénéficier à votre solution ?

L’IA est effectivement un champ de technologies très intéressant, susceptible de nous faire gagner beaucoup de temps. Le fait que nous visions le secteur industriel implique toutefois que nous respections des normes très strictes. Pour l’heure, il n’est pas possible de faire certifier un système de monitoring reposant sur des modèles d’IA, notamment pour des questions de transparence des algorithmes et d’explicabilité. Le jour où ce sera le cas, nous n’hésiterons pas, en tout cas, à franchir le pas !


[1] Touch Sensity

Les Chinois n’ont pas réussi à percer les secrets des systèmes cryptographiques

Info ou intox ? Publié dans le « Chinese Journal of Computers » sous le titre « Quantum Annealing Public Key Cryptographic Attack Algorithm Based on D-Wave Advantage », un article explique comment les machines du fabricant canadien d’ordinateurs quantiques D-Wave ont été utilisées pour casser le chiffrement à clé publique RSA.

Le RSA (acronyme de Rivest-Shamir-Adleman, du nom de ses créateurs) est un système cryptographique utilisé pour sécuriser notamment les services bancaires en ligne et les messages confidentiels.

« Nos résultats montrent que la technologie quantique de D-Wave peut cibler efficacement les systèmes de chiffrement qui protègent des informations sensibles à l’échelle mondiale », affirme l’équipe de recherche, dirigée par Wang Chao de l’université de Shanghai. Aussitôt, des médias n’ont pas hésité à annoncer cet exploit et les impacts sur la sécurité informatique.

Des Chinois loin du record du monde

Il faut largement relativiser cette annonce. Dans le détail, on apprend que ces chercheurs chinois ont utilisé le recuit quantique pour factoriser un nombre entier de 22 bits. Appelé « quantum annealing » en anglais, le recuit quantique est une technologie dont les caractéristiques et les niveaux de performance se situent entre ceux des supercalculateurs traditionnels et ceux des ordinateurs quantiques universels. À la différence d’IBM et de Google notamment, D-Wave s’appuie sur le recuit quantique pour ses machines.

« Le background théorique publié dans l’article chinois est vrai, mais ce document manque de détails sur l’implémentation pour être sûr que l’expérience a bien eu lieu », souligne Renaud Lifchitz, directeur scientifique chez Holiseum, un cabinet spécialisé dans la sécurité des infrastructures critiques et industrielles.

Ce spécialiste en cryptographie tient aussi à préciser que la solution de D-Wave ne permet pas de résoudre tous les problèmes quantiques : « Comme il ne s’agit pas de puces dites “universelles”, comme celles d’IBM et de Google, elles ne peuvent résoudre que des problèmes d’optimisation, c’est-à-dire trouver le minimum ou le maximum de fonctions. Dans le cas de l’étude chinoise, trouver le minimum ou le maximum d’une fonction ne sert pas à grand-chose, car c’est un problème discret et non pas une fonction continue : être proche à un ou deux bits près d’une clé RSA n’est pas directement utile pour casser le système ».

L’annonce chinoise ne constitue donc pas une menace immédiate pour les systèmes cryptographiques modernes qui reposent sur des clés de 2 048 bits et même 3 000 bits si l’on s’appuie sur la recommandation de l’ANSSI, l’autorité nationale française en matière de sécurité et de défense des systèmes d’information.

Le fossé entre les nombres entiers de 22 bits et les nombres de 2 048 bits couramment utilisés dans les systèmes cryptographiques modernes est énorme, la complexité de la factorisation augmentant de manière exponentielle à mesure que la taille de la clé augmente.

Or, le record du monde de factorisation de RSA est de 829 bits. Il faudrait des puces décuplées en puissance et donc une nouvelle architecture quantique.

E-fuels : les projets français se concentrent sur l’aérien et le maritime

La France deviendra-t-elle un champion européen des carburants synthétiques ? C’est ce qu’espère le bureau français des e-fuels, organisme de promotion des e-fuels pour le transport aérien et maritime. Dans son deuxième observatoire, publié fin septembre, il recense 26 projets annoncés publiquement, dont 16 de taille industrielle.

Ces projets représentent une capacité totale de production de 906 000 tonnes d’équivalent pétrole (tep), soit l’équivalent de 6,4 millions de barils. Cette production permettrait de réaliser « 5 600 vols aller-retour entre Paris et New York ou 265 voyages de porte-conteneur entre Shanghai et Le Havre », avance le bureau français des e-fuels. Sous réserve d’un accès à 24 térawattheures (TWh) d’électricité bas carbone et de 2,7 millions de tonnes de CO2, partage le rapport.

Pour rappel, les e-carburants (e-méthanol, e-kérosène, e-méthane et e-ammoniac) sont des carburants liquides ou gazeux synthétisés à partir d’hydrogène obtenu par électrolyse de l’eau et de CO2. Au-delà de 2040, ce CO2 devra être obtenu à partir de la biomasse, ou par captage direct dans l’air. La directive européenne relative aux énergies renouvelables interdit en effet à cet horizon le recours à du CO2 d’origine fossile pour la production de ces carburants. Ils se substituent aux combustibles fossiles existants, sans besoin de modification des infrastructures et des équipements.

Des e-fuels pour l’aérien et pour le transport maritime

Les récents règlements européens ReFuelEU Aviation et FuelEU Maritime misent sur un important développement des carburants de synthèse entre 2025 et 2050. Le secteur aérien projette notamment 1,2 % d’e-fuels renouvelable et bas carbone en 2030 et de 5 % en 2035. Ces décisions influencent grandement les projets : 66,7 % des capacités cumulées de production serviront à produire des « carburants d’aviation durables » (CAD), répartis sur treize projets, calcule l’observatoire.

L’e-méthanol, utilisé principalement pour le transport maritime, ou comme intrant pour la chimie, représente 33,1 % du total, répartis sur quatre projets. L’e-méthane ne représente quant à lui que 0,2 % de la capacité de production, mais neuf projets, principalement de R&D.

Face aux objectifs européens et aux engagements volontaires, le bureau des e-fuels appelle à structurer rapidement la filière. « Au regard du temps de développement et de construction de ces projets, les 18 mois à venir seront déterminants pour permettre à la filière domestique de répondre aux objectifs fixés par la réglementation européenne à horizon 2030 », prévient l’organisation.

Fin décembre 2023, l’Ademe recommandait un déploiement « raisonné » des e-fuels pour ne pas pénaliser les autres secteurs qui auront aussi besoin d’électricité et de CO2 pour se décarboner, comme l’industrie et les transports terrestres. Le scénario « bas » pour atteindre les objectifs européens de décarbonation sur l’aérien et le maritime présentait des leviers de sobriété des usages, basés sur les scénarios Transition(s) 2050 de l’Ademe. Les ressources à mobiliser s’élèveraient dans ce scénario de 44 à 68 TWh d’électricité, soit l’équivalent d’au moins 3 EPR, et de 5,8 à 7,3 millions de tonnes de CO2 biogénique.

Réindustrialisation : une longue route pour la renaissance industrielle française

Après 40 années de désindustrialisation, on observe, depuis 2009, le retour du sujet de la « réindustrialisation » dans le discours politique. Plusieurs initiatives peuvent être soulignées : les États généraux de l’industrie, le rapport Gallois sur la compétitivité industrielle, France Relance ou encore France 2030. Pourtant, le constat est amer : depuis près de quinze ans, la part de l’industrie dans le PIB français stagne autour de 10 %.

En novembre 2023, le ministère de l’Économie avait chargé Olivier Lluansi, ancien délégué interministériel aux Territoires d’industrie, d’une mission sur la réindustrialisation de la France à l’horizon 2035. Ses conclusions ont été remises en avril dernier au gouvernement, mais ne seront finalement pas rendues publiques. Spécialiste du secteur industriel, il dévoile les grandes lignes de son rapport au détour des entretiens qu’il a accordés et dans lesquels il dresse un bilan sans fard.

Une part de l’industrie à 15 % du PIB d’ici à 2035 est irréalisable

La France est l’un des pays les plus désindustrialisés d’Europe et se place aux derniers rangs de l’Union européenne, devant la Grèce…

Pour inverser la tendance, l’objectif affiché par le gouvernement est de rejoindre la moyenne européenne en relevant la part de l’industrie dans le PIB de 10 % à 15 % d’ici à 2035. Dans son rapport, Olivier Lluansi juge cet objectif irréalisable avant deux décennies ; il estime plus réaliste d’envisager une industrie représentant 12 à 13 % du PIB à cet horizon. Avec ce scénario, la France assurerait au moins une balance commerciale équilibrée sur les produits manufacturés, une performance ! Pour endiguer les 60 milliards d’euros de déficit annuel, il préconise la création de 60 000 emplois industriels par an, soit le triple des 20 000 emplois industriels créés par an ces dernières années.

Le Made in France

Pour une véritable relance industrielle, un sursaut patriotique doit avoir lieu afin de recourir fortement à la commande publique. Le Made in France est un levier sous-exploité selon O. Lluansi. Les acheteurs publics patriotes pourraient rapporter 15 Mds € par an de « made in France ». Cela pourrait résorber 25 % du déficit de la balance commerciale des biens manufacturiers.

Ancrage territorial

Le rapport préconise de ne pas concentrer les moyens sur les innovations de rupture et les gigafactories comme c’est le cas depuis 2009. Celles-ci ne représentent que 20 à 30 % du potentiel de réindustrialisation quand les PME et les ETI existantes dans nos régions en constituent les deux tiers. « Le potentiel du territoire est au cœur de la réflexion de mon rapport, mais il est sous-estimé par les pouvoirs publics », déplore Olivier Lluansi. Or ce tissu industriel, au cœur des villes moyennes, a besoin de soutien public pour se régénérer. Avant d’innover, le rapport privilégie de bâtir sur les atouts existants.

Une réindustrialisation compatible avec les enjeux environnementaux

La relance industrielle étant contrainte par le manque d’électricité décarbonée, il faudra compter sur la mise en route des nouvelles centrales nucléaires. En outre, la réindustrialisation peut accroître notre souveraineté qui est fragilisée par la dépendance de nos chaînes d’approvisionnement. Le rapport insiste également sur la nécessité de libérer du foncier tout en restant en conformité avec la loi Climat qui pose un objectif de zéro artificialisation nette pour 2050.

Olivier Lluansi a choisi de restituer ses observations dans un livre[1] afin de nourrir le débat public. Il est vital de travailler sur l’attractivité en berne des métiers industriels qui explique que « 50 % des personnes formées aux métiers industriels vont faire autre chose ». La revalorisation des figures de l’ouvrier ou de l’ingénieur est primordiale ; par la transformation de la matière, ces derniers permettent de s’inscrire dans le réel. Une action salutaire dans une société en quête de sens…


[1] « Réindustrialiser, le défi d’une génération », aux éditions La Déviation

Synsys : une prothèse innovante et connectée au plus proche de la marche

Nicolas Piponniau, responsable R&D chez Proteor
Nicolas Piponniau, responsable R&D chez Proteor / PROTEOR

Repérée lors des Jeux Paralympiques[1] pour avoir appareillé différents athlètes, l’entreprise Proteor est spécialisée en prothèses, orthèses et composants orthopédiques pour le grand public. L’entreprise s’établit autour de 3 grandes activités : la conception et fabrication de prothèses ou d’orthèses sur mesure ; la conception et fabrication des composants nécessaires à la construction des dispositifs médicaux orthopédiques ; le développement de logiciels utilisés par les orthoprothésistes pour fabriquer les appareils orthopédiques. En 2022, elle a lancé la prothèse innovante et connectée Synsys.

Ingénieur de formation, Nicolas Piponniau est le responsable du développement de nouveaux produits chez Proteor et a participé activement à la conception de Synsys. Il revient sur les particularités de cette prothèse.

Techniques de l’Ingénieur : En quoi consiste le projet de prothèses Synsys ?

Nicolas Piponniau : C’est un projet ambitieux dont le nom vient de la contraction entre synergie et système. Lorsque l’on fournit une solution pour une personne amputée fémorale, il faut fournir une solution de genou, de cheville et de pied. Ce qui existe sur le marché aujourd’hui, ce sont majoritairement des genoux prothétiques auxquels on associe un pied prothétique avec des éléments de connectique entre le genou et le pied. Avec Synsys, on a pris le problème de manière systémique et on a développé directement un système genou-cheville-pied.

Ensuite, “synergie” car notre volonté était de coller au plus près de la biologie, de la biomécanique de la marche d’une personne valide. Lorsqu’une personne valide marche, elle relève la pointe du pied quand il n’est pas en contact avec le sol. Or bien souvent, les prothèses ne permettent pas ce mouvement, ce qui implique une certaine rigidité du pied et un risque de trébuchement. Pour donner une image un peu triviale, c’est comme si on marchait continuellement avec des chaussures de ski, donc s’asseoir ou descendre des escaliers devient complexe. Avec Synsys, nous avons réussi à reproduire ce mouvement coordonné entre le genou et la cheville, ce qui permet de mieux s’adapter aux situations de descentes de pentes ou d’escaliers.

Comment a été développée la prothèse ?

En 2015, nous avons reçu le soutien de la Direction générale de l’armement (DGA) pour les projets dits RAPID : régime d’appui à l’innovation duale. “Duale” signifie qu’on couvre le militaire et le civil. Le soutien de la DGA nous a permis une approche de développement ouverte et de fédérer un écosystème autour du produit. On a entre autres travaillé avec les Arts et Métiers à Paris via l’Institut de biomécanique humaine Georges Charpak (IBHGC), et le Centre d’étude et de recherche sur l’appareillage des handicapés (CERAH). D’abord, il y a eu une grosse étape de recherche au niveau biomécanique pour définir les critères de performance du produit. La partie technique et produit était plutôt gérée par Proteor et nos partenaires de recherche nous ont aidés pour la partie clinique et biomécanique afin de développer un concept selon les normes des dispositifs médicaux.

Synsys colle au plus près de la biomécanique de la marche d’une personne valide
Synsys colle au plus près de la biomécanique de la marche d’une personne valide / PROTEOR

A quels challenges techniques avez-vous été confrontés ?

Je parle souvent du triptyque “pas de bruit, pas de jeu, pas de fuite” pour expliquer ce que nous cherchions à obtenir. Pas de bruit car aucune personne appareillée n’a envie de faire du bruit lorsqu’elle se déplace. Pas de jeu car s’il y a le moindre jeu au niveau des articulations, même de quelques centièmes de millimètres, la personne va immédiatement le ressentir au niveau de son moignon et c’est désagréable. Enfin, nous avons affaire à des dispositifs mécatroniques à base d’hydraulique dans lesquels on utilise de l’huile. Pour simplifier, on utilise des vérins hydrauliques pour le genou et pour la cheville. Or, contrairement à certains domaines d’activité, on n’a pas le droit de perdre une seule goutte d’huile, sinon ça modifierait le fonctionnement du produit sur toute sa durée de vie qui est de l’ordre de 5-6 ans. C’est un vrai challenge parce qu’il n’y a pas beaucoup de domaines d’activité où le zéro fuite est demandé. Enfin, il y a aussi la question du poids. Synsys pèse 3,2 kg mais ça été une bagarre régulière pour maîtriser le poids du produit.

Quels matériaux sont utilisés pour Synsys ?

On utilise des matériaux destinés à l’aéronautiques : des aluminiums de série aéronautique, des alliages de titane, du carbone, tout ce qui est composite. Donc on est sur des matériaux assez pointus. Néanmoins, nous n’avons pas la puissance de feu de l’aéronautique. Quand on parle de série dans le domaine du dispositif médical, on parle de quelques centaines à quelques milliers de pièces. Donc on est moins intéressant aux yeux des revendeurs face à des clients plus lourds comme l’aéronautique.

Votre prothèse est connectée, qu’est-ce que cela implique ?

Notre prothèse peut se connecter par Bluetooth à deux types de logiciel. Le premier est un logiciel sur ordinateur pour l’orthoprothésiste. Il lui permet de réaliser le réglage des paramètres pour adapter la prothèse à la façon de marcher et à la vitesse de la personne. Le deuxième est une application sur portable destinée à l’utilisateur. L’appli permet de donner des informations sur son activité, sa vitesse, le nombre de pas qu’il fait par jour. Mais le paramètre inédit est la possibilité de régler la hauteur du talon. Sur les prothèses traditionnelles avec un pied rigide, les personnes sont un peu condamnées à avoir la même hauteur de talon. Avec Synsys, il est possible d’ajuster la prothèse à la hauteur de sa chaussure et la cheville va s’adapter. Ainsi, quand il achète des chaussures, le patient peut réaliser les réglages pour bien équilibrer la prothèse puis prendre en photo ses chaussures pour enregistrer les paramètres. Il est même possible de marcher pieds nus, ce qui n’existe pas habituellement.

Comment ont évolué les prothèses ces dernières années ?

Cela fait un petit moment que les prothèses électroniques ont fait leur apparition. Il y a également des travaux de recherche pour motoriser les prothèses. Aujourd’hui, on est sur des prothèses mécatroniques passives, donc on n’amène pas d’énergie dans la marche, mais on voit que des laboratoires de recherche et des startups investissent le terrain des prothèses actives qui amènent de l’énergie à l’utilisateur. D’autre part, les technologies autour des nouveaux matériaux et l’impression 3D permettent aussi de faire évoluer les solutions techniques.

Lors des jeux paralympiques, Proteor a accompagné plusieurs athlètes. Comment s’est déroulée la collaboration ?

Ce sont nos orthoprothésistes qui suivent les athlètes parce que les dispositifs doivent être totalement sur mesure. Prenons l’exemple d’Abel Aber, qui était notre athlète en paracanoë. En temps normal, il marche avec une prothèse fémorale mécatronique – pas Synsys parce qu’il est très actif donc il a besoin d’un produit plus dynamique, à savoir notre genou Quattro. Pour concourir, il n’a pas du tout utilisé cette solution. Il a eu besoin d’un appareil de sport avec un siège complètement adapté à sa forme et à sa pratique pour optimiser au mieux la transmission de sa puissance dans le canoë. C’est un travail de sur mesure poussé à l’extrême pour optimiser au mieux l’appareil. Et c’est le cas dans la plupart des parasports : il faut s’adapter très finement et très précisément à l’activité de l’athlète pour faire la différence. En athlétisme, les sportifs utilisent des lames de course qui sont complètement adaptées à la biomécanique de la personne, à sa façon de se propulser, à sa performance, à son poids. Ce ne sont pas des équipements qu’on utilise dans la vie courante.

Est-ce que les innovations faites en parasport influent sur les prothèses pour le grand public ?

Oui, complètement. Par exemple, la forme de la patte de guépard pour les lames de course a aidé à développer des pieds prothétiques à restitution d’énergie. Donc le fait d’amener le composite dans les pieds prothétiques pour la vie courante est totalement lié au sport.

Quels sont vos projets ?

Nous souhaitons rester quelques années sur le marché avec Synsys et faire du développement incrémental pour proposer de nouvelles versions de cette prothèse. Nous voulons explorer les nouvelles technologies qui existent pour gagner en légèreté, pour mieux compenser, rendre les prothèses moins chères, réutiliser les pièces etc. Ce domaine-là est fascinant car on a l’impression que ce n’est jamais fini, qu’il y a toujours de nouvelles activités à aller chercher, à compenser pour mieux s’adapter. On réfléchit à comment être plus intuitif, plus réactif, en réfléchissant aux capteurs, aux fonctions qu’on peut embarquer. C’est une chance de pouvoir travailler avec des biomécaniciens, des médecins, des kinés, des orthoprothésistes et des patients tout en utilisant du matériel de pointe. Nous réfléchissons donc à de nouvelles solutions mécatroniques mais aussi mécaniques.

Propos recueillis par Alexandra Vépierre


[1] 2024

Revue du Magazine d’actualité #7 : du 14 au 18 octobre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

La course mondiale pour des centrales photovoltaïques toujours plus grandes

Dans les déserts bénéficiant d’un fort ensoleillement, des projets de centrales solaires de plusieurs gigawatts voient le jour. De l’Inde à la Chine, en passant par l’Australie, ces installations géantes reflètent les ambitions énergétiques mondiales. Mais ces mégaprojets soulèvent des questions sur leur impact environnemental à long terme.
Explorez l’impact des mégacentrales solaires sur l’énergie mondiale et l’environnement

eID : L’Europe révolutionne l’identité numérique pour 2026

D’ici 2026, l’Union européenne déploiera l’eID, un portefeuille numérique permettant aux citoyens de gérer leur identité en toute sécurité. Ce système vise à simplifier l’accès aux services tout en renforçant la protection des données personnelles. Des tests sont déjà en cours dans plusieurs pays.
Découvrez comment l’eID va transformer l’identité numérique

Vers une sobriété numérique pour limiter l’empreinte carbone

Le Shift Project alerte sur l’impact environnemental des technologies émergentes, telles que le métavers et la 6G, à travers deux rapports publiés en 2024. Ces études visent à encourager une réflexion sur les choix technologiques en tenant compte des contraintes écologiques et des ressources limitées.
Les recommandations pour des technologies plus durables

Des datacenters dans l’espace : une alternative durable ?

Face à la croissance exponentielle des données et à l’impact environnemental des datacenters terrestres, des projets ambitieux envisagent de délocaliser ces infrastructures dans l’espace.
L’espace serait la prochaine solution pour héberger nos datacenters ?

Eoliennes : après l’enfouissement, le recyclage ?

Alors que des objectifs ambitieux sont fixés pour 2025 et au-delà, la filière éolienne cherche à optimiser le traitement des matériaux complexes tout en développant des solutions pour rendre les structures et notamment les pales 100 % recyclables.
Les solutions pour recycler entièrement les éoliennes

Agroalimentaire : tout savoir des innovations de la filière

Des articles pour comprendre

Alors que le Salon international de l’alimentation va fêter ses 60 ans ce week-end, Techniques de l’Ingénieur vous propose de découvrir des articles qui montrent comment la science et la technologie permettent au secteur agricole et à toute la filière agroalimentaire d’innover tout en étant en capacité de répondre aux enjeux climatiques et environnementaux.
A suivre, les articles que vous pouvez consulter en accès-libre.

Armagnac ou Cognac ?

L’agriculture en France est riche de bons produits, dont la transformation requiert une expertise certaine. Alors, pour vous ouvrir quelques horizons, nous vous proposons d’aller sur un sujet un peu plus léger mais non moins sérieux : la « Fiche procédé » vous dira tout de la distillation de ces eaux-de-vie. Cette fiche est issue de la rubrique « Process de fabrication des produits alimentaires », détaillée ci-dessous !

Ces sujets clés sont traités en profondeurs dans le domaine d’expertise « Procédés Chimie – Bio – Agro” de Techniques de l’ingénieur. Vous souhaitez souscrire un abonnement ?

Profitez d’une remise de 10% pour toute souscription en ligne avant le 06/11/2024.

Alternatives des produits phytosanitaires, les biopesticides permettent d’envisager la transition de l’agrochimie à l’agroécologie. Découvrez les modes d’action et les techniques de production par fermentation de ces substances d’origine naturelle, innovantes et respectueuses de l’environnement.

Les méthodes de gestion d’irrigation traditionnelles ne s’avèrent plus assez efficientes. L’utilisation de capteurs pourrait permettre une irrigation plus précise et efficace, à condition de rendre compte du stress hydrique ressenti en temps réel par les cultures.

Ces deux eaux-de-vie ont beau partager un grand nombre de similitudes technologiques, elles se distinguent par leurs méthodes de distillation !

Quels sont les principaux termes du management de l’innovation ? Comment les définit-on ?

L’agroécologie évoque l’appropriation par l’agronomie des concepts et des méthodes de l’écologie scientifique, le numérique est quant à lui présent dans la plupart des secteurs d’activité y compris l’agriculture. Et si le numérique pouvait significativement aider à la transition agroécologique ?

La nécessaire réforme de la fiscalité énergétique en France et dans l’UE

60 milliards d’euros. C’est le montant récolté par la France en 2021 au titre de sa fiscalité énergétique, TVA incluse. Un puissant outil fiscal, mais qui n’est pas envisagé comme « un ensemble cohérent par les pouvoirs publics », dénonce un rapport récemment publié par la Cour des comptes. Les sages de la rue Cambon jugent que « sa fonction d’outil de la politique énergétique et climatique n’est toujours pas clairement définie dans les documents stratégiques (stratégie nationale bas carbone, programmation pluriannuelle de l’énergie) visant à placer la France sur la trajectoire de la neutralité carbone d’ici 2050. »

Dans son rapport sur l’avenir de la compétitivité de l’UE, Mario Draghi formule lui aussi plusieurs critiques sur la fiscalité énergétique dans l’Union européenne (UE), lui reprochant notamment le fait qu’elle a pour effet de renchérir le coût de l’énergie. Or, il estime que la réduction du prix de l’énergie est le premier levier sur lequel agir pour réduire l’écart de compétitivité de l’Europe. Si « l’écart de prix par rapport aux États-Unis est principalement dû au manque de ressources naturelles de l’Europe, ainsi qu’à son pouvoir de négociation collective limité », il ajoute que « la taxation de l’énergie plus élevée que dans d’autres parties du monde ajoute un volet fiscal aux prix. » Et de rappeler que les États-Unis ne prélèvent aucune taxe fédérale sur la consommation d’électricité ou de gaz naturel, même s’ils appliquent des frais de réseau plus élevés.

Depuis 2003, la DTE (Directive taxation de l’énergie) fixe des règles structurelles et des taux minimaux dans l’UE pour la taxation des produits énergétiques. Elle s’applique à l’électricité, aux carburants, au gaz naturel, au charbon et au fioul ; cependant, chaque État membre peut librement fixer sa propre taxation, tant que ces taux minimaux sont respectés. Et dans les faits, un grand nombre de pays taxent la plupart des produits énergétiques à un niveau nettement supérieur aux taux minimaux de la DTE.

Fixer un niveau maximal de taxe sur les énergies dans l’UE

Face à cette situation, Mario Draghi préconise de réduire et d’uniformiser les règles du jeu en matière de fiscalité énergétique, en utilisant de manière stratégique les mesures fiscales pour réduire le coût de l’énergie. Il conseille de fixer un niveau maximal commun de surtaxes, incluant les différentes taxes, prélèvements et frais de réseau, dans l’ensemble de l’UE. « La réforme législative dans ce domaine est soumise à l’unanimité, mais une coopération entre un sous-ensemble d’États membres ou des orientations sur la fiscalité de l’énergie peuvent également être envisagées », écrit-il.

Depuis 2020, dans le cadre du Pacte vert, l’UE cherche à réviser la DTE pour aligner la fiscalité des produits énergétiques et de l’électricité sur les politiques de l’UE dans le domaine du climat et de l’énergie. Ceci, dans le but de contribuer aux objectifs de l’Europe en matière d’énergie à l’horizon 2030 et à la neutralité climatique d’ici à 2050. La réforme a aussi pour finalité de préserver le marché unique de l’UE en mettant à jour le champ d’application et la structure des taux d’imposition et en rationalisant l’utilisation des exonérations et réductions fiscales facultatives. Mais pour l’heure, aucun compromis n’a été trouvé et il n’est nullement envisagé un taux maximal de taxes.

De son côté, la Cour des comptes propose trois orientations possibles afin de donner à la fiscalité une plus grande lisibilité au regard des objectifs poursuivis par la France. Elle estime qu’une « réflexion structurante sur la fiscalité de l’énergie est nécessaire, tant pour garantir l’atteinte de nos objectifs de politique énergétique et climatique, que pour préserver les grands équilibres budgétaires de l’État. Les bouleversements récents et l’introduction de nouveaux outils de politique publique européens constituent un contexte favorable à la prise de décision sur le sujet. »

Des projets solaires aux dimensions titanesques

Dans le domaine de la production d’énergie solaire, des pays comme la Chine ou l’Inde, font sensation depuis plusieurs années. L’Inde, par exemple, accueille actuellement l’une des plus puissantes centrales solaires au monde. Situé en plein désert et visible depuis l’espace, le parc solaire de Bhadla s’étend en effet sur une superficie de 80 km², ce qui est énorme : c’est à peu près la taille de l’agglomération de Saint-Étienne Métropole ! À terme, le parc de Bhadla atteindra 2 245 MW.

Inde – projet hybride solaire-éolien Khavda / 30 GW

Si les dimensions du parc de Bhadla vous semblent colossales, attendez-vous à être surpris par l’ampleur des futurs projets solaires qui seront déployés en Inde. Le prochain projet d’ampleur, sera un parc hybride solaire-éolien implanté sur 538 km² de terres stériles, soit la taille de Lyon métropole ou cinq fois Paris intra-muros. Sa capacité atteindra 30 GW en 2027 et sa construction a déjà commencé puisque le premier GW a même déjà été mis en service.

Ces projets inédits sont néanmoins en accord avec les ambitions de l’Inde en matière d’énergie solaire dévoilées lors de la COP26 : atteindre 500 GW d’énergie renouvelable d’ici 2030.

Australie – projet SunCable / 6 GW

L’Australie se lance également dans la compétition en matière de fermes solaires géantes. Les plans d’un projet de ferme solaire de 120 km² viennent en effet d’être validés par les autorités australiennes. Mais ce projet, appelé SunCable, a une particularité : sur les 6 GW de capacité, un tiers de l’énergie produite servira à alimenter Singapour, via un câble sous-marin de 4 300 km de long !

La décision finale d’investissement sur le projet est attendue pour 2027. L’approvisionnement en électricité commencera, si tout se déroule bien, vers 2030.

Chine – projet Midong / 3,5 GW

Contrairement à SunCable, qui n’est pas encore sorti de terre, la ferme photovoltaïque de 3,5 GW du projet Midong, inaugurée en juin dernier, est déjà une réalité. Et le pays, qui est actuellement le premier producteur d’énergie solaire au monde avec une capacité de 180 GW, ne compte pas s’arrêter en si bon chemin. Car un autre projet d’une tout autre dimension a été récemment annoncé. D’une capacité de 8 GW, la future ferme solaire d’Ordos s’étendra ainsi sur plus de 800 km² au cœur du désert de Kubuqi, en Mongolie intérieure (nord de la Chine).

Émirats arabes unis – centrale solaire d’Al Dhafra / 2GW

Présentée comme la vitrine solaire des Émirats arabes unis, la centrale solaire Al Dhafra a été inaugurée juste avant que le pays n’accueille la COP28. D’une superficie de 21 km², cette centrale située à 30 km d’Abou Dhabi est le fruit d’une collaboration entre EDF et le Chinois Jinko Power Technologie et compte 4 millions de panneaux solaires.

Par ailleurs, le pays entend poursuivre son développement de l’énergie solaire, avec d’autres projets d’envergure. On peut citer le projet de centrale solaire de 1,5 GW à Khazna, signé par EDF et Korea Western Power Co (Kowepo) et dont la livraison est prévue pour 2027 ou encore celui d’Al Ajban, de 1,5 GW lui aussi.

Du désert et des projets solaires en pagaille

On peut également citer le parc solaire de Benban en Égypte et ses 1,65 GW, le parc solaire Chill Sun (2,25 GW) aux États-Unis ou encore le futur parc solaire de Dukhan au Qatar (2 GW d’ici 2030).

Et quid de l’Amérique du Sud ? On dit que le continent sud-américain a tout le potentiel pour devenir le premier producteur d’énergies renouvelables du monde : d’ici 2030, le continent pourrait ainsi lancer plus de 319 GW de projets d’énergie renouvelable, solaire et éolien confondus.

Il faut dire que, selon les experts, le désert d’Atacama, dans le nord du Chili, posséderait le plus haut niveau d’irradiation solaire du monde, avec plus de 3 000 kWh/m2, faisant du Chili un Eldorado photovoltaïque.

À ce rythme, il ne restera bientôt plus beaucoup de zones désertiques dans le monde, ce qui soulève d’autres problèmes : l’impact sur la biodiversité, mais aussi un potentiel impact négatif sur le réchauffement climatique, si l’on en croit de récents travaux publiés dans la revue Nature !

Des datacenters dans l’espace pour préserver notre environnement

Une récente étude menée par Thales Alenia Space considère que le lancement de centres de données dans l’espace est réalisable d’un point de vue technique et serait « bénéfique » pour l’environnement.

Lancé en 2023 et financé par la Commission européenne dans le cadre du programme Horizon Europe, le programme ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty) vise à étudier la faisabilité de datacenters dans l’espace pour atteindre l’objectif du Green Deal de l’UE, à savoir une émission nette de carbone nulle d’ici 2050.

Pour cette étude, Thales Alenia Space a coordonné un consortium européen de partenaires ayant des expertises complémentaires dans les domaines de l’environnement (Carbone 4, VITO), du cloud computing (Orange Business, CloudFerro, Hewlett Packard Enterprise), des lanceurs (ArianeGroup), et des systèmes orbitaux (DLR, Airbus Defence & Space, et Thales Alenia Space).

« Afin de réduire significativement les émissions de CO2 générées par le traitement et le stockage du numérique, les résultats de l’étude estiment que de telles infrastructures spatiales nécessiteraient le développement d’un lanceur dix fois moins émissif sur l’ensemble de son cycle de vie. De plus, les centres de données spatiaux ne nécessiteraient pas d’eau pour les refroidir, un avantage clé en période de sécheresse croissante », lit-on dans le rapport de Thales Alenia Space.

Les villes contre les datacenters

Les résultats de l’étude confirment également la viabilité économique du projet, avec une perspective de retour sur investissement de plusieurs milliards d’euros d’ici 2050.

Mais ce projet verra-t-il le jour alors que la direction de Thales Alenia Space vient d’annoncer son intention de supprimer 1 237 emplois en Europe, dont 980 postes en France ?

Thales Alenia Space n’est pas le seul à étudier la faisabilité d’un tel projet. Une équipe de la KAUST (King Abdallah University of Science and Technology) en Arabie saoudite a étudié la faisabilité de datacenters placés à haute altitude.

Publiée en septembre 2023, leur étude « Data Center-Enabled High-Altitude Platforms : A Green Computing Alternative » a évalué ce concept dans lequel les serveurs sont hébergés dans un dirigeable rempli d’hélium et ressemblant à un ballon dirigeable.

Selon les chercheurs, les plates-formes de haute altitude pourraient réaliser d’énormes économies d’énergie grâce à la température naturellement basse de la stratosphère et à leur capacité à capter l’énergie solaire.

Mais pourquoi de tels projets ? L’informatique risque la surchauffe ! Selon l’Agence internationale de l’énergie (AIE), la demande d’électricité pourrait doubler d’ici 2026 en raison de la croissance exponentielle de la charge des datacenters.

Pour répondre à la forte demande des entreprises, mais aussi du grand public avide de streaming, les hyperscalers (terme donné aux géants des datacenters comme Google, Microsoft, Amazon web service…) et autres hébergeurs de données bâtissent à tour de bras des centres de données.

Mais de plus en plus de voix se font entendre pour empêcher ces constructions. Cinquième hub mondial du trafic Internet, Marseille (mais aussi Rennes) veut réguler ces implantations.

Leka, le robot au service des enfants en situation de handicap

Ladislas de Toldi, cofondateur de Leka
Ladislas de Toldi / Crédit : Leka @ APF France handicap

Commercialisé depuis 2022, Leka est un outil ludo-éducatif composé d’un robot sphérique, lumineux et capable de se déplacer, ainsi que d’une application sur tablette. Destinée aux professionnels de santé, la solution permet d’engager les enfants en situation de handicap dans des dizaines d’activités interactives afin de travailler des apprentissages de manière ludique. Ladislas de Toldi, cofondateur et project manager de Leka, présente sa solution.

Techniques de l’Ingénieur : Qu’est-ce que Leka ?

Ladislas de Toldi : Leka est une solution ludo-éducative à destination des professionnels qui accompagnent les personnes en situation de handicap. La solution se compose de deux parties. D’un côté, nous avons le robot qui s’appelle aussi Leka, qui est un robot sphérique, capable de se déplacer, de changer de couleur, d’afficher des images sur un écran, de vibrer etc. Et de l’autre côté, nous avons une application éducative qui fonctionne sur iPad, dans laquelle il y a du contenu éducatif que nous développons nous-mêmes. Ce contenu permet de travailler différentes compétences comme la motricité, la reconnaissance des couleurs, la reconnaissance des émotions…

Leka propose de nombreuses activités aux enfants
Couplé à un iPad, Leka propose de nombreuses activités aux enfants / Crédit : Leka @ APF France handicap

Comment est née votre solution ?

L’idée de Leka est née en 2011, lorsque j’étais étudiant ingénieur à l’école de biologie industrielle de Cergy-Pontoise. Lors d’un cours de design, notre professeur nous a demandé d’imaginer un outil, type jouet, que les professionnels de santé qui accompagnent son fils autiste pourraient utiliser. Nous avons eu cette idée de “bulle”, d’objet sphérique qui viendrait interagir avec l’enfant. Puis j’ai réutilisé cette idée dans un deuxième projet de création de produit pour une entreprise fictive. Nos prototypes ont très bien fonctionné auprès du public cible, et on s’est rendu compte qu’à cette époque-là, on parlait peu de l’autisme en France, et peu de solutions existaient. En parallèle, des études commençaient à montrer que les nouvelles technologies, en particulier la robotique, pouvaient avoir un apport important pour les professionnels, notamment pour l’engagement des jeunes patients. Pourtant, ces demandes avaient du mal à se rencontrer parce que les solutions développées pour la recherche n’étaient pas du tout duplicables pour un usage réel.
Lorsque le projet scolaire s’est terminé, j’ai eu envie de poursuivre. Ma cofondatrice Marine Couteau m’a rejoint en 2014 et nous avons créé la start-up fin 2014. Nous avons connu des hauts et des bas, notamment financiers, jusqu’à ce que l’association APF France Handicap reprenne les actifs de la société en 2019. Depuis 2022, nous vendons notre produit en France et en Europe.

Comment avez-vous pensé votre solution et comment a-t-elle évolué depuis sa création ?

Initialement, nous voulions que le robot soit très intelligent, mais après différents tests en environnement naturel d’utilisation, nous avons compris qu’il était préférable que l’intelligence soit externe au robot et qu’il soit commandé par cette intelligence. C’est là que nous avons eu l’idée d’une application sur tablette connectée par Bluetooth. Nous avons développé notre application sur iOS, car les iPad étaient très présents dans le milieu du handicap. Concernant les matériaux, nous avons décidé de respecter les normes du jouet, qui sont plus exigeantes sur la solidité, et la nécessité d’absence de danger en cas de casse. Nous avons conçu Leka pour qu’il ne puisse pas se casser donc nous sommes partis sur du plastique.
Enfin, nous avons développé le contenu en étant accompagné par des professionnels de santé et en se calquant sur les bonnes pratiques ou sur les programmes qu’ eux-mêmes utilisent. Par exemple, pour apprendre à compter, il y a des étapes bien définies et ce sont ces étapes que l’on implémente par le biais de Leka. Nous n’inventons donc pas une nouvelle méthode d’accompagnement, mais nous venons comme un outil en support des méthodes existantes.

Leka est composé d'un robot et d'une application sur tablette
Leka est composé d’un robot et d’une application sur tablette / Crédit : Leka @ APF France handicap

En quoi Leka est adapté aux enfants en situation de handicap ?

Pour certains enfants, l’apprentissage de compétences comme la distinction des couleurs ou des émotions, la motricité, la communication, se fait assez naturellement. En revanche, pour des enfants autistes, trisomiques, polyhandicapés, ces apprentissages sont plus complexes. C’est là que Leka intervient. Le robot permet aux enfants d’être beaucoup plus engagés dans les activités d’apprentissage proposées par les psychologues, ergothérapeuthes, psychomotriciens. En effet, la difficulté de beaucoup de professionnels est de réussir à impliquer les enfants dans des séances de travail, donc ils sont à la recherche d’astuces pour motiver les enfants. Leka vient répondre à cette problématique car les enfants l’adorent. Tout notre contenu est vraiment pensé et organisé pour ces professionnels, et c’est également pour cela que nous ne vendons pas Leka à des particuliers. Notre solution vient en support à l’accompagnement des professionnels, mais ne le remplace pas.

Quelles activités peut-on faire avec Leka ?

Il y a par exemple ce qu’on appelle le loto des couleurs. L’apprentissage des couleurs est un prérequis à plein de choses donc les enfants les apprennent très tôt. Vous voulez traverser la rue ? Il faut reconnaître si le petit bonhomme est rouge ou vert pour savoir si on peut traverser. Pour travailler cet apprentissage, Leka choisit une couleur de manière aléatoire et l’enfant doit cliquer sur la tablette sur la même couleur que celle présentée par le robot. Avec les retours des professionnels qui faisaient évoluer la consigne en demandant aux enfants de verbaliser la couleur ou de montrer d’autres objets de la même couleur dans la pièce, nous avons créé d’autres activités en lien avec cet apprentissage, en faisant progresser la difficulté. Nous avons aussi une activité très amusante de cache-cache, une activité de musique au xylophone où les notes sont liées à des couleurs. Aujourd’hui, nous avons environ 250 activités rassemblées ensuite dans ce qu’on appelle des parcours. Un parcours, c’est un ensemble d’activités avec un séquençage de la progression qui permet de partir d’un point A et aller au point B avec l’objectif d’apprendre une compétence.

Comment faire pour que Leka soit accessible à tous les enfants, quel que soit leur handicap ?

L’accessibilité est vraiment notre fil conducteur depuis le début. Par exemple, nous avons des activités qu’on appelle drag and drop, où les enfants utilisent la tablette pour cliquer et déposer des objets dans un panier. Or pour des enfants polyhandicapés qui utilisent un joystick avec leur langue pour déplacer leur fauteuil roulant, cette activité n’est pas possible. Nous avons fait en sorte de pouvoir brancher leur joystick à la tablette, et l’activité s’adapte pour devenir du touch and select. Les enfants travaillent donc la même compétence, et l’expérience utilisateur change selon les besoins.

Quels sont vos projets avec Leka ?

Nous avons une liste longue comme le bras de contenus que nous souhaitons développer. Il faut savoir que dans le robot, certains composants sont installés mais pas encore activés. Par exemple, nous ne sommes pas encore pleinement satisfaits de tout ce qui lié au son, mais il pourra y avoir d’autres activités musicales quand nous aurons fait les mises à jour. Nous travaillons aussi sur la meilleure manière de guider les professionnels vers le contenu dont ils ont besoin. Ensuite, concernant le robot lui-même, nous avons plein d’idées pour une V2 mais nous ce n’est pas encore le moment de travailler dessus car nous apprenons encore de la version initiale. Nous aimerions aussi améliorer notre processus de ventes. Aujourd’hui, Leka se vend bien, mais ce sont essentiellement les structures et les professionnels qui nous contactent. Nous aimerions aller davantage vers du prospectif.

Propos recueillis par Alexandra Vépierre


Crédit photo de Une : Leka @ APF France handicap

Des mondes virtuels aux impacts environnementaux bien réels

Marlène De BANK-Shift Project
Marlène De Bank est Ingénieure de recherche Numérique au Shift Project (Crédit photo : Marlène De Bank)

The Shift Project est un think tank qui œuvre en faveur d’une économie libérée de la contrainte carbone.

Marlène De Bank copilote des projets sur l’impact environnemental des technologies numériques au sein du Shift Project.

L’objectif de ces projets est de décrire un système numérique sobre et résilient ainsi que les moyens d’y parvenir.

Joris COUDREAU-Shift Project
Joris Coudreau est consultant indépendant et contributeur au Shift Project (Crédit photo : Gwenola Lemasson)

Joris Coudreau est consultant en stratégie bas carbone, sobriété numérique, résilience climatique.

Il contribue également aux travaux du programme « Lean ICT » du Shift Project concernant l’évaluation des impacts énergétiques et climatiques du secteur numérique.

 

Techniques de l’ingénieur : Mondes virtuels et réseaux – Pourquoi avoir scindé vos travaux en deux rapports ?

Marlène De Bank : Lorsque nous cherchons à évaluer l’empreinte carbone d’une activité, nous avons l’habitude de séparer l’offre de l’usage. Une fois que l’offre est installée, les usages peuvent alors se développer.

Pour ce qui est du numérique, « l’offre » inclut notamment les infrastructures et les réseaux. Nous avons eu l’idée de traiter le sujet des mondes virtuels quand la Commission européenne a commencé à publier des documents évoquant la 6G comme un prérequis nécessaire à leur développement.

Nos prochains travaux sur l’IA seront calés sur le même modèle, puisque nous traiterons le lien intime entre les centres de données et l’utilisation de l’IA, mais tout sera inclus dans le même rapport.

Joris Coudreau : Ce sont deux faces d’une même pièce. Il était donc intéressant pour le Shift Project d’en capter la double lecture, dans un contexte de double contrainte carbone.

Pourquoi parler de double contrainte carbone ?

MDB : Au Shift Project, on parle de double contrainte carbone, pour mettre en avant deux problématiques. Il y a d’un côté la nécessité de réduire nos émissions de gaz à effet de serre – la contrainte climatique – et de l’autre l’urgence de réduire notre consommation de pétrole et de gaz avant que l’épuisement des ressources fossiles nous y oblige. Prendre le problème sous ces deux angles pousse donc à y réfléchir deux fois plus.

JC : Il ne faut pas oublier non plus que la transition climatique va consommer des ressources et des minerais pour la construction des centrales énergétiques (nucléaire, solaire, éolien, etc.) Au final, l’humanité dispose d’un budget carbone et ressources qui est limité. Il est donc capital de ne pas gaspiller ce budget pour développer des technologies qui contribueront à aggraver la situation.

Les mondes virtuels : quelle est la part de science-fiction dans ce concept ?

MDB : Un sociologue de notre groupe de travail considère le métavers comme un exemple « d’objet frontière », un point un peu lointain qui n’a pas besoin d’exister, qui n’existera peut-être jamais, mais qui montre la direction à suivre. Dans le même sens, je dirais que le métavers et les mondes virtuels sont une « photo-finish », un concept mis en avant par des géants technologiques comme Meta, dans l’écosystème d’acteurs numérique, mais aussi dans les films. Or, si on veut aller vers cette « photo finish », il faudra alors développer un ensemble de technologies : cartes graphiques, casques de réalité virtuelle, réseaux, etc.

Pour l’étude, nous sommes donc partis des offres actuelles et des promesses des géants du numérique au sujet du métavers. Notre démarche était simple : prendre au sérieux les annonces qui sont faites dans la presse, mais aussi dans les projections d’investissement proposées par les cabinets d’intelligence économique. Quand un grand cabinet dit, par exemple « Le métavers sera utilisé par 25 % des habitants de la planète en 2026 » et que les acteurs du numérique font des choix technologiques permettant d’y répondre, on se dit « ok, si vous voulez faire ça, voici quel sera l’impact ».

Notre travail n’était pas non plus d’imaginer les scénarios les plus fous ni de faire des prédictions, plutôt de montrer les conséquences énergétiques et climatiques de tels choix, même si on sait que la réalité sera probablement très différente.

Certains experts présentent le métavers comme un outil de transformation durable, avec un intérêt écologique. Que peut-on en penser ?

JC : Je vais me faire un peu l’avocat du diable en donnant les arguments « tech for green ». En effet, dans certains cas, le métavers pourrait contribuer à réduire notre impact environnemental et nous aider à décarboner l’économie. C’est un sujet que nous avons gardé en tête tout au long de notre étude, mais en apportant des nuances.

Prenons un cas d’usage, celui de la métaconférence, que nous avons utilisé comme exemple lors de la présentation de l’étude. À la différence d’une conférence physique, une métaconférence est un événement immersif organisé dans le métavers. L’idée est de dire : en réunissant tout le monde dans un univers virtuel, on supprime les barrières physiques et on augmente le sentiment d’immersion à tel point que les déplacements deviennent moins utiles. Cela peut donc réduire la pression sur les transports en économisant de l’énergie et du CO2.

Néanmoins, il y a un problème avec ce scénario. En général quand de nouvelles technologies sont mises en place, il y a un fort effet rebond et pas de réelle substitution. On risque donc de se retrouver avec des gens qui font quasiment autant de déplacements qu’avant et qui feront des conférences avec un casque sur la tête. Au final, les impacts du « virtuel » (fabrication du casque et de la carte graphique, infrastructures, consommation liée à l’échange de données…) s’ajouteront sans doute dans la plupart des cas aux impacts existant déjà.

Car, la visioconférence telle que nous la faisons aujourd’hui est également questionnable, avec des flux vidéo qui ont un impact lourd.

L’adoption de la métaconférence aurait-elle un impact si important ?

MDB : Dans le rapport[1], nous avons essayé de quantifier cet impact selon différents scénarios. Nous faisons l’hypothèse de 400 millions d’utilisateurs (nombre d’utilisateurs d’Outlook en 2015) qui pourraient être séduits par la métaconférence au lieu de la visioconférence, une heure par jour, d’ici 2030. Avec ce scénario, encourager le développement de la métaconférence impliquerait 26 MtCO2eq/an pour les casques et 28 MtCO2eq/an pour les réseaux, au niveau mondial.

En clair, bénéficier de l’immersion engendrerait des émissions de gaz à effet de serre équivalentes à 6,4 fois les efforts de réduction d’émissions atteints par la France chaque année. Cela doit nous inciter à y réfléchir à deux fois avant d’encourager ce service !

Que retenir de ces deux rapports ?

JC : Ce qu’il faut retenir c’est que le développement de technologies nouvelles ajoute de la complexité, consomme des ressources et émet du CO2. Or, nous vivons dans un monde limité par l’accessibilité aux ressources physiques. Nous sommes pourtant déjà au pied du mur, mais certains ont des œillères.

Si nous choisissons de développer ces technologies et qu’elles commencent à émerger, le problème sera : « Pendant combien de temps pourrons-nous le faire ? ». Et surtout : « Pendant que l’on fait ça, qu’est-ce qu’on ne fait pas pour accélérer la transition et aller vers un futur soutenable ? »

MDB : En termes de ressources, la limite est encore plus proche au niveau français et européen. Par exemple, nos terminaux ne sont pas produits sur notre sol. La récente pénurie de composants électroniques devrait nous alerter sur l’importance de lever le pied en termes d’achats électroniques. Du strict point de vue des ressources, développer des technologies qui rendraient toutes nos entreprises dépendantes de l’achat de casques de VR ou d’ordinateurs plus puissants est donc un risque !

Avec ces études, nous voulons pousser les acteurs du numérique et les décideurs à bien peser le pour et le contre. Nous voulons qu’ils puissent faire le tri, service par service, entre ce qui est vraiment utile et ce qui est superflu au regard des ressources consommées.

Quel message voulez-vous faire passer ?

JC : Nous demandons aux entreprises et aux politiques de prendre les bonnes décisions au regard des contraintes environnementales. À chaque étape, ils doivent se demander si leurs choix technologiques vont alléger ou alourdir encore l’empreinte environnementale.

À l’échelle de l’UE et de la France, il serait d’ailleurs souhaitable de contraindre les décisions à des études d’impact préalables comme celles-ci.

Nous préconisons aussi de repenser le concept d’innovation en allant vers l’innovation frugale. Car parfois, la vraie innovation c’est « de ne pas la faire » si elle n’apporte pas grand-chose et consomme des ressources inutilement.

Pour cela il faut aussi développer une culture de la sobriété en entreprise, vis-à-vis du numérique. Il est également capital de former les personnes, profils techniques et commerciaux notamment, à voir plus loin que l’objet sur lequel ils travaillent.


[1] cf. pages 40 et 41

 

L’Europe teste un portefeuille numérique pour renforcer et prouver son identité

Avec l’exploitation malveillante de l’IA pour créer de faux comptes et identités, il devient de plus en plus difficile de s’assurer que nous avons affaire à la bonne personne. C’est un enjeu de sûreté nationale. Mais certaines entreprises privées cherchent également à reconnaître les faux passeports dans le cadre de leur activité.

Pour les faussaires, reproduire des passeports français est de devenu quasi impossible, car plus de 100 niveaux de sécurité sont intégrés dans ce sésame biométrique. Mais les cartes d’identité restent plus faciles à copier, ce qui attire toujours les malfrats.

La situation devrait se corser pour eux avec l’arrivée dès 2026 de l’identité numérique de l’UE ou eID. Ce « portefeuille numérique » sera disponible pour les citoyens, les résidents et les entreprises de l’UE qui souhaitent s’identifier ou fournir une confirmation de certaines informations personnelles. Elle pourra être utilisée pour les services publics et privés, en ligne et hors ligne, dans toute l’UE.

L’inventeur du web

L’identité numérique de l’UE pourra être utilisée dans de nombreux cas. Par exemple, pour des services publics tels que la demande d’un certificat de naissance, la déclaration d’un changement d’adresse, l’ouverture d’un compte bancaire, la déclaration d’impôts… Elle facilitera la location d’une voiture à l’aide d’un permis de conduire numérique et la réservation dans un hôtel.

« Les citoyens auront à tout moment un contrôle total sur les données qu’ils partagent et sur les personnes qui les communiquent », affirme la Commission européenne. Des projets pilotes à grande échelle sont en cours pour tester les spécifications techniques et les prototypes de logiciels du portefeuille d’identité numérique de l’UE dans divers secteurs et dans plusieurs pays européens.

Ces projets pilotes visent notamment à évaluer la facilité d’utilisation du portefeuille dans des scénarios tels que l’accès aux services gouvernementaux, l’ouverture de comptes bancaires et la facilitation de paiements en ligne sécurisés, avec la participation d’entreprises privées et d’autorités publiques de la Norvège, de l’Islande et de l’Ukraine.

L’eID n’est pas le premier projet dont l’ambition est de redonner le pouvoir aux citoyens à propos du partage des données personnelles. En 2020, Tim Berners-Lee, créateur du World Wide Web, crée sa start-up Inrupt et lance un projet de logiciel libre, appelé Solid.

L’idée est que les internautes disposent d’un magasin de données privées et qu’ils choisissent les organisations qui peuvent y accéder, dans quel but et pour combien de temps.

Appelée « Personal Online Data Stores » (PDS), cette solution a été reprise par deux entreprises, Graphmetrix et Digita. En Belgique, Athumi travaille sur plusieurs projets utilisant Solid. Son premier projet a été lancé en 2023 en collaboration avec la société de recrutement Randstad, avant d’être déployé avec d’autres sociétés de recrutement. En 2024, Athumi prévoit d’étendre cette application à 30 000 utilisateurs.

Recyclage des éoliennes : où en est-on ?

Une éolienne a en moyenne une durée de vie de 25 ans. Ce chiffre varie selon le type d’éolienne bien sûr, mais reste valable pour la majeure partie de la structure, et particulièrement vrai en ce qui concerne les pâles. 

Ces dernières étaient fabriquées, pour les plus anciennes, dans des matériaux difficiles à recycler. En effet, les premières générations de pâles d’éoliennes étaient majoritairement constituées de résines époxy ou de polyesters renforcés de fibre de verre ou de carbone. Cela les rend compliqué à recycler, car il est difficile de séparer ces matériaux

D’où leur entreposage ou leur enfouissement – en Chine par exemple – qui sont très polluants, et d’ailleurs interdits dans de nombreux pays, dont la France.

En France justement, les premiers parcs éoliens ont été démantelés en 2017, dans le but de rendre les installations plus performantes et productives, en les modernisant. Mais depuis le 1er juillet 2020, la loi anti gaspillage fixe des objectifs de recyclage pour les parcs éoliens démantelés après le 1er janvier 2022. Ainsi, 90% de la masse de l’aérogénérateur et 35% de celle du rotor doivent être recyclés ou revalorisés. Dès 2025, l’ADEME table sur 3 000 à 15 000 tonnes de matériaux composites issus du démantèlement d’éoliennes à traiter chaque année, avec l’objectif, dès 2024, d’être en capacité de recycler 95% de la masse des éoliennes hors d’usage.

Ce calcul inclut les fondations, avec l’ambition de recycler 100% des matériaux constituant les éoliennes à horizon 2040.

De quoi est composée une éolienne ?

Les matériaux composant les éoliennes ont évolué depuis leur première génération, pour devenir de plus en plus simples à recycler. 

Les différentes parties d’un éolienne sont aujourd’hui composées des matériaux suivants : 

  • Nacelle et moyeu : Acier et composites de résines, de fibre de verre et de carbone.
  • Pales : Composites de résines, de fibres de verre et de carbone.
  • Mât : Béton et acier.
  • Transformateur et installations de distribution : Déchets électroniques et électriques.
  • Fondations : Béton et acier.

Parmi les composants cités ci-dessus, l’acier, le béton, l’aluminium et le cuivre sont aujourd’hui recyclables à 100%. Les autres composants, électriques et électroniques, peuvent être reconditionnés et revendus à hauteur de 30 à 50% de leur prix neuf.

Ces pièces reconditionnées ont permis l’émergence d’un marché des éoliennes de seconde main, à destination des pays de l’est de l’Europe et de l’Afrique.

Restent les pales, qui constituent aujourd’hui le nerf de la guerre du recyclage des éoliennes. 

Lorsqu’elles sont composées de fibre de verre, les pales peuvent être broyées et revalorisées sous forme de combustible dans la cimenterie par exemple, en remplacement des combustibles fossiles. Les fibres de carbone vont quant à elles plutôt être valorisées via la pyrolyse.

Les broyats intéressent également la recherche de par leurs qualités en termes de résistance, avec de nombreuses applications industrielles à la clé. 

In fine, l’objectif de la filière éolienne est bien sûr de mettre en œuvre des pales 100% recyclables, comme c’est déjà le cas pour certaines éoliennes offshore. Cela devrait être le cas d’ici deux à trois ans.

Quoi qu’il en soit, la constitution d’une filière de recyclage éolienne rentable économiquement, si elle constitue une obligation au regard des dernières évolutions de la loi, est également une nécessité environnementale. En effet, la quantité de matériaux, et notamment les fondations, qui représentent parfois plus de 1000 tonnes de béton, constituent une empreinte écologique indiscutable, au-delà de la problématique des pales.

La France, mauvaise élève de l’Europe dans la gestion des déchets plastiques

1,6 milliard d’euros. C’est le montant versé par la France à l’Union européenne en 2023 au titre de la « taxe plastique ». Ce chiffre a été dévoilé dans un rapport réalisé, entre autres, par l’IGF (Inspection générale des finances) et dans lequel les auteurs jugent défaillante la filière française de recyclage des emballages ménagers en plastique. L’an dernier, l’hexagone est devenu le pays de l’UE ayant le plus contribué à cette taxe instaurée en 2021 et basée sur les quantités de déchets d’emballages en plastique non recyclé, à raison de 800 euros la tonne.

Sans surprise, le taux de recyclage des emballages plastiques en France est faible, il est même le plus bas de toute l’UE : 23 %, alors que la moyenne des Vingt-sept est à 40 %. La Slovaquie est la championne de l’UE dans ce domaine (60 %), tandis que l’Allemagne se situe à 48 %. L’hexagone est aussi pénalisé par sa forte production de déchets plastiques : 55,5 kg par habitant contre 44,6 kg en moyenne dans l’UE, d’après un rapport de l’Ademe. À cette consommation, s’ajoutent également les déchets de fabrication provenant des chutes de matière et de rebuts issus de la fabrication industrielle. À l’image de ses voisins européens, plus de 60 % des volumes de déchets plastiques produits en France proviennent d’emballages ménagers, industriels et commerciaux, le reste des secteurs de la construction, de l’automobile, de l’agriculture…

D’où viennent les difficultés de la France à limiter et à traiter ces déchets ? Des mesures ont pourtant été prises depuis près d’une dizaine d’années pour y faire face. En 2015, la loi relative à la transition énergétique pour la croissance verte a interdit les sacs plastiques à usage unique de caisse dans les supermarchés l’année suivante. En 2020, la loi AGEC (Anti Gaspillage pour une Economie Circulaire) prévoit notamment un objectif de réduction de 50 % du nombre de bouteilles en plastique à usage unique mises sur le marché d’ici 2030, et ce dans une perspective de mettre fin à la mise sur le marché d’emballages en plastique à usage unique d’ici à 2040.

Des éco-organismes insuffisamment contrôlés

D’après une note de l’OPECST (Office parlementaire d’évaluation des choix scientifiques et technologiques), le recyclage des déchets plastiques en France se heurte à plusieurs obstacles, et l’un d’eux se situe au niveau du contrôle insuffisant des éco-organismes en charge du fonctionnement des filières à responsabilité élargie des producteurs (REP). Ces dernières reposent sur le principe de pollueur-payeur, ce qui signifie que les personnes qui mettent sur le marché les produits, sont rendues responsables du financement ou de l’organisation de la prévention et de la gestion des déchets issus de ces produits en fin de vie.

Or, selon l’OPECST, le fait que les actionnaires des éco-organismes sont ceux-là mêmes qui mettent sur le marché desdits produits à recycler, peut conduire à un affaiblissement de leur efficacité, voire « entraîner des décisions sous-optimales, en dépit des dispositions récentes prises dans la loi AGEC pour impliquer davantage les éco-organismes dans le réemploi des produits et la réduction des déchets. » L’institution pointe également du doigt la manière dont le marché du recyclage est organisé en France et qui donne « aux éco-organismes une influence décisive sur les orientations stratégiques en matière de recyclage qui mériteraient d’être encadrées en étroite concertation avec les autres parties prenantes, dont les collectivités territoriales et le Parlement. »

Des difficultés pour accéder au gisement que représentent les déchets plastiques sont également mises en évidence par l’OPECST. En 2020 par exemple, sur les 2,35 millions de tonnes de déchets d’emballages plastiques produits en France, seule 0,78 tonne a fait l’objet d’une collecte sélective, soit 33 %. À cela, s’ajoute une qualité des déchets qui n’est pas toujours au rendez-vous. Ceux servant d’emballages peuvent se retrouver souillés et contenir un mélange d’emballages alimentaires et non alimentaires, entraînant des contaminations. Or, la qualité des plastiques collectés a un impact déterminant sur la qualité du recyclage. Enfin, les auteurs de la note de l’OPECST soulignent que l’existence d’usines de recyclage en nombre suffisant reste un enjeu structurel majeur pour le développement du recyclage.

Mais qu’on ne s’y trompe pas, en matière de gestion des déchets plastiques, la priorité doit être donnée à leur réduction, puis les efforts doivent être portés au développement du réemploi, à la réutilisation et à la réparation, et ce n’est en dernier lieu qu’il convient d’inciter au recyclage.

6 articles autour du congrès de la Société Française de Génie des Procédés

La Société Française de Génie des Procédés (SFGP) organise son 19ème congrès, au Centre International de Deauville, du 15 au 17 octobre 2024. La SFGP a pour vocation de développer les échanges scientifiques et de soutenir l’activité des professionnels des mondes académique et industriel du domaine du Génie des Procédés.

Au programme des conférences, des keynotes, des temps d’échange, des présentations de posters autour des thématiques suivantes : 

  • agro et bio-ressources,
  • écosystèmes industriels,
  • formation, enseignement et projets de recherche,
  • maîtrise de la ressource en eau,
  • méthodes et outils au service des procédés,
  • procédés pour la santé,
  • transition énergétique et industrielle.

Techniques de l’Ingénieur décernera le Prix Poster Spécial lors de la soirée de gala du 16 octobre. Ce prix valorisera une recherche réalisée par des industriels.

A cette occasion, découvrez les articles en libre accès, jusqu’au 31 octobre 2024 : 

Pour plus d’information sur le congrès, cliquez ici.

De nouvelles aides de l’Ademe pour soutenir l’électrification des véhicules lourds

Un coup de pouce pour aider à la décarbonation du transport routier. L’Ademe vient de lancer un nouvel appel à projet destiné à aider les entreprises de ce secteur ainsi que les collectivités territoriales à l’acquisition de véhicules lourds électriques. Outre l’achat, l’aide accordée permettra aussi la location longue durée ou le rétrofit, c’est-à-dire le remplacement d’un moteur thermique par un système électrique. Dotée d’une enveloppe globale de 110 millions d’euros, 95 millions d’euros seront réservés aux poids lourds 100 % électriques à batterie (hors bennes à ordures ménagères), 10 millions aux autobus et navettes urbaines dont le ressort territorial compte moins de 400 000 habitants et enfin 5 millions d’euros aux autocars.

Cette subvention vient en complément d’une première aide financière d’une enveloppe de 20 millions, actée en mai dernier, et réservée aux PME (Petites et moyennes entreprises) et aux TPE (Très petites entreprises), c’est-à-dire aux structures comptant moins de 250 salariés et dont le chiffre d’affaires annuel est inférieur à 50 millions d’euros. Là encore, ce sont les acteurs du transport qui sont ciblés, et cette aide est attribuée dans la limite d’un million d’euros par structure et 20 véhicules maximum.

Ces deux dispositifs s’inscrivent dans le cadre du programme d’économie d’énergie E-Trans de l’Ademe. L’enveloppe globale de 130 millions d’euros pour l’année 2024 doit permettre le soutien à l’acquisition d’au moins 2 100 véhicules lourds, dont au moins 85 % de poids lourds. Elle est destinée à contribuer à la mutation des flottes de véhicules lourds en France, dans le but de respecter les objectifs nationaux et européens de réduction des émissions de CO2.

Avec environ 30 % des émissions nationales, le secteur des transports est le premier contributeur aux émissions de gaz à effet de serre de la France, et ce depuis 1998. Le mode routier est responsable de la grande majorité des émissions dues aux transports intérieurs, avec une part approchant 95 %. Plus de la moitié de ces émissions (53 %) proviennent des voitures particulières, 27 % des véhicules lourds et 15 % des véhicules utilitaires légers. À noter que 74 % des émissions attribuables au secteur des transports sont générées par des véhicules à motorisation diesel.

Réduire les émissions de CO2 des véhicules lourds neufs de 90 % en 2040

En mai dernier, un règlement a été publié au Journal officiel de l’Union européenne relatif aux normes d’émissions de CO2 pour les véhicules lourds, qui modifie et renforce les règles existantes s’appliquant aux États membres. Les nouvelles règles maintiennent l’objectif actuel fixé pour 2025, à savoir une réduction de 15 % des émissions de CO2 moyennes du parc de l’UE de nouveaux véhicules lourds, par rapport à 2019. Pour les années suivantes : une réduction des émissions de 45 % a été actée à partir de 2030 (l’objectif était auparavant de 30 %), de 65 % à partir de 2035 et de 90 % à partir de 2040.

Ce règlement s’applique aux camions moyens, aux camions lourds de plus de 7,5 tonnes et aux autocars, ainsi qu’aux véhicules professionnels correspondants à partir de 2035. Les nouvelles règles introduisent également un objectif de 100 % de nouveaux autobus urbains zéro-émission d’ici à 2035, tout en fixant un objectif intermédiaire de 90 % pour cette catégorie d’ici à 2030. Les autobus interurbains sont toutefois exemptés de cet objectif.

Dans le cadre de sa stratégie nationale bas-carbone (SNBC), la France a identifié cinq leviers sur lesquels agir pour réduire les émissions dans le domaine des transports. En plus de décarboner l’énergie consommée par les véhicules, l’objectif est d’améliorer leur performance énergétique en baissant leur consommation, de maîtriser la croissance de la demande pour le transport, de recourir au report modal vers par exemple le ferroviaire et enfin d’optimiser l’utilisation des véhicules en améliorant leur taux de remplissage.

SolReed : la jeune pousse savoyarde qui compte bien faire rayonner le réemploi de panneaux solaires

Incubée dans le cadre du programme Magellan du CEA, SolReed est pour l’heure hébergée au sein de l’Institut national de l’énergie solaire, implanté en Savoie, au Bourget-du-Lac. Grâce à un partenariat établi avec ENGIE Green, la start-up a pu mener à l’été 2023 un test de diagnostic et de réparation d’une centaine de panneaux mis à sa disposition. Concluante, l’opération a ainsi d’ores et déjà permis à SolReed de faire la preuve de la pertinence de son approche, qu’elle va donc désormais amener jusqu’à l’échelle industrielle grâce à une feuille de route R&D étalée sur trois ans. Un travail qu’elle compte notamment financer en déposant, d’ici la fin de l’année, une demande de subvention auprès de l’Ademe. Entretien avec Luc Federzoni, qui fait pour nous toute la lumière sur la genèse et les ambitions de la jeune pousse dont il est le cofondateur.

Techniques de l’Ingénieur : Quelles ont été les grandes étapes qui vous ont amené à cofonder SolReed ? Quels sont vos axes de travail actuels et à venir ?

SolReed
Après plusieurs années de travail préliminaire, Luc Federzoni (à droite) a cofondé SolReed en 2023 aux côtés de Matthieu Verdon (à gauche). © SolReed

Luc Federzoni : L’aventure SolReed tire son origine d’un projet européen mené au sein du CEA autour de la gestion de la fin de vie et le recyclage des modules photovoltaïques (PV) : CABRISS. Dans le cadre de ce projet, nous nous sommes en effet aperçu que bon nombre des panneaux en fin de vie que nous fournissaient les éco-organismes fonctionnaient en fait encore. Plus ou moins bien, certes, mais une majorité d’entre eux donnaient en tout cas des signes de vie. Cela nous a mis la puce à l’oreille…

Nous avons donc décidé de nous pencher sur le sujet, à la faveur d’une deuxième salve de projets européens, et plus particulièrement de CIRCUSOL[1], avec l’objectif de répondre à une question centrale : quel business model pour créer un marché de la seconde vie dans le domaine du photovoltaïque ?

J’ai ainsi commencé à creuser le sujet il y a deux ans environ, au sein du CEA, avec l’objectif de trouver les moyens de passer à l’échelle industrielle. Ma première motivation était écologique : il me paraissait inacceptable de recycler des modules encore fonctionnels, qui ne nécessitaient que peu de travail pour retrouver de la valeur. De la valeur économique, certes, mais aussi sociale. Un autre grand moteur de mon initiative a en effet été la création d’emplois, et plus particulièrement d’emplois en insertion.

Fin 2022, j’ai pu commencer à bénéficier d’un dispositif d’accompagnement mis en place par le CEA : le programme Magellan, une rampe de lancement qui va de la pré-maturation à l’incubation. L’année dernière, j’ai été rejoint par Matthieu Verdon, avec qui j’ai ainsi cofondé SolReed, une start-up hébergée au sein de l’Institut national de l’énergie solaire (INES). Nous sommes entrés en phase d’incubation en février dernier, et commençons, aujourd’hui, à voir le bout du tunnel. À la faveur d’une feuille de route R&D que nous avons établie sur trois ans, nous nous projetons désormais très clairement vers l’industrialisation des solutions que nous avons développées. Nous travaillons notamment à la création d’unités de diagnostic et de réparation mobiles, pour des interventions sur site. Tout cela avec l’appui scientifique et technique des équipes du CEA, sans qui tout cela n’aurait absolument pas été possible !

Enfin, nous menons aussi des discussions avec les assureurs, afin de faire valoir auprès d’eux l’assurabilité des modules PV de réemploi. Nous avons vraiment tout un écosystème à embarquer avec nous… !

Quelles sont justement ces solutions, ces approches, sur lesquelles vous travaillez ?

Nous avons la volonté de créer une chaîne de valeur la plus complète possible, de la première vie jusqu’au réemploi du module réparé. Ceci passe notamment par une phase de diagnostic de ces modules au sein des centrales dans lesquelles ils sont installés. Nous avons, sur ce plan, noué un partenariat avec ENGIE Green, dans le but de développer des technologies de diagnostic par couplage d’informations : images thermographiques, données électriques… Ce volet « diagnostic de modules » va encore nous demander un peu de R&D, mais nous pouvons compter, pour cela, sur les compétences de haut niveau du CEA.

Notre ambition est de mettre en place ces systèmes de diagnostic au sein même des centrales solaires, afin de détecter d’éventuelles défaillances au plus tôt. Et ce, non pas à l’échelle du string[2], mais bien à l’échelon individuel du module. C’est en effet ce qui nous permettra de mener des actions de réparation ciblées au niveau du ou des modules défaillants.

Ces actions de réparation pourront être effectuées sur place, sans démontage, ou, quand cela n’est pas possible, dans un atelier au plus proche. Nous démarrons aujourd’hui ces activités de réparation, en misant avant tout sur leur durabilité.

Nous cherchons ainsi également à qualifier les réparations effectuées, en nous appuyant, là aussi, sur le savoir-faire du CEA-INES. Nous menons notamment des tests de vieillissement accéléré de nos réparations, afin de garantir nos futurs modules, une dizaine d’année sans doute.

Nous maîtrisons aujourd’hui la réparation de six références de modules fournis par ENGIE Green. Cela peut sembler peu, mais représente en fait une part très importante du parc de panneaux PV aujourd’hui déployés au sein des centrales solaires des grands énergéticiens en Europe.

Très concrètement, en quoi consisteront ces opérations de réparation ? Jusqu’où serez-vous en mesure d’intervenir pour redonner vie à ces modules défaillants ?

Le plus simple, pour répondre à cette question, est d’indiquer ce que nous ne serons pas en mesure de faire… Nous ne pourrons notamment pas intervenir sur la casse de verre. Certains y travaillent, mais cela ne nous concerne pas pour l’instant. De même, tout ce qui implique d’ouvrir le « sandwich » constitutif du panneau, n’est pour l’heure pas une possibilité que nous explorons, car elle reste très coûteuse. Nous sommes, pour tout le reste, en mesure d’intervenir en respectant des objectifs de viabilité économique, avec, comme référence, le prix du module neuf. Ces opérations peuvent aller d’un simple nettoyage, à une soudure sous le backsheet[3], par exemple. Nous nous assurons aussi systématiquement que les performances de nos modules sont au rendez-vous. Nous vérifions aussi leur sécurité en réalisant des tests de courant de fuite sur 100 % d’entre eux.

Quel modèle de développement comptez-vous adopter pour industrialiser ces approches de diagnostic et de réparation ?

Nous avons, en France, un formidable tissu de spécialistes de l’insertion par le travail. Nous comptons donc nous appuyer sur ces acteurs qui disposent d’un très grand savoir-faire.

Ça n’est pas encore chose faite aujourd’hui faute de volumes, le réemploi de modules PV demeurant, pour l’heure, un marché naissant. Mais quand nous disposerons d’une masse critique de panneaux à traiter ; c’est vers ce modèle de partenariat que nous nous dirigerons. Je pense que cela pourrait se mettre en place d’ici à 2025, notamment sous l’impulsion de l’éco-organisme du secteur, Soren, mais aussi sous l’influence des acteurs de ce marché du photovoltaïque, qui sont en effet de plus en plus nombreux à manifester leur intérêt pour le réemploi. Tout l’écosystème se met au diapason. Avec un tel alignement de planètes, les choses vont très certainement accélérer d’ici peu.

L’Agence Internationale pour les énergies renouvelables (IRENA), table, à l’horizon 2050[4], sur une production annuelle de déchets liés au PV de l’ordre de 6 millions de tonnes au niveau mondial… Quelle part de ce gisement pourrait, selon vous, bénéficier d’une seconde vie ?

Nous avons évalué cet aspect dans le cadre d’un projet interne au CEA, et il s’avère que, quelle que soit l’échelle considérée, environ 50 % des modules sont valorisables. Un autre chiffre me semble encore plus parlant pour donner la mesure de ce gisement : rien qu’en 2023, 1 milliard de panneaux PV ont été installés dans le monde… Parmi eux, plusieurs centaines de milliers tomberont ainsi à coup sûr en panne un jour, et pourront donc potentiellement être réparés.

L’écoconception est par ailleurs une approche qui prend aujourd’hui de plus en plus d’ampleur. Avez-vous éventuellement pu établir des liens avec des constructeurs de panneaux pour faciliter, en amont, leur réparation future ?

Cela aura été formidable ! Mais au vu de la situation de l’industrie du photovoltaïque en Europe, cela n’est tout simplement pas possible, malheureusement. Toute la production est aujourd’hui partie en Asie, et nous n’avons pas encore pu mener de discussions avec les industriels chinois. Il nous faudra en tout cas le faire un jour. Nous avions d’ailleurs entamé des discussions à ce sujet avec le Français Systovi, qui a malheureusement annoncé la cessation de ses activités en avril dernier…


[1] Circular Business Models for the Solar Power Industry, soit « Modèles économiques circulaires pour l’industrie de l’énergie solaire ».

[2] « Chaîne », « série » de panneaux PV.

[3] Feuille arrière, ou feuille de fond.

[4] D’après IRENA and IEA-PVPS (2016), « End-of-Life Management : Solar Photovoltaic Panels », International Renewable Energy Agency and International Energy Agency Photovoltaic Power Systems.

La revue du Magazine d’Actualité #6 : du 7 au 11 octobre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Cap sur les eaux recyclées pour une production agroalimentaire plus sobre

Deux nouveaux textes officiels permettent aux industries de limiter leur impact sur les ressources en eau tout en respectant les normes en vigueur. L’utilisation d’eaux recyclées est notamment autorisée dans la composition des denrées alimentaires. Cette évolution réglementaire conjugue production et préservation de l’environnement.
Comment le nouveau règlement sur l’eau change la donne

L’IA prévient l’emballement thermique des batteries avant un incendie

Les craintes autour des incendies de batteries lithium-ion sont nuancées par des statistiques, montrant des risques bien plus faibles qu’il n’y paraît. Pour renforcer la sécurité, des chercheurs explorent l’utilisation de l’intelligence artificielle pour prédire et prévenir les phénomènes d’emballement thermique, à l’origine des incendies. Une avancée technologique prometteuse qui pourrait révolutionner la gestion des batteries dans les véhicules électriques et autres appareils énergivores.
Pour en savoir plus sur le fonctionnement de cette technologie

Mondial de l’Auto à l’heure de la décarbonation des transports, entre ambition et défis pour 2030

A l’approche du Salon mondial de l’automobile, les regards se focalisent sur la décarbonation des transports, enjeu clé des objectifs climatiques de 2030. Malgré une baisse des émissions de CO2 dans le secteur routier, la tendance est fragile, et le marché des véhicules électriques montre des signes de ralentissement. Entre réglementations ambitieuses et obstacles économiques, la course vers des véhicules plus verts s’intensifie.
Lisez notre article sur les défis du secteur automobile

Vers des quotas obligatoires d’acier vert pour l’industrie automobile européenne ?

Face à l’ambition européenne de décarboner l’industrie, l’instauration de quotas d’acier bas carbone dans la production automobile fait débat. Soutenue par l’industrie sidérurgique, cette mesure pourrait dynamiser la demande en acier vert, mais suscite l’opposition des constructeurs. Selon une étude, cette transition pourrait être réalisée sans surcoût significatif, renforçant ainsi l’idée d’un marché pilote pour l’acier propre en Europe.
Découvrez les enjeux et débats autour de cette transition verte

La France en tête du marché de la mobilité hydrogène

Le marché de la mobilité hydrogène progresse lentement mais sûrement. Selon le premier baromètre du Pôle Véhicule du Futur, le cap des 100 000 véhicules hydrogène dans le monde sera franchi d’ici fin 2024. En Europe, la France se positionne en leader, avec une hausse impressionnante des immatriculations. Taxis, bus et stations H2 se multiplient, annonçant un futur prometteur pour cette technologie verte. Mais pour passer à l’échelle, des projets de déploiement massif sont encore nécessaires.
Plongez dans l’essor de la mobilité hydrogène en France

La botanique explore la vision végétale

L’idée selon laquelle les plantes sont douées de vision prend progressivement forme grâce aux découvertes de chercheurs. Une étude, menée à l’université de Pékin, modélise la capacité visuelle des plantes en s’inspirant des yeux composés des insectes. Riches en photorécepteurs, les plantes pourraient bien être capables de voir leur environnement, ouvrant ainsi de nouvelles perspectives fascinantes sur leur interaction avec le monde.
Pour savoir si vos plantes vous observent, cliquez ici