Un projet bien établi et chiffré dès le départ constitue le meilleur moyen de limiter les risques ou du moins de les évaluer. Il s’agit donc de déterminer les tâches qui seront à accomplir et d’estimer leur coût. Notamment, de bien prévoir les coûts en personnel, les frais généraux, les achats de consommables, les dépenses de sous-traitance, les investissements en matériel. Dans le cas d’un projet d’innovation, il faut penser aux dépenses de sous-traitances spécifiques à ce type d’activité. Le chiffrage du coût étant réalisé, il convient également d’établir une première estimation du retour sur investissement de façon à prévoir les besoins en trésorerie sur les années durant lesquelles le projet est développé et durant les années qui suivent le projet jusqu’au moment où l’investissement est remboursé. Il est fortement recommandé d’établir un plan de trésorerie prévisionnel par année, afin de disposer d’une référence initiale qui sera corrigée à mesure des réalisations.
Du plan de financement au business plan
Le tableau 2 donne un exemple simple de plan de financement du projet d’innovation d’une entreprise. Ce plan fait apparaître, dans les deux dernières lignes, le solde de trésorerie par année. Il donne également le cumul de trésorerie sur la durée du projet et les deux années qui suivent. L’exemple qui illustre ce tableau correspond ainsi à un projet d’innovation dont le coût est estimé à 850 K€ durant les trois ans de celui-ci. Une augmentation de capital de 10 K€ est prévue dans la seconde année, de même qu’un emprunt pour un investissement en matériel de 50 K€ non financé par les aides publiques. L’apport en aides publiques est, dans le cas présenté, égal à 47 % du coût du projet. Ce plan assure un équilibre de la trésorerie sur un exercice comptable. Toutefois, il faut également prévoir à quelles dates les ressources seront disponibles de manière à assurer un solde positif à tout moment sur le compte courant de l’entreprise ; pour ce faire, un besoin en fonds de roulement de 50 K€ la première année et de 20 K€ la seconde année est planifié de manière à pallier le décalage entre les dates des versements prévues des aides publiques et les dates des dépenses envisagées.
Lorsque « l’objet » de l’innovation est bien cerné et spécifié, il devient possible d’établir avec une plus grande précision les coûts de réalisation du ou des prototypes, ainsi que les coûts de lancement pour l’industrialisation et la commercialisation. Une réévaluation de ces coûts doit donc être conduite. De la même façon, la faisabilité marketing ayant été réalisée, les chiffres des ventes potentielles dans les années qui suivent le lancement du produit ou du service peuvent être également réévalués. Le résultat de ces réévaluations se traduit, d’une part, par une réactualisation du plan de financement et, d’autre part, par l’établissement d’un business plan donnant l’évolution des recettes et des dépenses au cours des années, ce qui permet de prévoir la date à laquelle le retour sur investissement s’effectuera. La figure 9 donne un exemple de présentation d’un business plan. Une fois que les prototypes ont été réalisés, on peut alors examiner précisément les financements nécessaires à l’industrialisation et à la commercialisation.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 11 août 2021 !
Aujourd’hui, sur le continent africain, près de 4 personnes sur cinq possèdent un téléphone portable. Avec près de 725 millions d’utilisateurs de téléphonie mobile, le continent affiche la plus forte croissance au monde sur ce créneau. Ces chiffres-là étaient inimaginables il y a seulement 20 ans, lorsque les accès à internet sur le continent étaient peu nombreux, et les disparités en termes d’accès au réseau entre les pays très importantes. Au-delà de cet exemple, les nouvelles technologies dans leur ensemble se déclinent aujourd’hui sur le continent, et laissent imaginer un continent à la pointe de l’innovation dans un futur proche.
Pourquoi ce changement ? La principale raison est spécifique au continent. Des mécanismes d’innovations variés et souvent immatures ont laissé la place à une vision très pragmatique du rôle que devait avoir l’innovation sur le continent : répondre aux problématiques spécifiques des Africains, localement.
L’image d’un continent africain où l’Europe importait le progrès est révolue. Aujourd’hui les acteurs industriels et technologiques ont compris que le développement du continent, à court comme à moyen termes, passait par l’innovation technologique, et plus largement par l’innovation scientifique.
Cette évolution est une nécessité pour Thierry Zomahoun, fondateur du Next Einstein Forum , qui s’est confié au Point : « L’Afrique n’a pas le choix. Au XXIe siècle, les nations et les pays seront jugés, non pas par rapport à leurs richesses naturelles ou à leurs ressources dans le sous-sol, mais à leur capacité d’innovation ». Sur ce point, l’Afrique a fait un bond en avant immense, même si des contraintes fortes demeurent selon Thierry Zomahoun : « La coopération et l’intégration scientifique sont à une étape embryonnaire. Aujourd’hui, la balkanisation de nos pays est un frein à l’émergence d’un pôle scientifique et technologique africain d’importance. Plus que jamais, le mot « collaboration » fait sens. En Afrique, elle peut être mise en œuvre à l’intérieur d’une même région ou entre plusieurs régions. »
En effet, si l’innovation de pointe en Afrique est aujourd’hui une réalité, comme en témoigne la réussite au plus haut niveau de certaines startups, le continent doit plus que jamais parvenir à développer des écosystèmes scientifiques de recherche et d’enseignement performants, pour y intégrer sa jeunesse, peut-être le plus gros atout du continent. En effet, en 2035, 35% des jeunes dans le monde seront africains. Il est donc impératif pour le continent de développer des filières innovantes sur le long terme, pour créer les emplois pour la génération qui arrive.
La technologie, un atout pour remédier aux contraintes de développement spécifiques au continent
La transformation qui s’opère en Afrique aujourd’hui touche toutes les couches du continent, notamment la couche sociale. Ces évolutions peuvent même dans certains cas s’attaquer aux freins de développement qui ont longtemps rongé le continent : insécurité, fraude, corruption, accès aux soins, productivité de l’agriculture… Sur tous ces sujets, l’essor des technologies de pointe – la blockchain, le big data, les drones, les fintechs… – sur le continent permet de chercher des solutions prometteuses à ces contraintes systémiques. Le rapport de PWC, intitulé Afrique 3.0, précise les six axes principaux sur lesquels les technologies permettraient un basculement :
Réintégration du secteur informel dans les circuits économiques traditionnels.
Ces axes d’améliorations, qui sont connus depuis longtemps, se transforment aujourd’hui grâce aux nouvelles technologies. L’enjeu aujourd’hui est donc de voir à quel point ces mutations vont s’ancrer sur le long terme dans une société africaine qui poursuit sa mutation.
Les plastiques sont largement répandus dans la vie de tous les jours. Légers et adaptables, leur prix est également raisonnable. Reste que leur matière première est le plus souvent basée sur la pétrochimie. Leur production, leur utilisation et leur fin de vie ne sont pas durables et soulèvent des problèmes environnementaux et de santé publique. La solution pourrait être de se tourner vers les plantes, et le constituant principal de leurs parois cellulaires : la cellulose. Des chercheurs de l’université de Göttingen ont ainsi mis au point une méthode durable de formation de plastiques, détaillée le 8 juillet 2021 dans Nature Sustainability. Leur synthèse consiste à introduire un groupe « cinnamoyl » dans la cellulose à l’aide d’un solvant. En résulte un polymère hydroplastique, dont les membranes peuvent prendre diverses formes. En effet, avec de l’eau à température et pression ambiantes, il est possible de manipuler la plasticité du polymère afin de le placer en deux ou même trois dimensions. La forme imposée reste stable plus de 16 mois, et peut être ajustée à tout moment, d’où une durée de vie étendue. De plus, les membranes résistent au déchirement jusqu’à 92,4 Mpa… Elles pourraient donc à l’avenir être utilisées en biologie, en électronique ou encore en médecine.
Quand suer fournit de l’énergie
Les systèmes portatifs autonomes demandent un apport de mouvement conséquent pour peu d’énergie récoltée. Des ingénieurs de la University of California San Diego ont eu l’idée de récupérer de l’énergie à partir de… la sueur ! Et plus précisément de celle produite sur la pulpe des doigts. Pourquoi à cet endroit ? Parce qu’ils possèdent plus de 1 000 glandes sudoripares ! Dans un papier publié le 13 juillet 2021 dans Joule, les ingénieurs présentent leur outil. Il s’agit d’une pile à biocarburant de lactate se présentant sous la forme d’une bande fine et flexible d’à peine 1 cm2. Un rembourrage de mousse pourvu d’électrodes y absorbe la sueur pour la convertir en électricité Comment ? A l’aide d’enzymes situés à même les électrodes, qui déclenchent une réaction entre le lactate et l’oxygène moléculaire – tous deux présents dans la sueur. Cette méthode passive et continue a ainsi permis de récupérer près de 400 mJ/cm² en 10 heures de sommeil… pour un seul doigt ! Une énergie suffisante pour alimenter un capteur à affichage électrochromique. Lequel servirait à surveiller l’environnement ou le bien-être de la personne. La collecte d’énergie a même été maximisée par l’ajout de générateurs piézoélectriques sous la pile, se « nourrissant » pour leur part de la pression exercée sur la pulpe.
Comprendre la peau humaine grâce aux écailles de serpents
Les déformations de la peau peuvent renseigner sur des mouvements comme l’étirement des muscles, les vibrations des cordes vocales, ou encore les battements cardiaques. Mesurer les tensions qu’elle subit à différents niveaux était donc une piste à suivre. Une équipe collaborative du Terasaki Institute for Biomedical Innovation l’a bien compris en choisissant de travailler sur un capteur de tension portatif à large bande. Comme raconté dans leur recherche parue le 15 juillet 2021 dans Matter, les chercheurs ont construit une structure bicouche inspirée des serpents. En effet, ceux-ci étirent largement leur corps lorsqu’ils ingèrent une proie. La raison provient du chevauchement de leurs écailles. Quand une tension est appliquée, elles glissent les unes sur les autres et se retrouvent finalement séparées. Pour améliorer le contact avec la peau humaine, un hydrogel a été placé à l’interface. Le capteur est capable de distinguer des tensions subtiles (pouls, phonation), des étirements (déglutition, expressions faciales), et même des mouvements de jointures (pli du coude). Dans le futur, un tel outil promet des applications diverses comme la surveillance cardiaque, ou la réhabilitation physique et l’évaluation des performances athlétiques.
« Sur les deux dernières années, le marché de la compensation volontaire est en très forte effervescence avec beaucoup de changements, surtout avec la nécessité d’aligner ce marché sur le cahier des charges de l’Accord de Paris, partage Marion Verles, à la tête de la fondation Gold Standard, lors de l’événement Neutrality organisé en ligne fin juin. Une gouvernance du marché menée par Mark Carney se met en place pour voir émerger une taxonomie sur les définitions clés comme le crédit carbone et l’unité à échanger sur les marchés. »
Séquestrer les émissions de façon permanente
Le marché de la compensation volontaire permet de neutraliser les émissions des entreprises en achetant des unités de séquestration. Mais la question de la gestion des risques se pose dans un contexte de changement climatique incertain. Avec un projet de séquestration forestier, comment s’assurer que la forêt ne tombe pas malade, brûle ou inverse son fonctionnement pour devenir émettrice nette de CO2 d’ici 10, 20 ou 50 ans ? « La qualité de la séquestration peut varier grandement d’un type de projet à l’autre, notamment à cause de la question de la permanence, analyse Marion Verles. Il est très difficile pour les acheteurs de savoir si les unités qu’ils achètent seront véritablement permanentes et à quelle échelle de temps. C’est pourquoi l’on voit émerger des agences de notation et de nouveaux standards qui ont pour objectif de pallier ces problèmes ».
« Pour neutraliser des émissions résiduelles avec une unité de séquestration, il faut pouvoir s’assurer que cette unité de séquestration sera permanente », poursuit Marion Verles. Il s’agira d’exclure les unités de séquestration qui ne sont pas permanentes « à une échelle idéalement de 100 ans » pour neutraliser une émission qui restera dans l’atmosphère pendant cette période de temps. « Un projet Gold Standard met en place des mécanismes de gestion du risque de permanence qui sont les plus robustes sur le marché, défend Marion Verles. Il doit mettre 20% de ses crédits dans une réserve pour servir d’assurance en cas de non-permanence. »
Le choix des unités de séquestration apparaît capital. Marion Verles explique : « Il est vraiment important pour les entreprises de comprendre qu’il faut bien choisir ses unités de séquestration : les critères de permanence, d’additionnalité, de vérification et de certification externe, d’unicité du crédit sont aussi importants, voire plus importants, dans la séquestration que dans la réduction et les profils de risques vont varier de façon très importante selon la typologie de projet. »
De l’international au local
Dans le domaine forestier et du carbone biologique, le marché de la compensation s’est développé sur des offres à l’international, notamment dans les pays tropicaux – Pérou, Brésil, Afrique, Indonésie – avec des coûts extrêmement bas. Depuis quelques années, les acteurs s’orientent de plus en plus vers des actions plus locales. Il s’agit « de renationaliser voire de régionaliser les actions et mettre en place des activités de séquestration dans le sol, dans les forêts au niveau de la région et du pays plutôt que de financer des projets éloignés », explique Sylvain Goupille, directeur associé chez Le Printemps des Terres, société dédiée à la transition écologique de l’agriculture et des territoires agricoles français.
Côme Perpère, directeur transformation et durabilité chez Microsoft France, témoigne de la difficulté à trouver des projets ambitieux hors projets forestiers. L’entreprise émet chaque année 12 millions de tonnes de CO2. Son objectif est de réduire ses émissions de 50 % d’ici 2030 et de compenser les émissions restantes. Pour ce faire l’entreprise a lancé un premier appel à projets. Sur 189 projets reçus, l’entreprise en a sélectionné 25 de façon à compenser déjà 1,3 million de tonnes. « Sur les 1,3 million de tonnes, on a plus d’1,1 million de tonnes liées à des solutions forestières, 100 000 à du ‘soil sequestration’. On est assez alarmé que les solutions hors forestières existent à une échelle très très réduite », alerte le directeur, invitant le marché à développer davantage de projets.
Marion Verles abonde dans ce sens : « Il faut développer de nouvelles méthodologies, de nouvelles approches pour faire émerger une nouvelle génération de projets qui vont remplir ces cahiers des charges et avoir accès à une plus grande diversité de solutions de séquestration. »
Il est aussi important de s’assurer que les problématiques de double compte soient prises en compte et résolues. « L’approche du Gold Standard et d’un certain nombre d’organisations de la société civile est de dire que pour communiquer sur une neutralité carbone, il faut que la tonne utilisée ne soit pas comptabilisée dans l’inventaire national et qu’elle ne soit pas utilisée par le pays pour atteindre ses objectifs », partage Marion Verles. Les entreprises peuvent utiliser et financer ces unités, mais la communication doit alors être adaptée pour refléter la véritable nature qui est celle d’une contribution financière.
Techniques de l’Ingénieur déplore la disparition de l’un de ses contributeurs les plus prolifiques. Rédacteur pour le Magazine d’Actualité depuis 2019, Joël Spaes nous a quittés le 11 juillet dernier.
Spécialiste des thématiques « Energie », Joël Spaes a marqué la rédaction par son expertise fine et sa connaissance pointue du secteur de l’énergie en France et dans le monde.
Il était également président et cofondateur de l’Association des journalistes de l’énergie, rédacteur en chef d’Enerpresse et à la tête de la rédaction d’energiesdelamer.eu et de MerVeille Energie.
Nous vous proposons de (re)lire quelques-uns de ses papiers marquants :
Suite au développement d’une nouvelle technologie de captage et de stockage du CO2 par l’IFPEN et appelée DMX, des projets sont en cours pour la valoriser. Comparée au procédé de référence utilisant la monoéthanolamine (MEA), cette technologie permet de réduire la consommation d’énergie nécessaire d’environ 30 % grâce à l’utilisation d’un nouveau solvant. Un pilote industriel est actuellement en construction sur le site sidérurgique ArcelorMittal à Dunkerque. Les tests doivent démarrer vers le milieu de l’année prochaine pour une durée d’un an. Et à l’horizon 2023, Axens, une société créée par l’IFPEN, souhaite lancer la commercialisation de cette technologie. Ce projet, nommé 3D (DMX Demonstration in Dunkirk), est réalisé dans le cadre du programme européen H2020.
En parallèle, un autre projet, nommé dinamX (Démonstration et Applications innovantes du DMX) et financé par l’Ademe, vise à étendre l’application de ce procédé à de nouveaux types d’émetteurs industriels de CO2. Une étude de cas vient de démarrer sur le site d’une usine fabricant de la chaux situé à Rety dans les Hauts-de-France, et appartenant à la société belge Lhoist. Les gaz issus de la sidérurgie étant très spécifiques, l’objectif est de tester la technologie DMX sur des gaz plus classiques, comme ceux provenant de l’industrie de la chaufournerie, de la cimenterie ou d’incinérateurs. « Nous allons notamment analyser l’impact de la présence d’oxygène dans les gaz de l’usine de Lhoist, car il peut avoir des effets négatifs sur le solvant utilisé, explique Christian Streicher, Gas Development Director au sein d’Axens. Il peut par exemple entraîner une accélération de la dégradation des molécules du solvant. »
Des tests sont actuellement réalisés sur un pilote de laboratoire de l’IFPEN pour déterminer l’impact des impuretés dans les gaz de production de chaux. Il s’agit d’une première étape avant l’installation d’un démonstrateur à grande échelle à l’usine de Réty en fin d’année prochaine ou en début d’année suivante. Des études très spécifiques seront réalisées auparavant afin de déterminer le dimensionnement de l’installation. La colonne d’absorption du CO2 et de régénération du solvant devrait mesurer plusieurs mètres de diamètre.
Un hub en construction pour pré-stocker le CO2
« Depuis plusieurs années, nous avons traqué toutes les dépenses d’énergie de l’usine, déclare Xavier Pettiau, Director CO2 Research chez Lhoist. Le fait que le procédé DMX consomme 30 % d’énergie en moins nous intéresse énormément car la quantité d’énergie pour faire fonctionner cette nouvelle technologie devra être entièrement fournie puisqu’il n’y a pas d’énergie libre à récupérer. Au total, les volumes à capter sont de 700 000 tonnes de CO2 par an. Au-delà, du captage, c’est toute la chaîne qu’il fait mettre en place, et bien sûr trouver un preneur pour stocker ce CO2. »
Dans le cadre du projet 3D, un hub va être construit dans le port de Dunkerque. Cette unité mutualisée sera destinée à collecter le CO2 capté chez différents émetteurs industriels comme celui d’ArcelorMittal ou de Lhoist. Sur place, le CO2 pourra être liquéfié en vue de son transport par bateau ou pipeline. L’un des scénarios envisagés est de l’injecter en mer du Nord dans de futurs sites géologiques exploités dans le cadre du projet Northern Lights, développé par un consortium regroupant Equinor, Shell et Total. « Tous les pays qui réfléchissent à la capture et le stockage de CO2 fonctionnent avec des hubs qui sont destinés au pré-stockage avant l’acheminement du CO2 vers des sites de stockage, précise Christian Streicher. À terme, ce hub pourrait collecter jusqu’à 10 millions de tonnes de CO2 par an. »
Une cartographie des émissions industrielles de CO2 en France par type d’émetteur a été réalisée en vue de poursuivre le déploiement du procédé DMX. Ce travail a permis de qualifier les rejets (flux, impuretés, pression) et aussi de créer un indice de dispersion des émissions dans chaque région. Deux régions, la Normandie et les Hauts-de-France, ont été identifiées comme présentant des émissions de CO2 parmi les moins dispersées sur le territoire national. Toutes les deux totalisent un volume de 86 millions de tonnes de CO2 émis chaque année. Dans le futur, ce volume pourrait faire l’objet d’un traitement grâce à la technologie développée par l’IFPEN puis être stocké en mer du Nord. Là encore, le CO2 serait au préalable collecté puis pré-stocké dans un hub.
« La neutralité pour une entreprise, cela ne veut rien dire et je pense que l’on est franchement tous coupables si l’on continue à rendre crédible cette position, assène Hélène Valade, directrice Développement Environnement de LVMH et présidente d’Orse, lors de l’événement Neutrality organisé en ligne fin juin. Une entreprise peut contribuer à la neutralité, mais cela se fait à une échelle plus globale. »
Et pour cause, comme l’expliquait récemment l’Ademe, la neutralité carbone n’a de sens qu’à l’échelle mondiale ou nationale. Les engagements des pays s’enchaînent donc pour atteindre la neutralité carbone d’ici 2050. Au niveau mondial, l’objectif consiste à décarboner l’activité économique à l’horizon 2050. En France, il s’agit de passer de 437 millions de tonnes de CO2 émises en 2019 à près de 100 millions de tonnes en 2050.
Prendre des objectifs de réduction ambitieux
Les experts s’accordent à dire que les entreprises ne peuvent pas se revendiquer neutres en carbone. Des travaux sont en cours pour définir un cadre de référence robuste et crédible sur ce que veut dire la neutralité carbone dans le cadre de l’entreprise. Ainsi, la Science Based Targets initiative développe actuellement un standard Net-zero à l’occasion de la COP26, pour définir ce qui est attendu d’une entreprise qui contribuerait suffisamment à la neutralité carbone.
« Avoir un objectif à 2050 de neutralité carbone est essentiel mais n’est pas suffisant, prévient Alice Rimpot, directrice de l’engagement sociétal de Carbon Disclosure Project (CDP), organisation à but non lucratif qui publie des données sur l’impact environnemental des plus grandes entreprises. Cela doit être appuyé par des objectifs basés sur la science intermédiaire, alignés sur une trajectoire à 1,5°C pour s’assurer de cette décarbonation suffisamment rapide. »
Réduire et remplacer pour décarboner
De grands principes peuvent toutefois d’ores et déjà être partagés. La première chose à faire pour contribuer à la neutralité carbone est de se concentrer sur la réduction des émissions. « L’objectif de neutralité combine une réduction des émissions maximale avec une neutralisation des émissions résiduelles, partage Alice Rimpot. Il faut une transparence sur ce que l’entreprise se fixe comme objectif de réduction d’émissions et ensuite sur sa contribution à travers la compensation volontaire. »
Cette réduction des émissions passe par une adaptation de l’activité des entreprises au contexte de changement climatique. « Les entreprises doivent de plus en plus s’orienter vers la production de services et de produits bas carbone et se désinvestir des produits les plus émetteurs », prévient pour sa part Fanny Fleuriot, animatrice comptabilité carbone à l’Ademe
Il s’agit en parallèle de préserver les puits naturels existants – forêts, océans et sols –, de les régénérer et de les redynamiser. « Lorsqu’on développe des plans d’actions de réduction, il faut s’assurer que ces actions préservent bien les stocks existants, observe Fanny Fleuriot. Il faut ainsi réfléchir à nos pratiques actuelles, reboiser, avoir une gestion améliorée de nos forêts pour en maximiser le potentiel de séquestration ». Il s’agira enfin de développer des puits technologiques, regroupant les solutions de capture et de stockage dans le sous-sol.
Réduire, remplacer, puis compenser
Une fois les émissions réduites au maximum, les entreprises peuvent enfin compenser localement et à l’étranger les émissions restantes. Il reste de nombreux défis à relever sur ce point. « La compensation sert aussi à amorcer des projets qui, sans ces fonds libérés, n’existeraient pas, estime Muriel Barnéoud, directrice de l’engagement sociétal du groupe La Poste. Depuis 2012, La Poste, c’est 45 millions d’euros investis dans l’univers de la compensation, 350 000 hectares de forêts sauvegardés, plus de 50 espèces préservées, plus de 4 millions d’habitants sur Terre qui accèdent à une énergie d’origine renouvelable ».
« Il est vraiment important pour les entreprises de comprendre qu’il faut bien choisir ses unités de séquestration : les critères de permanence, d’additionnalité, de vérification et de certification externe, d’unicité du crédit sont aussi importants, voire plus importants, dans la séquestration que dans la réduction et les profils de risques vont varier de façon très importante selon la typologie de projet. Un projet de séquestration de carbone dans le sol est intrinsèquement beaucoup plus risqué qu’un projet forestier ou de direct air capture », conclut Marion Verles.
La Programmation Pluriannuelle de l’Énergie (PPE) prévoit l’attribution en 2022 d’un appel d’offres pour deux nouveaux parcs éoliens flottants de 250 mégawatts (MW) chacun, en mer Méditerranée. L’attribution de futures extensions de 500 MW pour chacun des parcs est également prévue à partir de 2024. Ainsi, ces premiers projets d’éoliennes flottantes en mer Méditerranée totalisent 1,5 gigawatt (GW). En prévision, le ministère de la Transition écologique et RTE confient à la Commission Nationale du Débat Public (CNDP) l’organisation d’un débat public du 12 juillet au 31 octobre 2021. Celui-ci est organisé par une commission particulière du débat (CDP), composée de 6 membres et présidée par Etienne Ballan, sociologue et urbaniste.
Un débat public précoce
Ce débat intervient en phase précoce du projet et porte sur les deux projets initiaux, leurs extensions et le raccordement mutualisé de ces parcs. Pour l’instant, quatre macro-zones potentielles ont été identifiées : dans le périmètre du parc naturel marin du Golfe du Lion, au large des Pyrénées-Orientales et de l’Aude, au large du Cap d’Agde, au large de la Petite Camargue et au large du Golfe de Fos-sur-Mer. Les zones retenues accueilleront dans un premier temps pour chacun des deux parcs une vingtaine d’éoliennes flottantes, leurs systèmes d’ancrage, un poste électrique en mer et le raccordement au réseau. Pour chaque parc, l’extension visera ensuite l’installation d’une quarantaine d’éoliennes supplémentaires.
« Le débat qui s’ouvre pour ces trois prochains mois a pour but d’associer au plus près et au plus tôt les citoyens du pourtour de la Méditerranée, ainsi que l’ensemble des parties prenantes du territoire, au projet d’installation de futures éoliennes en mer : c’est essentiel pour avoir un débat apaisé et constructif sur le développement de cette énergie », a déclaré Barbara Pompili, ministre de la Transition écologique.
Tout (ou presque) reste à définir
Les deux régions pressenties pour accueillir au moins un parc – Occitanie et Provence-Alpes-Côte d’Azur – participent au débat public. Au menu : consultation en ligne, réunions publiques, mais aussi échanges sur les plages pour recueillir l’avis des estivants. Tout est sur la table. Le débat public devra proposer au moins trois zones préférentielles pour l’installation des deux parcs et leur extension. Il devra aussi proposer les moyens d’intégrer ces parcs et leur raccordement au niveau environnemental en prenant en compte les aspects liés à la biodiversité, au paysage et aux usages du milieu marin.
« Ce sera LE débat d’opportunité sur le développement de l’éolien en Méditerranée », a expliqué le président de la Commission particulière du débat, Etienne Ballan à l’AFP. Car « 1,5 GW ce n’est que le début ». La question sous-jacente de ce débat est de savoir si la mer Méditerranée deviendra ou non un lieu important de production électrique par énergie éolienne. Comment concilier au mieux production électrique et partage des lieux avec la navigation commerciale, les plaisanciers et les pêcheurs ? Quelles sont les perspectives économiques au niveau local pour la filière et la modernisation des ports de Fos et Port-La-Nouvelle… ? Le débat public sera un espace privilégié pour aborder ces questions.
Deux mois après la fin du débat, la CNDP publiera le compte-rendu et le bilan du débat. Dans les trois mois suivants, l’État indiquera s’il poursuit ou non le projet et expliquera comment il prend en compte chaque avis, argument ou recommandation du public. Si le projet se poursuit, les constructeurs et exploitants de ces parcs seront désignés par appel d’offres. Les parcs bénéficieront d’un tarif de rachat garanti, sous la forme d’un éventuel complément de rémunération sur l’électricité produite, rappelle le ministère de la Transition écologique.
Utilisée pour fabriquer des matériaux composites, la fibre de carbone possède de nombreux atouts, dont sa légèreté et son importante résistance aux contraintes mécaniques. Malgré tout, son coût élevé la rend difficilement compatible avec la fabrication d’objets en masse, comme les voitures. Depuis 6 ans, l’IRT (Institut de recherche technologique) Jules Verne mène un travail de recherche pour fabriquer une fibre de carbone économique issue de matériaux biosourcés. D’abord initiées par des entreprises du secteur automobile (PSA, Renault et Faurecia), d’autres filières sont venues progressivement se greffer à ce projet comme celles de l’aéronautique (Airbus, Safran), du naval (les chantiers de l’Atlantique) ainsi que des sports et loisirs (Decathlon).
Actuellement, une grande majorité des fibres de carbone vendues sur le marché est obtenue à partir de polyacrylonitrile (PAN), un matériau onéreux. « Nous avons testé plusieurs matériaux alternatifs pour remplacer le PAN, notamment la lignine, mais sans parvenir à atteindre les performances mécaniques recherchées, déclare Céline Largeau, la cheffe de ce projet baptisé Force. Nous avons finalement retenu la cellulose car elle offrait le meilleur compromis entre le coût et les propriétés de résistances mécaniques. C’est aussi un matériau biosourcé, l’un des plus abondants sur terre. Il présente également des qualités de stabilité, ce qui signifie que, quel que soit le mode d’approvisionnement, on obtient les mêmes caractéristiques mécaniques. »
Les équipes de recherche sont parvenues à fabriquer une fibre de carbone issue de cellulose présentant une résistance à la rupture de 2 500 Mpa (mégapascal). « Cette performance est légèrement en dessous de celle de la fibre de carbone issue de PAN mais nous avons atteint notre objectif initial car nous ciblons des applications qui ne demandent pas des résistances à la rupture supérieures. Dans le futur, il y aura encore du potentiel pour l’augmenter si nous le souhaitons ». En termes d’élasticité, cette fibre de carbone en cellulose offre la même propriété que celle de PAN car elle atteint 250 Gpa (gigapascal).
Des discussions en cours avec de futurs industriels
Ces travaux de recherche ont aussi consisté à optimiser le processus de fabrication de cette nouvelle fibre de carbone, qui se déroule en deux étapes. Les fibres sont d’abord oxydées pour obtenir une fibre blanche puis intervient une seconde étape dite de « carbonisation » à l’aide de différents traitements thermiques. Plusieurs équipements ont été mis au point afin d’améliorer la productivité et de réduire le coût de production. « Le processus de traitement thermique est un peu différent de celui utilisé pour la fabrication d’une fibre de carbone classique, complète Céline Largeau. Par exemple, avec la fibre de PAN, il y a des rejets de cyanure d’hydrogène (HCN), un gaz hautement toxique et qui demande l’ajout d’un système de traitement de ces composés volatils. L’un des points positifs de la cellulose est que nous ne sommes pas confrontés à cette problématique. »
Le projet Force s’est fixé l’objectif de diviser par deux le coût de production de cette fibre de carbone à base de cellulose, et il devrait se situer autour de 8 euros le kg. « Sur le marché, le prix de vente d’une fibre de PAN démarre entre 13 et 1 euros le kg, mais son prix peut grimper à plus de 50 euros sur certaines gammes de fibres », ajoute Céline Largeau. Plusieurs pilotes de laboratoires ont déjà été développés au centre technique CANOE (Centre technologique Nouvelle-Aquitaine des composites et des matériaux avancés) à Lacq (Pyrénées-Atlantiques) et différents essais ont été réalisés afin de tester différents types d’approvisionnement en cellulose, notamment le papier recyclé. Ce projet entre dans sa dernière phase puisque des discussions sont actuellement en cours avec des investisseurs potentiels en vue d’industrialiser le procédé. « Parallèlement, nous travaillons encore sur toutes les étapes des différents procédés de fabrication afin de fournir au futur investisseur le maximum d’informations pour designer les lignes de productions industrielles et optimiser tous les coûts d’installation. »
Une première unité industrielle devrait sortir de terre à l’horizon 2025 sur le territoire français pour produire environ 4 000 tonnes par an. Ailleurs dans le monde, d’autres programmes de recherche tentent eux aussi de fabriquer une fibre de carbone biosourcée. « Il y a des initiatives, surtout en Europe du Nord, qui se sont mises en place, mais après le démarrage du projet Force, et certaines équipes travaillent sur la cellulose et la lignine, déclare Céline Largeau. Nous restons bien placés comparés à d’autres consortiums, nous ne sommes pas en retard et même en avance. »
Les nanomatériaux manufacturés existent dans l’alimentation comme dans beaucoup d’autres domaines, mais leur application dans les aliments est à l’image des nanomatériaux découverts lors des études archéologiques : elle est bien antérieure à l’émergence des nanotechnologies. Ces nanomatériaux sont en effet entrés dans les aliments à partir de 1929, mais c’est grâce au développement de techniques de pointe, comme les microscopies électroniques et l’intérêt pour les formes nanométriques, que nous pouvons les identifier aujourd’hui. Dans le cas des additifs alimentaires inorganiques, ces substances ont ainsi été manufacturées pour obtenir des propriétés spécifiques mais sans volonté initiale de produire des nano-objets. Avec l’amélioration des connaissances et leur diffusion, ajouter telle ou telle substance contenant des nano-objets dans les aliments relève maintenant de l’intentionnalité.
Les connaissances peuvent être encore significativement accrues en travaillant sur une définition harmonisée des nanomatériaux, une amélioration des déclarations et de leur précision dans le registre R-Nano, une campagne de caractérisation de tous les additifs en suivant les recommandations de l’EFSA et des études de toxicité répondant aux lacunes identifiées par l’EFSA. Bien qu’il ne soit pas prévu de registre européen, une confrontation des registres mis en place dans certains pays européens (France, Norvège, Belgique, Danemark et Suède) permettrait de mieux les cibler et mutualiser les efforts de recherche. Si la grande majorité des spécifications des substances employées comme additifs concerne la pureté chimique, l’EFSA propose aujourd’hui de mettre en place des spécifications liées à la taille. Toutes ces améliorations vont dans le sens de l’amélioration de la confiance du consommateur dans les aliments transformés et ultra-transformés.
À l’heure actuelle, le mot nano a été tellement associé à toxicité qu’il est bien difficile aujourd’hui de parler de bénéfices de ces additifs pour les industriels du secteur agroalimentaire. Ainsi, plusieurs groupes français de la grande distribution et industriels de l’agroalimentaire ont annoncé par des campagnes publicitaires renoncer à l’utilisation d’un ou plusieurs de ces additifs dans la composition de leurs produits. Pourtant, l’EFSA a procédé à la réévaluation de ces additifs et n’a pas identifié de risques justifiant un retrait ou une suspension. En France, le dioxyde de titane a particulièrement cristallisé l’attention des associations de consommateurs, qui ont obtenu une suspension (et non l’interdiction) en France, mais sur des arguments que réfute l’EFSA.
Après un accident, une intervention chirurgicale, ou face à une maladie chronique, certains patients doivent réaliser des séances de rééducation fonctionnelle durant de longs mois afin de recouvrir leurs fonctionnalités musculaires et neuronales. Une fois rentrés à leur domicile, la plupart d’entre eux ont des difficultés à poursuivre les exercices en toute autonomie, car ils perdent en motivation. Depuis 2016, le projet Keraal a pour objectif le développement d’un robot appelé Poppy capable de « coacher » les patients durant leurs séances de rééducation. Porté historiquement par IMT Atlantique (Institut Mines-Télécom), le CHRU de Brest et la start-up Génération robots, ce robot a été testé auprès d’une trentaine de patients en 2018 et a prouvé sa capacité à atteindre les mêmes objectifs médicaux qu’avec les programmes traditionnels menés par les kinés. Aujourd’hui, les chercheurs de ce projet poursuivent son développement, et cherchent notamment à personnaliser les séances.
Robot Poppy – Crédit photo Projet Keraal
Poppy a l’apparence d’un petit humanoïde de 84 cm de haut et ses proportions respectent celles d’un corps humain. Il fonctionne en deux temps et mémorise d’abord les mouvements à effectuer avec l’aide d’un thérapeute. Puis, il les reproduit face au patient, observe les exercices réalisés par ce dernier et est capable de lui faire un retour oral. « On souhaite passer à une étape supérieure et varier ces exercices en introduisant des niveaux de difficulté, explique Sao Mai Nguyen, directrice scientifique du projet Keraal. Par exemple, si l’exercice consiste à tenir une position mais demande beaucoup d’efforts pour le patient, le robot va lui demander de tenir la posture pendant une seconde, puis petit à petit monter à 5, 10 secondes et au-delà d’un certain temps, il va passer à un autre exercice. Le même principe s’applique pour les mouvements qui demandent une amplitude des membres plus ou moins grande. »
Robot Poppy – Crédit photo Projet Keraal
Une caméra thermique pour décrypter les émotions des patients
Les scientifiques développent de nouveaux algorithmes d’apprentissage de types modèles génératifs pour apporter de la graduation lors des exercices. Ils comptent aussi s’appuyer sur l’observation des mouvements des patients ainsi que l’analyse de leurs émotions. Pour y parvenir, avec ENSTA (École nationale supérieure de techniques avancées) Paris, une caméra thermique va être installée sur le robot. « Généralement, les émotions sont analysées en observant les traits du visage, ajoute la chercheuse. Ici, nous souhaitons observer la chaleur dégagée sur l’ensemble du corps et le visage afin de déterminer le niveau de fatigue musculaire du patient et son état émotionnel. »
Afin d’améliorer la qualité d’analyse des mouvements et pour simplifier le système, la caméra 3D, jusqu’ici utilisée et placée sur un trépied à côté du robot, va être remplacée par une caméra 2D. L’observation des mouvements est assez facile lorsque tous les membres du corps sont visibles, mais plus compliquée lorsque le patient se tourne et qu’une partie du corps est cachée par une autre. De nouveaux algorithmes de type deep learning vont donc être implémentés pour corriger cette difficulté. Pour cela, des capteurs seront placés sur le corps des patients et vont alimenter une base de données et ainsi permettre d’entraîner les algorithmes à analyser les parties du corps cachées.
Robot Poppy – Crédit photo Projet Keraal
Autre piste de développement : améliorer la mobilité de Poppy. Actuellement, il possède beaucoup de degrés de liberté, c’est-à-dire qu’il réalise de très nombreux mouvements et peut par exemple tourner autour de son tronc tout en s’inclinant en avant ou en arrière, une performance assez rare pour un robot. Par contre, sa mobilité est limitée et il ne parvient pas à se lever ou à se coucher seul. « Il est capable de faire les exercices en position debout, allongée et assise, mais les transitions pour changer de postures sont difficiles, précise Sao Mai Nguyen. Nous allons ajouter un système externe sous la forme d’un vérin afin de l’aider à changer de position. Il ne le fera pas comme un humain, mais ce n’est pas important, car ces changements de posture ne font pas partie des exercices de rééducation. »
Des séances au domicile des patients dans le futur
Une cage thoracique sera également ajoutée, car en plus de la bonne exécution des mouvements, la respiration joue aussi un rôle important dans la rééducation. Ce nouvel équipement sera à la fois visuel et fonctionnera à l’aide d’un système pneumatique permettant à l’air d’être impulsé et expulsé dans une poche, mais aussi sonore puisqu’il est prévu de mimer les sons de la respiration.
Trois ans seront nécessaires pour parvenir à personnaliser les séances de rééducation de Poppy. Et dans une dizaine d’années, il pourrait être suffisamment autonome pour réaliser les exercices directement au domicile des patients et transmettre les données, enregistrées à distance, à un kiné pour qu’il les analyse. D’ici là, les séances continueront à être réalisées dans un cadre clinique, avec la supervision du personnel médical pour évaluer de manière précise les progrès des patients. « Keraal est un projet prometteur qui répond bien aux problématiques de vieillissement de la population et de sédentarité en France, complète la chercheuse. Il peut s’appliquer à beaucoup de pathologies, notamment les lombalgies qui demandent à être soignées à l’aide d’exercices réguliers. Contrairement à des vidéos ou des coachs virtuels s’affichant sur un écran, le fait d’avoir une incarnation 3D et une présence physique à l’aide du robot permet une meilleure motivation des patients durant leurs séances, car une relation personnelle et une sorte d’attachement se créent entre ces derniers et la machine. »
Face au renforcement des normes environnementales, fixées par l’Union européenne, des engins mobiles non routiers (EMNR), la réduction des émissions polluantes des bateaux fluviaux devient urgente. S’agissant des barges fluviales de grandes capacités, la mise en service de moteurs fonctionnant à l’hydrogène ou à l’électricité n’interviendra pas avant plus d’une dizaine d’années. Face à ce constat, un projet de recherche développe actuellement un nouveau procédé pour réduire voire éliminer les rejets de CO2, d’oxyde d’azote et de particules fines des moteurs diesel des bateaux. Ce projet, baptisé River, est cofinancé par l’Union européenne dans le cadre d’un programme Interreg Europe du Nord-Ouest.
Pour mener à bien ces travaux, les scientifiques ont utilisé la technologie d’oxy-fuel combustion qui permet de réduire les émissions d’oxyde d’azote et de particules fines. Elle consiste à remplacer l’air dans la chambre de combustion du moteur, qui contient de l’azote, par de l’oxygène. Mais cette technologie a dû être adaptée, comme l’explique Abdel Aitouche, professeur à Junia et chercheur au CRISTAL (Centre de recherche en Informatique, signal et automatique de Lille) : « Nous avons réalisé une étude et on s’est rendu compte que ce n’était pas possible de remplacer l’air uniquement avec de l’oxygène, car la combustion devenait alors instable. Étant donné que le moteur produit du CO2, nous avons eu l’idée de le récupérer pour fabriquer un mélange composé d’oxygène et de CO2. »
L’exploration de cette piste de recherche révèle que ce mélange donne de bons résultats et qu’il est possible de gérer de manière efficace la combustion du moteur. Des simulations sont réalisées grâce à des logiciels et permettent de déterminer la composition idéale de ce mélange pour que le moteur fonctionne de manière optimale : 23 % d’oxygène et 77 % de CO2. Résultat : grâce à l’absence d’azote à l’intérieur de ce mélange, les émissions de dioxyde d’azote et les particules fines ont quasiment disparu puisqu’il n’en reste plus que 0,01 % à la sortie du moteur.
Le CO2 valorisé en produits cosmétiques
Les chercheurs ne se sont pas arrêtés là et se sont également penchés sur les rejets de CO2 puisque seule une petite partie est recyclée puis réinjectée dans le moteur. Ils décident alors de le comprimer pour le stocker dans des réservoirs situés sur le bateau pour ensuite le valoriser. « Grâce à des travaux au laboratoire de chimie d’Yncréas, nous avons réussi à transformer le CO2 en produits cosmétiques et de soins pour le visage ainsi qu’en acide formique. Cet acide est utilisé dans le secteur médical comme produit antirhumatismal. L’industrie agroalimentaire l’emploie aussi, il porte le nom de E236, mais est aujourd’hui interdit en Europe. L’industrie du textile et du cuir l’utilise également pour la coloration. »
Le mode de démarrage du moteur reste, à ce stade de la recherche, un point sur lequel les chercheurs doivent encore trancher. Le CO2 étant issu des rejets à la sortie du moteur, il n’y en a pas au démarrage. Deux pistes sont envisagées : démarrer le moteur avec un mélange contenant de l’air et attendre quelques cycles avant de basculer vers un mélange oxygène/CO2. Ou alors, installer une cuve dans laquelle sera stocké le CO2 et qui servira exclusivement au démarrage. « Nous avons testé ces deux techniques et elles fonctionnent toutes les deux. Nous allons réaliser des essais en condition réelle et nous verrons laquelle est la meilleure. A priori, la solution idéale est d’avoir une cuve avec du CO2, car on ne prend pas le risque de produire de l’oxyde d’azote qui va se mélanger avec le CO2. »
Pour l’installation de ce dispositif, les bateaux récents ont l’avantage d’être déjà équipés d’une vanne EGR (Exhaust gas recirculation) pour la recirculation des gaz. Sur les bateaux anciens, il convient donc d’ajouter cet équipement. Dans tous les cas, une vanne pour apporter de l’oxygène est à installer sur le moteur. L’oxygène peut être disponible sous la forme de bouteilles, mais pour les bateaux de grandes dimensions, face aux quantités importantes nécessaires, il convient de le produire sur place. « Contrairement à l’hydrogène qui est produit grâce à l’électrolyse de l’eau, fabriquer de l’oxygène est beaucoup plus facile puisqu’il suffit d’un compresseur et de l’air. De plus, il n’est pas nécessaire que cet oxygène soit pur comme dans le cas des piles à combustible, car même avec un taux de 95 %, cet oxygène convient. »
Le projet River doit se conclure à la fin de l’année par une démonstration grandeur nature en Angleterre.
Le 21 juin dernier, l’EDPB et le CEPD ont appelé dans un communiqué à l’interdiction « de l’utilisation de l’Intelligence artificielle pour la reconnaissance automatique des caractéristiques humaines dans les espaces accessibles au public, et de certaines autres utilisations de l’IA qui peuvent conduire à une discrimination injuste ».
Le 7 juillet, c’est au tour du rapport « The Rise and Rise of Biometric Mass Surveillance in the EU » de pointer du doigt les dérives de la surveillance de masse reposant sur des technologies biométriques en Allemagne, en Pologne et aux Pays-Bas. Cette analyse a été réalisée par des étudiants de l’Edinburgh International Justice Initiative (EIJI) et des membres de l’EDRi (European Digital Rights), un groupe international de défense des droits basé en Belgique.
Principal constat : une utilisation disproportionnée de systèmes intrusifs dans ces trois pays, ainsi que l’utilisation répétée de systèmes « pilotes » et « d’essai » dans le but d’éviter l’examen réglementaire. Et la majorité de ces projets reposent sur le même argument : agir « sans discernement, par mesure de précaution ou de dissuasion » en se focalisant sur la sexualité et la religion (Allemagne) ou sur des communautés (Pays-Bas). Il ne s’agit donc pas de répondre à de réelles menaces.
Les auteurs de cette enquête prédisent « une utilisation illimitée de la surveillance de masse biométrique » à l’avenir. De telles pratiques engagent systématiquement (et ne respectent pas) les principes de nécessité et de proportionnalité que l’on trouve dans les cadres juridiques nationaux et européens, tout en ayant des implications plus profondes pour le droit à la dignité qui sous-tend les principes fondamentaux des droits de l’homme en Europe et au-delà.
Quelles sont les principales dérives relevées dans ces trois pays qui ont fait l’objet de cette analyse ? Concernant l’Allemagne, les chercheurs ont constaté que les forces de l’ordre achètent et installent des équipements de surveillance « prêts pour la biométrie » sans avoir déclaré de finalité spécifique. Des pratiques qui vont à l’encontre des législations nationale et européenne (dont le RGPD), lesquelles exigent que le traitement des données à caractère personnel soit toujours nécessaire et proportionné aux circonstances spécifiques.
1 % de fraude
Aux Pays-Bas, les « Living Labs » transforment les rues et les communautés en points de surveillance biométrique en temps réel. À l’origine, les Living Labs désignent des plateformes expérimentales fonctionnant comme des écosystèmes où l’utilisateur/usager est étudié dans son habitat. Dans ce pays, des systèmes analysent la voix et la démarche, mais aussi les réseaux sociaux pour déterminer entre autres les niveaux d’agressivité des jeunes traînant dans une rue.
Enfin, en Pologne, le gouvernement a commandé une application (baptisée Kwarantanna Domowa) pour smartphone afin de vérifier si les personnes tenues de s’auto-isoler sont bien là où elles ont dit qu’elles seraient. Ne pas l’installer peut entraîner des sanctions pénales. Les personnes concernées doivent s’enregistrer via cette application en prenant un selfie.
La géolocalisation du téléphone est également mémorisée lors de l’enregistrement et les selfies suivants doivent être soumis dans les vingt minutes suivant la demande. En cas de non-respect, une notification est automatiquement envoyée à la police.
Selon ce rapport, cette utilisation de la reconnaissance faciale semble disproportionnée : en mars 2020, la police polonaise avait constaté seulement 600 violations probables de la quarantaine lors d’une enquête sur 83 000 personnes, soit 1 % de fraudes…
Le ministère français de la Transition écologique rappelle que, conformément aux accords internationaux en la matière, « les déchets issus du retraitement des combustibles usés étrangers doivent être renvoyés à l’étranger. Les opérations de retraitement en France des combustibles usés étrangers sont régies par des accords intergouvernementaux qui précisent les engagements des Etats étrangers pour le retour rapide de ces déchets dans le pays d’origine ».
Les opérations de retraitement des combustibles usés provenant de réacteurs allemands ont été réalisées en France, sur le site d’Orano à La Hague, jusqu’en 2008. « L’accord intergouvernemental régissant ces opérations prévoit la fin des transferts de déchets de haute activité en 2011 et le retour des déchets de moyenne activité à vie longue au plus tard en 2024 », insiste le ministère chargé de l’énergie, le 17 juin dernier.
Conformément aux engagements pris par les deux parties, les déchets de haute activité, qui représentent plus de 99 % de l’activité importée, ont été expédiés en Allemagne entre 1996 et 2011. En revanche, les déchets de moyenne activité à vie longue restaient à renvoyer en Allemagne, a indiqué le ministère français, le 17 juin. Le décret n°2008-1369 du 19 décembre 2008, publié le même jour au Journal officiel, précise que « l’accord (était) sous forme d’échange de lettres entre le gouvernement de la République française et le gouvernement de la République fédérale d’Allemagne concernant le transfert de colis de déchets radioactifs issus du retraitement de combustibles irradiés ». Signé à Paris les 20 et 28 octobre 2008, c’était le dernier accord signé entre les deux pays.
« Le gouvernement français constate que les entreprises responsables ont pris beaucoup de retard dans le développement des solutions techniques initialement envisagées pour le transport des déchets de moyenne activité à vie longue vers l’Allemagne ». Et le ministère de préciser que « si les choses restent en l’état, les derniers retours devraient probablement être reportés à la décennie 2040 ».
Ce retard étant « inacceptable », la France a souhaité que l’industrie étudie toutes les solutions possibles pour que l’échéance de 2024 puisse être respectée, a ajouté le ministère français.
Un échange de radiotoxicité
Les négociations avec les partenaires allemands – le ministère de l’Environnement et de l’Économie chargés des dossiers outre-Rhin, s’accordant sur ce point – ont abouti à l’identification d’une nouvelle « solution technique » qui permettrait le retour, dans les délais prévus, de déchets présentant une radiotoxicité à long terme pour l’homme et une masse équivalente à celle initialement envisagée, précise le ministère de la Transition écologique.
La solution proposée vise à faire en sorte que « les colis de déchets de moyenne activité à vie longue qui devaient être renvoyés en Allemagne seraient remplacés par des colis de déchets de haute activité et de très faible activité, dont le nombre et la composition viseraient à assurer la neutralité de l’opération au regard de la protection de la santé humaine, de la sécurité et de l’environnement », a expliqué le ministère de la Transition écologique. En particulier, cette solution faciliterait grandement le transport des déchets retournés en Allemagne, puisqu’il réduirait drastiquement le nombre de convois ferroviaires à réaliser entre la France et l’Allemagne. Des convois qui, en général, depuis des années, sont bloqués à la frontière par des opposants au nucléaire outre-Rhin.
Un long process
L’Andra, l’Agence nationale en charge des déchets nucléaires, a confirmé que cette opération n’aurait pas d’impact sur Cigéo, le stockage ultime pour les déchets de haute activité et de moyenne activité à vie longue, prévu à Bure, dans l’Est de la France.
L’ASN, l’autorité de sûreté nucléaire, consultée, examine le dossier mais n’a pas identifié d’obstacles à la mise en œuvre du projet à ce stade, indique le ministère français de la Transition écologique dans son communiqué du 17 juin. Interrogée, de son côté, l’ASN précise avoir « été informée par Orano et par le ministère de la Transition écologique de ce projet et des perspectives envisagées. Elle aura à se prononcer sur le projet de dérogation permettant une telle bourse aux métaux. À ce stade, nous n’avons pas encore été formellement informés », ajoute cependant l’ASN.
Le 10 juin 2021, l’Allemagne a confirmé la possibilité de mobiliser le Fonds de financement de l’élimination nucléaire (KENFO) – un fonds dédié lancé en Allemagne, après la décision d’arrêt du nucléaire – pour financer cette solution. « Le gouvernement se félicite du signal positif donné par l’Allemagne pour respecter ses engagements », indique d’ailleurs l’Hôtel de Roquelaure.
Le gouvernement français suivra la mise en œuvre de cette solution. D’une part, l’accord intergouvernemental existant sera modifié pour prendre en compte le changement de nature des déchets qui seront renvoyés. Cette modification est actuellement négociée entre les deux parties. D’autre part, le cadre réglementaire associé au retour des déchets étrangers sera complété afin de préciser les conditions de détermination de l’équivalence entre les déchets et de définir la procédure d’utilisation de celui-ci, qui prévoira un avis de l’ASN sur les opérations envisagées.
Lorsque l’Allemagne a décidé pour la première fois d’abandonner définitivement le nucléaire en 1998, les ministres français et allemand de l’environnement, respectivement Dominique Voynet pour la France et Jurgen Trittin pour l’Allemagne, tous deux membres de leurs partis « Verts » respectifs, ont signé en janvier 1999 un accord visant à organiser la décision de l’Allemagne de ne plus retraiter les combustibles usés. Plus précisément, Trittin a accepté de ramener en Allemagne tous les déchets après retraitement des combustibles par ce qui était alors Areva (désormais Orano), provenant des quatre opérateurs allemands (RWE, EnBW, Vattenfall et alors PreussenElektra, désormais E.ON).
Après une carrière chez Pfizer puis dans une entreprise d’industrie cosmétique, Sophie Catoire a profité de ses 20 ans d’expertise en R&D in vitro pour créer sa propre entreprise en juillet 2020. Cell Alternativ est un laboratoire de méthodes in vitro pour effectuer des tests de produits industriels en contact avec l’homme et qui peuvent induire une toxicité. En parallèle, l’entreprise réalise aussi des tests dès la R&D afin de guider les industriels dans la conception d’un produit. « Toute personne et toute entreprise qui développe un produit qui va être en contact avec l’homme a besoin d’étudier son innocuité. On touche donc l’industrie chimique, pharmaceutique, cosmétique, les textiles, les cuirs, les dispositifs médicaux etc. », explique la fondatrice de Cell Alternativ.
L’objectif est de développer des méthodes sans utiliser d’animaux et de produits animaliers, y compris les sérums, hormones ou enzymes issus de l’animal. « Réglementairement, depuis les années 1970, il y a une volonté scientifique d’utiliser de moins en moins les animaux dans la recherche. Il y a eu une prise de conscience éthique et sociétale pour les utiliser le moins possible et de manière intelligente. Dans la cosmétique, c’est d’ailleurs banni depuis 2013 », rappelle la cheffe d’entreprise.
Coupe histologique verticale d’un épiderme humain reconstruit (grossissement x40, coloration hématoxyline/éosine)
Des méthodes in vitro
Cell Alternativ travaille sur des méthodes in vitro principalement basées sur un modèle de tissu humain reconstruit en laboratoire. Pour ce faire, le laboratoire achète des kératinocytes issus de déchets chirurgicaux, et les remet en culture dans un système en air-liquide pour arriver à un tissu très similaire à l’épiderme humain. Puis les salariées de Cell Alternativ appliquent à la surface du tissu les produits à tester. Elles regardent ensuite si les cellules meurent, libèrent des marqueurs d’inflammation, etc. Des tests sont aussi réalisés sur des cornées et sur des muqueuses, mais ces tissus ne sont pas encore produits dans le laboratoire.
Inserts de 1cm² d’épiderme humain reconstruit en culture air-liquide
L’autre spécificité du laboratoire est de réaliser des tests dans les conditions d’utilisation réelles du produit. « C’est ce qu’on appelle les exposomes, tout ce qui va nous entourer, donc les stress dus aux UV, à la pollution, la sueur, la sécrétion de sébum, etc. On essaie de prendre en considération tous ces critères lors de nos tests, indique Sophie Catoire. Par exemple, si on veut travailler sur une nouvelle crème pour l’érythème fessier d’un enfant, on a un modèle d’épiderme humain immature et on peut l’inflammer volontairement avec une urine artificielle et se mettre en conditions occlusives, comme dans une couche, pour vérifier que la crème a réellement des vertus apaisantes en conditions réelles. »
Flasques de culture pour amplification cellulaire
Une méthode plus prédictive
La méthode in vitro a de nombreux avantages. « C’est plus prédictif pour l’homme, car on utilise des cellules humaines et non animales. S’il est possible de réaliser des tests directement sur des volontaires humains, on ne peut pas utiliser des centaines de personnes, alors qu’en in vitro, il est possible d’avoir de multiples tissus, qui viennent des cellules de plusieurs donneurs », constate la fondatrice de Cell Alternativ.
Prochaines étapes pour le laboratoire : développer de nouveaux tissus, à savoir des cornées et de l’épithélium, et travailler sur l’écotoxicologie afin d’étudier l’impact des produits sur l’environnement.
Crédit photo portrait de Sophie Catoire : Valentin Nauton
Nous avons interviewé Étienne Gheeraert, coordinateur du projet européen GreenDiamond, dont l’objectif était de développer un convertisseur d’énergie pour l’éolien offshore, tout en éveillant l’intérêt des industriels pour cette technologie. Étienne Gheeraert est enseignant-chercheur de l’Université Grenoble Alpes à l’Institut Néel (CNRS) et coordinateur du projet européen GreenDiamond.
Techniques de l’Ingénieur : Quels sont les défauts des dispositifs de puissance au silicium ?
Étienne Gheeraert : Le silicium a l’inconvénient d’avoir un champ de claquage faible. Dès que l’on applique une tension trop forte sur une petite épaisseur, il se produit un phénomène de claquage diélectrique. Ceci oblige soit à limiter la tension appliquée, soit à augmenter l’épaisseur : pour avoir un composant qui tient à 2 kV, il faut des épaisseurs importantes de silicium. Cette montée en épaisseur a l’inconvénient d’augmenter la résistance électrique, qui se traduit par une perte d’énergie et un dégagement de chaleur plus important. Le diamant a l’avantage de présenter une tension de claquage beaucoup plus élevée, 10 MV/cm. Pour la même tension, on pourra utiliser une épaisseur bien plus fine de diamant, donc la perte d’énergie sera réduite.
Quelles sont les applications potentielles des convertisseurs au diamant ?
Si le rendement d’un bon convertisseur au silicium se situe autour de 97 %, il est possible d’atteindre les 99 % avec un convertisseur au diamant. Cet écart peut paraître faible. Néanmoins, les gains attendus sont élevés pour certaines applications spécifiques comme le transport de l’énergie longue distance par liaison HVDC (courant continu), comme c’est le cas des fermes d’éoliennes offshore. Pour une puissance d’1 GW à ramener sur le continent, c’est 20 MW d’économisés !
Des chiffres plus précis seront calculés lorsque nous serons en mesure de réaliser une véritable étude économique qui tiendra compte de tous les paramètres d’un site industriel.
La deuxième application que nous visons est le transport de manière générale, car toute technologie qui permet de gagner du poids sur un véhicule est potentiellement intéressante. En effet, si les voitures électriques classiques sont équipées de convertisseurs au silicium, certains véhicules haut de gamme utilisent du carbure de silicium (SiC), qui peut être considéré comme l’intermédiaire entre le silicium et le diamant. À titre d’exemple, Toyota a estimé qu’il était possible de gagner 20 % d’autonomie en passant du Si au SiC. Cela signifie que l’on peut atteindre un gain encore plus élevé en passant au diamant.
Néanmoins, l’automobile n’est pas une priorité pour nous, pour des raisons économiques. Nous visons en premier lieu le marché aéronautique, car c’est un secteur qui cherche constamment à gagner du poids sur ses appareils. Nous participons d’ailleurs au projet européen CLEAN SKY 2, dont le but est d’augmenter la part d’électricité dans l’avion, avant qu’il ne devienne tout électrique.
Cette technologie est-elle prête à voir le jour de manière industrielle ?
D’un point de vue recherche, nous travaillons depuis longtemps sur la fabrication de convertisseurs au diamant. Le but du projet GreenDiamond était cette fois d’embarquer des industriels dans l’aventure. À l’issue de ce projet, une start-up a même vu le jour : DiamFab, créée en mars 2019 et qui a obtenu un Grand Prix i-Lab en 2019.
Par ailleurs, nous disposons déjà de diodes et de transistors prêts à être installés. Nous sommes donc proches de l’industrialisation.
Le diamant naturel est souvent associé au luxe. Est-il réaliste d’imaginer un déploiement à grande échelle de convertisseurs en diamant ?
Le diamant n’est pas un produit de luxe, mais un produit industriel. D’ailleurs, le processus industriel de fabrication des diamants synthétiques est maîtrisé depuis longtemps. Les machines PECVD utilisées pour fabriquer les diamants permettent de déposer, sur une surface de 2 pouces de diamètre, une surface capable d’accueillir 50 petits germes de diamant de la taille d’un grain de sable. En termes de consommables, fabriquer un diamant n’est pas difficile : le procédé consomme de l’énergie électrique, de l’hydrogène qui peut être obtenu par hydrolyse de l’eau et du méthane pour la source de carbone.
Après trois semaines de croissance, il est possible d’obtenir 50 diamants bruts de 1 carat : d’un point de vue technique, il n’y a donc aucune raison pour que le diamant soit aussi cher que le diamant naturel. Mais c’est commercialement très profitable, ce qui fait que, sur la base de la production connue en Inde et Chine, il est estimé que 12 % des diamants de joaillerie sont fabriqués industriellement, à l’insu du joaillier, et ce taux en très forte augmentation. Donc les industriels nous vendent les diamants au même prix qu’aux bijoutiers ou presque. Mais cette situation ne pourra pas durer ; les choses sont amenées à évoluer dans les années à venir, car la technologie va ouvrir de nouveaux marchés importants, qui vont complètement bouleverser le commerce traditionnel. Rien n’arrêtera la technologie du diamant et le prix descendra à la valeur d’un marché industriel, j’en suis persuadé. Cela arrivera dès que la recherche démontrera une application industrielle à grande échelle du diamant, probablement dans l’électronique.
Particulièrement développée aux États-Unis, l’agriculture de conservation l’est beaucoup moins en Europe, mais connaît tout de même un regain d’intérêt. Cette pratique agronomique limite l’érosion hydrique et éolienne des sols, elle permet aussi un meilleur stockage du carbone dans le sol. Elle fait parfois l’objet de controverses scientifiques et est accusée de faire baisser les rendements des cultures. Une étude publiée dans Nature Climate change par des chercheurs d’AgroParisTech et de l’INRAE révèle que l’agriculture de conservation s’avère souvent performante en grandes cultures dans des zones soumises à des stress hydriques importants. La productivité de ce système agronomique pourrait aussi mieux résister à l’évolution future du climat comparée à l’agriculture conventionnelle basée sur le labour des sols.
Cette étude est réalisée à partir d’une synthèse d’articles scientifiques publiés entre les années 1983 et 2020. Le premier travail des chercheurs a consisté à sélectionner les articles analysant des systèmes agronomiques respectant les trois principales règles de l’agriculture de conservation. À savoir : le non-labour, la diversification des cultures implantées (trois différentes doivent au moins se succéder) et enfin le maintien d’une couverture permanente au sol. Au final, 422 articles ont été retenus, totalisant 4 403 données d’observations.
Huit cultures différentes ont été étudiées : le blé, le maïs, l’orge, le sorgho, le riz, le coton, le tournesol et le soja. L’originalité de ces travaux de recherche est d’analyser la productivité de l’agriculture de conservation à l’échelle mondiale. En plus d’étudier l’impact actuel de cette pratique sur les rendements, les chercheurs ont également réalisé des projections en tenant compte de l’évolution du climat à l’horizon 2050. Le traitement des données a été réalisé à l’aide de modèles utilisant l’intelligence artificielle, plus précisément des forêts aléatoires. Ils ont permis de modéliser la probabilité d’obtenir de meilleurs rendements grâce à l’agriculture de conservation et non pas une différence de rendement comparée à l’agriculture conventionnelle. « Nous avons essayé de construire des modèles quantitatifs, mais ils ne fonctionnaient pas lorsque nous avons tenté de faire des projections sur le climat futur, explique Benoît Gabrielle, professeur et chercheur à AgroParisTech. La probabilité d’obtenir un gain ou une perte de rendement se prédit plus facilement et nous avons réussi à valider notre modèle. »
De meilleurs rendements dans le sud de l’Europe
Les travaux démontrent que l’agriculture de conservation permet d’obtenir de meilleurs rendements dans les régions sèches confrontées à un manque d’eau. En Europe, ces zones se situent dans le sud du continent, et aux États-Unis dans l’ouest et le sud. « L’explication est assez simple, analyse le chercheur. L’agriculture de conservation permet de conserver davantage de matière organique dans les sols, ils ont alors une meilleure capacité à retenir l’eau et elle est donc davantage disponible pour les cultures. »
Agriculture de conservation. Crédit photo AgroParisTech INRAE
Dans le détail, l’étude révèle que 60 % des surfaces actuellement cultivées en blé en zone tempérée voient leurs rendements progresser grâce à l’agriculture de conservation. Les changements climatiques à l’horizon 2050 ont globalement peu d’impact sur cette tendance, puisque les variations de probabilité évoluent entre -10 % et +10 % en fonction des régions du monde considérées. Par contre, pour le maïs, l’effet est plus visible. Ainsi, le gain de rendement s’applique sur les trois-quarts des surfaces actuellement cultivées dans le monde, quelle que soit la zone climatique. Avec l’évolution du climat, la probabilité d’obtenir un meilleur rendement serait encore plus élevée, celle-ci pouvant aller jusqu’à un gain supplémentaire de 20 % en zone tropicale. « Dans les régions tempérées de notre hémisphère, le maïs se sème en avril et est récolté en octobre ou en novembre. Il pousse donc surtout lorsqu’il fait chaud, à une période où il y a moins d’eau. Le fait que l’agriculture de conservation permet de mieux retenir l’eau dans le sol profite donc à cette plante. Cette pratique agronomique est une bonne façon d’adapter les cultures aux changements climatiques, surtout pour le maïs. »
Agriculture de conservation. Crédit photo AgroParisTech INRAE
Ce travail de recherche a également mis en lumière l’effet des bonnes pratiques agronomiques sur les rendements. En plus de respecter les trois règles fondamentales, le fait de fertiliser les sols et de protéger les plantes contre les mauvaises herbes et les maladies rend encore plus productive l’agriculture de conservation.
De nombreux groupes de recherche tentent depuis plusieurs années de faire entrer la chimie dans l’ère numérique. Parmi eux : le Cronin Lab de l’Université de Glasgow, avec Lee Cronin comme chercheur principal du laboratoire. Ce dernier travaille au développement de la chimie numérique depuis plus de 10 ans. Comme d’autres, il tente avec son équipe de mettre au point un moyen standard de découvrir et fabriquer des molécules.
Début 2019, il a publié avec ses collègues dans Science le fonctionnement du « chemputer », une plateforme de laboratoire robotique qui synthétise des composés organiques sur la base de descriptions de méthodes standardisées. Ce robot chimiste qu’ils ont créé peut donc mettre au point des produits chimiques à partir de programmes. Ce langage de description chimique, nommé XDL, est au « chemputer » ce que HTML est à un navigateur : il indique à la machine ce qu’elle doit faire.
En octobre 2020, toujours dans Science, ils ont franchi une nouvelle étape vers la numérisation de la chimie grâce à un nouveau logiciel. Ce dernier traduit les articles universitaires en programmes exécutables par le « chemputer » que les chercheurs peuvent éditer, sans avoir à coder. Le système traduit les instructions en XDL, transmises au chemputer qui exécute les actions mécaniques correspondantes.
Un Spotify de la chimie
L’équipe de Lee Cronin tente de compiler en ligne des « recettes » pour le plus grand nombre possible de molécules d’intérêt. Cette plateforme qu’ils surnomment le « Spotify de la chimie » est mise à disposition des chercheurs. Ils peuvent y télécharger des formules chimiques à utiliser dans leurs propres robots chimistes. Cela pourrait par exemple permettre aux pays en développement de produire plus facilement des médicaments, ou encore une meilleure collaboration scientifique internationale. « La plateforme est à ses débuts, mais de nombreuses personnes sont enthousiastes, des grandes sociétés pharmaceutiques aux universitaires », explique le chercheur.
Si le Cronin Lab a créé la société Chemify pour vendre ses robots et le package XDL, il est également possible de créer son propre robot grâce aux instructions mises à disposition gratuitement sur internet. Elles détaillent la construction et la programmation de la machine mise au point.
Potentielles percées en recherche fondamentale
Si plusieurs sociétés pharmaceutiques misent sur la chimie numérique pour le développement de médicaments, elle est tout aussi pertinente dans la recherche fondamentale. Dans une étude publiée dans Nature début juin, le « chemputer » n’a cette fois pas reçu des instructions précises pour produire une molécule ou un médicament en particulier. Le robot mélange des molécules simples, les « regarde » réagir, analyse le résultat, puis décide quoi ajouter à la réaction. Et ce pendant quatre semaines consécutives. Le chemputer peut découvrir des molécules complexes à partir de précurseurs simples, et traiter une grande quantité de données. Les matières premières sont de petites molécules sans fonction biologique ou catalytique, y compris des acides simples, des substances organiques, des agents réducteurs et certaines molécules inorganiques comme le sulfate de cuivre. Le robot en choisit deux ou trois à aspirer dans la cuve de réaction, où le mélange est agité et chauffé, puis laissé à décanter. Il analyse l’échantillon, et une partie est prélevée pour le stockage et sera analysée plus tard par des humains. Cette capacité permet aux chercheurs de tester expérimentalement des hypothèses, notamment sur l’émergence de systèmes vivants à partir de la chimie abiotique. Le robot pourrait fournir de nouvelles informations sur la façon dont la vie organique complexe s’est développée sur Terre.
Exit, la carte d’identité nationale, place à la Carte Nationale d’Identité Electronique (CNIE). Cette évolution est l’application du règlement (UE) 2019/1157 du Parlement européen et du Conseil sur le renforcement de la sécurité des cartes d’identité délivrées aux citoyens de l’Union et des permis de séjour délivrés aux citoyens de l’Union européenne et aux membres de leur famille exerçant leur droit à la libre circulation.
La Carte Nationale d’Identité Electronique a été conçue pour faciliter les usages quotidiens : lisibilité des informations qui ne seront pas altérées durant plusieurs années (recours au polycarbonate à la personnalisation laser), possibilité d’indiquer deux adresses au verso pour les gardes alternées d’enfants (parents séparés) …
S’agissant d’une carte électronique, elle intègre un composant électronique, accompagné d’un cachet électronique visuel (sous forme de code QR) signé par l’État. Ce cachet reprend les données inscrites sur la carte, ce qui permettra de détecter rapidement une éventuelle fraude si ces données ont été modifiées. Cette puce reprend les informations visibles sur le recto et le verso de la carte, mais surtout elle stocke l’image numérisée de deux empreintes digitales, comme le passeport français.
Crédit photo : ministère de l’Intérieur
Failles de sécurité ?
À partir du 2 août, tout Français souhaitant se faire délivrer ou renouveler une carte nationale d’identité recevra donc une CNIE. Un sésame utile, car dans 10 ans, il ne sera plus possible d’utiliser la carte d’identité classique pour voyager en Europe.
La France a pris du retard, car de nombreux pays européens proposent déjà une solution numérique associant l’identité régalienne et des identités commerciales sécurisées. Mais ce niveau de sécurité est-il réel ?
Durant l’été 2017, une équipe internationale de chercheurs avait informé les autorités d’Estonie de la découverte d’une vulnérabilité affectant potentiellement près de 750 000 cartes d’identité émises à partir d’octobre 2014. Les cartes d’identité émises avant le 16 octobre 2014 utilisant une puce différente n’étaient pas concernées. Toutefois, rien n’a prouvé par la suite que l’identité numérique de citoyens estoniens avait été détournée.
Cependant, les autorités avaient demandé aux personnes possédant des cartes d’identité vulnérables de mettre à jour leurs certificats de sécurité à distance ou en se rendant dans un point de service de la police et des gardes-frontières.
« C’est exactement le genre de chose qui m’inquiète à mesure que les systèmes d’identification deviennent plus répandus et plus centralisés », constate sur son blog l’expert en cybersécurité Bruce Schneier.
Après plus de dix ans de travaux sur l’électrolyse alcaline de l’eau, l’Université Bretagne Sud (UBS) est arrivée à un nouveau stade de développement de son programme de recherche. Elle souhaite en effet concevoir un prototype d’électrolyseur « low cost » pour permettre aux particuliers de produire et épargner leur propre énergie hydrogène en stockant le surplus de production, issu par exemple de panneaux solaires en été. À l’image des batteries lithium-ion qui, au départ, étaient uniquement destinées à un usage professionnel, les chercheurs de ce projet pensent que les électrolyseurs vont se démocratiser et se retrouver, à terme, dans les maisons d’habitation.
L’électrolyse consiste à décomposer des molécules d’H2O sous l’effet d’un courant électrique. Pour cela, deux électrodes (anode et cathode) sont plongées dans de la potasse (un mélange d’eau et de sel d’hydroxyde de potassium), séparées par une membrane afin d’éviter un court-circuit. À la cathode, les molécules d’eau sont dissociées et produisent des bulles d’hydrogène qui remontent à la surface. « Ces bulles naissent et décollent librement, mais cela pose des problèmes car elles ont des propriétés isolantes et elles augmentent la résistance offerte par l’électrolyseur, explique Philippe Mandin, professeur à l’UBS et chercheur à l’IRDL (Institut de Recherche Dupuy de Lôme). Du coup, pour avoir la même intensité, il faut apporter une tension plus importante et l’hydrogène coûte alors plus cher à fabriquer, car les volumes produits sont directement liés à la tension nécessaire pour faire passer cette intensité. »
L’UBS mène un travail de recherche afin de minimiser la tension à appliquer pour obtenir une intensité souhaitée la plus grande dans l’électrolyseur. Pour déclencher l’électrolyse, une tension minimum, appelée tension réversible, de 1,23 volt est nécessaire. Les chercheurs tentent d’optimiser les surtensions appliquées dans l’appareil, en particulier les surtensions ohmiques qui sont notamment liées à la surface et la distance entre les deux électrodes, à la nature de la membrane et la présence des bulles. « Nos travaux consistent à designer l’électrolyseur afin d’améliorer le procédé et surtout son coût, précise le chercheur. Grâce à des modélisations, nous avons démontré qu’en changeant la forme des électrodes, leur hauteur et la distance entre elles, il est possible de réduire la tension à appliquer dans l’appareil. »
Mettre de l’intelligence dans l’approvisionnement électrique
Des microcapteurs vont également être placés dans l’électrolyseur afin de recueillir des informations comme la température ou la densité d’approvisionnement électrique. Actuellement, la plupart des électrolyseurs sont approvisionnés en électricité de manière continue, mais sans réelle maîtrise de ce qui se passe à l’intérieur. « Les bulles naissent aux parois des électrodes et font un peu ce qu’elles veulent, ajoute Philippe Mandin. Nous pensons que la mécanique des fluides peut aider à une meilleure performance de l’électrolyseur en prenant en compte l’écoulement diphasique dans les espaces inter-électrodes. Nous souhaitons mettre de l’intelligence dans l’approvisionnement en électrolyte et en énergie électrique aux deux électrodes. Au lieu de réaliser une alimentation électrique grossière, nous voulons utiliser le degré de liberté temporel pour effectuer une gestion dynamique de cet approvisionnement. »
Ce travail de recherche est réalisé sur un électrolyseur de type alcalin, mais pourra s’adapter à tous les types d’électrolyseurs. Après un long travail de calculs et de modélisations, l’UBS vient de s’associer avec Alca Torda Applications, une société d’expertise en hydrogène, pour construire un prototype. Il pourrait voir le jour à l’issue d’une thèse, dans les 3 ans à venir, et devrait coûter moins de 10 000 euros pour produire 0,5 Nm3 d’hydrogène par heure. « Pour stocker de l’énergie autoproduite, les particuliers ont actuellement la solution des batteries, mais la durée de stockage est limitée à deux trois jours, complète le chercheur. Avec l’électrolyse, l’avantage est qu’il n’y a pas de date de péremption et l’hydrogène peut être stocké très longtemps. Bien sûr, il faut veiller à l’aspect sécurité et il n’est pas question de stocker de l’hydrogène à 700 bar. L’idée est de le stocker à basse pression ; les électrolyseurs commerciaux débitent aujourd’hui facilement de l’hydrogène à 35 ou 50 bar. »
Le programme Pléiades Neo, décidé en 2016 par Airbus, est un pari stratégique de près de 700 millions d’euros financé à 100 % par la compagnie. Quatre satellites identiques seront placés en orbite héliosynchrone à 620 km d’altitude. Un premier a été lancé dans la nuit du 28 au 29 avril et un deuxième lancement est prévu dans la nuit du 10 au 11 août. Les deux autres suivront en 2022.
Techniques de l’Ingénieur : Pourquoi une constellation de quatre satellites identiques avec une résolution de 30 cm ? Quelle est sa particularité ?
Michel Cancès : Le programme Pléiades Neo propose actuellement la meilleure résolution au monde pour une constellation de satellites non militaires. Avoir quatre satellites identiques garantit de la revisite, au moins deux fois par jour pour n’importe quel endroit sur Terre, et une qualité constante d’image. Il y a aussi une réactivité en fonction des besoins qui est unique au monde, grâce notamment à la plateforme sur laquelle il sera possible de commander et télécharger les images. Et les deux satellites qui seront lancés en 2022 auront une spécificité : ils sont équipés de terminaux laser qui leur permettent d’utiliser le service SpaceDataHighway, un partenariat entre l’ESA et Airbus. Ce dernier permet de vider les images très rapidement, grâce à des satellites géostationnaires, et de ne pas attendre une rotation complète de 100 minutes. Par ailleurs ce système permettra aussi pour les 4 satellites de la constellation d’être encore plus réactifs pour placer des demandes d’acquisition au tout dernier moment afin de répondre par exemple à des situations d’urgence extrême.
Le premier satellite a été lancé en avril, mais la commercialisation des premières images démarre le 1er novembre ; pourquoi ce délai ?
Nous produisons déjà des images tous les jours, dont certaines ont été partagées et rendues publiques. Mais elles ne sont pas encore calibrées afin d’être conformes à la spécification attendue pour un produit labellisé. Après la mise en orbite, trois mois sont nécessaires pour ce qu’on appelle le « in orbit testing » : les calibrages optique, radiométrique et géométrique, la précision de localisation… En parallèle, la mise au point du système au sol qui pilote les satellites et reçoit les images nécessite cinq mois.
Avez-vous déjà des clients ? Quel est le profil des acheteurs potentiels ?
En 2016, on s’était engagé à rentrer des premiers contrats avant même de lancer les satellites, ce qui a été fait. Deux gros contrats ont déjà été signés. Il y a une vraie attente du marché pour la précision native de 30 cm. Et il attire de plus en plus les acteurs privés qui achètent des images pour fournir des services, par exemple en agriculture, pour l’agriculture de précision, ou encore pour des traders en énergie grâce à l’observation de sites de production. La majorité reste le secteur public. Mais un autre segment du marché est extrêmement intéressé par la précision native de 30 cm : le militaire. Si certains pays ont leurs propres satellites militaires, d’autres gouvernements n’en possèdent pas. Nous pensons que ce segment représente une forte proportion du marché accessible.
Pendant combien de temps espérez-vous rester sur le marché ?
Avec une durée de vie de 10 ans pour un satellite, entre le premier lancement en avril 2021 et le dernier en 2022, on espère rester sur le marché au moins pendant 12 ans.
La résolution à 30 cm devient le standard sur le marché. L’américain Maxar a déjà un satellite de ce type depuis 2016. Et ils ont un programme d’une constellation de 6 autres. Ils ont un peu de retard mais les premiers devraient être lancés d’ici la fin 2021 au plus tôt. Mais la différence avec les Américains est que leur gouvernement subventionne indirectement l’opérateur en garantissant l’achat d’une partie importante de la ressource des satellites. Comme nous avons financé nos satellites à 100 %, ils sont entièrement dédiés au commerce.
Il y a d’autres projets dans le monde. Principalement en Asie où quelques pays sont extrêmement actifs dans le domaine, avec en particulier la Chine qui lance plusieurs satellites chaque année. Mais encore très peu de sociétés dans le monde sont capables de mettre au point une résolution native de 30 cm d’une aussi bonne qualité.
Depuis quelques années, les Français de l’étranger peuvent voter par correspondance (par internet) pour les élections législatives et celles des conseillers consulaires. Mais en 2017, le ministère des Affaires étrangères avait renoncé au vote électronique pour les élections législatives de juin de cette même année.
« Cette décision a été prise sur la base des recommandations des experts de l’Agence nationale de la sécurité des systèmes informatiques (ANSSI) et en tenant compte du niveau de menace extrêmement élevé de cyberattaques qui pourrait affecter le déroulement du vote électronique », avait précisé le ministère.
Faille de sécurité dans les SMS
Ce ministère se prépare déjà pour les législatives de 2022. Un test de vote sur internet pourrait être organisé à la rentrée prochaine. Pour y participer, les Français résidant à l’étranger devront être inscrits sur la liste électorale de leur consulat. Autre prérequis : l’administration devra connaître l’e-mail et le numéro de téléphone de l’électeur.
Ce test devrait permettre de s’assurer que le secret du vote est garanti et qu’il n’y a pas eu de manipulations. Selon le magazine Le virus informatique, l’un des risques se situe au niveau « des informations de connexion qui circulent en clair par SMS, alors que ceux-ci sont piratables à l’international du fait d’une faille SS7 (Signaling System 7) ». Cette vulnérabilité concerne à la fois les SMS, mais aussi plusieurs messageries instantanées.
Mais comment renforcer les procédures d’authentification sans empiéter sur la vie privée ? « Plus on sera en mesure de s’assurer que c’est bien vous qui votez, moins on pourra vous garantir que le vote que vous exprimez est secret », explique au Monde Jean-Philippe Derosier, professeur de droit public à l’université de Lille et constitutionnaliste.
Mais c’est le prochain scrutin présidentiel qui inquiète le plus les spécialistes. Des risques de désinformation et de piratages de comptes sont pris très au sérieux par les autorités. Lors de la précédente élection présidentielle de 2017, des e-mails du parti la République en marche avaient fuité durant les jours précédents le second tour.
Désinformation, espionnage et piratage des partis
« Il y a trois grandes familles de risques , détaille Gérôme Billois, associé cybersécurité et confiance numérique chez le cabinet Wavestone qui vient de publier une étude intitulée « Présidentielle 2022 et cybersécurité : agir maintenant ». Le premier est d’ordre criminel avec des personnes qui vont attaquer les systèmes informatiques et voler des données. Il n’y a pas de raison que l’élection présidentielle et tout son écosystème, qui comprend les partis politiques et les militants, ne soient pas touchés. Le second risque concerne l’espionnage avec de la captation d’information pour une utilisation à plus long terme. Mais le risque principal concerne la déstabilisation basée majoritairement sur de la désinformation qui serait alimentée par des données volées lors de cyberattaques ».
La manipulation pourrait prendre différentes formes. En mai 2016 à Houston, un groupe Facebook appelé « Heart of Texas » avait appelé à manifester contre le développement de l’islamisme dans cet État. Aussitôt, une manifestation avait été organisée devant une mosquée. Mais une contre-manifestation antiraciste avait également été tenue, ce qui avait entraîné des affrontements. Problème, la page du groupe était administrée depuis Saint-Pétersbourg, comme le révélera un rapport du Sénat américain en 2017.
« Il faut s’organiser dès maintenant. Les partis politiques et les candidats doivent être sensibilisés à ces menaces. Il convient également de mettre en place des solutions de cybersécurité permettant de verrouiller l’accès aux données sensibles et personnelles », recommande Gérôme Billois.
Anna Pugach, présidente et directrice technique de Touch Sensity (Crédit : Touch Sensity)
Créée en décembre 2019, Touch Sensity est une jeune start-up composée de 9 personnes et hébergée dans les locaux de l’incubateur de la technopole Bordeaux Technowest.
Ses deux co-fondateurs sont Anna Pugach, présidente et docteur en robotique et sciences cognitives, et Mehdi El Hafed, directeur général et directeur commercial.
Techniques de l’Ingénieur : Sur quel principe la technologie Touch Sensity fonctionne-t-elle ?
Anna Pugach : Nous avons développé une technologie qui récupère en temps réel toutes les données issues d’interactions physiques mécaniques. Cette technologie permet ainsi de dire si le matériau a subi différents types de sollicitations, comme la compression et l’étirement. Nous sommes non seulement capables de détecter les déformations, mais aussi les éventuels endommagements du matériau.
Concrètement, son fonctionnement est le suivant. Nous avons conçu un système embarqué que nous raccordons à la périphérie du matériau que nous souhaitons monitorer. Ce système envoie un signal au matériau et joue aussi le rôle de récepteur. Analyser les différences entre le signal envoyé et le signal reçu nous permet ainsi de mettre en évidence les changements structurels du matériau.
Le signal récupéré est ensuite transmis à un terminal de traitement. À l’aide de modèles mathématiques ou avec l’appui de l’intelligence artificielle, nous reproduisons alors un jumeau numérique de notre matériau qui comprend les données de localisation et de caractérisation de toutes les interactions physiques subies.
En quoi la création d’un jumeau numérique est-elle utile pour le suivi des matériaux ?
Le jumeau numérique d’un matériau peut être utile dans plusieurs cas. Premièrement, l’utilisation en banc d’essai permet d’enrichir le recueil de données. Deuxièmement, notre technologie a toute sa place sur les lignes de production, pour le suivi qualité des pièces produites.
En effet, à l’heure actuelle, les contrôles non destructifs appliqués aux pièces de production sont souvent longs à réaliser. Par ailleurs, si inspecter une pièce d’un mètre carré par les techniques de contrôle conventionnelles prend environ une heure, il faut également ajouter un temps de manipulation, car la pièce doit en plus être extraite de son ensemble.
Enfin, notre technologie brevetée a une autre force : elle est utilisable durant l’exploitation du matériau. En théorie, il devient ainsi possible de suivre en temps réel l’état de santé de pièces en fonctionnement. C’est donc un pas en avant vers la maintenance prédictive.
Sur quels secteurs vous positionnez-vous ? Êtes-vous en recherche de partenariats ?
Pour le moment, nous nous concentrons sur les moyens de transport au sens large (aéronautique, spatial, ferroviaire…) ainsi que sur l’industrie.
Par ailleurs, comme notre technologie est aussi bien applicable aux matériaux souples qu’aux matériaux rigides et qu’elle est directement compatible avec les matériaux du client, le panel d’application est extrêmement large.
À l’heure actuelle, toute la R&D est réalisée en interne et nous disposons de tous les équipements nécessaires au prototypage. Nous sommes actuellement en discussion avec une quarantaine de prospects de différents domaines. Notre objectif est de continuer à accélérer notre développement ; nous allons pour cela continuer à recruter dans les années à venir.
Les véhicules autonomes sont équipés de différents capteurs permettant de détecter leur environnement. Les capteurs à ultrasons détectent les obstacles proches (lorsqu’on se gare par exemple) tandis que les radars détectent les objets à grande distance.
La nouvelle étape s’intéresse à l’habitacle. Spin-off de Siemens AG, Infineon Technologies vient de développer un système baptisé « In-Cabin Monitoring System », capable de détecter les moindres anomalies des personnes à bord de véhicules autonomes. Infineon s’est appuyée sur les compétences de Bitsensing, une start-up sud-coréenne spécialisée dans la technologie d’imagerie radar, et Caaresys, une start-up basée en Israël.
Sa solution repose sur deux sous-systèmes : le premier (Driver Monitoring System-DMS) est chargé de surveiller les comportements du conducteur tandis que le second se focalise sur les passagers (« Occupant Monitoring System » – OMS). Ces deux sous-systèmes peuvent être autonomes avec des capteurs indépendants ou être intégrés dans une gestion centralisée.
En analysant les comportements des personnes, mais aussi les mouvements de paupières, les expressions du visage et le rythme cardiaque, les caméras et les capteurs du DMS pourront avertir les urgences si le système reconnaît les symptômes d’un malaise.
Le concept de l’OMS est relativement nouveau par rapport aux systèmes de surveillance du conducteur. Cette solution permettra d’avertir lorsque des enfants ou des animaux ont été oubliés par inadvertance ou que des passagers se sont endormis. Grâce à des capteurs, cette solution pourra vérifier que les ceintures de sécurité sont bien mises et que les airbags et le chauffage fonctionnent correctement.
Copyright : Infineon
Toutes les informations pourront être traitées individuellement, mais Infineon insiste sur le fait que c’est l’analyse globale de différents facteurs qui permettra d’établir un « diagnostic » précis et fiable de l’habitacle.
Malheureusement, tant que nous ne disposerons pas de moyens de détection efficaces et harmonisés de ces microplastiques, ils continueront à entrer dans la chaîne alimentaire et à affecter notre santé.
Les microplastiques, une source de pollution incontestable…
Les microplastiques sont des particules d’une taille comprise entre 1 µm et 5 mm. Lorsque ces particules sont issues de la fragmentation des plastiques, on parle alors de microplastiques secondaires. Ils peuvent se présenter sous de nombreuses formes : en fibres, films, granulés, mousses, microbilles, fragments, etc.
Les sources de pollution aux microplastiques sont nombreuses et les quantités libérées sont effrayantes. Voici deux exemples emblématiques :
Le lavage des tissus synthétiques libère un nombre important de fibres. Le relargage de fibres textiles dans l’environnement est ainsi évalué entre 18 000 et 46 000 tonnes par an au niveau européen.
…mais dont il est difficile de connaître l’ampleur réelle
Si l’existence de la pollution aux microplastiques est incontestable, sa quantification demeure un réel problème. En effet, les méthodes de mesure et de comptage varient d’un endroit à l’autre et il n’existe pas à l’heure actuelle de consensus sur l’ampleur du problème. Le manque de méthodes d’échantillonnage normalisées et les difficultés de détection n’aident donc pas à prévenir ce type de pollution.
Éliminer les particules parasites pour faciliter la détection
Plusieurs techniques de caractérisation peuvent être utilisées pour identifier les types de microplastiques contenus dans un échantillon. La spectroscopie Raman et la spectroscopie infrarouge (FT-IR) sont les plus répandues. Lorsque ces techniques sont couplées à de la microscopie, il devient possible de détecter des particules jusqu’à 1 µm, à condition d’être en mesure de les séparer de la matière organique. En effet, la dégradation de la matière organique est une étape limitante dans les procédés d’extraction en termes de coûts et de temps passé.
Dans une étude publiée dans le journal Analytical and Bioanalytical Chemistry, des chercheurs de l’université de Portsmouth présentent une méthode de détection qui utilise une solution chimique appelée réactif de Fenton pour éliminer la matière organique des eaux usées.
« La digestion multiple à partir du réactif de Fenton consiste à mélanger les eaux usées avec du peroxyde d’hydrogène et du sulfure de fer, à plusieurs reprises afin de décomposer la matière organique. Lorsque cela est suivi d’une séparation par densité, permettant de séparer les plastiques du reste, cela donne un échantillon plus propre, ce qui permet de déterminer le type de microplastique et la taille des particules avec beaucoup moins d’interférences. »
Pour montrer l’intérêt de cette méthode, les chercheurs ont utilisé des échantillons d’eaux usées brutes, de boues et d’effluents finaux qu’ils ont mélangés avec deux tailles et deux types de microplastiques (PS et PMMA). Cela leur a permis d’obtenir des taux de récupération de microplastiques de l’ordre de 60 à 80 %.
Ces travaux se poursuivent et Fay Couceiro aimerait maintenant mener de nouvelles recherches sur d’autres types de plastiques et sur la récupération de particules encore plus petites.
En plus de ces problèmes de pollution, le phosphore reste une ressource rare et les réserves mondiales de phosphates sont limitées. Une pénurie d’engrais phosphatés aurait des conséquences importantes sur la production alimentaire mondiale. Il est donc urgent de trouver des solutions de récupération du phosphore.
Qu’est-ce que la membrane PEARL ?
Cette membrane appelée PEARL (Phosphate Elimination and Recovery Lightweight) est un substrat nanocomposite à la fois poreux et flexible, fabriqué par un procédé aqueux. Les nanostructures déposées en surface du substrat ont la particularité de se lier aux ions phosphate, ce qui permet leur captation.
Dans une étude publiée dans la revue Proceedings of the National Academy of Science (PNAS), l’équipe de chercheurs de la Northwestern University démontre que la membrane qu’ils ont développée est capable de capter jusqu’à 99 % des ions phosphate contenus dans les eaux polluées, même à des concentrations significatives.
Autre avantage : cette membrane PEARL peut être utilisée de manière réversible, c’est-à-dire qu’elle peut aussi bien absorber ou relarguer les ions phosphate. Le réglage se fait alors par simple contrôle du pH.
Cette particularité permet d’une part la récupération du phosphate et d’autre part la réutilisation de la membrane pour de nombreux cycles.
Une solution viable industriellement ?
Les solutions de dépollution actuelles se contentent d’éliminer le phosphate des eaux polluées. Dans un communiqué de presse, Ninayak Dravid, auteur correspondant de cette étude, explique pourquoi :
« On peut toujours faire certaines choses dans le cadre du laboratoire, mais il y a un diagramme de Venn quand vient le temps de passer une technologie à l’échelle : en plus d’être capable d’assurer ce passage, il faut que ce soit fait de manière efficace et économiquement abordable. Jusqu’à présent, il n’existait rien à l’intersection des trois [critères, NDLR], mais notre éponge semble être une plate-forme qui répond à l’ensemble de ces critères. »
Une membrane qui peut être adaptée à d’autres polluants
Cette équipe de chercheurs n’en est pas à son coup d’essai, car ces travaux s’inspirent d’une solution d’élimination d’hydrocarbures proposée en 2020 et basée sur le même type de plate-forme spongieuse.
Ils ne comptent pas s’arrêter là : en modifiant le nanomatériau constituant le revêtement de la membrane, ils s’intéressent également à la dépollution de métaux lourds.
L’agrivoltaïsme, c’est placer au-dessus des cultures agricoles des persiennes photovoltaïques pilotables, soit pour faire de l’ombre aux plantes (et produire de l’électricité à plein à ce moment), soit laisser passer la lumière et donc moins produire d’électricité. Lesdites persiennes permettent également d’abriter les plantes des intempéries préjudiciables aux cultures, comme la grêle… On est loin des serres couvertes de panneaux photovoltaïques.
L’objectif est d’améliorer les conditions agro-climatiques des plantes et la résilience des cultures, aidant ainsi les agriculteurs à faire face au changement climatique et les aléas extrêmes qui y sont afférents.
En outre, l’agrivoltaïsme ne « cannibalise » aucun terrain, dans la mesure où les panneaux sont implantés au-dessus des cultures.
La rentabilité liée à la production d’électricité est forcément plus limitée qu’avec des installations dédiées, mais elle s’associe à celle de l’agriculture qui en bénéficie.
Préserver aussi la ressource en eau
Une installation agrivoltaïque se compose de panneaux photovoltaïques positionnés à environ quatre mètres au-dessus des cultures, pour permettre le passage des engins agricoles. Orientables, les panneaux sont pilotés par une solution logicielle faisant appel à l’intelligence artificielle en fonction des besoins physiologiques de la plante, des modèles météorologiques et des données hydriques. L’agrivoltaïsme permet en effet, en faisant de l’ombre, d’économiser également l’eau.
La solution est d’ores et déjà en œuvre dans les zones méridionales de France, et elle est adaptable à de nombreuses cultures, notamment la viticulture, mais aussi les vergers (abricot, pêches, etc.) sans oublier le maraîchage, gourmand en eau et dont la zone sud de la France est largement dotée. Selon les premiers retours d’expérience, l’agrivoltaïsme permettrait d’économiser quelque 30 % d’eau pour les cultures maraîchères, et 20 % environ pour la vigne, d’après Sun’Agri, qui développe cette solution depuis près de 10 ans, notamment en région Occitanie.
La France pionnière
« La France est le porte-étendard de cette technologie de pointe », indique France Agrivoltaïsme à l’occasion de la création de l’association de la filière, lancée par deux pionniers et leaders mondiaux du secteur, REM Tec et Sun’Agri. Aux côtés de ces deux « historiques », se sont associés un bureau d’ingénierie en énergie solaire Kilowattsol, un développeur et producteur d’énergie Altergie Développement, et Râcines, la plateforme de financement dédiée aux projets agrivoltaïques.
L’agrivoltaïsme a bénéficié des appels d’offres de la Commission de régulation de l’énergie (CRE), depuis 2019, en désignant dans le cadre de ses appels d’offres une centaine de projets agrivoltaïques.
En outre, en parallèle, « l’Ademe a effectué des travaux pour définir l’agrivoltaïsme ; la Plateforme Verte a un groupe de travail sur les bonnes pratiques dans l’agrivoltaïsme ; et enfin l’initiative Cultivons Demain ! a été lancée en novembre 2020 », signale France Agrivoltaïsme.
L’association vise à promouvoir l’agrivoltaïsme, en priorisant les solutions à fort impact agricole, à représenter la filière auprès des différentes parties prenantes (pouvoirs publics, organisations professionnelles…), à étudier et défendre les droits et intérêts de ses membres, et à développer l’information et la formation sur l’agrivoltaïsme.
France Agrivoltaïque est constituée de cinq collèges en cours de constitution (filières agricole et agroalimentaire, filières de l’énergie, recherche et éducation, finance et assurance et solutions technologiques agrivoltaïques) et s’appuie d’ores et déjà sur trois commissions pour structurer et élever les standards de cette industrie naissante : certification/label, réglementation, international.
« Notre premier objectif vise à sensibiliser les pouvoirs publics sur la nécessité de maintenir une ambition forte des mécanismes de soutien à l’agrivoltaïsme, notamment dans le cadre des appels d’offres de la CRE et des aides à l’agriculture, en particulier celles du Plan de relance pour l’adaptation de l’agriculture aux changements climatiques », a déclaré Antoine Nogier, de Sun’Agri, et premier président de France Agrivoltaïsme, à l’occasion du lancement de l’association.
Le soleil, les vacances pour les chanceux, les terrasses réouvertes… Techniques de l’Ingénieur célèbre l’été avec vous et ouvre en accès libre des articles de circonstance.
De la crème solaire à la baignade, en passant par le voyage, les boissons et autres moyens de se désaltérer, c’est un programme estival qui vous attend !
Alpine, anciennement société française des automobiles Alpine, est créée en 1955 par Jean Rédélé, alors jeune concessionnaire Renault à Dieppe. Alpine développe alors des voitures sportives, dont le modèle A110, présenté au salon de Paris en 1962, et qui fera beaucoup pour la renommée de la marque auprès des passionnés de sport automobile.
Dès 1965, Alpine s’associe à Renault pour la production et la commercialisation des modèles Alpine. A partir de là, “Alpine Renault’” connaît un immense succès en termes de ventes et dans le monde des sports mécaniques.
En 1978, Renault, qui détient la majorité d’Alpine, décide d’interrompre la production des Alpine dans son usine de Dieppe, pour y privilégier le développement et la production des véhicules de la gamme Renault Sport. C’est la fin de la saga Alpine.
Depuis, l’idée de relancer la marque, qui bénéficie toujours d’une côte d’amour très importante auprès des passionnés de sports mécaniques, a germé plusieurs fois. Carlos Ghosn l’évoque en 2006, et Carlos Tavarez, alors numéro 2 du groupe Renault, présente en 2012, pour les 50 ans du modèle A110, le modèle A110-50, fidèle descendant de la tradition Alpine.
Peu après, Renault annonce le retour en production de la nouvelle Alpine, qui sera effectif en 2017, au sein de l’usine historique de la marque, à Dieppe.
Laurent Rossi, directeur général d’Alpine
Depuis, Alpine est revenue sur le devant de la scène médiatique après l’annonce par Renault du changement de nom de son écurie de formule 1, qui devient Alpine F1 Team dès la saison 2021.
Laurent Rossi, ancien directeur de la stratégie et business développement de Renault, devient directeur général d’Alpine début 2021. Cette nomination coïncide avec l’annonce d’Alpine, qui a décidé de ne commercialiser que des véhicules électriques dans le futur.
Laurent Rossi s’est entretenu avec Techniques de l’Ingénieur pour revenir sur ces choix forts et sur la stratégie d’Alpine pour se faire une place de choix sur un créneau très spécifique du marché automobile : celui des voitures de sport électriques.
Techniques de l’Ingénieur : Comment la renaissance de la marque Alpine a-t-elle été rendue possible ?
Laurent Rossi : Lors de la constitution du plan “Renaulution”, au second semestre de l’année dernière, Luca de Meo, le directeur général du groupe Renault et moi-même avons imaginé quelle forme pourrait prendre le retour de la marque Alpine sur le devant de la scène. Il est vite apparu que le modèle A110 de la marque serait un fabuleux support pour cette renaissance. En effet, ce modèle est un excellent véhicule sportif, salué par tous les spécialistes, s’étant vu décerner plusieurs prix, et qui se vend très bien dans les pays, encore peu nombreux, où nous le diffusons.
Au-delà de ce modèle, la marque bénéficie d’une histoire extraordinaire, jalonnée de succès, autant au Mans qu’en rallyes, ce qui montre d’ailleurs bien qu’Alpine, surtout réputée pour sa compétitivité en rallye, est depuis toujours présente sur une large gamme de sports mécaniques.
ll faut à ce propos se souvenir que la première Renault présente en formule 1 était une Alpine. Toute cette histoire prestigieuse plaidait pour qu’Alpine devienne l’écrin du sport automobile chez Renault. Partant de là, il fallait être en position de promouvoir l’image de la marque au niveau mondial. C’est dans cette double optique, à savoir faire d’Alpine une marque de référence dans les sports mécaniques et promouvoir l’image de la marque au niveau international, que nous avons réfléchi à engager la marque en formule 1 à la place de la marque Renault.
L’objectif pour Alpine en tant que constructeur est donc de développer des modèles sportifs, en intégrant des innovations technologiques de pointe. Comme l’a dit Luca de Meo, Alpine a dans ses gènes le potentiel pour être à la fois une « mini Ferrari » et une « mini Tesla ». Le côté Ferrari parce que nous avons la capacité de développer des modèles directement inspirés de nos voitures de course, et le côté Tesla, à savoir la propulsion électrique et les services associés, de par le savoir-faire de Renault, qui est un pionnier en la matière.
Nous avons donc tous les atouts pour transformer Alpine d’une marque de sport à une marque technologique. Avec la possibilité d’être plus accessible en termes de prix que les modèles développés par Ferrari ou Tesla.
Quelle est la clientèle pour Alpine aujourd’hui ?
Les premiers clients étaient soit des fans historiques de la marque, soit des clients séduits par le design et le modèle, avec des moyens supérieurs à la clientèle standard de Renault. C’était le cas dans la première année et demie en tout cas. Nous sommes revenus depuis à une clientèle plus traditionnelle, plus connaisseuse que passionnée. Il est vrai que depuis, le modèle A110 s’est installé dans les meilleurs de sa catégorie. Nous nous rapprochons donc petit à petit d’une clientèle plus large, qui pourrait se voir comme un allongement par le haut de la clientèle habituelle de la marque Renault.
Quels effets a eu la crise du Covid-19 pour Alpine ?
Nous avons été impactés et nous sommes toujours impactés par la crise sanitaire. Cela dit, en termes de production, nous avons été beaucoup moins impactés que d’autres constructeurs, puisque notre modèle est très spécifique chez Alpine. Nous ne produisons pas en masse. Quand un client commande un modèle, le délai de livraison est d’au moins trois mois. Ce fonctionnement nous a permis, malgré le contexte, de continuer à fonctionner presque normalement. Depuis le début de l’année, les ventes sont d’ailleurs en net regain, cela est en partie dû à « l’effet formule 1 ». Le premier trimestre 2021 est ainsi le meilleur de l’histoire, ancienne et moderne, de la marque. Cela nous rend optimistes pour l’avenir, car l’agrandissement à venir du réseau de distribution d’Alpine va nous permettre de continuer sur cette voie.
Cette renaissance de la marque s’est-elle accompagnée d’un changement d’échelle au niveau industriel ?
Non, notre usine de Dieppe a largement la capacité de produire la quantité de véhicules que nous vendons. En fait, l’usine a même la capacité de produire trois fois plus de véhicules que la demande actuelle si nous passions en 3/8 ce qui n’est pas forcément un objectif en soi. Aujourd’hui, cette usine est optimale pour produire la A110, avec par exemple un atelier peinture exceptionnel. En effet, nous proposons jusqu’à 30 teintes à Dieppe alors que les autres usines dépassent rarement 10 teintes.
Avez-vous réussi dans votre usine de Dieppe à implémenter des briques de l’usine du futur, tout en gardant l’aspect artisanal d’une marque chargée d’histoire ?
Oui, nous avons un mélange entre tradition et modernité. Nous n’avons pas tout misé sur l’automatisation, en implémentant ce qu’il était nécessaire d’implémenter, pas plus. Il y a encore une grande part d’assemblage manuel au sein de l’usine, pour assurer un niveau de qualité optimal. Notre rythme de production, nous permet une telle approche. Si nous devions augmenter substantiellement la cadence, ce modèle de production devrait être adapté.
Cela permet de beaucoup travailler à la main, pour assurer une finition parfaite et une attention au détail permanente.
L’automatisation, la robotique également, va plutôt concerner les travaux de tôlerie et de fonderie. Encore une fois, l’humain reste pour nous la meilleure garantie d’une qualité optimale dans tous les ajustements et toutes les finitions. Le contrôle automatisé est là pour soutenir le contrôle humain.
La robotisation et l’automatisation totale des process ne se justifient pas forcément pour une ligne de production comme celle de l’usine de Dieppe.
Quelle est votre stratégie pour recruter de la main-d’œuvre qualifiée pour l’usine de Dieppe ?
Nous avons un réservoir de main-d’œuvre très qualifiée à Dieppe. Nous avons beaucoup d’opérateurs qui connaissent très bien les spécificités de notre activité. La présence d’usines Renault dans la région nous permet également de profiter des compétences internes du groupe, qui ont la connaissance de ce qu’est la production de modèles haut de gamme.
Enfin, la marque Alpine attire beaucoup. Nous avons beaucoup de jeunes opérateurs séduits par la marque qui viennent apprendre auprès des employés plus anciens : ce mélange des générations crée une émulation très saine sur le site, une transmission des savoir-faire efficace, et leur pérennisation au sein de la marque.
Parlons des véhicules électriques. Sont-ils l’avenir de l’automobile ?
Oui, c’est évident. Je dirais que l’avenir n’est pas forcément uniquement électrique, mais il le sera très majoritairement. C’est d’ailleurs un pari que Renault a fait depuis longtemps. Certaines grandes marques annoncent d’ailleurs depuis peu leur passage au tout électrique pour la décennie en cours.
Cela constitue une opportunité pour Alpine. Les trois modèles en développement en ce moment, restent, à l’image des véhicules de la marque, des petits gabarits. Ces petits gabarits se prêtent bien à l’électrique. De plus, l’aspect sportif d’une voiture, aujourd’hui, ce n’est plus la vitesse, mais plutôt l’accélération, l’agilité… l’électrique peut permettre d’atteindre des performances intéressantes à ce niveau. Notre ambition va donc être de proposer la première voiture de sport tout électrique. Alpine a le savoir-faire, autant sur le volet électrique que sur le volet sportif, pour relever ce challenge et devenir un acteur majeur sur ce segment. La sortie du premier de ces trois véhicules aura lieu dans trois ans, avec une stratégie bien définie, basée sur trois piliers : un pilier médiatique, qui sera pour l’essentiel développé à partir de notre présence en formule 1. En effet, la formule 1 représente 500 millions de téléspectateurs sur 23 rendez-vous.
Ensuite, il nous faut créer un réseau de distribution beaucoup plus important, pour augmenter notre capacité à « toucher » le client.
Enfin, le troisième pilier réside dans notre capacité à développer et à produire ces nouveaux modèles d’Alpine.
Pouvez-vous nous parler des éventuels transferts technologiques entre la formule 1 et les véhicules développés pour le grand public ?
Nous allons vers l’électrification, même si on n’est pas encore sur du 100 % électrique. Pour certains modèles de véhicules, l’hybride reste le plus logique, c’est encore le cas en formule 1. L’important aujourd’hui réside dans la gestion de la batterie : dans une F1, c’est le battery management system (BMS) qui fait la différence. La philosophie de gestion de la batterie se retrouve dans les problématiques des véhicules routiers. Il y a donc un véritable transfert de technologies entre les systèmes développés pour la F1 et le développement des modèles pour la route. Même si les modèles de BMS développés pour la formule 1 et la route ne sont pas identiques, ils ont des similarités.
Le second point réside dans l’amélioration des performances écologiques des véhicules. Nous pourrions faire des voitures essences ou diesels beaucoup plus propres, mais le niveau de prix du véhicule devient exorbitant. Chaque pour-cent de gain devient très cher. Du coup, les progrès sur le poids et l’aérodynamisme pour gagner en consommation deviennent fondamentaux. Pour ces problématiques d’aérodynamisme et de poids, les développements opérés pour la formule 1 ont un réel intérêt pour les ingénieurs qui développent les prochains modèles d’Alpine. Les transferts technologiques entre la formule 1 et le développement des modèles grand public sont ainsi de plus en plus nombreux.
Il y a d’autres ponts technologiques : les aspects connectivité et nouveaux services. Nous nous inspirons de ce qui est fait en formule 1 pour ce qui concerne par exemple les communications à haute vitesse, mais pas que. Aujourd’hui, l’analyse des données pour améliorer les performances des voitures et des pilotes est extrêmement pointue. Les données qui sont aujourd’hui captées permettent de paramétrer les formules 1 en fonction des caractéristiques de conduite du pilote : ces analyses de données nous permettent de paramétrer les voitures de manière incroyablement précise, en fonction du style des pilotes. Cette explosion des datas ouvre des perspectives inédites en termes de réglages, même si le ressenti du pilote reste encore aujourd’hui fondamental pour améliorer les performances.
Toutes ces solutions technologiques sont destinées in fine à être déployées sur les modèles routiers dans les prochaines années.
Pour terminer, un mot sur le développement d’essences synthétiques ?
C’est un sujet assez spécifique qui est en ce moment évoqué pour l’avenir de la formule 1. L’hydrogène fait également partie des solutions qu’il est intéressant d’envisager. Cela dépend en fait des usages, et des infrastructures nécessaires à mettre en place pour développer des solutions pour le grand public.
Il est difficile aujourd’hui de dire si ces solutions vont prendre de l’ampleur. Il faut se souvenir que les véhicules électriques ont émergé lentement au début… avant d’exploser sur le marché depuis environ 5 ans. Personne n’avait anticipé l’expansion que la technologie électrique a connu ces dernières années.
Propos recueillis par Yves Valentin, directeur des éditions Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.
La plupart des matériaux plastiques sont fabriqués à partir du pétrole et sont régulièrement pointés du doigt pour leur impact négatif sur l’environnement, notamment parce qu’ils ne sont pas biodégradables. Il existe différentes façons de les fabriquer à partir de matériaux biosourcés, via par exemple l’amidon de maïs, un procédé fréquemment employé. Depuis 4 ans, un programme de recherche transfrontalier, réunissant des équipes belges et françaises, vise à développer de nouvelles méthodes de mise au point de matériaux polymères biosourcés issus des cultures de microalgues. Baptisé ALPO, son objectif est de fabriquer des bioplastiques à hautes performances et compétitifs, qui ne rentrent pas en compétition avec la biomasse alimentaire.
Dès le départ de ce projet, les chercheurs ont préféré travailler à partir de microalgues plutôt que de macroalgues, comme le décrit Jean-Marie Raquez, maître de recherche à l’Université de Mons : « La complexité des macroalgues rend plus difficile le contrôle des différents constituants présents à l’intérieur. Dans le cas des microalgues, nous pouvons plus facilement moduler leur composition afin d’obtenir des constituants de type lipidique pour faire du polyuréthane ou alors saccharidique pour produire des acides lactiques et donc des polyesters ». Il existe plusieurs dizaines de milliers d’espèces de microalgues. Les chercheurs en ont principalement sélectionné deux : Chlorella vulgaris, qui possède une capacité à stocker des acides gras, et Arthrospira platensis, qui accumule des polysaccharides.
Favoriser la production de certains constituants des microalgues
Ce projet a consisté à optimiser la culture des microalgues, à travers l’optimisation de leur croissance à l’aide de bioréacteurs ainsi que des conditions de cultures, comme la température, le pH du milieu, la lumière et les apports en nutriments. Les microalgues ont la capacité de convertir l’énergie solaire en utilisant du CO2 et de l’eau pour produire de l’oxygène et de la biomasse algale grâce à la photosynthèse. Les scientifiques ont analysé l’impact des nutriments sur la croissance de ces micro-organismes aquatiques afin de produire certains constituants qui pourront ensuite être valorisés. « Le CO2 est le premier composant nécessaire aux microalgues. Des dérivés de l’azote ou des phosphores interviennent aussi dans la croissance de manière importante. Nous avons par exemple constaté que l’apport de nitrates et de phosphates dans le milieu va favoriser une croissance dirigée vers les lipides au détriment des saccharides. »
La culture de ces microalgues a été réalisée à l’échelle du laboratoire. Entre 24 et 48 heures sont nécessaires à leur croissance avant de pouvoir récupérer la biomasse. La taille de ces micro-organismes étant de quelques microns, des procédés ont été développés pour faciliter leur extraction, notamment en les agglomérant. Ces travaux ont confirmé qu’il est possible de fabriquer certains polymères, nécessaires à la fabrication de bioplastiques, à partir de cette biomasse algale. « On peut notamment produire avec la fraction saccharidique présente à l’intérieur certains acides utilisés pour faire des polyesters aliphatiques, par exemple l’acide polylactique (PLA) ou le polybutylene succinate (PBS). »
Le déploiement de ce procédé à une échelle industrielle reste à ce stade difficile pour des raisons économiques. En cause, ses rendements limités : environ 5 grammes par litre et par heure pour la biomasse algale contre environ 100 g pour la biomasse issue de l’amidon de maïs. Il est possible d’atteindre 10 grammes en laboratoire, mais cette performance est difficilement atteignable à grande échelle.
Des pistes pour améliorer la productivité de la culture de microalgues
Malgré tout, Jean-Marie Raquez pense que la fabrication de plastiques issus de la biomasse algale à destination du packaging ou du textile a de l’avenir : « Pour rendre cette technique compétitive, il faudrait réussir à extraire, en plus des constituants pour fabriquer des bioplastiques, certaines molécules à plus haute valeur ajoutée, comme des antioxydants. Mais pour l’instant, nous sommes encore loin de ce stade de développement, car il y a des incompatibilités au niveau de la chimie. »
Certaines pistes pour améliorer la productivité de ce procédé sont également possibles comme la mise en place d’un système où l’on ajoute des micro-organismes dans un premier bassin et où on récupère la biomasse dans un second, afin de rendre le procédé circulaire et semi-continu. « Au niveau de la valorisation, on pourrait aussi aller plus vite vers la fabrication de matériaux plastiques en intensifiant la séparation des différents constituants des microalgues à l’aide de traitements micro-ondes par exemple », poursuit le chercheur.
Un autre atout de ce procédé pourrait aider à son développement : la capacité des microalgues à stocker du CO2. « On pourrait imaginer l’installation de cette technique directement sur des sites industriels afin de capter les effluents gazeux émis et ainsi fabriquer de la biomasse algale », ajoute Jean-Marie Raquez.