Fukushima : 10 ans de démantèlement

Patrice François

Le 11 mars 2011, le Japon connaissait un enchaînement de catastrophes : un séisme, un tsunami puis l’accident nucléaire de la centrale de Fukushima Daiichi. Il s’agit de la deuxième catastrophe de centrale nucléaire de l’histoire, classée au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires (INES), au même degré de gravité que la catastrophe de Tchernobyl (1986).

Patrice François est en charge du suivi et de la réalisation de projets internationaux de démantèlement d’installations nucléaires et de gestion des déchets à l’Institut de radioprotection et de sûreté nucléaire (IRSN). Il est également chargé de la veille technique à Fukushima. Il revient sur l’accident, les mesures mises en place en urgence juste après la catastrophe et l’avancée du démantèlement aujourd’hui.

Techniques de l’Ingénieur : Pouvez-vous nous rappeler ce qu’il s’est passé il y a 10 ans à Fukushima ?

Patrice François : Le 11 mars 2011, un séisme de magnitude 9 est survenu à environ 80 km à l’est de l’île de Honshū au Japon, et a été suivi d’un tsunami. Ces catastrophes naturelles ont touché le site de la centrale de Fukushima Daiichi et ont provoqué la perte totale des alimentations électriques et donc du refroidissement des réacteurs. Cela a entraîné la fusion des cœurs des réacteurs nucléaires 1, 2 et 3 avec perte d’intégrité des cuves, sachant qu’on dénombre au total 6 réacteurs sur le site. Il y a également eu des explosions d’hydrogène dans les bâtiments réacteurs 1, 3 et 4.

Quelles actions ont été réalisées immédiatement après la catastrophe ?

Les équipes de TEPCO [Tokyo Electric Power Company, producteur d’électricité en charge du démantèlement de la centrale de Fukushima, NDLR] ont d’abord tenté de remettre en marche les fonctions électriques, ce qui s’est avéré impossible car les diesels étaient immergés dans les réacteurs 1 à 4. L’urgence était de préserver le refroidissement des piscines et des cœurs grâce à différents systèmes. En effet, la fusion des cœurs n’a pas eu lieu immédiatement, elle s’est faite progressivement. Les équipes ont fini par injecter de l’eau de mer acheminée par des camions de pompiers en utilisant les systèmes d’arrivée d’eau de conception des réacteurs. Cette méthode – provisoire – a permis de stabiliser les réacteurs dans les semaines qui ont suivi la catastrophe.

Comment les lieux ont-ils ensuite été assainis pour permettre aux équipes de travailler sur le démantèlement de la centrale ?

Lors de la catastrophe nucléaire de Tchernobyl, il y avait eu une explosion dans le cœur avec projection de débris de combustible à l’extérieur du réacteur. A Fukushima, la situation était différente car les cœurs ont fondu, traversé les cuves et se sont répandus dans les enceintes de confinement. Pour assainir la zone, les travailleurs ont dû rendre accessibles les piscines, donc déblayer les débris sur place, remettre en place les structures d’accès et même construire des structures externes aux bâtiments et renforcer la structure génie civil de la piscine pour le réacteur 4.

Ces travaux-là se sont faits dans des conditions radiologiques significatives car il y avait un rayonnement important au niveau des cœurs fondus. Cela a nécessité de travailler avec des équipes dont le temps de présence sur le site était calibré en fonction des contraintes d’exposition acceptées. Pour les travailleurs, l’exposition légale est de 20 millisievert par an, contrairement au public pour qui elle est de 1 millisievert par an. Mais pendant les premières semaines, le gouvernement japonais a dû autoriser l’intervention des travailleurs à des hauteurs de dose jusqu’à 250 millisievert de manière transitoire, pour des interventions bien particulières afin de stabiliser la situation.

Quelles étapes ont déjà été réalisées pour démanteler la centrale ?

La première étape fixée par TEPCO était de remettre en état les installations pour récupérer les éléments combustibles entreposés en piscine qui n’avaient pas fait l’objet d’une fusion. Il fallait donc construire des systèmes de confinement au-dessus des piscines existantes, et remettre en place les moyens de chargement et déchargement des combustibles qui avaient été endommagés lors de l’explosion. Cette première étape s’est terminée en 2013 pour le réacteur 4 et en 2018 pour le réacteur 3. En revanche, elle est toujours en cours pour les réacteurs 1 et 2 dont la fin est prévue respectivement pour 2025 et 2024. Ce sont des travaux importants et les conditions d’intervention sont complexes à cause de la contamination.

Une fois les installations remises en place, les équipes ont récupéré les éléments combustibles. Cette étape est terminée pour le réacteur 4 depuis 2014 et doit s’achever en mars ou avril 2021 pour le réacteur 3. Une fois les éléments combustibles récupérés, il n’y a plus besoin de maintenir des fonctions de refroidissement des piscines. Concernant les réacteurs 1 et 2, les opérations de reprise n’ont pas encore débuté mais l’objectif de TEPCO est d’avoir repris l’ensemble des éléments combustibles des piscines des réacteurs 1, 2, 5 et 6 pour 2031.

Comment sont refroidis les réacteurs 1, 2 et 3 ?

Aujourd’hui, TEPCO injecte dans chaque réacteur 3 mètres cubes d’eau douce par heure, grâce à un circuit en boucle fermée. L’eau utilisée se mélange avec les infiltrations de la nappe phréatique et avec l’eau de mer encore présente dans les bâtiments et est récupérée, puis décontaminée, désalinisée, et réinjectée dans les cœurs des réacteurs. Mais le bilan de cette boucle est excédentaire. TEPCO doit traiter 150 mètres cubes d’eau par jour qui ne sont pas réinjectés. Une fois décontaminée, l’eau est ensuite entreposée dans des cuves car l’exploitant n’a pas le droit de la rejeter.

Quels sont les procédés de décontamination de l’eau ?

Il y a plusieurs installations. La première permet de décontaminer l’eau de deux radioéléments : le strontium et le césium. Puis l’eau passe dans une installation de désalinisation. A partir de ce moment-là, il y a deux voies possibles : soit la réinjection dans les cœurs, soit le transfert vers une autre installation qui s’appelle l’ALPS et qui permet de traiter les radioéléments résiduels, au nombre de 62. Une fois que l’eau est décontaminée, elle est entreposée dans des cuves situées sur le site de la centrale.

Pourquoi cette eau ne peut pas être rejetée ? Pourra-t-elle être stockée indéfiniment ?

Le problème ne vient pas d’un impact radiologique car l’eau ne sera rejetée qu’après avoir été complètement décontaminée. Il restera seulement du tritium. Le rejet de l’eau est techniquement réalisable en respectant les autorisations de rejets en mer de la centrale de Fukushima établies avant l’accident. Il s’agit plutôt d’un problème politique. Les locaux, les marins-pêcheurs et les pays limitrophes s’opposent au rejet en mer. La région a beaucoup souffert de l’impact de la catastrophe et conserve désormais une forme de méfiance. Mais il s’agit d’un problème de perception et de méconnaissance des risques réels. Cela étant, il y a aujourd’hui sur le site environ 1 200 000 mètres cubes d’eau entreposée, et les capacités d’entreposage sont limitées à 1 370 000 mètres cubes. Au rythme actuel, les installations devraient être saturées autour de l’été 2022, d’où l’urgence de trouver une solution.

Plusieurs scénarios sont étudiés et deux solutions font l’objet d’un consensus international : soit l’évaporation de ces eaux grâce une installation, soit le rejet en mer qui reste une solution de référence pour l’exploitant. C’est maintenant au gouvernement japonais de se positionner.

Quelles sont les prochaines étapes pour le démantèlement complet ?

TEPCO a élaboré une feuille de route en 3 jalons :

  1. Dispositions à mettre en place pour être capable de commencer le déchargement des éléments combustibles présents en piscine. Cette phase est considérée comme achevée car les déchargements des éléments combustibles sont en cours.
  2. Mise en œuvre des dispositions pour reprendre le corium fondu des réacteurs. L’objectif de TEPCO est d’être en mesure de le commencer à partir de 2023.
  3. Terminer le démantèlement total des réacteurs accidentés, ce qui devrait durer de 30 à 40 ans à partir de l’accident, donc nous emmène approximativement à 2050.

Pour l’instant, TEPCO semble respecter le planning global prévisionnel car en 2021, des essais de reprise du corium dans le réacteur 2 sont prévus. En 2018, un robot avait déjà pu être introduit et a permis de vérifier que des fragments de corium pouvaient être déplacés. Néanmoins de nombreuses incertitudes demeurent sur l’état physique et mécanique du corium. Un nouveau robot, un bras téléopéré, est en cours de conception en Angleterre et devrait être livré prochainement même si du retard a été pris, notamment à cause de la pandémie de Covid-19.

Qu’est-ce que ce robot doit avoir de spécifique ?

Une des principales problématiques est l’accessibilité. Il doit réussir à se frayer un chemin jusqu’aux structures endommagées pour récupérer le corium avec des moyens de visions permettant d’identifier les objets présents. L’enjeu réside dans la conception des robots et des moyens de vision qui doivent résister aux conditions ambiantes. Les conditions sont différentes d’un réacteur à un autre. Dans le réacteur 3, il y a environ 6 mètres d’eau dans l’enceinte de confinement, et dans le réacteur 2, il y a très peu d’eau. Le niveau d’irradiation y est donc très important, or l’électronique résiste mal à ces rayonnements. Enfin, on doit pouvoir récupérer le robot pour réaliser des opérations de maintenance ou de réparation, et donc pouvoir le décontaminer sans difficulté.

Qu’adviendra-t-il du corium une fois récupéré ?

Il sera conditionné en colis spéciaux type canister, qui devront être conçus pour le stockage de déchets radioactifs de haute activité et qui seront préalablement entreposés. Ces colis spéciaux devront assurer des fonctions de confinement (hydrogène, corrosion) et permettre d’assurer la maîtrise de la sûreté criticité qui devrait être acquise par la géométrie des colis. Cela nécessite de réaliser des études de faisabilité pour vérifier si les colis sont compatibles avec la matière que l’on conditionne dedans. L’IRID mène actuellement des études afin de déterminer les spécifications techniques que les colis devront respecter.

Que reste-t-il aujourd’hui à définir ?

Les différents scénarios de démantèlement et les différentes solutions de conditionnement et d’entreposage des déchets sont étudiés par l’IRID [International Reasearch Institute for nuclear decommisioning, NDLR], qui a été créé au Japon. Cet organisme travaille sur un certain nombre de scénarios, qui prévoient un accès soit par le haut comme cela a été fait pour reprendre les éléments combustibles en piscine, soit par le côté des réacteurs ; les deux solutions seront probablement nécessaires. Mais d’importantes incertitudes demeurent sur l’état réel du corium et TEPCO s’attend à être confronté à différents cas de figures tels que des éléments massifs de structures du cœur fondu, des débris de différentes tailles, des poussières et des boues situées en divers endroits de l’enceinte de confinement et de la cuve. La diversité de ces situations influencera directement le planning des opérations de reprise. Certaines opérations pourront être réalisées en l’air et d’autres le seront probablement sous eau.

Quels sont les risques lors du démantèlement ?

L’enjeu du démantèlement est de conserver en place des barrières de confinement afin d’éviter la dispersion de matières radioactives dans l’environnement. Aujourd’hui, le corium est à l’intérieur du bâtiment réacteur, dans l’enceinte de confinement. Pour y accéder, la fonction de confinement peut être reportée sur les nouvelles structures qui seront mises en place et non plus uniquement sur l’enceinte de confinement et sur la cuve. Ces nouvelles structures doivent être dimensionnées en fonction des risques liés à la reprise du corium, à savoir la dispersion de matières radioactives, les risques d’incendie, les risques de criticité, ou encore les risques de chute de charge. Il faut aussi déterminer les sollicitations pour lesquelles ces structures doivent être dimensionnées : séisme, incendie, etc. Cela nécessite des études de conception afin de maîtriser le risque potentiel de contamination de l’environnement.

Est-ce que cet accident a permis de renforcer la sécurité sur les réacteurs actuels ?

Le Japon a été contraint de remettre à niveau ses installations, notamment à cause du risque de tsunami qui avait été clairement sous-estimé pour Fukushima. Les exploitants travaillent également sur des scénarios de perte totale de fonctions d’alimentation électrique des sites qui avait été jugée peu probable dans le passé. Toute une réflexion de fond a été menée à l’échelle internationale, au niveau des pays qui ont des réacteurs de puissance afin de mettre en œuvre des parades plus poussées en cas d’accidents graves. Au Japon, ça se traduit par la mise en place de systèmes de protection redondants et le cas échéant, par la construction de murs anti-tsunami plus compatibles avec ce qui a été observé à Fukushima. Dans le monde entier, des remises à niveau sont réalisées à la lueur des enseignements tirés de cette catastrophe.

Photo de Une : Fumée sortant du bâtiment réacteur 3, le 21/03/2011 / TEPCO

Offensive sur le projet Hercule… pour éviter qu’EDF soit un colosse aux pieds d’argile ?

Lors d’une audition devant la commission économique du Sénat le 10 février dernier, Jean-Bernard Lévy, le PDG d’EDF, a dévoilé une nouvelle donne pour ce projet qui visait au départ à séparer EDF en plusieurs entités sous la coupe d’une holding. Rappelant au préalable qu’EDF n’était pas en direct sur les négociations avec Bruxelles, puisque c’est l’Etat qui discute, Jean-Bernard Lévy a néanmoins dévoilé que le projet repose sur une réorganisation du groupe en deux entités « complémentaires et jamais concurrentes », avec des actifs homogènes et des objectifs stratégiques clairs.

Une première entité, dénommée « EDF Bleu », regrouperait la production nucléaire et thermique. La production hydraulique, qui au départ aurait pu se retrouver dans cette première partie (d’où le « bleu »), serait désormais quant à elle transférée à une « quasi-régie », filiale à 100 % d’EDF Bleu. La seconde entité, dite « EDF Vert », regrouperait la distribution (Enedis), les services, les activités commerciales, la construction et l’exploitation des ENR (d’où son nom de « Vert ») et les activités à l’international. Elle inclura donc Enedis, qui sera une filiale à 100 % d’EDF Vert.

EDF vert serait « détenu très majoritairement par EDF Bleu et par l’Etat et quelques actionnaires minoritaires », le PDG laissant entendre une potentielle ouverture de capital à hauteur d’un quart…

C’est un modèle qui, a insisté le PDG, est retenu par les pays du Sud, comme Iberdrola, en Espagne, et Enel, en Italie.

L’Arenh du jeu perdant

Car, a insisté Jean-Bernard Lévy, le point de départ de l’action réside dans la nécessité de mettre fin à l’Arenh (Accès régulé à l’énergie nucléaire historique). L’Arenh contraint le groupe à vendre à ses concurrents un quart de sa production nucléaire « à un prix fixé, il y a dix ans, et jamais révisé depuis, sans même tenir compte de l’inflation », soit 42 euros/MWh, a insisté le PDG d’EDF. « C’est un poison qui a largement contribué à faire d’EDF un acteur endetté », poursuit-il, qui rappelle que l’Arenh est fondé « sur une injustice évidente, qui revient à subventionner nos concurrents ». Mais c’est cet Arenh qui est au cœur du débat avec Bruxelles, puisque c’est la Commission européenne qui avait imposé à EDF d’ouvrir le marché de la production que l’entreprise publique dominait largement alors.

Cette réforme permettra ainsi à EDF d’avoir les moyens de se développer plus rapidement, a martelé Jean-Bernard Lévy, la nouvelle régulation nucléaire devant, soit via un corridor de prix, soit via un prix fixe (option qui tient la corde aujourd’hui) – le même pour tous les fournisseurs (EDF y compris) –, « couvrir les coûts et les investissements (passés et futurs) sur le parc existant ».

Eviter le « déclassement » d’EDF

Et de brandir la menace d’un « déclassement par rapport aux autres grands groupes européens », faisant d’EDF un colosse aux pieds d’argile. « Ils peuvent annoncer des objectifs très supérieurs à ce que peut faire EDF dans sa configuration actuelle », a appuyé le PDG d’EDF. Enfin, Hercule doit permettre de « sécuriser nos concessions hydroélectriques » ajoute Jean-Bernard Lévy, qui souligne un « risque de désoptimisation du productible », voire aller jusqu’à « un appauvrissement des vallées concernées » si les concessions hydrauliques sont mises sur le marché.

Dans ce cadre, et même si EDF ne participe pas directement aux discussions bruxelloises, les négociations avec Bruxelles se font avec plusieurs « lignes rouges » définies par EDF et l’Etat. D’abord, EDF reste un « groupe public intégré (…) qui englobe tous les maillons de la chaîne de l’électricité, toutes les filières de production et tous les services » et répondant à « une seule stratégie ». Bruno Lemaire, le ministre de l’Economie, a d’ailleurs déclaré devant le Parlement que « ce n’était pas négociable ». Et Barbara Pompili l’avait également affirmé à l’Assemblée nationale.

Les entités « coopèrent entre elles » et « les salariés peuvent circuler de l’un à l’autre ». Le statut des IEG (industries électriques et gazières) ne sera pas remis en cause, insisté le PDG d’EDF. Une adresse quasiment directe pour répondre aux syndicats de la maison, qui sont vent debout contre cette réforme.

Pour le PDG d’EDF, « cette réforme est une vraie opportunité de développement au service de la neutralité carbone et de la transition énergétique ». Et d’ajouter que, alors qu’aujourd’hui, EDF vise 50 GW de renouvelables en 2030 – un chiffre porté à 60 GW, lors de l’annonce des résultats du groupe –, dans 10 ans, « avec la réforme, nous pouvons viser 100 GW, et avoir un rôle deux fois plus important ».

Des oppositions actives

Pas certain cependant, malgré toutes ces précisions, que les oppositions faiblissent. Les syndicats, en interfédérale (FNME-CGT, FO, CFE-CGC, CFDT) sont toujours en mouvement, et ont organisé plusieurs journée de grève, depuis janvier, pour réclamer l’abandon du projet… Avec une mobilisation plutôt forte.

Plus inhabituel, la FNCCR, la Fédération des collectivités locales et concédantes (qui, rappelons-le, détiennent les lignes de distribution) s’est fendue d’un communiqué indiquant que « les services publics de distribution d’électricité et leurs usagers ne doivent pas être les otages de la stratégie financière d’EDF ». Et la FNCCR de poursuivre : « l’ouverture d’EDF vert à un actionnariat privé massif pourrait casser la dynamique d’investissement d’Enedis, affecter la qualité des services publics de distribution qui lui sont confiés par les collectivités locales concédantes, et conduire à un renchérissement du prix de l’électricité pour financer les versements de dividendes aux nouveaux actionnaires privés, pénalisant les consommateurs, déjà massivement confrontés à de graves difficultés ». En tout état de cause, la FNCCR déplore « l’absence totale d’information des territoires, et a fortiori de concertation avec eux, en premier lieu avec les autorités organisatrices de la distribution d’électricité, pourtant propriétaires des réseaux ». Enfin, la fédération représentant les collectivités réclame que les territoires soient associés à ce projet… Reste que, pour l’heure, les couloirs de Bruxelles sont très silencieux sur le sujet… Et ce n’est pas qu’à cause de la crise sanitaire !

Grâce à l’intelligence artificielle, les formations deviennent plus personnalisées

La pandémie impacte de nombreux secteurs. Celui de la formation n’y échappe pas. Depuis quelques années, ce secteur a dû s’adapter pour répondre aux besoins des entreprises et des salariés (mais aussi de façon générale à tous ceux qui veulent améliorer leurs connaissances).

Principal constat, les formations en présentiel de 7 heures (durée imposée par les OPCO − Opérateurs de compétences – pour leur financement) ne répondent plus aux besoins des entreprises.

Pour deux raisons principales : organisées généralement dans les locaux des entreprises par des prestataires, ces formations apparaissent de plus en plus comme contraignantes à cause de l’obligation de bloquer une journée pour chaque salarié suivant une session. Et avec la pandémie, ces formations en « intra » permettent difficilement de répondre aux contraintes sanitaires.

C’est la raison pour laquelle le e-learning devrait fortement progresser dans l’économie post-pandémique selon un rapport de Grant Thornton. Selon ce cabinet mondial, la crise sanitaire « mettra inévitablement en cause la prestation de formations en présentiel, entraînant la migration vers des formats numériques ou mixtes. »

Des formations adaptées

Fin 2019, une étude réalisée par l’Afpa et France Université Numérique auprès de 400 financeurs, prescripteurs, organismes de formation, universités, OPCO, indiquait que le digital learning favorise l’engagement (71 %) et dans une moindre mesure la performance des apprenants (61 %).

Avec l’intelligence artificielle (IA), les entreprises ont l’opportunité d’améliorer l’engagement et la performance en proposant des solutions d’apprentissage en ligne plus efficaces, car adaptées aux spécificités de chacun. Le type d’apprentissage d’une personne peut être influencé par l’âge, l’origine ethnique, le contexte culturel et d’autres facteurs qui doivent être pris en compte dans le processus de développement.

Or, l’IA peut en effet considérablement raccourcir le processus d’apprentissage en ne suggérant que des modules spécifiques dont l’employé a besoin pour améliorer les compétences nécessaires à son travail. En ayant repéré les forces, les faiblesses et les préférences d’apprentissage de l’utilisateur, un algorithme d’apprentissage automatique (ou machine learning) peut suggérer des cours et des modules de formation adaptés : tutoriels vidéo, contenu écrit, jeux, présentations audio…

Une formation proposée à différents salariés ne sera donc plus globale. Plusieurs modules d’apprentissage en ligne seront supprimés pour les personnes les plus avancées tandis que d’autres bénéficieront d’une approche plus complète et linéaire.

Des données trop personnelles…

Les tests, les quiz et les évaluations deviennent une partie importante de l’apprentissage en ligne et de toute formation en général. Ils permettent de consolider l’apprentissage et de mesurer l’efficacité du cours. Mais ils présentent une limite en adoptant une approche unique. Résultat, certains apprenants peuvent trouver ces tests trop faciles et d’autres trop difficiles. Avec l’IA, il est possible de concevoir des évaluations adaptées qui vont au-delà du format statique de questions-réponses.

Mais comme toujours avec l’IA, il est essentiel de disposer de données pertinentes et donc personnelles. « Or, affiner la donnée pose un problème éthique. Des informations ne risquent-elles pas d’être divulguées dans l’entreprise où travaille la personne ? Le RGPD exige d’ailleurs le consentement des personnes quant au partage de certaines données », rappelle François Debois, responsable innovation au sein du groupe Cegos.

Le renforcement post-Fukushima de la sûreté des sites nucléaires français encore en cours

Dix ans après la catastrophe de Fukushima, la France poursuit son plan d’action afin de renforcer la sûreté de ses sites nucléaires en cas d’agression extérieure : séisme, tempête, canicule… Dès l’accident, des mesures à court terme ont été mises en place par EDF pour améliorer la capacité des réacteurs à faire face à une perte d’alimentation électrique ou de la source d’eau froide. Parmi celles-ci : l’augmentation de l’autonomie des batteries ou la mise en place d’un groupe électrogène supplémentaire permettant d’assurer des fonctions essentielles comme la mesure du niveau d’eau des piscines. En parallèle, une Force d’action rapide du nucléaire (FARN) est créée par EDF regroupant une équipe de 300 personnes capables d’intervenir en moins de 24 heures sur un site avec des moyens électriques et des pompes d’alimentation en eaux supplémentaires. « Cette première phase dite réactive s’est achevée à la fin de l’année 2015, date à partir de laquelle la FARN peut faire face à une situation extrême, où tous les réacteurs d’un site sont endommagés, explique Olivier Dubois, directeur adjoint de l’expertise de sûreté à l’IRSN. Le site de Gravelines est celui qui en comporte le plus, avec six réacteurs. »

Le plan d’action se poursuit actuellement avec la phase de mesures pérennes. Objectif : éviter la fusion du cœur du réacteur ou en limiter ses conséquences sur l’environnement si elle se produit. Pour cela, des dispositifs de sûreté ultime constituant le « noyau dur » sont installés afin d’assurer les fonctions de sûreté vitales lors d’une agression hors norme. Trois dispositifs sont principalement déployés. Le premier consiste à installer des diesels de secours, placés dans de grands bâtiments, dont la fonction est de réalimenter en électricité l’ensemble des systèmes du noyau dur avec une autonomie de 72 heures. « Les 56 réacteurs du parc français sont, à ce jour, équipés ; la dernière installation s’étant déroulée à Paluel en janvier 2021 », ajoute Olivier Dubois.

Seulement 7 réacteurs équipés sur un total de 58

Deuxième dispositif : l’installation de sources d’eau ultimes pour refroidir les réacteurs grâce au pompage dans des nappes phréatiques ou des bassins. Là encore, la mesure s’applique à chaque réacteur. L’ASN a demandé à EDF de les installer toutes d’ici à la fin de cette année. 58 réacteurs sont concernés, car il faut ajouter les deux de Fessenheim. En effet, bien qu’arrêtées, les piscines d’entreposage de combustible de ce site ne sont pas vides et les sources d’eau ultimes ont également pour fonction de les approvisionner en cas de problème. « À ce jour, seulement sept ont été mises en place, précise Olivier Dubois. EDF s’est engagée à le faire pour l’ensemble du parc nucléaire dans les délais, mais sera probablement obligée d’utiliser des sources provisoires sur certains réacteurs comme l’utilisation de réservoirs déjà existants ou l’installation de bâches souples. Cette source doit être capable de fournir un débit d’au moins 30 m³/h environ pendant 72 heures, le temps que la FARN prenne le relais. »

Enfin, la dernière mesure pérenne concerne la construction de centres locaux de crises résistant à des agressions extrêmes, en remplacement des locaux actuels. Leur rôle est d’accueillir le matériel et une centaine de personnes mobilisées en cas d’accident et où les équipes disposent notamment des informations sur l’état du réacteur. Chaque site doit disposer d’un centre local de crise, soit un total de 18. Actuellement, seul Flamanville est équipé. Pour les autres sites, la mise en service est prévue entre 2022 et 2026.

Le plan d’action post-Fukushima ne s’arrête pas là puisqu’une troisième phase s’intéresse spécifiquement aux réacteurs dont la durée de fonctionnement est prolongée au-delà de 40 ans. L’ASN a en effet demandé d’améliorer leur sûreté afin qu’elle se rapproche des objectifs de sûreté des réacteurs de nouvelle génération, comme l’EPR de Flamanville 3. Là encore, il s’agit d’éviter un accident grave en cas d’agression extérieure ou de limiter les conséquences de la fusion du cœur sur l’environnement, comme l’EPR le prévoit. Une des modifications emblématiques consiste à installer un nouveau circuit de refroidissement et d’évacuation ultime de la puissance de l’enceinte. Il comporte, entre autres, une pompe d’injection d’eau dans le circuit primaire du réacteur ainsi qu’un échangeur pour extraire la chaleur. C’est un moyen supplémentaire d’éviter la fusion du cœur. Et si elle se produit néanmoins, ce circuit a aussi pour rôle de refroidir le corium produit dans le puits sous la cuve du réacteur et de permettre d’éviter que l’enceinte ne monte en pression. « Dans une telle situation, on est normalement obligé d’ouvrir la ligne d’éventage de l’enceinte, ce qui conduirait à des rejets radioactifs, même s’ils sont filtrés, analyse Olivier Dubois. Ce nouveau circuit d’évacuation ultime permet de gérer cette situation sans avoir à ouvrir l’enceinte. »

Les modifications pourraient s’étaler jusqu’en 2035

Ces modifications sont progressivement mises en place à l’occasion des quatrièmes visites décennales. Les réacteurs n°1 de Tricastin et n°2 du Bugey ont déjà été modifiés tandis que le n°4 du Bugey est actuellement en cours de révision. « À moins que pour des raisons de politique énergétique, il soit décidé que certains réacteurs ne dépassent pas l’âge de 40 ans, la modification des 29 autres réacteurs de 900 MW va se poursuivre jusqu’en 2025, déclare Olivier Dubois. Ensuite, viendra le tour des réacteurs de 1 300 MW à partir de 2026 puis celui de 1 450 MW. Les dernières modifications devraient intervenir en 2035. »

Au-delà de toutes ces mesures techniques qui s’étalent sur une très longue période, l’organisation des moyens humains déployés en cas d’accident a aussi fait l’objet de renforcements depuis la catastrophe de Fukushima. « Il faut rester modeste vis-à-vis des agressions qui peuvent se produire et les effets des cumuls d’agressions sont souvent difficiles à anticiper, confie Olivier Dubois. La gestion des conséquences d’un accident va beaucoup dépendre de la capacité d’adaptation et de résilience des équipes de crise. Suite au retour d’expérience de Fukushima, l’IRSN a donc fait plusieurs recommandations sur l’organisation de la FARN et des plans d’urgence interne. »

Fabrice Gaillard (CNRS) : « Le financement de la recherche en France s’assèche de manière dangereuse »

Fabrice Gaillard est passionné par la Terre et, encore plus, par ce que s’y passe à l’intérieur puisqu’il est chef du groupe « MAGMA » à l’ISTO. Après un doctorat à l’université d’Orléans de 1997 à 2001, il a été chercheur postdoctoral au Bayerisches GeoInstitut. En 2015, il obtient le plus haut diplôme français, l’habilitation à diriger des recherches (HDR), et devient directeur de recherche au CNRS en 2018. De solides arguments pour obtenir des financements dans un contexte peu favorable à la recherche fondamentale.

Techniques de l’Ingénieur : pourquoi cette association européenne vous a-t-elle récompensé ?

Fabrice Gaillard : dédié à la géologie expérimentale, ce prix récompense des scientifiques qui, comme moi, développent des machines simulant ce qui se passe à l’intérieur de la terre. D’autres que moi auraient donc pu être récompensés. Je pense qu’il y a une note d’originalité dans mes travaux qui a séduit le jury. Mes travaux ont permis de faire des mesures assez originales par rapport à la communauté des sciences de la terre et qui permettent de connecter différentes disciplines, en l’occurrence la géochimie et la géophysique. Un des points forts en ma faveur a certainement été la diversité des sujets scientifiques que j’ai pu adresser tout en utilisant la simulation comme méthodologie principale.

Le processus magmatique est très complexe. Mais grâce à votre méthodologie, appelée « pétrologie électrique », vous avez réussi à déchiffrer à distance ces processus dans le manteau et la croûte ?

La pétrologie est la science des roches. Depuis une trentaine d’années, la pétrologie expérimentale consiste, en laboratoire, à identifier les schémas réactionnels qui permettent de synthétiser des roches. J’ai greffé dessus la pétrologie électrique, une méthode géophysique qui permet de déterminer les variations des résistivités électriques des roches en profondeur. Cela permet aux géophysiciens d’interpréter des régions à l’intérieur de la croûte terrestre qui sont d’énigmatiques conducteurs électriques. Nous pouvons interpréter de manière quantitative l’imagerie électrique dans les terrains volcaniques.

À quoi cela peut-il servir ?

Nous avons développé différentes applications qui intéressent des industriels et des scientifiques souhaitant traquer la présence de roches fondues en profondeur pour une meilleure compréhension du magmatisme et de la gestion des risques. Nous développons également des solutions pour repérer la présence de fluides aqueux et chauds reflétant la formation des gisements miniers et donc la géothermie. Après avoir constaté des anomalies de résistivités électriques, des industriels nous contactent pour tenter d’en savoir plus sur la taille de ce réservoir (sa température, la quantité de fluides, quelle est la vitesse de circulation…). Ce sont des questions qui ont des répercussions immédiates sur la pérennité d’un système géothermique.

Vous travaillez également sur les métaux rares, un sujet qui ne suscite pas beaucoup d’intérêt de la part des industriels français ?

En laboratoire, nous avons travaillé sur l’identification par expérimentation des processus magmatiques qui peuvent fabriquer des roches très riches en terres rares et les métaux rares en général (comme le lithium). Mais en France, on tourne le dos à tout ce qui est économie minière et il n’y a pas de stratégie pour devenir autonome dans ce domaine. Or, les besoins en ces métaux rares vont fortement augmenter dans les prochaines années. C’est une question de souveraineté. Nous avons lancé ce sujet avec le Service géologique national, le BRGM, mais pour l’instant nous n’avons pas d’échos de la part d’industriels français. Au niveau européen, ce sont les Suisses et les Britanniques qui sont très actifs dans ce domaine.

Ce prix est l’un des plus prestigieux du monde dans votre discipline. Il devrait vous permettre d’obtenir plus facilement des fonds pour vos recherches ?

Ce prix est une réelle bouffée d’oxygène, car le financement de la recherche en France s’assèche de manière dangereuse. Cela devient très compliqué d’être financé aujourd’hui. Le taux de succès de l’ANR (Agence nationale de la recherche) est de 17 % en 2020 (conformément aux engagements de la loi de programmation de la recherche, les taux de succès devraient atteindre 23 % dès 2021, NDLR). Cela signifie que 83 % des projets scientifiques ne sont pas financés.

Une médaille de l’innovation scientifique me permettra d’être légitime quand je demande à être financé en France, mais surtout au niveau européen. J’ai deux projets que j’aimerais faire financer, mais je devrais prochainement n’en retenir qu’un seul. Le premier projet de recherche fondamentale concerne toujours l’électrique, mais en allant plus franchement dans les systèmes hydrothermaux et potentiellement derrière, la géothermie. J’aimerais compléter l’approche expérimentale électrique par une approche expérimentale sismique. Cette méthodologie expérimentale permettrait de simuler la propagation des ondes sismiques à l’intérieur des roches soumises à des conditions de pression et de température à l’intérieur de la terre.

Le second projet est encore plus fondamental : comprendre quels ont été les processus magmatiques lors des premiers instants de la Terre qui ont conduit, ou pas, à la mise en place rapide d’un environnement habitable avec une atmosphère, des océans et une croûte continentale. Pourquoi, sur Vénus, cela n’a-t-il pas évolué de la même façon ? Là aussi, la méthode reposerait sur le développement de machines en laboratoire qui simuleraient les conditions extrêmes de la « jeune » terre.

Les initiatives industrielles en matière de recyclage chimique des plastiques se multiplient

Pour de multiples raisons, la filière européenne du recyclage mécanique est en difficulté depuis plusieurs années et de nouvelles perturbations sont à craindre, selon la Cour des comptes Européenne :

  • La mise en place de restrictions strictes quant à l’exportation de déchets plastiques (modifications de la Convention de Bâle) va perturber la filière, car un tiers du taux de recyclage des emballages plastiques européens est le fait d’exportations hors UE !
  • Les dernières modifications de la Directive sur les emballages et les déchets d’emballages pourraient compromettre les objectifs européens de recyclage. Le taux de recyclage moyen des Etats européens pourrait ainsi passer de 42 à 30 %.
  • De plus, la contribution nationale sur les déchets d’emballages plastiques non recyclés (taxe plastique) s’applique désormais dans l’Union européenne depuis le 1er janvier 2021.

Le recyclage chimique, une solution à de nombreux problèmes ?

Le recyclage chimique consiste à modifier la structure chimique des déchets plastiques pour les convertir en molécules plus courtes. Ceci permet en théorie de disposer de molécules utilisables en tant que matière première pour de nouvelles réactions chimiques.

L’intérêt est grand, par exemple pour traiter des déchets multicouches particulièrement difficiles à séparer par simple recyclage mécanique. Par ailleurs, le retour au contact alimentaire devient envisageable, les nouveaux matériaux obtenus par cette voie ayant des propriétés identiques à celles des matières vierges.

Si les technologies de recyclage chimique sont prometteuses, elles sont encore rarement disponibles à échelle industrielle. Néanmoins, les choses évoluent très vite : selon l’union des transformateurs de polymères (POLYVIA), on peut s’attendre à une production à échelle commerciale d’ici 1 à 2 ans.

Près de 50 initiatives en 2020, rien qu’en Europe

Bibiane Barbaza, chargée de mission économique à Polyvia, a fait l’inventaire des innovations et projets apparus en 2020, dans un rapport publié en janvier 2021 et intitulé Recyclage Chimique : Où En Sommes-nous ?

Parmi les 84 initiatives diverses (brevets, projets collaboratifs, installations industrielles, etc.) qu’elle a répertoriées dans le monde, près de 50 sont du fait d’entreprises implantées en Europe. Voici quelques exemples européens.

Recyclage du polystyrène

Le recyclage chimique du polystyrène suscite un fort intérêt. En France, le consortium PS25 réunissant CITEO, VALORPLAST, SYNDIFRAIS et plusieurs entreprises utilisant les emballages en polystyrène a pour but de faire émerger une filière française du recyclage du polystyrène pour le contact alimentaire.

Par ailleurs, le recyclage chimique du polystyrène intéresse également de nombreuses entreprises :

  • TOTAL, qui compte le tester sur son site de Carling.
  • INEOS STYROSOLUTION et TRINSEO vont installer une unité de recyclage du polystyrène à partir de 2023.
  • YOPLAIT a déjà expérimenté la fabrication de pots de yaourt en polystyrène recyclé chimiquement.
  • MICHELIN investit dans la technologie de la startup canadienne PYROWAVE, dans le but d’intégrer du styrène recyclé dans du caoutchouc synthétique, afin de produire des pneus.

Plastic Energy, une startup très active

Le spécialiste britannique du recyclage chimique est en mesure de commercialiser des produits chimiques liquides par anaérobie thermale, grâce à ses deux sites de production en Espagne. En 2020, cette startup très impliquée dans le recyclage chimique a aussi multiplié les partenariats : construction de sites de recyclage chimique par pyrolyse avec INEOS et TOTAL, site de recyclage chimique d’emballages de barres chocolatées avec NESTLÉ, partenariat avec l’américain Sealed Air, etc.

Ces quelques exemples démontrent une volonté européenne de faire émerger rapidement ces technologies à échelle industrielle. Ils ne sont cependant qu’un échantillon : pour une vision globale des avancées en matière de recyclage chimique, nous vous invitons à lire le rapport complet, disponible sur le site de POLYVIA.

L’écoconception s’installe dans les entreprises, selon l’Ademe

L’Ademe publie le Baromètre Ecoconception 2020, le dernier en date remontant à 2014. Pour ce nouveau numéro, Harris Interactive a interrogé pour l’Ademe divers types d’entreprises entre le 21 septembre et le 16 octobre 2020 via un questionnaire en ligne et une enquête téléphonique. Parmi les 394 répondants, près de 300 ont intégré l’écoconception au moins de façon sommaire dans leurs plans stratégiques. Dans ce baromètre, l’Ademe recense 33 % d’entreprises qui intègrent l’écoconception « de manière systématique » pour améliorer leur performance environnementale sur le long-terme. En parallèle 18 % l’intègrent dans leur stratégie pour améliorer la performance environnementale sur le court-terme. Mais encore 25 % des entreprises se disent seulement informées sur le sujet, avec une intégration limitée des principes de l’écoconception.

Plus généralement, 21 % des entreprises déclarent déployer la démarche d’écoconception à un niveau généralisé du portefeuille de leurs produits mis sur le marché. Parmi les entreprises impliquées dans l’écoconception, le baromètre indique que deux entreprises sur cinq ont mis en place un système de management environnemental et 18 % ont une certification environnementale ISO 14001 de leurs produits.

La performance environnementale gagne du terrain

L’Ademe note « une forte dynamique de progression » entre 2014 et 2020. En particulier, les entreprises multiplient leur nombre de projets d’écoconception. En 2020, elles avaient réalisé en moyenne 32 projets d’écoconception depuis 3 ans. Elles citaient uniquement 6 projets en 2014. Parallèlement, l’écoconception s’ancre dans les entreprises : le panel interrogé avait en moyenne 4,5 ans d’ancienneté en écoconception en 2014, et 9 ans en 2020.

Pour initier la démarche, la motivation personnelle du dirigeant reste indispensable. Elle est mise en avant par 64 % des répondants. S’ensuivent le besoin d’anticiper les futures réglementations (40 %), et la recherche de nouveaux marchés (32 %). Les entreprises mettent aussi en avant le rôle des parties prenantes pour justifier l’intégration de la performance environnementale à leur stratégie. Elles citent ainsi les clients (78 %), les employés (33 %) et les fournisseurs (31 %).

L’écoconception pour tous les salariés

Quelle que soit la taille des entreprises, la formation à l’écoconception prend une part de plus en plus importante. Parmi les répondants, 91 % des entreprises de plus de 250 salariés et 73 % des moins de 10 salariés sensibilisent et forment leur personnel à l’écoconception. Toutefois, seulement 19 % des entreprises de plus de 250 salariés intègrent systématiquement l’écoconception, contre 45 % pour les entreprises de moins de 10 salariés. « Les petites entreprises sont plus rapidement au stade d’une écoconception généralisée sur leur portefeuille de produits, marquée par une augmentation significative de leur volume de ventes », explique l’ADEME.

Les entreprises impliquées depuis 6 ans font part de leur retour d’expérience pour mettre en avant les bénéfices de l’écoconception sur leurs résultats. 21 % d’entre elles pilotent le retour sur investissement de la démarche mise en place. Résultat : 34 % des entreprises perçoivent une augmentation du volume des ventes, dont 6 % une augmentation significative. Elles étaient respectivement 29 % et 0 % en 2014. Elles mettent aussi en avant une hausse de notoriété (62 %), une meilleure relation avec les clients (48%) et une motivation des employés plus importante (38 %). En contrepartie, les entreprises expriment des attentes et besoins pour renforcer leur démarche : formations, conseils, méthode de comptabilité des impacts économique de l’écoconception.

Dans le cadre du déploiement du Plan de Relance dans les territoires, l’ADEME propose plusieurs aides financières exceptionnelles pour financer leurs démarches d’écoconception. En particulier, l’appel à projets Perfecto est ouvert jusqu’au 8 avril pour déployer une démarche d’écoconception dans un projet de R&D. Des aides appuient les pré-diagnostics écoconception, d’autres les phases d’études ou encore les investissements permettant d’aboutir à la commercialisation de produits et services écoconçus.

L’Ademe se penche sur l’autonomie énergétique des zones non interconnectées

Moyennant une politique volontariste de maîtrise de la demande d’énergie (MDE) et un sérieux développement des capacités de stockage, un mix électrique 100 % énergies renouvelables adapté aux particularités locales est techniquement possible dans les six zones non interconnectées (ZNI) françaises étudiées, indique dans son étude l’Ademe, l’Agence de la transition énergétique.

Cette étude est le fruit d’un travail sur l’autonomie énergétique comme inscrite dans la loi de transition énergétique pour une croissance verte (LTECV) de 2015, rappelle l’Agence de la transition énergétique, prenant en compte à la fois l’évolution de la maîtrise de l’énergie et les changements dans les transports ainsi que les impacts socio-économiques de la transition énergétique en ZNI. Elle passe en revue les six ZNI à la loupe autour de cinq scénarios distincts (voir encadré).

L’Ademe concentre logiquement son attention sur les deux derniers scénarios qui permettent d’atteindre l’objectif fixé par la loi : mix électrique 100 % renouvelable et autonomie énergétique.

Un scénario « tous feux verts » atteignable

Même si les territoires diffèrent géographiquement, avec des ressources locales et/ou des choix politiques divers, l’étude estime que les potentiels renouvelables locaux sont suffisants pour assurer un mix électrique 100 % renouvelable. Et ce sans perte de la sécurité d’approvisionnement sur le système électrique.

Par hypothèse, il n’y a pas d’investissement dans les énergies fossiles dans ce scénario. Sous l’effet d’un bilan économique favorable, la part d’énergie renouvelable dans le mix augmente au fil des années pour couvrir la demande supplémentaire au fur et à mesure.

Les chiffres clés du scénario « Tous Feux Verts », dont le mix électrique est 100 % renouvelable, montrent d’importantes disparités dans la répartition du mix électrique. Ainsi, c’est en Corse et en Martinique que la part du solaire représente quasiment la moitié du mix, tandis qu’en Guyane, c’est l’hydraulique qui est plus important et en Guadeloupe, la géothermie fait jeu égal avec l’éolien terrestre.

Néanmoins, atteindre l’autonomie énergétique ne semble toutefois pas réalisable d’ici 2030 en raison du rythme élevé qu’elle implique pour le déploiement des filières renouvelables, signale l’Ademe. Par exemple, pour atteindre l’objectif d’autonomie fixé par la LTECV, La Réunion devrait déployer environ 1 000 MW de PV en 15 ans, alors que la PPE en cours porte un objectif de 120 MW supplémentaires pour 2023, affiche l’étude.

Réunion, Guadeloupe et Martinique présentent des mix assez bien diversifiés, sources de développement économique local dans plusieurs filières de production, ajoute l’Ademe. En prenant en compte les importations de biomasse, le taux d’énergie renouvelable atteint 100 % dans tous les scénarios guadeloupéens et réunionnais. Mais pour la Martinique, les caractéristiques du parc existant et la difficulté de diversification des potentiels conduisent à conserver une part de production fossile jusqu’en 2030 (en dehors des deux scénarios dont le taux d’EnR est fixé à 100 %). Le taux d’énergie renouvelable atteint tout de même 93 % dans le scénario « Tendanciel » martiniquais, précise l’Ademe.

Cas particulier pour la Corse, qui est reliée au continent par deux lignes sous-marines (avec la France et avec l’Italie), puisque même si l’île de Beauté ne dispose pas d’un fort potentiel d’ENR, hors solaire, l’intermittence de cette énergie est compensée par les possibilités d’importation de courant qui évitent le recours à un stockage puissant.

L’Ademe précise cependant que, compte tenu des coûts complets observés, ce résultat serait également conservé (l’intermittence resterait compensée) si l’on prenait en compte des investissements dans les énergies fossiles.

Copyright : ADEME

Et les coûts ?

« D’une façon générale et plutôt contre-intuitive, il est important de noter que sauf cas particulier, les scénarios contraints à 100 % d’ENR n’engendrent pas d’explosion des besoins d’investissement », signale l’Ademe.

La forte augmentation des investissements pour les territoires de Mayotte, la Réunion et la Martinique « résulte de la saturation des potentiels ENR disponibles qui impose à l’algorithme d’investir dans des moyens de productions coûteux comme l’ETM (l’énergie thermique des mers), l’éolien offshore cyclonique ou le photovoltaïque résidentiel ».

L’Ademe explique ainsi en outre que « pour la Guyane, l’ensemble des scénarios conduit à des investissements inférieurs à ceux du scénario « Tendanciel ». A Mayotte, la faiblesse du potentiel renouvelable conduit à d’importants investissements pour remplacer la production conventionnelle. En effet, les scénarios non contraints conservent une part conséquente de production diesel. »

Par ailleurs, l’étude constate qu’afin d’accéder à une autonomie électrique renouvelable, la Réunion, la Guadeloupe et la Martinique devraient investir respectivement, 2,6, 1 et 2 milliards d’euros. Ces sommes sont à mettre en perspective avec l’investissement nécessaire des scénarios tendanciels. Le besoin en investissement du scénario « Vers l’Autonomie Energétique » est identique à celui du « Tendanciel » pour la Guadeloupe. En revanche, il est nettement supérieur par rapport aux scénarios tendanciels respectifs de la Martinique (+42 %) et la Réunion (+68 %). Cette augmentation s’explique par une demande supérieure qui mobilise une grande partie du potentiel et contraint le système à investir dans des technologies plus coûteuses comme des installations PV moins productives ou encore de l’éolien offshore. Par ailleurs, en Guadeloupe, l’investissement du scénario « Tous Feux Verts » est inférieur à l’investissement du « Tendanciel » (-28 %) alors qu’il est légèrement supérieur pour la Martinique (2 %) et la Réunion. L’interconnexion au continent de la Corse réduit enfin les besoins d’investissements, indique l’Ademe.

Cinq scénarios envisagés

  1. Un scénario tendanciel qui reprend les tendances actuelles qui sont projetées à l’horizon d’optimisation.
  2. Un scénario avantage thermique qui offre un contexte favorable aux énergies conventionnelles avec des coûts de combustibles et une taxe carbone faible.
  3. Un scénario avantage technologique qui donne un contexte favorable au développement des nouvelles solutions de production d’énergie renouvelable avec une taxe carbone plus élevée et un accès précoce à de nouvelles technologies.
  4. Un scénario tous feux verts qui correspond à une autonomie électrique : tous les besoins en électricité sont couverts à partir d’une énergie primaire locale et non fossile.
  5. Un scénario vers l’autonomie énergétique qui prend en compte également la demande électrique qu’aurait le parc de véhicules routiers si on passait tous les véhicules particuliers et les véhicules utilitaires légers thermiques vers une motorisation électrique. Dans ce scénario, les besoins en électricité du territoire mais aussi une importante partie des besoins en transport sont donc couverts par de l’énergie produite localement : ce scénario s’approche de l’autonomie énergétique.
copyright : ADEME

Les  deux derniers scénarios « contraints » portent deux contraintes fortes : les importations d’énergie sont interdites et l’objectif ENR est ciblé à 100 % en fin de trajectoire. En particulier, on considère dans ces scénarios que la biomasse utilisée doit être produite localement. Le modèle d’optimisation prend alors en compte ces deux contraintes pour déterminer le mix électrique correspondant à l’optimum technico-économique. Le contexte favorable aux EnR ainsi que l’objectif 100 % renouvelable sont similaires aux deux scénarios qui se distinguent principalement par une demande énergétique différente.

Limites à l’étude

L’Ademe concède plusieurs limites à l’étude. D’abord, l’objectif 2030, imposé par la LTECV, peut être décalé dans le temps sans être préjudiciable à l’objectif de l’autonomie énergétique. Ensuite, côté réseau, en l’état de l’art, « les outils de modélisation utilisés pour l’analyse de stabilité des systèmes électriques obtenus sont basés sur un ensemble d’équations destinées à des systèmes actuels composés principalement de machines tournantes synchronisées au réseau », ce qui signifie que 100 % d’ENR non pilotables suppose du stockage et de la gestion par électronique de puissance, avec les études ad hoc nécessaires. En outre, les coûts sont calculés hors impôts taxes et marges, mais ils intègrent une taxe carbone structurante. Enfin, l’étude mérite d’être approfondie du côté de l’impact sur l’emploi et l’économie, sans oublier l’environnement… À suivre donc.

La blockchain pour certifier des documents personnels

D’après un rapport de l’IBM Institute for Business Value, les dépenses liées à la blockchain dépasseraient 16 milliards de dollars d’ici 2023.  Les entreprises, en particulier celles des secteurs réglementés, cherchent de plus en plus à mettre en place des solutions de blockchain complètes dotées de fonctions avancées de sécurité et de confidentialité des données tout en améliorant les performances.

Ces secteurs réglementés réalisent environ 50 millions de contrôles en ligne par an afin de s’assurer de l’authenticité des documents fournis par des particuliers pour ouvrir un compte en banque, confirmer l’adresse de son domicile ou justifier ses revenus.

Mais ces secteurs sont de plus en plus confrontés à des tentatives de fraude. Selon le baromètre annuel établi par Onfido, entreprise spécialisée dans la vérification d’identité et l’authentification en ligne, le taux moyen de ce type de fraude a connu une forte hausse dès le printemps 2020 au niveau mondial (+41 % de tentatives en un an) et en France (+29 %, avec un pic à 13,4 % en juin), en passant de 6,6 % à 8,5 % en une année à l’échelle nationale.

Un registre de documents certifiés

C’est dans ce contexte qu’Archipels a entamé la commercialisation de son service de certification par la blockchain avec VIALINK, leader français de l’automatisation du traitement des dossiers clients (KYC) pour la banque, l’assurance et l’immobilier.

À la différence de la signature numérique, la blockchain apporte plus de confiance grâce à un réseau de confiance distribué. Cette solution rend le document indélébile et immuable dans le temps.

Pour vérifier les documents qui leur sont remis, les clients d’Archipels disposent désormais d’un moyen fiable pour mener à bien ces contrôles : qu’il s’agisse de documents liés à l’entreprise (Kbis, Statuts, listes de bénéficiaires), ou encore de factures, l’émetteur en établit une empreinte numérique cryptographique intégrée dans la blockchain ; Archipels joue un rôle de référentiel, véritable registre de documents certifiés.

Preuve d’auditabilité et de traçabilité, la blockchain d’Archipels permet de contrôler un document par rapport à un référentiel d’empreintes numériques. Il suffit de charger les documents à vérifier dans une API sur une plateforme en ligne développée pour le client, qui indique instantanément si le document est authentique ou non.

« Notre solution vise à créer une infrastructure de confiance globale mise à disposition de tout tiers désirant vérifier l’authenticité d’un document. Notre blockchain est privée et permissionnée, ce qui signifie que les acteurs validant les transactions sont des tiers de confiance identifiés et autorisés à le faire. Nous avons une maîtrise totale de l’origine des documents certifiés », nous explique Hervé Bonazzi, CEO d’Archipels.

Un portefeuille d’identité numérique

Prochaine étape pour Archipels, la certification d’autres documents dits « à valeur probante », c’est-à-dire liés à des attributs de votre identité. Il s’agit d’une information qui vient compléter votre identité comme une attestation d’assurance, votre revenu fiscal de référence, vos bulletins de salaire…

« L’objectif à terme est de créer des portefeuilles d’identité numérique décentralisés et auto-contrôlés et que les Anglo-saxons appellent le « Self-Sovereign Identity », un concept né avec la blockchain. Les attributs de votre identité n’appartiennent qu’à vous et vous êtes le seul à en avoir le contrôle. Dans cette logique, grâce à la blockchain, nous allons pouvoir redonner aux personnes et aux entreprises le contrôle sur leurs données qui sont trop souvent éparpillées dans différentes bases de données d’entreprises et qui risquent d’être piratées », précise Hervé Bonazzi.

Ce portefeuille d’identité numérique décentralisé permettrait de ne communiquer à une administration ou une banque que certains documents ou informations certifiés sur la blockchain par des émetteurs identifiés et autorisés.

« On pourrait imaginer que, dans le cadre d’un dossier d’ouverture d’un microcrédit, vous pourriez prouver très rapidement et simplement votre niveau de revenus en transmettant juste la preuve que vous rentrez bien dans les critères d’éligibilité sans transmettre votre avis d’impôt, vos bulletins de salaire… Il s’agit de minimiser les informations à transmettre aux tiers, de ne transmettre que ce qui est nécessaire », insiste le CEO d’Archipels.

Stratégie hydrogène : France Hydrogène salue « une vision » dotée de moyens

Lundi 1er mars, devant la commission spéciale de l’Assemblée nationale sur le projet de loi Climat et résilience, le ministre de l’économie Bruno Le Maire a rappelé que l’État allait investir 7 milliards d’euros pour développer l’hydrogène décarboné d’ici 2030. Il a insisté sur le fait qu’il fallait veiller « à ce que la chaîne de valeur soit bien en France ». Tout en défendant l’idée qu’il est « indispensable de garder un temps d’adaptation » suffisamment long en matière de transition écologique pour ne pas favoriser les grandes entreprises au détriment des PME et des TPE.

France Hydrogène est l’association française réunissant les acteurs de la filière hydrogène. Elle comprend près de 280 adhérents, avec notamment 52 grands groupes, institutions financières et ETI et 120 PME-PMI. Philippe Boucly, son président, salue un plan complet qui va enfin donner l’impulsion nécessaire à la structuration de l’hydrogène décarboné. Entretien.

Techniques de l’ingénieur : France Hydrogène avait publié un manifeste en juillet 2020. Quelles étaient vos demandes ?

Philippe Boucly : France Hydrogène a publié en juillet dernier un manifeste pour un plan national hydrogène ambitieux et cohérent. Pour atteindre les objectifs de l’Article 1 de la Loi énergie-climat, à savoir atteindre une part entre 20 % et 40 % d’hydrogène décarboné en 2030, nous estimons qu’il faut investir 24 milliards d’euros. Sur ce total, nous évaluons le soutien financier nécessaire à environ 10 milliards d’euros. Ce montant comprend 6,7 milliards d’euros d’aides à l’investissement et 3,6 milliards d’euros d’aides à la production. Ces aides peuvent venir de l’État, de l’Europe, mais aussi des régions.

Les aides aux OPEX partent du constat que l’hydrogène produit par électrolyse à partir d’énergie renouvelable, ou d’électricité bas carbone, reste relativement cher, de l’ordre de 4 à 6 € le kilo. Or, pour décarboner l’hydrogène industriel, il faut arriver à un prix de l’ordre de 1,5 € le kilo. En attendant que cet écart de prix se réduise, ces 3,6 milliards d’euros de soutien permettront de rendre l’hydrogène décarboné compétitif.

Notre manifeste retient comme objectifs de déployer 300 000 véhicules utilitaires légers, 5 000 poids lourds, 1 000 bateaux et 250 trains fonctionnant à l’hydrogène en 2030. Ces véhicules consommeraient de l’ordre de 340 000 tonnes d’hydrogène chaque année. Nous décarbonerions en plus un volume équivalent d’hydrogène dans l’industrie pour atteindre un total de 680 000 tonnes d’hydrogène décarboné chaque année.

La stratégie nationale pour le développement de l’hydrogène répond-elle donc à vos attentes ?

Le 9 septembre, le gouvernement a présenté la stratégie nationale pour le développement de l’hydrogène décarboné. Elle suit trois axes : décarboner l’industrie, développer une mobilité hydrogène et  construire une filière française de l’électrolyse compétitive en installant 6,5 gigawatts (GW) d’électrolyseurs d’ici 2030 pour produire 600.000 tonnes d’hydrogène décarboné. Dans notre manifeste, pour produire les 680 000 tonnes d’hydrogène, nous parlions de 7 GW. Ces chiffres sont donc très proches. L’État accorde 7,2 milliards d’euros d’aides : 2 milliards d’euros sur les deux ans qui viennent, 3,4 milliards d’euros d’ici 2023 et le reste jusqu’en 2030.

Il reste donc 2,8 milliards d’euros de soutiens à trouver auprès des régions et de l’Europe. L’Occitanie a déjà un plan de 150 millions d’euros, la Bourgogne-Franche-Comté de 90 millions, les Pays-de-la-Loire de 100 millions. Si chaque région accordait en moyenne 100 millions d’euros, nous serions presque à la moitié du chemin. Nous sommes donc satisfaits de l’impulsion donnée. Le plan Hulot consacré à l’hydrogène en 2018 avait de faibles moyens financiers : 100 millions d’euros pour l’année 2019. La stratégie ici propose à la fois une vision, les moyens financiers associés et une gouvernance avec le Conseil national de l’hydrogène.

Dans ce cadre, quel est le rôle du Conseil National de l’Hydrogène qui s’est réuni pour la première fois le 25 février ?

Le Conseil National de l’Hydrogène est l’instance qui va suivre la mise en œuvre de cette stratégie. Il fera office de tour de contrôle du plan. Il s’agira avant tout d’un organe de dialogue entre les industriels, le pouvoir politique et les régions pour s’assurer du bon déploiement du plan. En ce sens, il suit le déploiement des projets et des financements. France Hydrogène a par exemple déjà dénombré 4 projets d’usines en France de fabrication d’électrolyseurs et a identifié des installations d’électrolyse projetées d’une puissance totale de 3,2 GW. Cela correspond déjà à près de 50 % de l’objectif fixé par la stratégie nationale.

 

Du 1er au 14 mars 2021 a lieu la 8e édition des Journées Nationales de l’Ingénieur. Pour l’occasion, IESF organise le 4 mars, date qui concorde avec le World Engineering Day, un colloque national sur le thème « Ingénieurs, acteurs de la relance ». Il sera composé de différentes tables rondes auxquelles le public peut s’inscrire. Philippe Boucly participera à la conférence « L’hydrogène vert, une réalité industrielle, un champ de développement durable, partie prenante du plan de relance ».

Cobotique : « Il faut considérer le robot comme son apprenti »

Du 1er au 14 mars 2021 a lieu la 8e édition des Journées Nationales de l’Ingénieur. Pour l’occasion, IESF organise le 4 mars, date qui concorde avec le World Engineering Day, un colloque national sur le thème « Ingénieurs, acteurs de la relance ». Il sera composé de différentes tables rondes auxquelles le public peut s’inscrire.

Olivier Gibaru, enseignant-chercheur au campus Arts & Métiers de Lille et référent en matière de cobotique, sera intervenant lors de la conférence « Les formateurs, l’amont ». Pour Techniques de l’Ingénieur, il se penche davantage sur son domaine de spécialisation : la cobotique.

Techniques de l’ingénieur : Dans quel cas parle-t-on de cobotique plutôt que de robotique ?

Olivier Girabu

Olivier Gibaru : La cobotique se développe en parallèle de la robotique usuelle et industrielle qui a plutôt recours à de gros robots. Autrement appelée « robotique collaborative », la cobotique déploie des robots plus petits, qui portent des charges plus faibles et travaillent en coactivité avec l’humain. Cette nouvelle forme de robotique permet de repenser la relation homme-machine. De mon point de vue, le défi est réellement de simplifier la relation entre les systèmes automatisés et l’homme. Il faut considérer le robot comme un apprenti qui doit être capable d’apprendre pour nous aider. Le système doit donc être capable d’intégrer de l’information de l’opérateur qui lui apprend les tâches à réaliser. Celles-ci sont généralement à faible valeur ajoutée et peu ergonomiques pour les opérateurs, et entraînent des risques de troubles musculosquelettiques importants. En ce sens, la cobotique permettra d’assurer la compétence dans les usines en ayant des opérateurs qui restent plus longtemps, et en les maintenant en meilleure santé.

Où en est-on du développement de la cobotique en France ? A-t-elle une place dans le plan de relance ?

Le plan de relance soutient les technologies de l’industrie 4.0, mais plutôt pour avoir des résultats assez rapides et concrets pour l’industrie. Il prévoit aussi le soutien à la formation des ingénieurs déjà en poste. La cobotique doit atteindre sa maturité et nécessite encore du développement. Je pense que la cobotique sera bien développée d’ici 5 ans si un effort important est déployé. L’environnement industriel se développe bien en France, mais il faut que les grands donneurs d’ordre s’emparent encore plus du sujet.

Quels sont les défis pour développer la cobotique ?

J’ai initié la cobotique il y a une dizaine d’années sur le campus de Lille. Tout l’enjeu, et c’est sur quoi nous travaillons, est de développer des interfaces cognitives qui intègrent des outils d’intelligence artificielle, de deep learning ou d’apprentissage renforcé. Il faut que le système sache demander des solutions à l’opérateur lorsqu’il ne comprend pas un concept. Le bon modèle sera celui qui trouvera le bon effet de levier dans l’interaction homme-machine.

Les cobots se développent principalement dans l’automobile et l’aéronautique en France. Nous avons aussi eu des opérations dans le packaging et la parfumerie. Le principal frein demeure la vitesse de déplacement des robots en cobotique. La norme impose une vitesse maximale de 250 millimètres par seconde, là où des robots classiques peuvent se déplacer à 1 mètre par seconde ! Cela n’est donc pas toujours compatible avec les contraintes de temps de cycle des chaînes de montage, comme en automobile. Ces chaînes n’allouent qu’un temps très court à chaque opération. Dans l’automobile, les robots collaboratifs sont pour l’instant principalement réduits au « pick and place », qui sont assez faciles à programmer.

Pouvez-vous partager une belle réussite dans le domaine ?

Nous avons reçu le Prix de l’Open Innovation aux Safran Innovation Awards 2019 pour avoir développé un robot de contrôle d’armoires électriques de l’A350. Ces vérifications imposent des milliers de points de contrôle, ce qui est très fatigant pour un humain. Ainsi, le cobot se déplace via une base mobile tout autour du cœur électrique pour vérifier son bon état. Il est déployé sur le site Zodiac Aerospace de Niort.

Quelle formation suivre pour travailler dans la cobotique ?

La formation est aussi un enjeu majeur. Sur le campus de Lille des Arts et Métiers, nous avons une plateforme robotique cofinancée par la Fondation Arts & Métiers où les élèves-ingénieurs sont mis en situation opérationnelle. Ils réalisent des travaux pratiques et des préprojets industriels avec des systèmes robotiques collaboratifs.

L’écosystème de formation national a pris conscience de l’introduction de la robotique sur le territoire. Les pays les plus robotisés n’ont pas un taux de chômage important. Dans l’industrie, on constate que la robotisation et l’automatisation des chaînes de production ne réduisent pas le nombre d’emplois. Au contraire, elles favorisent le maintien des usines sur le territoire. Pour attirer les jeunes, il faut faire la promotion de la technologie au sein des usines.

Lancement officiel d’une future filière de l’hydrogène vert en Europe

Produire 3,6 millions de tonnes d’hydrogène vert en Europe chaque année à l’horizon 2030, tel est l’objectif du projet « HyDeal Ambition » qui regroupe à ce jour une quarantaine d’industriels européens de l’énergie. Au-delà de cet important volume, représentant l’équivalent d’un mois et demi de consommation de pétrole en France, son ambition est de le vendre à un coût très compétitif de 1,5 € le kg livré et ainsi venir concurrencer le marché des énergies fossiles.

Thierry Lepercq, ancien directeur général adjoint d’Engie, est à l’origine de la création de cette future filière et son porte-parole. « Dès la fin de l’année 2018, nous avons commencé à faire des travaux de modélisation, déclare-t-il. L’originalité fondamentale de notre démarche est non pas de déposer un dossier pour obtenir des subventions, ce qui est pratiquement le cas de tous les projets aujourd’hui, mais de réunir l’ensemble des acteurs de la chaîne de valeur afin d’étudier comment on peut conclure des contrats d’ingénierie de construction, de développement, de vente d’hydrogène, de raccordement au réseau et de financement. »

Pour vendre cet hydrogène au prix du marché, il sera d’abord produit à partir de centrales solaires en Espagne et au Portugal, deux pays où l’ensoleillement est élevé et qui sont capables de produire de l’électricité à un coût inférieur à 15 € le MWh. Cette dernière sera ensuite transformée en hydrogène grâce à l’électrolyse de l’eau avec un rendement de 70 %. Pour atteindre une capacité installée de 95 GW, les panneaux solaires nécessiteront une surface de 78 000 hectares. Thierry Lepercq modère ce chiffre : « cela représente 0,1 % de la surface de l’Espagne et du Portugal. Au niveau local, la consommation d’eau sera aussi non négligeable, mais à l’échelle des deux pays cela correspond à 0,1 % du volume consommé. »

L’hydrogène acheminé grâce à un réseau de pipelines

En moyenne, chaque site de production solaire aura une capacité comprise entre 500 et 1 000 MW et s’étendra sur environ 500 hectares. « La production d’hydrogène décarboné au prix du marché ne peut fonctionner qu’avec du solaire, car le coût de production de cette électricité est très compétitif, analyse Thierry Lepercq. Ceux qui disent qu’on va installer un électrolyseur sur le réseau électrique se trompent, car le coût d’acheminement de cette électricité grâce au réseau représente déjà entre 7 et 10 euros du MWh. »

Pour le transport, le bateau et la route ont rapidement été écartés ; ces deux solutions étant jugées trop coûteuses. C’est donc à travers un réseau de pipelines que l’hydrogène sera uniquement livré. Plusieurs dizaines de térawatt-heures de stockage souterrain seront également nécessaires car les quantités produites seront irrégulières avec des volumes plus importants au printemps et l’été que l’hiver. Au total, le transport et le stockage ne devront pas peser plus 0,3 € par kg d’hydrogène.

Le budget global de ce projet est estimé à environ 120 milliards d’euros. En amont de la filière, il regroupe des développeurs solaires parmi lesquels le Franco-Espagnol DH2/Dhamma Energy et l’Italien Falck Renewables. Des producteurs d’électrolyseurs et des groupes d’ensembliers sont aussi présents comme les Français McPhy Energy et Vinci Construction. À l’aval, des opérateurs de transport et de stockage de gaz sont associés, avec entre autres, les Français GRTgaz et Teréga, mais aussi Snam en Italie et OGE en Allemagne. Pour le financement, des banques ont rejoint le projet tel que la Deutsche Bank, Natixis et la Banque européenne d’investissement.

Grâce à son prix attractif, cet hydrogène vise ni plus ni moins à remplacer le pétrole, le gaz et le charbon dans tous leurs usages. Il servira par exemple à produire de la chaleur pour remplacer le gaz naturel dans la production d’ammoniac et autres produits chimiques ou alors à remplacer le charbon à coke dans l’industrie de la sidérurgie. « Il pourra aussi être retransformé afin d’offrir cette électricité 100 % renouvelable en temps réel dont tout le monde rêve, ajoute Thierry Lepercq. Il pourra aussi remplacer le diesel consommé par les camions, car les poids lourds vont, à partir de 2025, basculer vers cette nouvelle énergie. »

Des centrales à charbon reconverties en centrales à hydrogène

Dès 2022, les premières livraisons au prix de 1,5 € par kg doivent commencer. Avec des capacités de production des électrolyseurs encore très modestes, les volumes seront limités jusqu’en 2024. Des gigafactory d’électrolyseurs doivent sortir de terre, mais les demandes de permis de construire et les autorisations demandent du temps.

Selon Thierry Lepercq, cet hydrogène va servir à reconvertir les centrales à charbon qui jouent un rôle essentiel dans la stabilisation du réseau électrique. « Nous travaillons avec plusieurs acteurs européens sur cette reconversion, explique-t-il. Les sites de ces centrales à charbon ainsi que les salariés pourront être conservés. Des régions charbonnières en difficulté comme la Lorraine ont une opportunité importante grâce à cette transformation. Le charbon vivra sous une autre forme car il sera remplacé par l’hydrogène. »

À terme, le volume annoncé de 3,6 millions de tonnes d’hydrogène à l’horizon 2030 pourrait se révéler plus important, car depuis son lancement officiel, d’autres pays comme le Maroc et la Tunisie pourraient aussi rejoindre ce projet et accueillir sur leurs terres des centrales solaires pour produire de l’électricité transformée ensuite en hydrogène.

Le froid à l’attaque de la dérégulation du secteur énergétique au Texas

La température est descendue jusqu’à -20°C à Dallas, à -25°C dans certaines autres villes, et est demeurée autour de -15°C pendant plusieurs jours. Les chutes de neige ont atteint jusqu’à 30 cm en 24 heures dans certaines cités texanes, comme à San Antonio. Les infrastructures énergétiques, d’adduction d’eau et même de transports du Texas ont été endommagées.

Le gestionnaire du réseau électrique de l’Etat, Electric Reliability Council of Texas (Ercot) est intervenu à plusieurs reprises, coupant d’abord les grands contrats interruptibles (les industriels), puis réclamant des délestages, plongeant dans le noir d’abord des centaines de milliers de foyers, puis dans le froid. Car environ 60 % des Texans se chauffent à l’électricité. Ercot a évité de justesse la grande panne redoutée de tous les GRT du monde au prix de réactions difficiles à organiser, tant l’organisation du marché texan de l’énergie a été bousculée en 20 ans.

Historiquement, le Texas, l’un des derniers Etats à rejoindre les États-Unis (1845) avant de plonger côté Sud dans la guerre de Sécession, a toujours souhaité garder une certaine forme d’indépendance vis-à-vis de l’État fédéral. Pour l’électricité, le réseau est très peu interconnecté aux autres États, notamment pour échapper au régulateur fédéral, la FERC (Federal Energy Regulatory Commission). Ce qui implique qu’hormis dans certaines parties de l’Etat (El Paso notamment qui est relié au réseau du Nouveau-Mexique), en cas de problème, il n’est pas possible d’importer du courant des Etats voisins.

En outre, la dérégulation des marchés de l’énergie a laissé libre cours au mix électrique. Les gisements gaziers favorisant les centrales au gaz ainsi que les aides en faveur des renouvelables ont « fait » ledit mix. Au final, la répartition des capacités installées repose sur environ 20 % d’éolien, un peu plus de 50 % de gaz, quelques 10 % de charbon, du solaire, et du nucléaire (un réacteur sur les quatre que compte le Lone Star State a décroché suite à des problèmes d’alimentation de refroidissement !), etc. Si les éoliennes, non conçues dans cet État du Sud pour être anti-gel, ont logiquement décroché (3 GW à peine produits sur les 6 GW attendus pour la période, pour plus de 30 GW en termes de capacité installée), c’est surtout les centrales au gaz qui ont achevé le travail pour conduire au bord de la rupture. Sans oublier le nombre d’acteurs de production du marché libéralisé (quelque 650) rendant complexe la gestion du système.

Pourquoi alors les centrales au gaz n’ont pas permis de passer la pointe ?

En cas de pointe de consommation, comme cela s’est produit au Texas le 15 février dernier, le GRT aurait dû pouvoir se tourner vers les moyens de productions activables, donc essentiellement les centrales au gaz. Or le Texas n’a pas préparé ses centrales électriques au froid, et surtout pas ses canalisations. Bilan, une vingtaine de GW ont manqué à l’appel (sur 55 GW habituellement disponibles l’hiver) au moment où elles auraient dû délivrer le courant. Dans l’ensemble du Sud-Est américain, environ 20 % des installations gazières ont été touchées et ont freiné la production injectée directement sur les gazoducs.

Ainsi, après avoir activé les moyens classiques pour maintenir la fréquence (60 Hz outre-Atlantique), et donc la stabilité du réseau – baisse légère de fréquence, appel aux interruptibles –, Ercot s’est retrouvé dans une situation où la pointe (demande la plus forte) atteignait 74,5 GW, alors qu’un tiers des capacités de production était à l’arrêt, et sans pouvoir faire appel aux Etats voisins. Le GRT a dû procéder à des coupures tournantes chez les particuliers. Insuffisant, car plusieurs centrales (au gaz) sont à leur tour tombées en panne faute d’approvisionnement en gaz…

A 13h51, le 15 février, faute de puissance disponible, la fréquence du réseau est descendue à 59,4 hertz, en-deçà du seuil de stabilité, contraignant Ercot à procéder à de nouvelles coupures, plus amplement, et non tournantes cette fois. Conséquence, la fréquence a commencé à remonter, mais une partie du Texas était sans courant. Et comme la situation de froid a perduré, ces coupures ont également perduré… jusqu’à ce que les centrales arrêtées puissent redémarrer !

Comme le signale l’Agence internationale de l’énergie (AIE) dans une première analyse rendue publique, Ercot a déclaré que 16,5 GW de la demande des clients ont été interrompus en raison de délestages pendant la majeure partie du 15 février et sont restés proches de ce niveau jusqu’à midi le 17 février, avant de retomber à 6 GW au début du 18 février. Sur la base de ces chiffres, le délestage du système pour les 15 et 16 février est estimé de manière prudente à environ 800 GWh, signale l’AIE. La différence entre la charge prévue et la charge réelle est une autre estimation approximative du délestage et d’autres mesures extrêmes prises par les clients. Ce chiffre a atteint 27 GW à 21 heures le 15 février et a totalisé 500 GWh pour la journée.

En comparaison, les coupures de courant en Californie l’été dernier (pour cause d’incendies) ont duré environ deux heures et ont entraîné une perte de charge d’environ 1,5 GWh. En utilisant ces chiffres comme estimations approximatives, le niveau de coupure au Texas les 15 et 16 février a été plus de 500 fois supérieur à celui de la Californie lors du délestage de l’été dernier, souligne l’Agence de l’OCDE.

Cinq membres du conseil d’administration d’Ercot sur 16, dont la présidente Sally Talberg, ont annoncé leur démission et un autre candidat au conseil a retiré sa candidature. Les six habitant dans un autre Etat que le Texas, ils ont déclenché la colère de certains législateurs de l’État. Le gouverneur du Texas, Greg Abbott, entend lancer une enquête sur ces « événements désastreux »… loin d’être achevés.

De l’effet de la dérégulation

En effet, comme la fourniture d’électricité est, elle aussi, déréglementée, certains consommateurs ont opté pour des prix du courant en fonction du prix du marché (comme cela se pratique aussi dans certains pays nordiques en Europe d’ailleurs, mais souvent pour des résidences secondaires).

Bilan : certains consommateurs ont vu leur facture hebdomadaire passer la barre des 10 000 dollars… avec une certaine logique, puisque, la demande dépassant l’offre sur plusieurs heures, les prix du marché topaient au plafond, fixé à 9 000 $/MWh, et y demeuraient pour plusieurs heures/jours… Plusieurs consommateurs ont ainsi d’ores et déjà annoncé vouloir déposer des recours et poursuivre les électriciens. Une habitante du comté de Chambers a ainsi déposé une « class-action » contre son fournisseur, l’accusant de se « gaver » à cette occasion. Un fournisseur au nom prédestiné (avec l’homophonie) de… Griddy ! Griddy (pour grid, donc réseau), mais Greedy (pour vorace).

Le régulateur (la Public Utilities Commission) du Texas a passé en début de semaine dernière un amendement réclamant aux fournisseurs de ne pas couper leurs clients, malgré les impayés, voire de retenir leurs envois de factures jusqu’à ce que la crise soit terminée.

Le pillage des contenus éditoriaux par les GAFAM finira-t-il par des procès ?

Depuis des années, la question de la rémunération des droits d’auteurs oppose les GAFAM aux éditeurs de presse dans différents pays, dont l’Australie, où un projet de loi porté par le gouvernement vise à contraindre les géants de la tech à rémunérer les médias pour la reprise de leurs contenus. Il s’agit d’établir un « code de conduite contraignant » qui vise le « fil d’actualité » de Facebook et les recherches sur Google.

Opposé à ce projet, Facebook a décidé de bloquer l’accès aux informations aux internautes australiens. Le 23 février, le réseau social aurait décidé de lever ses restrictions après avoir trouvé un accord avec le gouvernement.

Cette situation pourrait-elle se produire en France ou en Europe ? « Il y a un parallèle très fort entre ce qui passe actuellement en Australie et la situation en France. La problématique est que la méga revue de presse faite par Google et les autres GAFAM leur permet de générer des revenus dont ne bénéficient pas ceux qui ont investi dans la matière grise », déclare maître Christiane Féral-Schuhl, avocate aux barreaux de Paris et du Québec.

Un rééquilibrage du rapport de force

Lundi 22 février, le commissaire européen en charge de la régulation des services numériques, Thierry Breton, a déclaré que « c’est aux plateformes  de s’adapter aux régulateurs et pas l’inverse. Il y a des lois, et les plateformes doivent s’adapter. »

« En 2019, la Commission européenne a publié une directive sur le droit d’auteur et les droits voisins dans le marché numérique. Il y a eu ensuite la loi de transposition française du 24 juillet 2019 sur les droits voisins des éditeurs de presse. Cette loi a pour but un rééquilibrage du rapport de force et un partage de la valeur des ressources liées à l’information entre d’un côté les plateformes en ligne et de l’autre les agences et les éditeurs de presse », explique maître Christiane Féral-Schuhl, spécialisée depuis plus de 30 ans dans le secteur du droit de l’informatique, des nouvelles technologies et de la propriété intellectuelle.

Maître Christiane Féral-Schuhl rappelle que depuis 2012, les médias français réclament le paiement de redevance pour l’exploitation de liens hypertextes indexés par les moteurs de recherche et les agrégateurs.

Résultat, un bras de fer a opposé Google et les éditeurs de presse, car le moteur de recherche n’entendait pas les rémunérer pour cette reprise de contenus. Il avait indiqué que, dès que la loi entrerait en vigueur, il n’afficherait plus d’aperçu sauf si un éditeur acceptait de lui conférer une licence à titre gratuit.

« Cette affaire a été portée devant l’autorité de la concurrence pour abus de position dominante et de dépendance économique. En avril 2020, cette autorité avait indiqué que le comportement de Google était susceptible de constituer un abus de position dominante. Elle avait invité le moteur de recherche à trouver un accord pour déterminer la rémunération associée. Un accord-cadre a été signé le 21 janvier 2021 entre Google et l’APIG [Alliance de la presse d’information générale, NDLR]. Il préfigure sans doute d’autres accords », précise maître Christiane Féral-Schuhl.

Arsenal juridique

Pour maître Jean-Philippe Hugot, avocat au barreau de Paris depuis 1998, « c’est l’un des chantiers législatifs et judiciaires des dix prochaines années. La question de la propriété intellectuelle n’a pas encore été réglée avec les GAFAM. Aujourd’hui, des contenus protégés par la propriété intellectuelle sont diffusés de manière massive, relayés par l’intermédiaire de ces entreprises sans que cela génère un contrôle du droit d’auteur. Or, ce sont des activités commerciales ».

Pour ce spécialiste en droit de la communication et de la propriété intellectuelle, ce bras de fer entre GAFAM et éditeurs de presse durera tant qu’il n’y a pas un procès. « Il s’agit d’un rapport de force. Ces entreprises ne prendront jamais spontanément des mesures qui vont les contraindre à payer des droits d’auteur. À un moment, il y a des ayants droit qui vont s’énerver et cela va déclencher un procès qui entraînera peut-être ensuite une règlementation. Pour l’instant, à ma connaissance, il n’y a pas d’engagement de procédures dans quelque pays que ce soit ».

Pourtant, l’arsenal juridique est parfaitement capable de s’attaquer à cette problématique. Comparée à l’Europe, la France n’est ni en avance ni en retard dans ce domaine. « La notion de droit d’auteur n’a pas à être revue. Elle peut être adaptée aux nouveaux mediums sans grande difficulté. Dans l’arsenal juridique français, nous avons les moyens d’agir. Si des ayants droit veulent attaquer ces entreprises, ils peuvent d’ores et déjà le faire », déclare Jean-Philippe Hugot.

Reste le plus dur, avoir les reins suffisamment solides pour s’attaquer à ces monopoles.

L’affichage environnemental des produits alimentaires en phase expérimentale

À l’image du Nutri-Score, présent de manière facultative sur l’emballage des produits alimentaires pour indiquer leur qualité nutritionnelle, va-t-on vers un nouveau logo pour qualifier son impact environnemental ? Ce projet est actuellement dans une phase expérimentale, comme le prévoit la loi Anti-gaspillage et pour l’économie circulaire (AGEC) votée en février 2020. Depuis septembre dernier, tous les acteurs de la filière agroalimentaire sont invités à participer à cette expérimentation, copilotée, entre autres, par l’Ademe et le ministère de la transition écologique.

« À ce jour, nous avons reçu neuf candidatures en provenance de structures de tailles variées et issues de la distribution, de la restauration collective, de l’interprofession, du secteur associatif et de la conception d’applications pour smartphones, confie Flore Nougarede, ingénieure expérimentation affichage environnemental sur les produits alimentaires à l’Ademe. Les candidatures sont ouvertes jusqu’à la mi-mars et chaque porteur de projet a jusqu’au mois de juin pour proposer une méthode de calcul afin d’établir un affichage environnemental ainsi qu’un format d’étiquetage. »

Ne pas se limiter à l’analyse du cycle de vie du produit

À ce stade, rien n’est figé et toutes les propositions sont ouvertes. La loi AGEC mentionne tout de même que les indicateurs retenus doivent en partie se baser sur l’analyse du cycle de vie (ACV). Cette méthode consiste à remonter à l’origine du produit, c’est-à-dire dans le cas du secteur alimentaire, à la production agricole avec l’analyse notamment des intrants utilisés. Puis à prendre en compte le transport, la transformation et le conditionnement jusqu’à la commercialisation du produit au point de vente. Au total, la méthode regroupe 14 indicateurs environnementaux comme l’utilisation des ressources en eau, en énergie, l’eutrophisation de l’eau, l’usage des terres… « Cette méthode est utile, mais il est recommandé d’en utiliser d’autres supplémentaires pour pallier ses limites, précise Flore Nougarede. Tout l’enjeu est d’arriver à déterminer à quoi peut-on coupler l’analyse du cycle de vie afin de couvrir d’autres problématiques comme la biodiversité ou le stockage du carbone dans le sol. » 

Parallèlement à cette expérimentation, un groupe de travail composé d’experts indépendants a été constitué dont le rôle est de réfléchir à des indicateurs pertinents à partir des nombreuses recherches effectuées dans ce domaine. Sa mission est aussi d’encadrer les expérimentations réalisées par les structures candidates. L’ensemble de ces travaux doit se terminer en juin 2021 puis se poursuivra par la rédaction d’un rapport qui sera remis au Parlement à l’automne. Ce document de synthèse contiendra plusieurs propositions pour mettre en œuvre un affichage environnemental harmonisé en France. Le Parlement pourra ensuite, s’il le souhaite, adopter des mesures réglementaires pour mettre en place ce nouvel étiquetage.

L’alimentation représente 25% des gaz à effet de serre d’un ménage

L’affichage environnemental répond à une demande sociétale croissante depuis quelques années. Son objectif est de fournir une information fiable, contrôlable et compréhensible pour le consommateur afin de le guider dans ses choix alimentaires. Il vise aussi à encourager l’écoconception de la part des fabricants de ces produits.

L’alimentation, qui se caractérise par des actes d’achat fréquents, représente le deuxième poste de dépense des ménages après le logement. C’est un secteur important à prendre en compte dans le développement de l’affichage environnemental, car il représente environ 25% des émissions de gaz à effet de serre d’un foyer français. « Comme elle a pu l’être à l’époque avec le Nutri-Score, la France est un peu précurseur en Europe sur ce sujet, explique Flore Nougarede. De tels travaux qui visent à évaluer le produit dans sa globalité sur différents critères sont uniques parmi les pays européens. »

Un mois dans l’espace #14

Perseverance, la superstar du mois de février

En se posant sur Mars le jeudi 18 février à 21h55, le rover américain Perseverance a non seulement réussi une prouesse technologique, mais il a également participé, à l’instar de SpaceX, à la popularisation de l’aventure spatiale.

Les progrès technologiques accomplis depuis la mission martienne qui avaient permis au rover Curiosity, en 2012, d’explorer le sol martien de manière autonome et de transmettre des images de la planète rouge ont cette fois permis au monde entier de suivre l’atterrissage de Perseverance, en direct.

6 caméras et un micro ont permis de produire ces images (voir la vidéo ci-dessous) détaillant l’entrée dans l’atmosphère martienne, le déploiement des parachutes et l’atterrissage du rover. Tous les composants de la sonde, à savoir la capsule, l’étage de descente et le rover lui-même étaient équipés de caméras.

En 2012, l’atterrissage de Curiosity sur Mars avait également été filmé. La vidéo de l’époque – ci-dessous -, montre les progrès technologiques extraordinaires réalisés en moins de dix ans.

Revenons à Perseverance. La descente de la sonde, redoutée par tous les ingénieurs impliqués dans le projet, a pu endommager certains dispositifs implantés sur le rover. Après l’atterrissage, ce dernier a immédiatement entamé de fastidieuses procédures pour tester l’ensemble des capteurs et le bon fonctionnement des technologies embarquées à bord. Il en a également profité pour transmettre ses premières images de la planète rouge : elles sont compilées au fur et à mesure sur une page dédiée du site internet de la Nasa.

Voici par exemple un des premiers clichés panoramiques transmis par Perseverance :

Les premières photos prises par le rover Perseverance à la surface de Mars ©NASA

La Nasa a également créé, pour les nombreux passionnés voulant suivre de près la progression de Perseverance sur Mars, une page internet – très interactive –  sur son site entièrement consacrée à Perseverance, et qui permet d’accéder à toutes les images transmises par le rover. A l’heure de la publication de cet article, elles sont au nombre de 5614 !

Perseverance, au-delà d’être un bijou de technologies rassemblant ce que l’être humain peut produire de plus innovant, est également un outil de communication fantastique pour intéresser le grand public à cette aventure. Cerise sur le gâteau, le micro placé sur Perseverance – deux micros ont été installés sur le rover mais un ne fonctionne pas pour le moment – a permis une première mondiale : l’enregistrement du « son » martien, que l’on peut écouter à loisir ci-dessous :

En 2018, la sonde Insight avait transmis des sons  martiens,  mais ils n’avaient pas été enregistrés avec un microphone. Il s’agissait de données agrégées à partir d’un sismomètre et d’un capteur de pression de l’air, qui avaient été compilées et retravaillées pour créer numériquement le son correspondant.

Enfin, signe que Perseverance est un outil technologique mais aussi de communication à destination du grand public, un message caché dans le parachute a intrigué les suiveurs, pendant quelques heures…

Un code était caché dans les bandes blanches et rouges du parachute de Perseverance. ©NASA

La Nasa a publié un message sur Twitter pour indiquer que le parachute contenait un message. L’énigme a passionné les internautes, qui l’ont résolue, par l’intermédiaire d’un Français. La Nasa avait codé, en binaire, le slogan « dare mighty things », qu’on pourrait traduire par « oser des choses grandioses ». Une maxime que Perseverance devrait continuer à illustrer dans les prochains mois.

Par Pierre Thouverez

Image de UNE : ©Nasa

Piratage des hôpitaux : l’arbre qui cache la forêt

Les établissements de santé, hôpitaux et laboratoires de santé, sont dans le viseur des cybercriminels. Récemment, les hôpitaux de Dax et de Villefranche-sur-Saône ont vu leurs réseaux informatiques paralysés après une attaque avec un ransomware.

En mars 2020, le CHU de Rouen avait été visé par une cyberattaque massive qui avait paralysé son système informatique pendant plusieurs jours. Les pirates avaient exigé une rançon d’environ 300 000€.

Au mois d’août 2019, un virus informatique avait pénétré le système informatique de l’hôpital privé Clairval, situé à Marseille. D’après la direction de l’établissement, les 120 hôpitaux du groupe Ramsay, une firme australienne qui détient la plupart des cliniques privées de France, étaient visés.

« Tout papier »

Dans tous les cas, c’est le même scénario : un virus de type ransomware (ou rançongiciel) pénètre le réseau informatique (via dans la plupart des cas une pièce jointe infectée) et chiffre tous les fichiers. En quelques minutes, l’activité est au point mort : plus de messagerie, impossible d’accéder à des dossiers ou d’utiliser des machines connectées aux réseaux informatiques… Les hôpitaux sont contraints de repasser au « tout papier ».

La situation n’est pas propre à la France. Fin 2020, le FBI avait indiqué que des pirates d’Europe de l’Est, regroupés sous le nom de code UNC1878, avaient attaqué au moins cinq hôpitaux américains et demandé des rançons supérieures à 10 millions de dollars par cible. Cette bande organisée projetait d’infecter plus de 400 hôpitaux, cliniques et autres établissements médicaux. Un business très rentable !

Après ces différentes cyberattaques touchant une activité aussi sensible que celle de la santé, Emmanuel Macron a confirmé, jeudi 18 février, un plan de 1 milliard d’euros pour renforcer la cybersécurité des systèmes sensibles.

L’intégration de solutions de sécurité plus efficaces (pour contrôler les accès aux données, détecter des tentatives d’infiltration, des comportements anormaux de programmes…) et des formations de sensibilisation de tout le personnel de santé (du standardiste au directeur de l’hôpital) permettront à terme de limiter les risques.

Mais cette multiplication des attaques confirme ce que tout le monde sait depuis des années : le réseau informatique des établissements de santé est obsolète et pas correctement géré pour assurer une résilience et renforcer la confidentialité des données de santé.

Des réseaux informatiques vieillots

« Si les hôpitaux sont dans le viseur des cybercriminels, c’est parce qu’ils combinent plusieurs faiblesses : des systèmes informatiques hétérogènes et vieillots, des logiciels pas forcément mis à jour, parfois une faible sensibilisation du personnel à des précautions en ligne. La crise sanitaire a accéléré le télétravail et les consultations à distance, plus ou moins bien sécurisées, des dossiers médicaux. Si ces pratiques ont permis d’éviter la paralysie d’un service, elles ont augmenté la surface d’attaque des systèmes d’information (SI) de ces établissements. Dans certains cas, des professionnels de santé se sont débrouillés par eux-mêmes. Ils ont utilisé des outils qu’ils connaissaient bien, mais qui ne sont pas contrôlés par leur DSI [Direction des Systèmes d’Information, NDLR] », déclare Bertrand Servary, directeur général de NetExplorer, une entreprise française spécialisée dans la gestion des fichiers dans le Cloud et certifiée « Hébergeur de Données de Santé ».

« Les cliniques privées, les centres de rééducation, les laboratoires pharmaceutiques ou encore les agences de santé sont autant de cibles pour les cybercriminels », souligne Loïc Guezo, directeur de la stratégie cybersécurité pour la société Proofpoint, et secrétaire général du Club de la sécurité de l’information français (Clusif), contacté par France 24.

Faute de moyens humains et financiers, de nombreux responsables informatiques d’hôpitaux ont dû faire avec les moyens du bord. Ces attaques témoignent aussi de l’impréparation des entreprises et des administrations aux enjeux du « tout numérique ». L’hyperconnexion implique de mettre en place une politique de sécurité adaptée aux… menaces numériques.

« Tout le monde semble découvrir que toutes les entreprises et les administrations ne sont pas correctement sécurisées. Mais, il n’y a rien d’étonnant : on a mis le chariot avant les bœufs en ne parlant aux décideurs que de transformation numérique sans insister sur la nécessité de protéger les données sensibles. Il en va pourtant de la pérennité des entreprises. Je tiens ce discours depuis des années ; sans résultat », se lamente, sous couvert d’anonymat, un expert militaire spécialisé dans la protection des données.

Le meilleur de la tech #4

Refroidir et chauffer grâce à l’énergie solaire

Deux miroirs et un émetteur. C’est la solution, en apparence simple, apportée par les ingénieurs de l’Université de Buffalo pour refroidir un lieu ou chauffer de l’eau sans électricité. Dans leur article publié le 8 février dans Cell Reports Physical Science, ils présentent leur architecture novatrice basée sur la captation de l’énergie solaire. Leurs deux miroirs se composent de dix couches extrêmement fines d’argent et de dioxyde de silicium, placés en V autour d’un émetteur aligné verticalement. Les miroirs, sélectifs en fonction du spectre, ont pour rôle d’absorber le rayonnement solaire. Tandis que l’émission thermique est redirigée vers le ciel par les deux côtés de l’émetteur, les ondes visibles et infrarouges sont transformées en chaleur utilisable.

Les ingénieurs ont effectué leurs tests avec un système de 70 cm². Une première étape en prévision de modèles futurs pouvant couvrir un toit entier. L’idée : se passer des énergies fossiles et aider les communautés avec un accès limité à l’électricité. Une idée qui pourrait se concrétiser, au vu des résultats plus que prometteurs. Ainsi, sous pression atmosphérique standard, la température a chuté de près de 14°C dans un laboratoire contrôlé, censé simuler la nuit. Et en test extérieur, la baisse de température a avoisiné les 12°C. Enfin, assez d’énergie solaire a été capturée pour permettre de chauffer de l’eau jusqu’à 60°C. Mais ce n’est qu’un début. Les ingénieurs ont déjà prévu de se pencher plus avant sur leur technologie durable, de manière à maximiser leur capture d’énergie solaire. Leur objectif final étant de parvenir à faire bouillir de l’eau, afin de la rendre potable.

Une pompe pour muscles artificiels

La robotique molle a un nom qui peut faire sourire. Toutefois, ce domaine de la robotique porte de nombreuses promesses, notamment pour les personnes ayant des problèmes pour se déplacer. Par exemple via des muscles artificiels, se contractant lorsque de l’air y est pompé, dissimulés dans des vêtements. De tels appareils d’assistance étaient jusqu’à présent limités sur deux points : la portabilité et la performance. En effet, ils requièrent une source d’énergie pneumatique – de larges réservoirs de pression ou des pompes à air bruyantes et peu efficaces – complexe et souvent chère. Dans une étude parue le 17 février 2021 dans Science Robotics, une équipe de l’université de Bristol a présenté une pompe aux propriétés remarquables.

Seulement 1,1 mm d’épaisseur pour 5,3 g, et pourtant… La pompe électropneumatique conçue par les chercheurs de Bristol, en plus d’être flexible et légère, possède un contrôle de pression et de volume silencieux. Parfaite pour l’approvisionnement portable en énergie de robots mous. En guise de preuve, la pompe a été employée dans trois cas différents : un mécanisme antagoniste, un appareil robotique fléchissant le bras, et un système de pompage en continu. Derniers points à son avantage : elle est peu coûteuse et facile à fabriquer.

Un microscope, une puce, et rien d’autre

Anémie, fibrose pulmonaire ou polycythémie. Ces affections peuvent être repérées lors d’une numération globulaire. Ces tests se focalisent ainsi sur la concentration en hémoglobine, une protéine que les globules rouges emploient pour distribuer l’oxygène au reste des tissus et cellules de l’organisme. Problème : une telle mesure demande de grands volumes de réactifs et une installation complexe et coûteuse. L’équipement se compose souvent de sous-compartiments dédiés avec des systèmes de détection optique séparés. Une nouvelle association microscope-puce, vue dans AIP Advances le 23 février 2021, pourrait améliorer la situation.

Un test LSS (laurylsulfate de sodium) modifié a été choisi par les chercheurs de SigTuple Technologies et de l’Indian Institute of Science pour mesurer des niveaux d’hémoglobine. Mais l’innovation n’est pas là. Leur installation minime se base sur deux éléments : une puce microfluidique et un microscope automatisé. Les résultats obtenus, vérifiés cliniquement avec 27 échantillons sanguins, sont comparables aux prédictions attendues. Mais encore ? Avec une installation similaire et de faibles modifications, il devrait être possible de mesurer le contenu protéinique ou même le cholestérol.

Les thèses du mois : l’agriculture urbaine

Pour notre dossier de février L’agriculture urbaine, entre diversification et productivité, voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Toitures végétalisées et services écosystémiques : favoriser la multifonctionnalité via les interactions sols-plantes et la diversité végétale
par Yann Dusza
Thèse de doctorat en Ecologie
13-01-2017
Institut d’écologie et des sciences de l’environnement de Paris

Apport des données de télédétection à très haute résolution spatiale pour la cartographie de la végétation en milieu urbain
par Jean Nabucet
30-11-2018
Thèse de doctorat en Géographie
Espaces et Sociétés

Les Trames Vertes Urbaines : analyse des représentations sociales de la « nature en ville » à Marseille et à Strasbourg
par Bassem Mouad
28-06-2018
Thèse de doctorat en Aménagement de l’espace, urbanisme
LADYSS Laboratoire Dynamiques Sociales et Recomposition des Espaces

Potentiel de la Biodiversité dans la construction de Technosols à partir de déchets urbains
par Charlotte Pruvost
12-12-2018
Thèse de doctorat en Sciences et Techniques de l’Environnement
Institut d’écologie et des sciences de l’environnement de Paris

La nature en ville : comment les pratiques aménagistes s’adaptent en continu : étude à partir de cinq projets du Grand Ouest
par Sabine El Moualy
12-02-2019
Thèse de doctorat en Géographie
Espaces et Sociétés

Initiatives citoyennes de conservation de la nature en milieu urbain : rôle des jardins partagés
par Ana Cristina Torres
14-12-2017
Thèse de doctorat en Biologie
Écologie, systématique et évolution

Les objets de nature : Quelles places dans la ville ? Conditions d’appropriation des dispositifs de gestion des eaux pluviales de la métropole lyonnaise
par Sébastien Ah Leung
23-06-2017
Thèse de doctorat en Géographie, Aménagement, Urbanisme
Environnement, ville, société

L’habiter citadin interrogé par l’agriculture urbaine
par Paula Nahmias
06-01-2017
Thèse de doctorat en Géographie
Espaces et Sociétés

De « l’urbanisme agricole » à l’agriurbanisme : un processus exploratoire pour un développement urbain durable
par Gérard Thomas
23/11/2020
Thèse de doctorat en Aménagement de l’espace et urbanisme
Passages

Thèses en préparation

Étude et définition théoriques, techniques et biologiques d’un mur « biodiversitaire ». Un nouveau système de végétalisation vertical favorisant la biodiversité.
par Delphine Lewandowski
depuis le 15-10-2019 .
Projet de thèse en Architecture
Géométrie, structure et Architecture

Quel rôle pour les habitants dans la végétalisation urbaine ? Entre initiative citoyenne et institutionnalisation, une appropriation de la fabrique de la ville (Paris, Lyon, Lille)
par Amélie Deschamps
depuis le 01-09-2018
Projet de thèse en Géographie et aménagement
Environnement, Ville et Société

L’agriculture urbaine oscille entre innovation technologique et sociale

L’agriculture urbaine a accompli un tour de force depuis une décennie, en réussissant à s’installer dans les villes, alors que le prix du foncier, dans nombre d’entre elles, est totalement prohibitif si on envisage d’y développer une activité agricole.

Au-delà du phénomène tendanciel, la culture en ville intéresse le grand public, dans le monde entier. La FAO (l’organisation des Nations Unies pour l’alimentation et l’agriculture) estime que 800 millions de personnes à travers le monde pratiquent cette activité aujourd’hui.

Les modèles d’exploitations agricoles urbaines qui se sont développés depuis des années ont permis, au prix de nombreuses tentatives infructueuses, de mettre au point des structures économiques viables. La volonté des pouvoirs publics de réserver des espaces en ville pour l’agriculture, ainsi que celle des entreprises, désireuses d’utiliser écologiquement leurs toitures et leurs espaces au sol disponibles, ont permis l’émergence de projets agricoles urbains.

Avec des objectifs différents pour les entreprises et les associations, comme en témoigne Anne-Cécile Daniel-Hacker, coordinatrice nationale de l’AFAUP (association française de l’agriculture urbaine professionnelle) : « Les modèles économiques des entreprises et des associations d’agriculture urbaine diffèrent, car cela ne correspond pas aux mêmes objectifs. Les associations jouent un rôle d’intérêt général, social, de création d’emplois, difficilement quantifiable économiquement. Par exemple, les associations mettant en place des jardins partagés, avec des animateurs sur place, participent à faire baisser localement les incivilités, de part leur présence. C’est un fait observé par les collectivités, qui participe à l’intérêt général. Il faut bien comprendre que l’agriculture urbaine est aussi là pour répondre aux maux de la ville. En plus d’apporter des solutions au monde agricole, son rôle est essentiellement d’apporter des services à la ville : végétalisation, retour de la nature en ville, îlots de natures, oasis comestibles, animation, ateliers, alimentation… au final, l’agriculture urbaine a un rôle important à la fois dans la transition agricole et dans la transition des villes. »

Un rôle multidimensionnel donc, puisque les activités bâties autour de l’agriculture urbaine – production, animation d’ateliers, accueil du public, pédagogie autour de l’environnement, de l’alimentation… – reçoivent un accueil très favorable du public, et participent à la création d’emplois et de lien social.

L’agriculture urbaine, des externalités positives sur le social, l’emploi et la transition des villes

Ce type d’agriculture répond également à une tendance à la relocalisation des activités au niveau territorial. Une tendance qui favorise l’émergence de projets locaux, appuyée par le gouvernement : « Depuis l’année dernière, la créations de structures autour de l’agriculture urbaine explose. Le gouvernement lance de nombreux appels à projets nationaux autour de l’agriculture urbaine, comme ‘quartiers fertiles’ par exemple. Ces appels à projet, dotés d’enveloppes financières importantes, crédibilisent cette activité. Le plan de relance est notamment doté d’un appel à projet pour développer les jardins collectifs », précise Anne-Cécile Daniel-Hacker.

Cette volonté de relocalisation a aussi bénéficié, si l’on peut dire, de l’effet Covid, qui accélère la mutation des villes, et laisse une place plus importante à l’agriculture au sein des villes. “Adapter les plans de culture pour répondre aux demandes de la restauration collective de votre ville ou de votre village par exemple, cela permet de fortement lier l’activité agricole à celle de la ville. Depuis la crise du Covid, on voit de plus en plus ce type de réflexion se mettre en place au niveau local, même si c’est une transformation qui va prendre du temps”, analyse Anne-Cécile Daniel-Hacker.

Si les modèles économiques développés autour de l’agriculture urbaine ont un temps traîné comme un boulet la volonté d’aller vers une autonomie alimentaire des villes, ce qui reste aujourd’hui tout à fait utopique, les temps ont changé. Et ce sont les agriculteurs qui en parlent le mieux, comme le précise Anne-Cécile Daniel-Hacker : « Les agriculteurs ruraux qui visitent des structures d’agriculture urbaine sont souvent méfiants à priori, notamment par rapport aux modèles économiques, qui sont très différents de ceux qu’ils développent dans leur activité. Mais très vite, ils comprennent l’intérêt de l’agriculture urbaine, et notamment en termes d’image. En effet, l’agriculture urbaine véhicule une image positive de l’agriculture, en même temps qu’elle permet de faire de la pédagogie auprès du public, et l’agriculture française a terriblement besoin de cela. »

L’apport du monde associatif

SI beaucoup d’entreprises se lancent aujourd’hui dans des projets d’agriculture urbaine, les modèles associatifs portent aujourd’hui les aspects sociaux, environnementaux et d’insertion autour de cette activité.

Gérard Munier est directeur général chez Le Paysan Urbain. Cette association, qui développe des projets d’agriculture urbaine autour de la production de micro-pousses, réalise la moitié de son chiffre d’affaires grâce à sa production agricole. L’autre moitié est issue du mécénat et de subventions. Si l’association a pour objectif de tendre vers un modèle économique autonome, Gérard Munier insiste sur l’importance du rôle social de l’agriculture urbaine : « Le fonctionnement de notre association est axé autour de trois piliers. Nous associons une activité d’agriculture urbaine, basée sur la production de micro-pousses, cultivées en agroécologie, à une seconde activité de réinsertion : nous ramenons dans le monde du travail de personnes qui en étaient éloignées. La particularité de notre modèle, c’est d’accueillir des personnes qui sont en perte de confiance et d’estime de soi. Cela marche très bien, notamment grâce au fait de cultiver des micro-pousses : leur croissance dure un peu plus d’un mois, donc on peut voir le résultat de son travail rapidement. Cela permet à ces personnes de mener des projets à bien sur le court-terme, c’est important pour reprendre confiance en leurs capacités. La dernière dimension de notre projet consiste à travailler en cohérence avec le territoire sur lequel nous sommes implantés : nous y développons des activités de mixité sociale, de reconnexion à la nature, de la transition des villes également, du compostage… ».

Cette dimension sociale de l’agriculture urbaine, si elle ne s’oppose pas au développement de modèles économiques viables, oblige les associations à innover pour trouver des débouchés diversifiés, comme l’explique Gérard Munier : « Les modèles économiques ne sont pas viables s’ils ne sont basés que sur de la production agricole primaire. Il est indispensable de trouver des revenus complémentaires : certains vont aller vers la transformation, pour monter dans la chaîne de valeur de leur produit. D’autres vont aller vers de la formation, des prestations, de la conception et installation de jardins dans les entreprises, de la pédagogie, de la sensibilisation dans le monde scolaire. C’est le panachage de ces activités qui permet de créer un modèle économique durable. »

On le voit, les entreprises et les associations du secteur de l’agriculture urbaine doivent diversifier leurs activités pour développer des modèles économiques pérennes. Pour les entreprises, cela s’avère indispensable car une production agricole urbaine seule est difficilement rentable, à l’heure actuelle.

Pour les associations, il s’agit de développer des modèles de production efficaces, et qui permettent de créer conjointement des projets d’insertion, créateurs d’emplois et de lien social, positifs pour l’intérêt général. Et pour la transition en cours des villes.

Par Pierre Thouverez

L’agriculture urbaine ou l’implication des citoyens dans leur lieu de vie

Un extrait de Rôles de l’agriculture urbaine dans les transitions écologiques, par Camille DUMAT.

« L’énorme potentiel » de l’AU à l’échelle globale : production de nourriture proche des consommateurs, amélioration de l’environnement (assainissement et rafraîchissement de l’air, stockage et épuration des eaux, augmentation de la fertilité des sols urbains), diminution de l’impact des inondations, captation d’azote… Entre 367 000 km2 (hypothèse basse) et 641 000 km2 (hypothèse haute) d’espaces insérés dans les villes du monde entier pourraient servir à la production de légumes ou aux petits élevages. Les cultures suivantes, très nutritives et relativement faciles à cultiver sur de petites surfaces, seraient particulièrement adaptées à la ville : légumes secs, légumes racinaires (carottes, navets, pommes de terre), choux et épinards. C’est un total de 100 à 180 millions de tonnes de nourriture qui sont produites annuellement. Même si c’est relativement peu au regard des 6 500 millions de tonnes de végétaux récoltés tous les ans dans le monde. Mais, pour certaines plantations comme les légumes secs et racinaires, l’agriculture urbaine pourrait remplir jusqu’à 10 % des besoins. Au total, elle générerait entre 65 et 122 millions d’euros de revenus. Dans le contexte incertain et global de changement climatique, crise économique, pollution et constat lucide sur le fait que certaines ressources sont limitées, les citoyens considèrent l’AU comme une approche durable et évolutive pour améliorer la sécurité alimentaire.

Cultiver pour mieux vivre

Cultiver en ville des plantes comestibles, ou élever des animaux, implique la réduction des traitements toxiques et le recyclage des matières organiques. C’est pourquoi l’agriculture biologique et l’agroécologie sont des pratiques particulièrement développées en ville. L’agriculture biologique a été la première alternative « grand public » à l’agriculture conventionnelle dont elle se démarque par la substitution des intrants chimiques synthétiques et commerciaux par des intrants d’origine naturelle et pour partie non commercialisés (matières organiques, plantes engrais verts, etc.). L’agroécologie peut être définie comme un ensemble disciplinaire alimenté par le croisement des sciences agronomiques, de l’écologie appliquée aux agroécosystèmes et des sciences humaines et sociales. Son ambition est de repenser l’ensemble des systèmes alimentaires pour favoriser les transitions vers des systèmes évalués positivement du point de vue du développement durable : écologiquement saine, économiquement viable et socialement juste.

Ce développement récent des AU illustre une nouvelle dynamique de territoire – la transition écologique – et soulève les questions de sécurité alimentaire des villes, voire de souveraineté alimentaire. Les villes se saisissent de plus en plus de l’agriculture pour inventer de nouvelles formes urbaines intégrant des espaces ouverts ; la planification territoriale produit en effet des normes qui encouragent l’intégration des activités et des espaces agricoles. De nombreuses initiatives locales érigent désormais l’agriculture et l’alimentation en questions publiques, avec un écho d’autant plus fort chez les « simples citoyens » que les modèles de développement dominants sont contestés : impacts (éco)toxiques de l’agriculture intensive, conséquences visibles du changement climatique et de catastrophes telles que Tchernobyl (1986) ou Fukushima (2011).

A l’échelle globale, l’agriculture urbaine est un vecteur de dynamiques sociales pour l’écologisation des systèmes alimentaires, car elle intègre trois dimensions complémentaires : l’alimentation, la santé environnementale et l’éducation. Elle revêt de nombreuses formes innovantes et contextualisées (exploitations agricoles hybrides, fermes verticales ou jardins collectifs urbains) qui s’organisent et se complètent, puis essaiment grâce au réseau multiscalaire des villes.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 10 mars 2021 !

Rôles de l’agriculture urbaine dans les transitions écologiques, par Camille DUMAT

De fortes doses de pesticides augmentent de 50% le risque de développer une leucémie

Selon le rapport sur l’environnement en France (acronyme REE), 70 000 tonnes de substances actives ont été vendues sur le territoire national en 2017. Le recours aux pesticides reste une caractéristique du modèle agricole français, comme ailleurs en Europe.

Le terme « pesticide » désigne l’ensemble des produits, chimiques, naturels ou de synthèse, destinés à éliminer ou repousser les organismes jugés nuisibles pouvant causer des dommages lors de la production, du stockage ou de la commercialisation de produits agricoles, de denrées alimentaires, de bois.

Mais y a-t-il un lien statistique entre pesticides et le développement des leucémies aiguës myéloïdes qui sont les plus fréquences et les plus graves chez un adulte, et en particulier chez les agriculteurs ? Une étude parue en 2007 avait suspecté ce lien, mais n’avait pas réussi à le démontrer scientifiquement.

C’est ce que vient de réussir une équipe de chercheurs tourangeaux dirigée par le professeur Olivier Hérault, chef du Service d’Hématologie Biologique du CHU de Tours et Responsable de l’équipe de recherche CNRS ERL7001 LNOx « Niche leucémique et métabolisme oxydatif ».

Une démonstration inédite

Publiée dans la revue Scientific Reports, cette étude de 48 pages (dont la validation a pris 8 mois) repose sur l’analyse des données scientifiques publiées ces 75 dernières années (entre 1946 et 2020) et disponibles dans trois importantes bases de données mondiales publiques.

Cette équipe a réalisé une analyse très fine (ce qu’on appelle des méta-analyses qui obéissent à une charte extrêmement précise des critères dits « PRISMA » – « Preferred Reporting Items for Systematic Reviews and Meta-Analyses ») de près de 4 000 patients atteints de leucémie et 10 000 témoins réunis dans 14 publications médicales internationales. Un nombre de patients suffisant pour établir un résultat scientifique.

« Notre analyse rigoureuse a permis de constater un ratio de 1,51 (risque relatif) pour les personnes exposées à de fortes doses de pesticides, soit environ une augmentation de 50 % de développer une leucémie par rapport à une population non exposée. C’est une démonstration inédite, car c’est la première fois que l’on établit clairement le lien entre une exposition forte aux pesticides et l’apparition de leucémies aiguës myéloïdes », explique le professeur Olivier Hérault.

Ce résultat concerne uniquement les leucémies aiguës myéloïdes, un cancer des cellules de la moelle osseuse, qui apparaît surtout chez les adultes, notamment après exposition à des toxiques.

Cette étude a permis de constater que l’augmentation des risques concerne surtout les insecticides, par rapport aux fongicides et les herbicides. Second enseignement : les risques concernent surtout l’Asie et les États-Unis.

Pour s’assurer qu’il s’agit bien d’une réalité clinique, cette étude a repris toutes les données publiques de la FAO (Organisation des Nations Unies pour l’alimentation et l’agriculture) concernant la consommation aux États-Unis des pesticides depuis ces 25 dernières années et elle les a comparées avec l’incidence des leucémies aiguës myéloïdes publiées par le National Institute of Health.

Frequency of acute myeloid leukemia over time together with pesticide usage in the USA. Copyright : Scientific Reports

« Il y a une corrélation entre ces deux courbes. Il y a donc bien un lien, mais il est statistique et notre étude n’a pas porté sur les liens de causalité », précise le professeur Olivier Hérault.

La majorité des patients sont des agriculteurs, mais la leucémie aiguë myéloïde n’est pas encore reconnue comme une maladie professionnelle. « La publication de cette étude va peut-être changer les choses », espère-t-il. Constatant une corrélation avec les « fortes doses », cette étude pourrait également contribuer au débat sur les distances minimales d’épandage, à l’abord des habitations.

Il reste à déterminer les mécanismes moléculaires qui favorisent ces leucémies et comment les empêcher par des mesures de prévention pour les agriculteurs. « Mon équipe de recherche a d’ores et déjà identifié un mécanisme moléculaire et nous publierons ces résultats prochainement », indique-t-il.

Cette équipe s’intéresse aussi aux effets possibles des faibles doses de pesticides et en « particulier les effets cocktails car nous y sommes tous exposés à travers notre alimentation. Nous travaillons sur l’effet cocktail des 7 pesticides les plus présents dans les produits alimentaires selon l’agence européenne des produits de santé (EFSA). Nous sommes en train d’identifier des mécanismes moléculaires et les impacts sur la moelle osseuse. Nous pouvons formuler l’hypothèse que les faibles doses pourraient dans certaines populations favoriser des états pré-leucémiques qui feraient le lit, secondairement, des leucémies aiguës myéloïdes. Or, 40 % de la population des plus de 50 ans a dans sa moelle osseuse des mutations qui pourraient augmenter le risque de faire ces cas pré-leucémiques en vieillissant », déclare le professeur Olivier Hérault.

Ce chef du service d’hématologie biologique tient néanmoins à préciser que ces études ne sont pas contre les pesticides : « Ils sont très utiles pour nourrir la population mondiale car ils permettent des rendements importants et de disposer de produits de qualité sur le plan phytosanitaire ».

« Nos bacs autonomes permettent à l’utilisateur de s’affranchir des contraintes du jardinage »

Si de nombreux industriels, maisons de retraites, écoles, collectivités, mettent aujourd’hui en place des projets de végétalisation d’espaces, le suivi et la maintenance de ces espaces sur le moyen-long terme pose souvent des problèmes. 

L’entreprise Biopratic propose un bac surélevé et autonome, qui permet de développer des activités de production agricole dans de petits espaces. Le concept d’autonomie a de quoi séduire les clients désireux de végétaliser un espace, ou de démarrer une production agricole, sans réaliser sur les bacs des interventions quotidiennes.

Romain Guy, un des trois associés de l’entreprise Biopratic, a répondu aux questions de Techniques de l’Ingénieur sur les évolutions récentes des pratiques d’agriculture urbaine.

Techniques de l’Ingénieur : Biopratic développe un bac de jardinage autonome. Pouvez-vous nous présenter cette innovation ? 

Nous avons breveté un concept de jardin surélevé autonome. Il s’agit d’un bac, d’un mètre carré (1m x 1m),  composé d’un bac de plantation de 35 cm de profondeur, et dont la surface est élevée à 90 cm. La partie inférieure du bac est une réserve d’eau ayant une contenance de 200 litres. Un panneau solaire, planté dans le bac, charge une batterie qui alimente  une pompe, ce qui permet d’autonomiser l’arrosage en goutte à goutte. 

La réserve d’eau récupère les eaux de pluie et les surplus d’arrosage. L’autonomie du jardin est estimée de 6 à 8 semaines selon les régions sans une goutte de pluie.

Depuis quelques mois, nous déclinons ce produit en l’adaptant pour une nouvelle demande : c’est un bac semi-autonome, auquel nous avons enlevé la réserve d’eau. Le bac fait donc 35 centimètres de profondeur, et est rempli au fond de billes d’argile (pour stocker l’eau), d’une couche de broyat de bois pour absorber l’eau et humidifier la couche de terre, ce qui permet d’offrir une certaine autonomie en eau par capillarité. Ce produit est adapté pour l‘agriculture urbaine et la hauteur du bac est plus adaptée pour que les enfants en bas-âge puissent participer à l’activité de jardinage. 

Combien de bacs autonomes sont en moyenne commandés par les clients désireux de réaliser une installation d’agriculture urbaine ?

C’est très variable. Chaque demande que nous recevons est spécifique. Nous sommes en moyenne sur trois bacs vendus par commande. L’idée, c’est véritablement de s’adapter à la demande du client. Veut-il décorer un espace avec nos bacs ? Veut-il créer un jardin avec des objectifs en termes de rendement ? Nos bacs font un mètre carré au niveau de la surface au sol. Il est donc tout à fait possible de les aligner pour optimiser l’espace si l’on veut obtenir un certain volume produit. Si l’objectif est plus esthétique, on va avoir tendance à voir des dispositions de bacs plus aérées.

Nous réalisons des devis sur mesure en fonction des demandes de nos clients. Nous proposons un service qui va de la simple expédition du jardin à la fournitures des substrats (terre , terreau, billes d’argile),  en passant par l’installation et la mise en service du jardin, la fourniture de plants et la mise en place de contrats de maintenance. Cela va dépendre des attentes du client. Après, notre objectif est de proposer un bac très facile à installer (aucun outil), simple à utiliser et résistant. Au-delà des services que nous pouvons proposer en complément de la vente, le client doit pouvoir être totalement autonome sur l’utilisation de notre produit. 

Les pratiques actuelles d’agriculture urbaine misent beaucoup sur la récupération et le recyclage des matériaux : cela constitue-t-il un frein à votre développement ?

Beaucoup d’associations, c’est vrai, pratiquent une agriculture urbaine relativement artisanale, souvent en récupérant des matériaux pour fabriquer eux-mêmes leurs bacs, souvent avec du bois. Un autre frein que nous avons constaté, c’est la mauvaise image véhiculée par le plastique, constituant principal de notre bac. Beaucoup de pédagogie reste à faire sur ces sujets. Notre bac est réalisé intégralement en France, en plastique recyclable. Il est extrêmement durable et léger (30kg à vide en deux parties). Ces choix contraignants que nous nous sommes imposés ne sont pas bien compris par une partie du public, qui a trop souvent tendance à mélanger les plastiques jetables et les plastiques durables. La réalité, aujourd’hui, c’est que le plastique peut, sous certaines conditions, constituer une solution durable et écologique. Dans le cas de nos bacs, seul le plastique peut nous permettre d’allier étanchéité, résistance, et légèreté à un prix abordable. 

Vos clients investissant dans les bacs autonomes le font souvent avec une ambition décorative plus que productiviste. Comment expliquez-vous cela ?

C’est vrai, et nous espérons que cette tendance va évoluer, car les bacs que nous avons développés permettent d’obtenir des rendements très intéressants grâce à une optimisation des plantations. Nous estimons que notre bac surélevé, qui a une surface d’un mètre carré, permet d’obtenir une production équivalente à 3 mètres carrés de jardin au sol. L’arrosage, par goutte à goutte, est aussi très efficace et économique en termes de quantité d’eau utilisée.

Le fait que l’agriculture urbaine se démocratise très largement en France, avec des pratiques qui se perfectionnent de plus en plus, nous fait espérer que les performances de notre produit en termes de volumes de production va participer à faire croître notre activité.

Le côté éphémère de certaines installations consacrées à l’agriculture urbaine correspond bien à l’usage de vos bacs, non ?

Oui, notre bac pourrait être un outil très pratique pour certaines installations, qui vont investir des lieux pour quelques mois ou quelques années. Nos bacs résistent parfaitement aux conditions météo, et vidés, ils restent très légers et facilement déplaçable.

Quelles sont les prochaines étapes pour Biopratic ?

Aujourd’hui, nous préparons l’avenir, en espérant un retour à la normale au niveau sanitaire, afin de poursuivre notre développement. Nous finalisons actuellement une application pour smartphone, afin de gérer les paramètres du bac à distance. Aussi, nous sommes dans une démarche de recherche de financements, qui nous permettront de développer de nouveaux produits, et de passer à une autre échelle au niveau commercial.

Propos recueillis par Pierre Thouverez

Techniques de l’Ingénieur et theses.fr : l’assurance d’une veille scientifique complète

A travers le site observatoiretheses.org, le REDOC SPI a souhaité promouvoir les thèses publiées sur theses.fr et ainsi montrer la richesse et la variété des thèses soutenues et leur pertinence par rapport aux enjeux actuels.

theses.fr est un site qui n’a que très peu d’équivalents dans le monde et qui a été créé en 2010/2011 par l’Abes, à la demande du Ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation. Son objectif est de valoriser l’ensemble des thèses de doctorat soutenues en France depuis 1985, ainsi que les sujets de thèses en préparation. Pour chaque thèse soutenue, theses.fr indique sous quel(s) format(s) (imprimé ou électronique) le document existe et comment y accéder (au sein d’une bibliothèque, par téléchargement libre ou par téléchargement sous authentification). Le mode d’accès à une thèse dépend de la façon dont elle a été déposée, ainsi que des autorisations données par l’auteur (diffusion libre ou restreinte).

Accessible à tous, étudiant ou ingénieur en poste, theses.fr complète les ressources proposées par Techniques de l’Ingénieur, en apportant une vue académique et des perspectives sur la recherche.

theses.fr recense près de 500 000 thèses dont environ 70 000 en préparation et comptabilise près de 15 000 ajouts par an. Ce moteur de recherche vous donne accès à plus de 106 000 productions doctorales disponibles en format électronique (soit 70% des thèses récentes), dont près de 24 000 en Sciences pour l’Ingénieur. Associées aux 12 000 articles de référence de Techniques de l’Ingénieur qui présentent des solutions, techniques, process, technologies éprouvées et industrialisées, ces thèses vous donneront accès aux données produites dans le cadre de la recherche doctorale française et validées par les personnels des établissements habilités à délivrer le doctorat.

Chaque mois, notre partenaire sélectionnera également des thèses pour accompagner le dossier mensuel de notre magazine d’actualité et en postera les résumés sur observatoiretheses.org. Ces thèses, issues des Sciences pour l’Ingénieur ou pas afin d’élargir le champ de votre veille,  vous permettront d’explorer plus en profondeur les thèmes développés dans le dossier du mois. Vous pourrez également y retrouver les thèses associées aux dossiers des mois précédents.

« Il y a beaucoup de fantasmes autour de l’agriculture urbaine »

Cela fait trente ans que Pascal Goumain baigne dans l’aquaculture. Après avoir mis en place une activité piscicole en Sologne dans les années 90, dont l’activité s’arrêtera en 1996, il change d’univers puisqu’il fait carrière dans la publicité pendant près de vingt ans. Sans jamais vraiment tourner le dos à la pisciculture, car il reste propriétaire du site piscicole de Sologne. 

Vers 2015, Pascal Goumain décide de revenir vers la pisciculture, vingt ans après. Deux constats s’imposent alors à lui : l’activité d’élevage des salmonidés s’est démocratisée, avec un marché en très forte croissance. Aussi, le développement de nouvelles technologies hors sol en circuit fermé, qui n’en étaient qu’à leurs balbutiements il y a vingt ans, sont aujourd’hui devenues très performantes.

Fort de ce constat, Pascal Goumain crée AMP en 2012 avec des pisciculteurs et des ingénieurs, afin de constituer un noyau d’expertise suffisant pour lancer son projet. Et avec l’ambition de devenir un acteur important de l’aquaculture en France, autour de deux activités : la production de salmonidés et la production hors-sol. Pour la production hors-sol, AMP a décidé de se tourner vers l’aquaponie.

Cette technique de production, qui consiste à coupler la production de poisson et de végétaux en circuit fermé. L’azote issu de la déjection des poissons sert d’engrais pour la production de végétaux. Cela permet d’économiser l’apport d’intrants et d’eau. 

Pascal Goumain a répondu aux questions de Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Votre activité repose sur la production piscicole. Qu’est-ce qui vous a poussé à développer une activité d’aquaponie ?

Pascal Goumain : L’aquaponie nous paraît plus socialement acceptable que les autres circuits d’élevage de poissons hors-sol. Quand on voit les élevages intensifs qui existent en Norvège par exemple, cela pose les mêmes problèmes que les élevages de poulets en batterie chez nous en France, en termes d’acceptabilité. 

Un exemple de serre aquaponique développé par AMP.

Dans la mesure où l’aquaponie répond à deux problématiques très importantes, à savoir l’optimisation de la ressource en eau, et d’autre part la création d’un écosystème hors-sol, cela nous semblait être une proposition responsable et acceptable pour le public.

Nous avons commencé à commercialiser de petits bacs d’aquaponie. Le but était de faire entrer l’aquaponie chez les gens – sur leur terrasse, leur balcon, dans leur jardin – car il y a encore dix ans, très peu de gens savaient en quoi consistait cette activité. Nous avons estimé à ce moment-là, en 2013, qu’il était important de faire de la pédagogie sur cette technologie.

En parallèle, nous avons fait de la R et D pour valider nos choix. En premier lieu, il a fallu décider si nous nous lancions sur l’élevage de poissons d’eau chaude ou d’eau froide. Pour des raisons zootechniques et commerciales, nous avons décidé de partir sur des poissons d’eau froide, des salmonidés.

Nous nous sommes aperçus qu’en aquaponie, la température du bac à poissons a tendance à ne pas trop monter, et il est donc préférable, pour des raisons énergétiques, de devoir refroidir l’eau à certains moments de l’année, plutôt que de devoir la chauffer dix mois sur douze, pour les productions de poissons d’eau chaude.

Notre choix s’est donc arrêté sur la truite, un poisson d’eau froide donc, et plus particulièrement sur l’espèce la mieux domestiquée, à savoir la truite arc-en-ciel.

Le fait de développer une activité d’aquaponie vous a obligé à développer des stratégies de production végétale. Comment avez-vous fait ces choix ?

Sur la partie végétale, nous avons testé à peu près tout ce qu’il était imaginable de faire : technologies de radeau, bacs à marée, aéroponie, hydroponie sur des colonnes… les techniques de culture existantes sont nombreuses. Si vous produisez dans une serre non chauffée – c’est le modèle que nous avons choisi – il devient indispensable de respecter la saisonnalité des productions. Nous avons donc deux productions saisonnières, en été et en hiver, plus la production de truites, qui dure toute l’année.

Nous avons mis en place un premier projet pilote avec un de nos associés, sur la pisciculture de la ferme aquacole d’Anjou, puis un second chez un producteur de fraises et de framboises en région centre. Ce deuxième pilote nous a permis, pendant quatre ans, de valider nos interrogations quant aux rendements, l’adaptation des plantes dans les systèmes, la comparaison avec les rendements des systèmes hors sol classiques…

Quels ont été les résultats de ces deux projets pilotes ?

Nous avons par exemple constaté que le calibre des fruits produits est plus gros, et les fruits ont un meilleur goût. Nous ne savons d’ailleurs pas exactement pourquoi. Une de nos hypothèses est le développement d’un autre microbiote, dans les bacs plantés, qui a sans doute un effet bénéfique sur les plantes. De même, le CO2 dégagé par les poissons peut aussi avoir un effet positif sur les végétaux cultivés. Ces constats n’ont pas encore à l’heure actuelle d’explication agronomique.

Quoi qu’il en soit, à la suite de ces deux pilotes nous nous sommes sentis prêts à développer des projets liés à l’agriculture urbaine.

Comment cohabitent au sein d’AMP l’activité piscicole et l’activité agriculture urbaine ?

Il faut être clair. Pour AMP l’agriculture urbaine ne constitue pas la clé de notre activité. Nous voyons plutôt les fermes urbaines comme une sorte de tiers lieu à usage multiple. Dans nos fermes urbaines, nous avons ainsi trois activités : nous vendons ce que nous produisons sur place (production piscicole et production végétale), ce que nous produisons également dans nos piscicultures, et nous faisons aussi de l’accueil au public, pour faire de la pédagogie et également pour amener du monde dans nos boutiques.

Les surfaces, dans les fermes urbaines, sont trop petites pour imaginer créer un business model rentable uniquement sur la commercialisation de la production de chaque ferme. Notre ferme urbaine à Asnières s’étend sur 300 mètres carrés, et notre futur site parisien frôlera les 1000 mètres carrés. Je ne vois pas comment, même en ayant un haut rendement, on peut développer une activité rentable sans se diversifier, en accueillant du public par exemple.

C’est pour cette raison qu’en parallèle de ces développements en aquaponie, nous avons développé la branche salmoniculture, notamment en rachetant en 2014 la plus grande ferme marine de France, Saumons de France à Cherbourg, et en 2017 un groupe de 6 piscicultures basées dans l’Eure et dans le Calvados. Dans le but d’atteindre un volume de production critique qui nous permette d’adresser les grands marchés. Nous pouvons ainsi, aujourd’hui, grâce à ce volume de production, adresser les marchés B-to-B, mais aussi notre marché B-to-C, à travers notre site internet et nos fermes urbaines.

Pour nous, la vente des productions en ferme urbaine est très intéressante, puisque la vente en direct au consommateur est plus rentable. Mais cette pratique n’est possible que si nous vendons aussi notre production en gros. Pour vous donner une idée, sur un chiffre d’affaires d’environ huit millions d’euros, seulement 500 000 euros sont issus des ventes en retail, à travers notre site internet et nos deux fermes urbaines, à Cherbourg et à Asnières.

Est-ce que la multiplication des fermes urbaines fait partie de votre stratégie de développement ?

Dans l’absolu, nous aimerions pouvoir mettre en place plus de concepts de fermes urbaines, et équilibrer notre balance commerciale vers un chiffre d’affaires issu pour moitié du B-to-C et pour moitié du B-to-B. Après, les concepts de fermes sur lesquels nous travaillons ne sont pas de simples boutiques, dans le sens où nous voulons à travers elles faire également de la pédagogie et de la sensibilisation sur des sujets touchant à l’aquaponie, l’alimentation, l’environnement…

A côté de cela, l’arrivée de volumes aquaponiques importants à travers les fermes périurbaines est un phénomène qui a tendance à favoriser le développement des fermes urbaines. En effet,  les fermes périurbaines ont l’avantage très important de s’affranchir de la problématique spatiale. On trouve en périphérie des villes des sites adaptés en termes d’espace qui permettent de mettre en place de véritables unités de production, dont l’objectif principal est de faire du volume. Cette production, en périphérie des grandes villes, fait partie intégrante de notre stratégie. A ce niveau-là, notre projet le plus avancé sur un site périurbain se situe près de Chartres, sur un site de huit hectares, où nous tablons sur une production annuelle de 1000 tonnes de poissons et trois mille tonnes de végétaux. 

Les techniques de production, végétale ou animale, hors-sol, sont très à la mode depuis quelques années. Beaucoup de projets de production urbaine se lancent dans les grandes villes. Quel regard portez-vous sur ce foisonnement ?

L’agriculture urbaine bénéficie d’un écho favorable auprès du grand public depuis plusieurs années. Beaucoup de gens s’intéressent au sujet aujourd’hui, avec des profils très différents. On voit beaucoup de projets se lancer, avec beaucoup de bonnes intentions mais souvent des modèles économiques qui restent à démontrer. Je crains beaucoup que nombre de projets autour de l’agriculture urbaine ne soient voués à l’échec, car développer des modèles économiques pérennes autour de cette seule activité est très compliqué. 

J’ai vu ces dernières années nombre de projets autour de l’agriculture urbaine ayant réussi à lever des fonds importants sans avoir développé de réel business model, et qui ont dépensé beaucoup d’argent en R et D sans jamais trouver la rentabilité espérée. Il y a beaucoup de fantasmes autour de cette activité, ce qui est plutôt encourageant, mais la réalité du marché est beaucoup plus pragmatique.

Propos recueillis par Pierre Thouverez

La livraison de repas passera bientôt au réemployable et au recyclable

Les acteurs les plus importants de la livraison de repas prennent 10 engagements auprès du ministère de la transition écologique. Ceux-ci s’articulent autour de 4 axes : réduire, réemployer, recycler, sensibiliser et communiquer. « La Charte va dans le bon sens » et retient « des échéances assez proches », se félicite Moïra Tourneur, responsable du plaidoyer de l’ONG Zero Waste France. L’association accompagne le suivi de ces engagements aux côtés de Surfrider Foundation et de la Fondation Tara Océans. « L’ombre au tableau : ce ne sont que des engagements volontaires », tempère-t-elle.

Des échéances proches pour développer le réemploi

La Charte retient des échéances proches pour réduire l’impact de la restauration livrée. Dès le 1er mars 2021, les signataires s’engagent à mettre fin à la livraison systématique des couverts et des sauces. Ensuite, à partir du 1er juillet, ils s’engagent à ne plus utiliser de PVC, de polystyrène, de PET opaque et d’emballages complexes constitués de plusieurs couches de plastiques différents et non séparables. Au 1er janvier 2022, les signataires prévoient de n’utiliser que des emballages recyclables et disposant d’une filière effective de collecte et de recyclage en France. Il en ressortira visiblement des emballages en polypropylène et en PET transparent. Les signataires s’engagent ainsi à réduire de 50 % l’utilisation du plastique à usage unique d’ici au 1er  janvier 2022 et de 70 % au 1er janvier 2023.

Parmi les acteurs engagés, citons les plates-formes d’intermédiation : Uber Eats, Deliveroo, Tiptoque, CoopCycle, Stuart. S’engagent aussi les « restaurants virtuels » fonctionnant à partir d’une cuisine centrale : Frichti, Nestor, Popchef, Foodchéri, Foodles, Saveurs et Vie. Les porteurs de solutions réemployables ne sont pas en reste, avec l’engagement d’En Boite le Plat, Reconcil, GreenGo, Uzaje et Pyxo. Enfin, les fabricants et fournisseurs d’emballages ou contenants Metro, Pyrex et Arc International signent la Charte.

Développer le réemploi en livraison

Mais l’engagement s’attaque aussi au remplacement de l’usage unique par des solutions réutilisables. Les signataires s’engagent ainsi à bannir les solutions jetables pour les gobelets, couverts, assiettes et récipients utilisés dans le cadre d’un service de portage quotidien de repas à domicile à compter du 1er janvier 2022. En plus, en vue de développer le réemploi, ils lancent 12 expérimentations de réemploi des contenants pour plats, notamment des dispositifs de consigne. En particulier, Uber Eats s’engage à mener deux expérimentations avant juin 2021 : un modèle où le client apporte son propre contenant au restaurant et un modèle de consigne en partenariat avec Bioburger. Deliveroo testera aussi l’apport de son propre contenant pour la vente à emporter dans un ou plusieurs restaurants en Île-de-France.

Les aides du plan France Relance dédiées aux solutions de réemploi pourront être mobilisées pour mener ces expériences, rappelle le ministère. « En fonction des résultats, les signataires passeront à plus grande échelle ensuite avec un enjeu de 100 % de contenants réemployés livrés sur les lieux de restauration en entreprises en 2023 », précise Moïra Tourneur. Cette régularité de la commande facilite le passage aux systèmes de consignes. « Lorsque vous avez des livraisons fréquentes en entreprise, vous serez alors livrés systématiquement avec des systèmes réemployables. »

Un comité de suivi se réunira régulièrement et une communication sur l’avancement des engagements sera réalisée tous les 6 mois. Le ministère animera la démarche et accompagnera les expérimentations de réemploi menées par les acteurs de la restauration livrée, avec l’appui de l’Ademe.

« La loi anti-gaspillage avait laissé de côté tout cet enjeu de la restauration livrée et de la vente à emporter », rappelle Moïra Tourneur. Toutefois, l’article 77 de cette loi prévoit déjà un service en vaisselle réemployable systématique pour la restauration sur place dans tous les fast-foods à partir du 1er janvier 2023. « Ce n’est pas un engagement volontaire, c’est dans la loi donc les acteurs ont intérêt à s’y mettre », prévient-elle. L’association veillera au respect de ces différents engagements et obligations.

Techniques de l’Ingénieur partenaire du concours Ingénieuses

L’opération de communication Ingénieuses prend la forme d’un concours international qui a pour objectifs de :

  • promouvoir les formations et les métiers de l’ingénierie auprès du public féminin ;
  • lutter contre les idées reçues et les stéréotypes de genre ;
  • favoriser l’égalité femmes-hommes ;
  • susciter des vocations d’ingénieures chez les jeunes filles.

Cette année, la CDEFI a décidé de créer un tout nouveau site dédié à l’opération Ingénieuses. Vous pourrez y retrouver toute l’organisation du concours 2021 (appels à projet, appels à candidature, prix décernés et dates importantes).

Une nouveauté cette année est le prix lié au label Cap Ingénieuses. Il sera décerné à l’un des projets déposés dans le cadre du label par une école d’ingénieur·e·s ayant mené des actions auprès de classes d’écoles élémentaires ou de collèges dans un objectif de sensibilisation aux sciences et technologies et de promotion de l’égalité femmes-hommes auprès des jeunes.

Nous vous invitons à participer au concours en téléchargeant les dossiers de candidature pour les différentes catégories du concours et à profiter directement de la toute récente ouverture de l’espace de dépôts des projets et candidatures.

« Nous nous appuyons énormément sur l’expérience des agriculteurs » pour faire de l’agriculture urbaine

Alors que les projets autour de l’agriculture urbaine se multiplient, les contraintes liées à la culture en ville complexifient à l’extrême la mise en place de business models rentables : surfaces de cultures réduites, débouchés commerciaux incertains, luminosité urbaine aléatoire… il convient donc de prendre en compte toutes ces contraintes afin de développer des modèles durables et économiquement performants

Jean-Paul Hebrard est le CEO d’Aeromate, il a accepté de répondre aux questions de Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Aeromate a été fondée en 2015. Qu’est-ce qui vous a amené à développer ce projet qui s’articule autour de l’agriculture urbaine ?

Jean-Paul Hebrard : Avant de créer Aeromate, mes associés et moi avons réfléchi pendant près de dix ans à tout ce qui entoure le développement de modèles d’agriculture urbaine… Nous avons pris le temps d’observer, d’analyser les projets qui se mettaient en place.

Jean-Paul Hebrard est le CEO d’Aeromate.

Il convient également de préciser que les différents associés d’Aeromate exercent d’autres activités professionnelles en parallèle, ce qui nous a permis de prendre le temps nécessaire pour affiner notre projet.

Enfin, Aeromate a un business model construit autour de l’activité de conseil pour aider les acteurs intéressés par l’agriculture urbaine à développer des projets viables et durables. L’aspect quantitatif de la production n’est donc pas forcément la source principale de revenus.

Quelles conclusions avez-vous tirées de cette phase d’observation ?

Le fruit de ces réflexions et de ces observations nous a amené à penser, il y a environ cinq ans, que la tendance était à un développement rapide de l’agriculture urbaine ; ce qui engendrerait une phase chaotique pour les acteurs de ce développement, le temps de mettre au point des business models performants. Aussi, nous pensions que beaucoup d’associations, d’entreprises, allaient se créer autour du concept d’agriculture urbaine, poursuivant une sorte de mythe : celui de l’autonomie alimentaire. Nous projetions alors que la réalité économique rattraperait rapidement la plupart de ces initiatives, les contraintes étant extrêmement fortes, en milieu urbain, pour développer une production agricole de qualité, et compatible avec les moyens économiques de la clientèle potentielle.

Quels choix avez-vous fait pour développer un business model durable pour Aeromate ?

Nous avons pris la décision de ne pas faire de l’agriculture urbaine le cœur de notre business model. Nous nous sommes plutôt positionnés sur une expertise au niveau de la lecture du territoire : nous n’avons pas de modèles préconçus de production et de structure, ou  de techniques à mettre en place. 

Nous nous appuyons énormément, au niveau territorial, sur l’expérience des agriculteurs locaux. Ce sont eux qui connaissent les spécificités des terroirs, des sols, du climat, les différents débouchés potentiels… c’est cette lecture du territoire qui leur permet de mettre en place des modèles agricoles durables dans le temps et économiquement performants. Nous avons exactement la même approche quand quelqu’un nous propose d’investir un lieu pour y développer un projet d’agriculture urbaine.

C’est donc le contexte particulier de chaque projet qui va guider le développement de modèles d’agriculture urbaine ?

Chaque projet a ses spécificités. Prenons l’exemple d’une entreprise qui désire utiliser les toits de ses bâtiments pour y développer un projet d’agriculture urbaine, en faisant appel à nous. Nous allons commencer par évaluer quelle est la surface et la portance du toit. A partir de là, quels sont les types de productions envisageables, pour quel type de public ? C’est cette lecture du territoire qui nous amènera à proposer un projet adapté à l’enjeu local. Cela pourra donc aboutir in fine à la mise en place d’une technique de production spécifique, d’animations pédagogiques, de sensibilisation, de formation à des techniques d’agriculture urbaine… le business model mis en place est donc spécifique au lieu, et à la demande formulée.

A côté de cela, vous avez développé un concept d’agriculture urbaine dans les locaux des entreprises. Vous pouvez nous en parler ?

Nous avons développé une offre que nous appelons “room garden”. Concrètement, nous proposons aux entreprises le concept d’une nouvelle pièce dans leur bâtiment, consacrée à la production végétale. L’idée vient de deux constats : d’abord, la possibilité, pour les collaborateurs de l’entreprise, de profiter d’une pièce avec de la végétation, c’est une demande de plus en plus fréquente, avec des externalités positives en termes de bien-être notamment. Le second constat est l’évolution au niveau des choix de végétaux cultivés pour ce type d’installation : on observe actuellement un glissement en termes de culture, d’une végétalisation stérile vers une végétalisation fertile. Au lieu d’avoir une pièce avec des plantes décoratives, nous proposons une installation avec des productions végétales, ce qui permet de créer un lieu où l’on réunit les notions de nature, de détente et de bien-être.

Un concept comme le “room garden” ne répond à aucun objectif de rendement ?

Ce concept spécifique n’est effectivement pas tourné vers une production intensive, bien sûr. Ce qui est mis en place dépend des demandes du client. 

Au final, on peut distinguer deux grands types d’agriculture urbaine. Nous avons d’abord une agriculture urbaine productiviste, avec la plupart du temps des techniques de cultures étagées : cela permet aux producteurs de s’affranchir des problématiques de logistique et donc de développer une agriculture en ville productive et écologique, grâce aux économies liées au transport des produits agricoles. Un autre atout lié à la culture urbaine est celui de la qualité et de la fraîcheur des produits, qui séduit beaucoup les restaurateurs. En effet, avoir la possibilité de proposer des produits frais, cueillis quelques heures avant de se retrouver dans l’assiette, prêts à être consommés, est imbattable en termes organoleptiques.

Les modèles qui se développent aujourd’hui autour de ce concept sont de plus en plus performants, même si la culture en ville comporte encore de nombreuses contraintes. Une d’entre elles consiste à trouver des lieux urbains le plus possible exposés au soleil, et ils ne sont pas très nombreux.

D’un autre côté, on trouve une agriculture urbaine plus multifonctionnelle, répondant à divers objectifs : architecturaux, bien-être, lien social, pédagogie, formation… notre concept de “room garden” entre dans cette catégorie.

Pensez-vous que l’on peut imaginer, à l’avenir, des concepts d’agriculture urbaine développant des rendements beaucoup plus importants qu’à l’heure actuelle ?

Il y a beaucoup de technologies qui émergent aujourd’hui et qui vont permettre de développer une agriculture en ville performante et productive. Cela va d’ailleurs faire évoluer les pratiques françaises d’agriculture urbaine, pour l’instant très horizontales, vers des modèles extrêmement étagés et intensifiés. Le concept d’Aerofarms par exemple, développé à New-York, et consistant à étager au maximum les cultures, permet d’obtenir des rendements très intéressants. 

Propos recueillis par Pierre Thouverez

Illustration de une : ©Aeromate

Techniques de l’Ingénieur partenaire des Journées Nationales de l’Ingénieur

Devenu un véritable événement annuel de référence, les Journées Nationales de l’Ingénieur, organisées par l’IESF (Ingénieurs et Scientifiques de France), réunissent chaque année plus de 10 000 participants (élèves, jeunes diplômés, ingénieurs en activité, professeurs, acteurs économiques, décideurs politiques et grand public) dans toutes les régions de France.

L’objectif des JNI est de valoriser la communauté des ingénieurs et scientifiques en intégrant des dimensions sociales et environnementales à leurs actions afin de :

  • Promouvoir et valoriser les métiers aux yeux du grand public et des décideurs, pour susciter des vocations et favoriser l’emploi ;
  • Renforcer chez les ingénieurs le sentiment d’appartenance à un corps professionnel engagé dans les grandes transformations liées aux transitions numériques et environnementales ;
  • Encourager les ingénieurs à s’engager, à entreprendre et innover afin d’agir et contribuer à la construction de la France.

Cette année encore, les JNI sont organisées en lien avec le World Engineering Day (WED) organisé le 4 mars 2021 par la Fédération Mondiale des Organisations d’Ingénieurs (FMOI). Le Colloque National des JNI, qui aura lieu ce jour-là, sera l’évènement français du WED et aura pour thème : ingénieurs, acteurs de la relance.

Dans toute la France, plusieurs événements et e-événements labellisés JNI 2021 seront proposés au public :

  • Pour comprendre : des conférences, tables rondes ;
  • Pour découvrir : des journées portes-ouvertes (JPO) et salons ;
  • Pour récompenser : des hackathons, concours, remises de prix ;
  • Pour échanger : des e-afterworks, des networking.

Tous ces événements seront organisés avec l’aide des IESF régionales, des associations d’alumni membres d’IESF et des partenaires des JNI avec pour objectif commun de montrer comment chaque jour les ingénieurs et les futurs ingénieurs innovent et contribuent à construire le monde de demain.

Si vous souhaitez en savoir plus sur les Journées Nationales de l’Ingénieur et assister à un des nombreux événements répartis sur le territoire, rendez-vous sur le site officiel des JNI 2021.