Les producteurs de matière plastique et d’additif ont développé des solutions pour faciliter le recyclage des produits utilisant leurs matériaux. De par leur connaissance chimique des plastiques, une majorité de ces acteurs a mené des travaux de recherche pour rendre possible le recyclage chimique des déchets plastiques, permettant un retour aux monomères constitutifs. Néanmoins, les conditions ne semblent pas encore réunies pour voir émerger cette forme de recyclage à haute valeur ajoutée technique. Afin de diversifier leur offre, certains producteurs de plastiques vierges ont développé leur propre activité de recyclage mécanique des déchets plastiques. Dès la conception, les fabricants d’emballages évaluent la possibilité d’utiliser des matières recyclées et améliorent la recyclabilité en fin de vie de leurs produits. Ils travaillent notamment à la compatibilité des matériaux au recyclage, ou à leur séparation, ainsi que sur les quantités maximales de certains additifs pour ne pas impacter l’activité des recycleurs.
Le travail des recycleurs, des balles de déchets aux paillettes de plastiques
Les recycleurs sont des industriels qui transforment des déchets plastiques en de nouvelles matières premières. D’abord, les déchets arrivent sous forme de balles de déchets (300 à 450 kg de déchets compressés), de pain pour les plastiques expansés (broyage, puis compactage pour chasser l’air et réduire le volume 40 fois au minimum) ou de broyats. Les déchets sont ensuite contrôlés et peuvent subir un premier affinage (tri manuel, tri optique). Si la technologie proche infrarouge reste la forme de tri optique la plus utilisée, il existe différentes technologies pour améliorer la qualité. Puis, les déchets sont broyés, lavés et séchés. Les paillettes de plastiques peuvent faire l’objet d’un tri par densité dans l’eau pour séparer les fractions lourdes qui coulent, des fractions légères qui flottent. Sinon, le séchage en centrifugeuse, utilisé dans certains cas, peut également participer au tri par densité.
Une partie des paillettes est alors directement utilisée par des plasturgistes, si le procédé garantit une qualité suffisamment élevée à ce stade. Une autre partie va subir un nouvel affinage (tri optique, tri aéraulique…) afin d’améliorer la qualité de la matière recyclée. Les recycleurs ayant un procédé de recyclage au contact alimentaire vont réaliser une étape de polycondensation, permettant une réaction de polymérisation pour améliorer les caractéristiques mécaniques et éliminer les dernières traces de produit contenu afin de parfaire la décontamination. Les paillettes plastiques peuvent être transformées en granulés par extrusion, afin de faciliter l’utilisation de la matière par les plasturgistes et de modifier les caractéristiques du composant via l’ajout de matière vierge et d’additifs. Certains recycleurs densifient les paillettes entre elles pour faciliter leur écoulement dans les procédés industriels de leurs clients. Ainsi, les recycleurs produisent des grades de plastique recyclé répondant aux besoins des fabricants d’emballages, et d’autres produits finis en plastique.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 mars 2023 !
Près de 725 000 morts par an seraient à attribuer aux moustiques selon l’OMS (Organisation Mondiale de la Santé). Ce qui a valu à l’insecte le triste titre de l’animal « le plus meurtrier au monde » pour les êtres humains. Les femelles moustiques ont besoin de protéines présentes dans le sang pour faire parvenir leurs œufs à maturité. Or, elles transportent en elles de nombreux pathogènes mortels, à l’origine de maladies comme la dengue, la malaria ou encore la fièvre jaune. Des pathogènes qui contaminent la personne piquée lorsque la trompe du moustique traverse la peau pour atteindre les vaisseaux sanguins. Étudier le comportement alimentaire de ces insectes est donc une nécessité en vue de limiter leurs piqûres à l’avenir. C’est dans cette idée qu’une équipe de recherche associant des bio-ingénieurs de la Rice University (Texas) et des experts en médecine tropicale de la Tulane University (Louisiane) a mis au point une plate-forme bio-imprimée, censée rendre obsolète le recours à des cobayes humains ou animaux.
Une « cantine » à moustiques synthétique
Le nouvel outil d’expérimentation mis au point par les chercheurs américains a été présenté le 9 février 2023 dans le journal Frontiers in Bioengineering and Biotechnology. Il s’agit d’une plate-forme d’alimentation pour moustiques, rien que ça ! La structure se compose de six hydrogels bio-imprimés en 3D, avec des cavités internes. Ces dernières sont prévues pour accueillir des perfusions de sang afin de nourrir les insectes étudiés. Le résultat est une peau synthétique vascularisée, avec de loin en loin des sites nourriciers indépendants et modifiables à l’envi par les expérimentateurs. Les premiers tests ont ainsi consisté à varier les perfusions. Certaines contenaient du sang défibriné (la fibrine étant une protéine participant à la coagulation du sang, ce qui le rendrait moins attractif pour les moustiques), de l’encre rouge ou du PBS (une solution tampon de phosphate salin, couramment employée en biologie). Le tout maintenu à une température de 37°C pour mimer les conditions à l’intérieur du corps humain.
L’outil high-tech associe des hydrogels bio-imprimés en tant que peau synthétique (en haut) à des caméras automatisées (en bas) collectant les données vidéo. Crédits : K. Janson/Rice University.
Au grand soulagement des scientifiques, les moustiques de l’espèce Aedes aegypti élevés en laboratoire ont répondu à l’appel de la nourriture. L’étape suivante visait alors à valider l’utilisation de la plate-forme pour de futures recherches comportementales. Pour cela, bio-ingénieurs et autres experts ont placé trois plates-formes dans autant de cages en verre renforcé, de la taille d’un ballon de volley-ball. La première fausse peau était imprégnée à raison de 10 mg/mm² d’une solution composée à 25 % de DEET (N,N-diéthyl-3-méthylbenzamide) – le meilleur répulsif à moustiques sur le marché. La seconde était enduite de la même manière, mais avec cette fois une solution comptant 30 % d’huile d’Eucalyptus citronné (Corymbia citriodora) – également connue pour son « pouvoir » anti-moustiques. Enfin, la dernière servait de plate-forme témoin. Ensuite, 20 à 30 femelles ont été introduites dans chacune des cages, des caméras analysant leurs va-et-vient dans l’enceinte de verre. Et comme prévu, aucun insecte n’est allé se présenter aux comptoirs couverts de répulsifs… Les chercheurs annoncent déjà le tournant que représente leur trouvaille dans l’étude des moustiques et des moyens de se prémunir contre leurs piqûres, sans même avoir besoin de cobayes vivants !
Pour le PET, la méthode enzymatique consiste donc à le dépolymériser pour récupérer la molécule qui en constitue le motif de base. Ce motif permettra de fabriquer de nouveau du PET.
Alain Marty est le directeur scientifique de Carbios. Auparavant enseignant-chercheur à l’INSA de Toulouse, il a connu Carbios dès sa création.
Alain Marty a expliqué à Techniques de l’Ingénieur comment fonctionne la méthode enzymatique développée par Carbios, et en quoi elle se différencie des méthodes actuellement utilisées, dans un contexte européen qui vise à réduire la production de plastiques pétro-sourcés dans les années qui viennent.
Techniques de l’Ingénieur : Expliquez-nous comment fonctionne la technologie que vous développez pour recycler le PET ?
Alain Marty : Nous proposons une solution de recyclage du PET à l’aide d’une enzyme, une cutinase que nous avons optimisée. Concrètement, nous collectons des déchets plastiques après usage qui contiennent du PET : bouteilles d’eau, de soda, flacons de cosmétiques, barquettes alimentaires, mais surtout des produits textiles, secteur où le PET est très utilisé.
La technique pour dépolymériser le PET est d’utiliser une enzyme qui va faire exactement le travail inverse de celui des polyméristes qui a permis de synthétiser le PET. Le PET est un polymère, c’est à dire qu’il est constitué de motifs identiques récurrents, des monomères, qui sont liés chimiquement les uns aux autres. Et les colliers de perles ainsi synthétisés s’enchevêtrent. La cutinase va venir casser ces liaisons, qui sont des liaisons ester, pour revenir aux monomères de base. Ces derniers sont ensuite purifiés pour être revendus à un polymériste, qui pourra les intégrer directement dans les process de production existants, puisque les monomères que nous obtenons sont les mêmes que ceux fabriqués par pétrochimie.
Quel est aujourd’hui le procédé utilisé pour recycler le PET ?
Industriellement, il existe un seul procédé, thermomécanique, qui consiste à trier d’abord très intensivement les déchets en PET : il faut en retirer tout ce qui est coloré, opaque et les textiles. En fait, on ne garde guère que les bouteilles claires.
Ensuite, on va extruder le PET, c’est-à-dire le faire fondre à environ 270 degrés pour obtenir des pellets de PET que l’on pourra réutiliser pour fabriquer des bouteilles ou des tee-shirts, par exemple.
Cette méthode est robuste et fonctionne bien, à ceci près qu’elle ne s’adresse pas à toutes les sortes de PET. De plus, le procédé thermomécanique dégrade la matière, ce qui entraîne une perte progressive des propriétés mécaniques du matériau, et qui limite donc le nombre de réutilisations possibles.
Qu’est-ce qui va différencier la méthode thermomécanique de la méthode enzymatique ?
La différence fondamentale est que la méthode que nous développons permet de recycler toutes les formes de PET, et même les objets multicomposants – composés de plusieurs types de plastiques -, ce qui n’est pas possible avec la méthode thermomécanique.
De nombreux objets plastiques sont composés de plusieurs couches de plastiques différents, ce qui complique leur recyclage. La technologie Carbios s’appuie sur des enzymes, et ces molécules sont extrêmement sélectives. Elles ne vont dégrader que le PET, laissant de côté les autres plastiques comme les polyéthylènes ou les polyamides, qui deviendront alors des déchets finaux.
Comment fonctionne la cutinase ?
Cette enzyme de type hydrolase a été découverte dans un compost. Elle est sécrétée par certains micro-organismes pour dégrader une partie de la paroi des feuilles de végétaux appelée la cutine. La cutinase dégrade également, de manière très peu efficace, le PET. Notre travail consiste à améliorer la capacité naturelle des cutinases à dégrader le PET.
A la surface de la cutinase se trouve ce qu’on appelle un site d’arrimage, qui est l’endroit où l’enzyme va agir sur le PET et le dépolymériser. Il a donc fallu déterminer la structure tridimensionnelle de la protéine, ce qui permet de connaître le positionnement précis de tous les atomes de la molécule et de la visualiser de manière dynamique sur ordinateur.
Ensuite, par modélisation moléculaire, nous avons pu modéliser le site d’arrimage de la cutinase. A partir de là, il s’agit de voir comment on peut améliorer les performances du site d’arrimage, sur trois facteurs bien précis : la complémentarité de forme, la charge électrique et l’hydrophobicité du site.
La cutinase étant une protéine, elle est constituée d’acides aminés. Nous avons redesigné complètement le site d’arrimage en changeant un certain nombre d’acides aminés, afin in fine d’améliorer l’efficacité de la dégradation du PET par la cutinase.
Vous développez une seconde technique enzymatique, destinée à biodégrader le PLA. Pouvez-vous nous la présenter ?
Le PLA est un polymère biosourcé, donc produit à partir de carbone renouvelable. Il est compostable industriellement à température élevée.
Notre méthode consiste à introduire dans la masse plastique, une enzyme qui assurera sa dégradation après usage, dans un compost classique, à température ambiante. Le PLA obtenu sera donc biodégradable et compostable à température ambiante. Sa dégradation génère de l’acide lactique, qui est métabolisable par tout un ensemble de micro-organismes du sol.
Où en êtes-vous en termes d’industrialisation de votre méthode enzymatique de dégradation du PET ?
Actuellement, nous menons notre développement sur un démonstrateur industriel avec un réacteur de 20 mètres cubes, qui permet de traiter 100 000 bouteilles (ou 20 000 tee-shirts) par batch.
L’étape suivante consiste à construire une première unité industrielle, qui verra le jour dans le Nord de la France, près d’un site de production de PET opéré par le numéro un mondial du secteur, Indorama. Notre technologie a vocation à s’installer près de sites existants de production de PET, ce qui n’est pas possible pour les solutions concurrentes, à base de catalyseurs chimiques, car ces technologies produisent des monomères différents de ceux utilisés par un site de production classique du PET.
Global Industrie est l’unique salon en France à mettre en avant l’ensemble de la chaîne de valeur des secteurs de l’industrie en un même lieu. Cette édition lyonnaise sous le thème “L’industrie se mobilise” a pour vocation d’être la vitrine des solutions innovantes pour répondre aux enjeux face à une situation internationale complexe impactant directement la production industrielle française.
Au programme :
Durant quatre jours, des lieux d’échanges, une zone d’exposition, des temps forts, des ateliers et des démonstrations seront proposés pour accompagner les industriels vers l’avenir.
Parmi les temps forts :
Les GI Awards, 6 Awards qui récompensent 6 exposants pour leurs innovations.
Les Golden Tech, un concours qui récompense l’excellence et le savoir-faire des professionnels de l’industrie.
GI Avenir, un service dédié à l’emploi et à la découverte des métiers.
Des conférences autour de la thématique « L’industrie se mobilise ».
Vous trouverez également :
Les “Industry 4.0 International Business Meetings”, des rendez-vous d’affaires internationaux pour rencontrer de futurs partenaires commerciaux ou de R&D.
Un village IA, un espace pour réseauter et échanger sur les défis de l’IA avec des professionnels de l’industrie et des experts de l’IA.
En d’autres termes, Global Industrie est le rendez-vous à ne pas manquer pour découvrir les dernières innovations technologiques, faire des rencontres, échanger, trouver des solutions pour vos futurs projets, créer de nouvelles collaborations…
CIM 2023 sera sur Global industrie pour ses 40 ans.
Le Congrès International de la Métrologie, dédié aux professionnels de la mesure, de l’analyse et des essais, fera partie de GI pour sa 21ème édition et ses 40 ans. Pendant ce congrès, il sera proposé :
des conférences,
des tables rondes sur les sujets d’actualité,
une session Plénière « Limitless Metrology at your fingertips »,
un Workshop Climat – MetClimVOC,
des Pitch’ Experts.
C’est une occasion de découvrir les tendances actuelles et les innovations futures dans ce domaine.
Global Industrie en quelques mots :
C’est l’un des premiers salons au monde destinés à l’industrie. Il est composé de 5 salons complémentaires :
MIDEST (sous-traitance industrielle),
SMART INDUSTRIES (industrie connectée, collaborative et efficiente),
INDUSTRIE (technologies et équipements de production),
TOLEXPO (solutions et équipements pour la tôlerie)
et MEASUREMENT WORLD (solutions et équipements pour la mesure).
Plus de 2300 exposants seront réunis et répartis dans 15 grands univers spécialisés comme l’énergie & la production durable, l’électronique, la robotique, la mesure et bien d’autres encore. Vous y trouverez notamment des start-ups, de grands groupes, des sous-traitants, des fabricants d’équipements ou de solutions industrielles et bien d’autres encore.
La pénurie de processeurs a impacté en particulier les constructeurs automobiles européens. L’Association européenne de l’industrie des semi-conducteurs (ESIA) prévoit une baisse de 4,1 % du marché mondial des semi-conducteurs en 2023. Le plus grand constructeur automobile européen, le groupe Volkswagen, a prévenu que 2023 serait une autre année difficile en raison de la pénurie de puces en cours.
Cette pénurie a fait prendre conscience à l’Europe de sa forte dépendance en matière de processeurs. La guerre en Ukraine a rappelé indirectement les projets de la Chine de mettre la main sur Taiwan.
Or, c’est sur cette île qui mesure 394 km de long et 144 km de large que se trouve l’un des éléments majeurs des nouvelles technologies : des puces haut de gamme… dont la fabrication mondiale est assurée à 90 % par Taiwan Semiconductor Manufacturing Company (TSMC). Si le patron de TSMC affirme que la Chine ne serait pas capable d’exploiter le savoir-faire de son entreprise, une invasion de l’île aurait de forts impacts au niveau mondial.
Une industrie lourde
Des pans entiers de l’industrie mondiale dépendent de TSMC (mais aussi du coréen Samsung). Mais aucun pays ne peut rattraper Taiwan. Ni les États-Unis – malgré les 20 milliards de dollars d’investissements annoncés en 2021 par Intel pour ces nouveaux sites en Arizona –, ni la Chine et encore moins la Russie qui n’a jamais été un acteur significatif de l’industrie des composants électroniques, et ne le deviendra vraisemblablement pas. Rien qu’en 2022, TSMC a investi 44 milliards de dollars !
Quant à l’Europe, elle tente d’assurer sa fameuse « résilience ». Après la présentation par le Conseil européen du Chips Act, fin novembre 2022, « visant à renforcer l’écosystème européen des semi-conducteurs », une nouvelle étape a été franchie le 24 janvier 2023, lorsque les membres du Parlement européen ont adopté deux projets de loi : l’un sur le Chips Act et le second sur le « Chips Joint Undertaking ».
Les travaux du parlement européen ont porté principalement sur les semi-conducteurs de nouvelle génération et les puces quantiques. Un réseau de centres de compétences serait créé pour remédier à la pénurie de compétences et attirer de nouveaux talents en matière de recherche, de conception et de production. La législation soutiendrait également des projets visant à renforcer la sécurité d’approvisionnement de l’UE en attirant les investissements et en renforçant les capacités de production.
TSMC en Europe
« L’Europe occupe une place essentielle dans cette industrie, avec le monopole du néerlandais ASML dans les outils de lithographie permettant de graver en moins de 10 nm. Mais, il n’y a pas en Europe d’usines capables de fabriquer les composants électroniques haut de gamme. Leur fabrication est une industrie lourde, gourmande en capitaux et qui demande des compétences impossibles à acquérir rapidement. Quant à la France, elle ne peut pas espérer devenir un acteur majeur de cette industrie, même si elle dispose déjà d’entreprises de qualité comme SOITEC », souligne Louis Naugès, un spécialiste des technologies numériques.
Pour rattraper son retard, l’Europe négocie avec les deux grandes entreprises ayant des compétences dans le haut de gamme, Samsung et TSMC. Le Taiwanais devrait construire une usine en Allemagne. Mais cette première installation se ferait sur des solutions « moyenne gamme », avec des processeurs construits dans la gamme des 20 nm, et pas dans les plus avancées qui sont aujourd’hui entre 2 et 5 nm.
De son côté, Intel prévoit de créer un « méga-site » de semi-conducteurs en Allemagne en utilisant les équipements les plus avancés d’ASML. Le fondeur américain a également des projets d’investissement en France, en Pologne, en Irlande, en Italie et en Espagne.
Lourdeurs administratives
Moins connu, le fabricant de puces américain Wolfspeed a annoncé son intention de construire en Allemagne la plus grande usine de fabrication de carbure de silicium au monde. Les semi-conducteurs en carbure de silicium seront utilisés dans les véhicules électriques pour augmenter leur autonomie. Wolfspeed a récemment conclu un accord d’approvisionnement avec Mercedes-Benz et s’est associé au fournisseur automobile allemand ZF pour créer un laboratoire d’innovation commun.
« Il ne faut pas tarder, car ces projets mettent 4 à 5 ans pour être concrétisés, surtout en Europe avec les lourdeurs administratives et la guéguerre entre les pays pour savoir où seront installées ces usines », prévient Louis Naugès…
Le SRP (Syndicat des Régénérateurs de matières Plastiques) est un syndicat professionnel national qui regroupe les industriels régénérateurs de matières plastiques et représente 80% de la profession. En termes de volume, les adhérents du SRP ont produit, en 2021, 537 000 tonnes de MPR, en recyclant différents types de plastiques tels que des polyéthylènes basse et haute densité, du polypropylène, du polystyrène, du PVC, du PET, et quelques produits divers.
Alors que différentes directives européennes vont obliger les fabricants de produits plastiques à incorporer systématiquement des MPR dans leurs produits, des défis se posent, en termes de volume, de qualité et de prix pour les matières plastiques recyclées.
Olivier Vilcot est revenu pour Techniques de l’Ingénieur sur les challenges en cours et à venir pour tous les adhérents du SRP.
Techniques de l’Ingénieur : En termes de volume, quel est le plastique le plus recyclé par les régénérateurs adhérents du SRP ? Quels secteurs couvrez-vous ?
Le produit sur lequel nous avons le plus de volume est le PET, qui est à l’origine de 124 000 tonnes de RPET (PET recyclé) alimentaire, et de 85 000 tonnes de RPET paillettes claires et foncées. Nos adhérents ont transformé 630 000 tonnes de déchets plastiques en 2021 au total.
Nous couvrons beaucoup de secteurs industriels comme l’emballage, le médical, l’automobile, les DEEE, les sports et loisirs, l’habillement, la construction et l’agriculture.
Quels sont aujourd’hui les freins actuels au développement plus important du recyclage des plastiques ?
Les contraintes que nous rencontrons aujourd’hui sont de trois ordres. La première concerne les volumes : des goulots d’étranglement apparaissent sur la chaîne de valeur.
Olivier Vilcot, Directeur Général du syndicat des régénérateurs de matières plastiques (SRP)
Ces goulots peuvent se déplacer entre le feestock en déchets, les capacités de régénérations et les éxutoires de MPR (Matière Première de Recyclage). Ces goulots peuvent aussi être différents selon les matières plastiques. A une époque, le goulot se situait globalement surtout sur l’aval de la chaîne : il y avait une offre supérieure à la demande. En 2022, ce goulot s’est déplacé vers l’approvisionnement en amont, car beaucoup de réglementations, récentes ou en cours de mise en place, comportent des obligations d’incorporation pour les émetteurs sur le marché. Par exemple, les réglementations européennes prévoient 25% d’incorporation de RPET dans les emballages PET à l’horizon 2025, puis 30% en 2030. Des obligations d’incorporation pour les emballages plastiques vont également voir le jour au niveau continental. C’est ce qui explique le déplacement vers l’amont de cette problématique de volume. En 2023, on constate que le goulot se redéplace vers l’aval y compris pour le Rpet qui était très demandé jusqu’à présent. En effet tant que l’écart entre le RPET et le PET vierge restait à des niveaux raisonnables, les acteurs ont anticipé les obligations règlementaires et certains ont même affiché clairement les taux d’incorporations de MPR sur leurs emballages. Avec la baisse du prix du pétrole qui s’est amorcée à l’été 2022, qui a entrainé la baisse des prix des polymères vierges, l’écart de prix avec le RPET est devenu trop important et certains acteurs sont repassé au vierge sachant que les obligations d’incorporations entreront en vigueur dans 2/3 ans.
Cela soulève l’importance d’une collecte performante ?
Prenons l’exemple de la bouteille en plastique. Elle est captée à hauteur de 60% à l’heure actuelle. Alors que cela fait des dizaines d’années qu’elle est collectée dans la poubelle jaune, nous serions en droit de s’attendre à un taux de captation bien plus élevé. Cela illustre la difficulté de capter ce type de matière plastique, et les progrès nécessaires à faire sur tout sur qui englobe la captation des déchets. L’objectif de collecte à termes, qui est de 90%, va nous obliger à être plus performants sur ce point.
Après les volumes, quel est le second frein au développement des MPR ?
Le second frein est la qualité, mise en avant notamment par certains utilisateurs pour justifier une limitation de leur usage. Pour répondre à cette argumentation, le SRP a décidé de mettre en œuvre une marque de qualité, la NF MPR 558, qui a été développée en partenariat avec l’AFNOR.
Cette marque de qualité traduit des engagements forts de la part des régénérateurs. D’abord, l’engagement des régénérateurs certifiés de mettre en place des mesures de qualité minimum sur les MPR. Ces mesures sont identiques pour tous les régénérateurs certifiés et normées sur la fluidité, la densité des plastiques, par exemple. Ces informations sont utiles aux clients pour pouvoir comparer la qualité des matières produites. Plus généralement, nous sommes convaincus que la qualité des produits issus du recyclage est un facteur essentiel pour la pérennité et la croissance de notre activité.
Ensuite, cette norme de qualité garantit la traçabilité du déchet, d’un bout à l’autre de la chaîne.
Enfin, nous sommes en mesure depuis 2017 de fournir à nos clients un inventaire de cycle de vie des MPR, qui leur permet de connaître exactement l’économie environnementale (carbone par exemple) réalisée via l’incorporation de MPR dans ses produits en remplacement de polymère d’origine fossile.
Ces tableaux de données, disponibles sur notre site, sont remis à jour régulièrement et affinés en utilisant les données recueillies auprès de nos adhérents. Un travail de mise à jour et étude est d’ailleurs en cours en 2023 en collaboration avec l’Ademe.
Volume, qualité… Quel est le troisième challenge pour les MPR ?
Le prix. Les transformateurs ont pris l’habitude d’incorporer des MPR dans leurs produits pour en limiter les coûts. Mais cela entraîne certains effets pervers : souvent les transformateurs n’affichent pas la quantité de MPR présentent dans leurs articles, ce qui est déjà problématique. Aussi, quand les cours du pétrole baissent, plus personne n’achète de MPR faute de rentabilité suffisante par rapport au vierge. Un régulation est nécessaire pour éviter ces coups d’accordéon qui empêche toute visibilité sur l’évolution des marchés et constitue un frein à l’investissement dans de nouvelles capacités. Les obligations d’incorporation sont à ce niveau salutaires. Depuis ces obligations, on observe, sur les marchés, un prix du PET et un prix du RPET non corrélés. De plus, le prix du RPET n’est pas lié à celui du pétrole, mais à celui du déchet.
Second effet de l’incorporation obligatoire des MPR, pour le première fois les marques n’ont plus honte d’afficher la quantité de MPR dans leurs produits. C’est même devenu un argument marketing. Pas encore dans tous les secteurs c’est vrai… Dans l’automobile par exemple, les constructeurs ne font pas encore de l’utilisation de MPR un argument commercial. Pourtant, les performances du neuf et des MPR sont équivalentes, il s’agit essentiellement d’une question de perception du consommateur.
L’usage de plastique est répandu dans le monde entier, pour tous types d’utilisations. Selon les pays, c’est l’intensité des usages qui va varier. Les directives européennes et françaises visent à sortir de la notion de produit à usage unique pour le plastique, de limiter les usages, et de favoriser le développement d’une économie du recyclage et de la réutilisation du plastique.
A travers le monde, ce sont près d’un million de bouteilles qui sont vendues chaque minute. On le sait aujourd’hui, l’usage même de ces bouteilles pose aujourd’hui des problématiques de santé émergentes mais préoccupantes. Au-delà, la présence de ce matériau dans la composition d’une grande quantité de produits, de par ses propriétés de résistance et d’imperméabilité, de légèreté, pose aujourd’hui le problème de la gestion des déchets engendrés. Le plastique se dégrade très lentement, c’est d’ailleurs une propriété qui explique son utilisation massive. Ceci étant, la pollution qu’il engendre, sous forme de microplastiques dans les océans, dans les rivières, constitue une sérieuse menace écologique. Faiblement biodégradables et parfois toxiques, ils sont cependant aujourd’hui totalement irremplaçables pour de nombreux usages.
Les 3R : réduire, recycler, réutiliser
Enfin, les réglementations ont parfois poussé certains pays à exporter leurs déchets plastiques à l’étranger, afin de respecter les normes sur lesquelles ils se sont engagés, favorisant l’émergence de décharges géantes, en Indonésie, ou en Inde, par exemple.
Il est donc urgent d’agir sur les volumes de matières plastiques produites. Ce qui laisse songeur, quand on sait que la consommation de plastiques a été multipliée par dix ses dix dernières années. En limitant les usages uniques des matières plastiques, et certains usages tout court, l’Europe et la France veulent limiter la hausse de la production sur les années à venir. Aussi, mieux maîtriser la quantité de matières plastique mises sur le marché permet d’imaginer plus sereinement l’intégration du plastique dans une économie circulaire.
L’aspect volume induit celui de la collecte. Aujourd’hui en France, seulement 60 % des bouteilles plastiques sont récoltées par les collecteurs. Ce manque à gagner constitue pour les transformateurs et les régénérateurs de plastiques un fossé à combler absolument, pour sécuriser l’apport en matières premières plastiques. C’est pour cette raison que l’hexagone s’est engagé, d’ici 2025, à atteindre 100% de plastiques recyclés.
Si les laboratoires de recherches développent des solutions innovantes pour recycler et valoriser de nombreux types de plastiques, certains plastiques ne peuvent pas aujourd’hui entrer dans la chaîne du recyclage. Si des solutions techniques émergent pour recycler tel ou tel plastique, le problème risque de durer pour d’autres.
Mais le cœur du sujet n’est pas là aujourd’hui. Un plastique comme le PET est 100% recyclable, on le retrouve dans des bouteilles, des emballages. Seulement, le taux de recyclage global de type de plastique en France tourne légèrement au-dessus de 25%, pour un taux global, sur l’ensemble des matières plastiques, de 21,3% dans l’hexagone. L’amélioration des performances de l’industrie du recyclage doit permettre à ce dernier de devenir un véritable fournisseur de matières premières, au-delà des obligations mises en place. Mais pour en arriver là, il faudra une stabilité au niveau des volumes, en amont et en aval de la chaîne, comme nous l’avons vu.
Enfin, la réutilisation. Le développement d’une industrie de la réutilisation du plastique doit permettre de créer de nouvelles filières et de limiter les besoins en plastique de par le développement des usages.
Le développement harmonieux et coordonné de la réduction des besoins en matières plastiques, du recyclage et de la réutilisation est un passage obligé pour développer au sens propre une économie circulaire du plastique.
L’Union européenne doit définir pendant l’été 2023 un nouveau cadre réglementaire pour encadrer l’utilisation des nouvelles technologiques génomiques (NTG), autrement appelées « nouveaux OGM ». Pour contribuer au débat, l’Académie des technologies publie un avis sur ces nouvelles technologies génomiques appliquées aux plantes. Il compte douze recommandations opérationnelles qui s’appuient sur dix fiches thématiques. Celles-ci ont été construites suite à l’audition de trois employés de l’Inrae, du directeur général de l’Anses, du directeur scientifique du semencier Florimond-Desprez et d’un avocat spécialisé dans les brevets. D’autres consultations ont eu lieu, sans jamais recueillir l’avis des ONG opposées à ce développement.
Il en résulte un avis particulièrement bienveillant vis-à-vis de l’adoption de ces nouvelles technologies. L’Académie des technologies propose ainsi un cadre complet pour tenter de dépasser les résistances à leur adoption. « Deux fiches analysent le contexte des OGM, trois cherchent à définir l’environnement socio-économique nécessaire pour développer ces innovations, trois portent sur l’évaluation à mettre en place et trois sur l’évaluation a posteriori lorsqu’on aura mis en culture de telles plantes », résume le biologiste Bernard Chevassus-au-Louis, pilote et rapporteur de l’avis.
L’Académie demande une procédure différenciée
Les ONG menées par Greenpeace et Pollinis demandent que les NTG soient soumises à la même réglementation que les OGM au niveau européen. L’Académie des technologies n’est pas du tout de cet avis. Bernard Chevassus-au-Louis résume ainsi la position de l’institution : « On prend clairement position en faveur d’une procédure différenciée pour ces nouvelles technologies. Lorsque ces techniques sont utilisées pour modifier de manière très ponctuelle un gène observé dans une plante voisine et que cette modification permet d’acquérir des caractéristiques intéressantes, on recommande de la soumettre à une procédure allégée dite “de notification”. En l’absence d’objection de la part des instances d’évaluation, cette notification vaut autorisation. »
Clairement, l’approche de l’Académie des technologies consiste à dire que lorsque des gènes ont la même fonction dans deux espèces « voisines », c’est qu’elles pourraient apparaître spontanément. Autrement dit, elle raisonne sur la fonction du gène dans deux espèces proches et non sur la technique utilisée pour modifier le génome. « C’est là qu’on va placer la barre : tout ce qui est quelque chose que l’on observe dans une espèce voisine et qui pourrait être introduit dans l’espèce d’intérêt, considérons que c’est équivalent à des mutations », poursuit Bernard Chevassus-au-Louis. Le biologiste précise toutefois que la transgénèse est bien exclue de cet avis.
Mais qu’appelle-t-on une espèce voisine ? Bernard Chevassus-au-Louis reprend : « Le plus simple est de dire qu’une espèce voisine est une espèce génétiquement compatible avec laquelle il est possible de faire de l’hybridation par différentes méthodes. On pourrait aller plus loin et dire qu’une espèce voisine est une espèce dans laquelle le gène en question a la même fonction que dans l’espèce considérée et dépasser la limite de l’hybridation. »
Prendre en compte le contexte culturel des OGM
L’Académie rappelle que les NTG seront analysées et interrogées par le public à travers le « cadre culturel » créé par les controverses sur les OGM. En effet, plusieurs questions autour des OGM demeurent, notamment les risques potentiels pour la santé et l’environnement, la propriété intellectuelle et l’appropriation du vivant. « Si l’on ne veut pas retomber dans les mêmes controverses que pour les OGM, il faut une politique globale pour que l’on utilise ces technologies au bénéfice de l’ensemble des agriculteurs et indirectement de l’ensemble de la population », prévient Bernard Chevassus-au-Louis.
Pour cela, l’Académie demande de mettre en place, en plus de la biovigilance de la « sociovigilance ». En plus des effets potentiels sur la santé, l’objectif serait de suivre les impacts induits sur la compétitivité des filières et les pratiques des agriculteurs.
En lien avec le World Engineering Day (WED), les JNI sont organisées par l’IESF sont l’occasion de faire des rencontres, d’échanger et de mettre en avant l’ingénierie, l’innovation, l’industrie française et faire la promotion de ces métiers.
Pour le lancement de cet événement, un colloque national en ligne est organisé le 4 mars de 9h à 12h. Les inscriptions sont ici.
Vous pourrez assister à des échanges sur :
le nucléaire,
la décarbonation,
l’hydrogène,
la transition énergétique et écologique.
En plus de ces thèmes majeurs, d’autres activités sont à découvrir, dans le programme détaillé.
En quoi consistent les JNI ?
Les JNI se distinguent par la mise en place de conférences, colloques, journées portes ouvertes, « hackathons », concours, salons virtuels, présentations des métiers, pour ne citer que les principaux événements. Ainsi, dans la continuité de 2022, et pour célébrer la science et l’ingénierie, les JNI et le colloque réuniront des ingénieurs et chercheurs, mais aussi des élèves, étudiants et enseignants, des acteurs économiques, des décideurs politiques dans toutes les régions de France. Il sera possible de participer à ces échanges en ligne.
A travers cet événement, les objectifs sont :
Rassembler les membres d’une communauté aux multiples facettes.
Promouvoir et valoriser les métiers des sciences aux yeux du grand public et des décideurs, de susciter des vocations et de favoriser l’emploi.
Renforcer chez les ingénieurs le sentiment d’appartenance à un corps professionnel pleinement engagé dans les grandes transformations de notre Monde et qu’ils puissent davantage se faire et écouter sur ces questions.
Encourager les ingénieurs à s’engager, à entreprendre et innover afin d’agir en faveur du développement durable et de la décarbonation de l’industrie.
Retrouvez plus d’informations sur les JNI et les événements organisés en France en cliquant ici.
L’actualité du système électrique français a été chargée en 2022 et le nouveau bilan qu’en a fait RTE mi-février confirme le caractère exceptionnel de ce qui s’est passé, et rien ne dit que 2023 sera très différente.
Le contexte n’est plus à rappeler : la crise géopolitique suite à l’invasion de l’Ukraine par la Russie a conduit à une tension sur l’approvisionnement en énergies fossiles, qui s’est répercutée sur les prix des produits pétroliers et du gaz, et ensuite sur les prix de l’électricité en Europe. Confrontés à une inflation générale, particuliers et entreprises ont dû revoir à la baisse leurs consommations, dans la lignée du plan de sobriété lancé par le Gouvernement. Comme le dit le président du directoire de RTE, Xavier Piechaczyk : « L’énergie est revenue au cœur des préoccupations des Français ».
Le gestionnaire du réseau de transport d’électricité constate que cette baisse de consommation est de 1,7 % entre 2021 et 2022, puisqu’on est passé de 467 à 459 TWh (données corrigées du climat). La baisse est équivalente à celle connue en 2009 après le début de la crise financière. Rétrospectivement, la consommation de 2022 est 4,2 % plus faible que la moyenne de 2014-2019. La tendance sera-t-elle de long terme ? Rien ne permet de l’affirmer pour l’instant, même s’il est rassurant de voir que les industriels – plus rapidement soumis aux contraintes de prix – puis les secteurs résidentiels et tertiaires ont été ou se sont contraints à des efforts pendant le dernier trimestre 2022 : par rapport à la moyenne 2014-2019, la baisse de consommation a été de l’ordre de 9 % à ce moment-là (voir graphe).
Source : RTE
Le nucléaire au plus bas depuis 1988
La production d’électricité a elle aussi vécu une année hors normes. Le roi nucléaire a été bien nu en 2022, avec sa plus faible production depuis 1988 ! En arrivant à 279 TWh, le parc nucléaire perd 82 TWh par rapport à 2021. Il est même 30 % en-dessous de sa moyenne de production sur les 20 dernières années. Le taux de disponibilité du parc a été seulement de 54 % contre 73 % en moyenne sur 2015-2019. Il est loin le temps où l’ex-PDG d’EDF, Henri Proglio, visait un taux de disponibilité durablement au-dessus de 80 %… Les causes de ces baisses (arrêts et planning des opérations de maintenance, contrôles suite aux phénomènes de corrosion sous contraintes de certaines tuyauteries) semblent peu à peu s’atténuer, mais EDF n’en a probablement pas encore fini de régler tous les problèmes.
L’autre filière qui a souffert en 2022 est celle de l’hydroélectricité. Avec une année chaude et sèche, sa production a tout juste frôlé les 50 TWh, son plus bas niveau depuis 1976, alors qu’elle avait dépassé 61 TW en 2021. Les exploitants de centrales hydroélectriques ont néanmoins réussi à gérer les réserves en eau, avec le concours de conditions météo favorables l’automne dernier, pour pouvoir maximiser la production pendant l’hiver.
Face à ces déficits, la production d’électricité des centrales à gaz a augmenté de plus de 11 TWh par rapport à 2021, pour atteindre 44,1 TWh. Paradoxalement, c’est au cœur de l’été, alors que les prix du gaz étaient les plus élevés, que ces centrales ont fonctionné le plus activement. Mais il fallait bien trouver une solution rapide au minimum historique que connaissait alors le parc nucléaire, avec seulement 21,7 GW disponibles le 28 août (65 % du parc était à l’arrêt).
Besoin d’accélérer les renouvelables
Du côté des autres énergies renouvelables, on constate une hausse des productions éolienne (37,5 TWh soit +0,7 TWh par rapport à 2021) et solaire photovoltaïque (18,6 TWh soit +4,4 TWh) en 2022. La première a bénéficié d’une hausse de 1,9 GW de son parc installé (dont le premier parc éolien en mer au large de Saint-Nazaire), mais a pâti d’un niveau de vent désavantageux, tandis que la seconde profitait de 2,6 GW nouvellement installés et d’un ensoleillement favorable. La dynamique en cours n’est cependant pas suffisante. Pour atteindre les objectifs 2023 de la programmation pluriannuelle de l’énergie, la France devrait installer 3,5 GW d’éolien terrestre et 4,4 GW de solaire photovoltaïque d’ici la fin de l’année. Des niveaux qui seraient quasiment à reconduire chaque année pour viser les objectifs 2028.
Au global, la production d’électricité en France a été de 445 TWh en 2022 soit 15 % de moins qu’en 2021. La France a donc dû importer plus (57 TWh), et comme elle a exporté moins (40,5 TWh), elle est importatrice nette pour la première fois depuis 1980. Le solde est de -16,5 TWh quand il était de +43,3 TWh en 2021. L’électricité a donc pesé dans la dégradation du solde commercial français, même si elle ne compte que pour 7 % des 115 milliards d’euros de la facture énergétique française en 2022, le reste étant dû aux importations de combustibles fossiles. Les importations d’électricité ont été particulièrement fortes l’été. Le solde est resté exportateur vers l’Italie (+17,9 TWh) et la Suisse (+12,1 TWh), mais est négatif avec l’Allemagne/Belgique (-27,4 tWh), la Grande-Bretagne (-9,9 TWh) et l’Espagne (-9,1 TWh).
Pour finir son tour d’horizon de 2022, RTE a signalé que les émissions de CO2 dues à la production d’électricité en France ont augmenté en atteignant 25 MtCO2. Certes plus qu’en 2021 (21,5 MtCO2), mais toujours moins qu’en 2016 et 2017 où les centrales à charbon étaient encore très actives. Néanmoins, si on prend en compte le solde net des flux d’échanges avec les autres pays, ce chiffre monte à plus de 37 MtCO2 (voir graphe).
En tenant compte des échanges avec les autres pays, dont certains ont un mix de production plus carboné que la France, les émissions de l’Hexagone sont bien plus élevées. – Source RTE
2022 aura été stupéfiante à bien des égards. Attendons de voir ce que nous réserve 2023.
Créée par Clément, Jonathan et Benjamin Galic, Unseenlabs est née autour d’un objectif principal : celui de parvenir à localiser les navires en mer à partir d’un seul satellite, sans besoin de triangulation. Elle a pour cela misé sur une approche consistant à intercepter, depuis l’espace, des signaux radiofréquence (RF) émanant des bateaux, même en cas de coupure de leur transpondeur. Reposant sur un dispositif installé à bord de nanosatellites placés en orbite polaire à une altitude de 500 à 600 kilomètres, la technologie d’Unseenlabs permet, en moyenne, de revisiter un point d’intérêt deux fois par jour.
Après l’annonce début janvier de la réussite d’un nouveau lancement, la constellation de l’entreprise rennaise est aujourd’hui composée de huit satellites. Et Unseenlabs vise, à terme, une flotte composée de vingt à vingt-cinq unités indépendantes. De quoi atteindre un temps de revisite de l’ordre de la demi-heure et suivre ainsi avec une précision encore plus grande des navires impliqués dans des actions frauduleuses. C’est ce que nous explique le cofondateur et actuel CEO d’Unseenlabs, Clément Galic.
Techniques de l’Ingénieur : Quand, comment et pourquoi Unseenlabs a-t-elle vu le jour ?
Clément Galic, CEO et cofondateur d’Unseenlabs. ® Unseenlabs
Clément Galic : La société a été créée en 2015 avec mes deux frères, Jonathan et Benjamin. Jonathan, ingénieur Supélec et ancien d’Airbus Defence and Space, était spécialiste « missions satellites » chez eux, et plus particulièrement d’un aspect : les écoutes électromagnétiques, c’est-à-dire l’interception de signaux radio depuis l’espace. Il ne s’agit pas de la même technologie que celle que nous utilisons, mais le concept reste proche.
Benjamin, quant à lui, est avocat d’affaires à Rennes. Il n’est pas opérationnel au sein de la société, mais il a participé à sa création.
Pour ma part, j’ai une formation d’ingénieur en aviation civile ; j’ai fait l’ENAC[1] à Toulouse, où j’ai travaillé sur les systèmes critiques de contrôle aérien. J’ai travaillé pour l’aviation civile, puis j’ai basculé dans le monde du spatial.
En 2015, nous avons fait le constat que le secteur du New Space commençait à bien marcher aux États-Unis. De beaux concepts, de belles preuves technologiques émergeaient. Il y avait toutefois une certaine frilosité en France à importer ce modèle. Nous nous sommes donc dit qu’il fallait tenter l’expérience… Nous avions alors l’objectif d’apporter dans le secteur civil et privé des capacités d’interception de signaux ; quelque chose, à la base, réservé au domaine de la défense.
Nous nous sommes donc lancés avec, d’emblée, un parti pris technologique : classiquement, l’interception de signaux se fait par triangulation satellite ; or, nous avons développé une technologie qui permet de le faire avec un seul satellite. Il s’agit de la première barrière technologique que nous sommes parvenus à faire tomber. Nous avons ensuite poursuivi pendant plusieurs années le développement de cette technologie, tant sur le plan matériel que logiciel. Nous nous sommes donc concentrés sur la charge utile du satellite. La plateforme, quant à elle, est issue de solutions « sur étagère ». Tout cela a abouti à un premier lancement en 2019.
Pourquoi ce choix de la surveillance maritime ?
L’autre parti pris de notre société a effectivement été de focaliser notre offre sur un marché cible : celui de la surveillance maritime. Nous savions en effet qu’il existait un vrai problème en matière de suivi des navires.
Les bateaux ont des transpondeurs à bord : les AIS[2] ; un peu comme les avions. Sauf que, contrairement aux avions, l’AIS peut être coupé, modifié… Un bateau peu très facilement disparaître. Avec notre technologie, même si ces balises sont coupées, on peut continuer à suivre les bateaux à partir de leurs autres sources d’émissions radiofréquences.
Concrètement, sur quel type de satellite votre technologie est-elle embarquée ?
La technologie d’interception de signaux développée par Unseenlabs est embarquée à bord de nanosatellites 6U d’une dizaine de kilos ; ici BRO-1 (Breizh Reconnaissance Orbiter), premier appareil de la constellation. ® Unseenlabs
Il s’agit de nanosatellites 6U[3], qui font entre dix et quinze kilos. Cela nous permet de déployer rapidement notre constellation. Nous avons aussi pu, grâce à cela, commencer à travailler dès le lancement de notre tout premier satellite. Cela nous a permis de démontrer que la technologie de base, mais aussi notre produit et notre business model fonctionnent. Nous avons aujourd’hui huit de ces satellites en orbite.
Nos satellites passent par l’orbite polaire. Ils sont placés à une altitude de 500 à 600 km. En matière de temps de revisite, un satellite est capable de voir un même point deux fois par jour, en moyenne. Cela varie en effet en fonction de la position du point géographique qui nous intéresse…
Composée pour l’heure de huit satellites placés en orbite polaire à une altitude de 500 à 600 kilomètres, la constellation d’Unseenlabs devrait atteindre, à terme, les vingt à vingt-cinq unités. ® Unseenlabs
À terme, de combien de satellites votre constellation sera-t-elle formée ?
Nous visons les 20 à 25 unités. Cela va nous permettre d’atteindre un temps de revisite de l’ordre de la demi-heure. Nous pourrons ainsi avoir un suivi encore plus précis du mouvement des navires et donc un niveau d’analyse encore plus fin.
Nous avons lancé notre huitième satellite en janvier, les neuvième et dixième vont arriver dans les tout prochains mois, avant l’été. Nous en avons également six autres en commande, qui sont en cours de construction.
Quelles applications cette technologie peut-elle trouver en matière de surveillance maritime ?
Nous travaillons beaucoup avec des acteurs de la lutte contre la pêche illégale. Il existe en effet de véritables flottes industrielles spécialisées dans ce type de pratique, qui mettent en danger les ressources et les écosystèmes. Ce type de navire est très facilement repérable grâce à notre technologie. Elle permet en effet de localiser les sources d’émissions – avec une précision de l’ordre du kilomètre, ce qui, en mer, est assez précis – mais aussi de caractériser et d’appliquer une signature électromagnétique à ces bateaux. Cette signature stable dans le temps permet de les suivre, d’observer leur trajectoire.
Nous avons aussi un bureau d’analyse, composé d’experts du monde maritime qui, en fonction des zones géographiques, des saisons, des types de bateaux et d’émetteurs, parviennent à caractériser le type d’infraction. Nous ne vendons pas que des cartes de bateaux ; notre produit est une offre complète de surveillance maritime.
Au-delà de la pêche illégale, notre technologie s’adresse en effet à tous les acteurs du domaine maritime, tous ceux qui ont quelque chose à protéger ou à surveiller : les États, pour lutter contre la pêche illégale, donc, mais aussi les entreprises oil & gas offshore, qui ont des installations en mer à protéger ; ou encore les armateurs, qui souhaitent pouvoir suivre leurs flottes.
Nous avons aujourd’hui des clients dans le monde entier ; une quinzaine pour l’instant, et cela croît de mois en mois.
Au-delà de la poursuite du déploiement de votre constellation, quels autres projets avez-vous éventuellement ?
Nous poursuivons un travail continu de R&D ; cela est au cœur de nos activités.
Nous avons toutefois pour principe de n’annoncer les choses que lorsqu’elles sont prêtes… Le secteur spatial est assez concurrentiel, mais il est aussi – et surtout – propice aux effets d’annonce. Nous ne voulons pas nous engager dans cette course aux annonces, qui, à terme, risque de nuire au secteur. Nous préférons garantir notre crédibilité auprès de nos clients.
[1] École Nationale de l’Aviation Civile
[2] Automatic Identification System
[3] 6 unités ; 1 unité représentant un volume de 10 cm x 10 cm x 10 cm
Pourtant, la consommation de plastique ne cesse de croître, et les prévisions pour la décennie à venir font unanimement état d’une production de matières plastiques en augmentation constante, partout dans le monde.
Dans l’histoire de l’humanité, la production de plastique, depuis que ce matériau a envahi le secteur des emballages et de la production de produits industriels, n’a baissé qu’à deux reprises. D’abord durant la première crise du pétrole dans les années 1970, puis en 2008 lors de la crise dite des subprimes. Au final, lors de l’épisode le plus dur de la crise sanitaire que connaît la planète depuis 2020, la consommation de plastique n’a pas baissé, alors que le monde s’était presque « arrêté ».
Un objectif de 20% de réduction des emballages plastiques à usage unique d’ici fin 2025, dont au minimum la moitié obtenue par recours au réemploi et à la réutilisation ;
Un objectif de tendre vers une réduction de 100% des emballages en plastique à usage unique « inutiles », tels que les blisters plastiques autour des piles et des ampoules, d’ici fin 2025 ;
Un objectif de tendre vers 100% de recyclage des emballages en plastique à usage unique d’ici le 1er janvier 2025 et pour y parvenir un objectif que les emballages en plastique à usage unique mis sur le marché soient recyclables, ne perturbent pas les chaînes de tri ou de recyclage, ne comportent pas de substances ou éléments susceptibles de limiter l’utilisation du matériau recyclé.
Ce dernier objectif, s’il a le mérite de l’ambition, paraît difficilement atteignable. Notamment parce que les filières de recyclage, pour certains types de plastiques, n’existent toujours pas. Si les objectifs affichés par le gouvernement sont extrêmement volontaristes, aujourd’hui le recyclage des plastiques made in France a quelque peu du plomb dans l’aile. En effet, aujourd’hui, ce sont environ 27% des emballages plastiques qui étaient recyclés en France en 2021. Ce chiffre atteint plus de 40% chez certains de nos voisins portugais ou anglais par exemple.
Le recyclage, pierre angulaire de l’économie circulaire
Alors comment faire ? Une nouveauté, en 2023, qui pourrait bien faire pencher la balance du bon côté, est l’uniformisation du tri des plastiques. En effet, depuis le début de cette année, les citoyens peuvent jeter tous les plastiques dans leur poubelle jaune. Une facilité qui devrait permettre de systématiser les bons gestes, et d’éviter les erreurs de tri, fréquentes jusque-là, et hétérogènes selon les régions. D’autres mesures, en œuvre depuis le début de l’année, doivent aussi concourir à faire baisser notre dépendance au plastique.
Cela sera-t-il suffisant pour atteindre 100% de plastiques recyclés d’ici 2025 ? Prenons un secteur en pointe sur le recyclage du plastique, comme celui des emballages : aujourd’hui, ce secteur envoie 65 % de ses produits dans un circuit d’économie circulaire. Les PET ou PEHD sont recyclés efficacement, bénéficiant d’une filière mature et efficace. Pour les 35% restants, les filières de recyclage sont soit en cours de développement, soit elles n’existent pas. Les filières en cours de développement doivent absolument se massifier pour devenir viable économiquement. Pour celles qui n’existent pas encore, le problème réside souvent dans l’impossibilité actuelle de recycler certains plastiques, comme les paquets de chips par exemple. Ces derniers sont aujourd’hui incinérés puis enfouis.
On le voit, la France va devoir agir vite, très vite, pour devenir un leader du recyclage des plastiques, et respecter ses engagements d’ici la fin de l’année 2025.
Selon l’IEA (International Energy Agency), les besoins en production de chaleur représentent un peu plus de la moitié de la consommation mondiale d’énergie dans le monde. L’industrie y tient une place importante, puisqu’à elle seule, elle contribue à près d’un tiers de cette consommation. Dans ce secteur, les niveaux de chaleur nécessaires aux procédés industriels sont étendus. Ainsi, les cimentiers ont besoin de très hautes températures, supérieures à 500 degrés, tandis que d’autres secteurs tels que celui de la chimie, de la métallurgie, du bois, du plastique et du textile, sont à la recherche de températures inférieures à 300 degrés. Débuté en 2020, un projet de recherche européen, coordonné par le CEA-Liten et baptisé FriendSHIP, a pour objectif de produire cette chaleur à basse et moyenne température de manière décarbonée à partir de plusieurs briques technologiques.
Pour limiter le besoin en électricité, une part importante de la chaleur sera produite grâce à des capteurs solaires thermiques, dont le rôle sera de préchauffer le système. Les capteurs à concentration seront fabriqués par deux entreprises, partenaires de ce projet, à savoir Industrial Solar et Absolicon, respectivement situées en Allemagne et en Suède. Afin d’augmenter le niveau de chaleur produit, deux solutions complémentaires seront proposées. La première reposera sur une pompe à chaleur à haute température et permettra d’obtenir une température de 200 degrés. « Actuellement, la plupart des pompes à chaleur atteignent des températures inférieures à 100 °C, explique Pierre Dury, ingénieur solaire thermique au sein du projet FriendSHIP pour l’INES (Institut National de l’Énergie Solaire). Pour aller au-delà, plusieurs pistes sont envisagées et l’une d’elles consiste à utiliser, non pas un seul, mais plusieurs cycles de compression, afin d’optimiser le ratio théorique de compression. Sur le plan mécanique, un travail est notamment mené sur la lubrification, l’étanchéité, et les matériaux résistant à la pression et à la chaleur. Tout ce travail est réalisé par l’institut de recherche norvégien SINTEF ». Ladeuxième solution reposera sur une technologie de capteurs solaires à plus forte concentration, de type Fresnel, et permettra d’atteindre 300 degrés.
Le CEA développe une méthode de stockage latent de la chaleur
Face à l’intermittence de la ressource solaire, un système de stockage thermique à haute densité sera couplé à la production de chaleur. Pour obtenir une densité énergétique très élevée, une méthode de stockage appelée latent sera utilisée et reposera sur l’enthalpie de changement de phase d’un matériau, c’est-à-dire sa capacité à passer d’une phase solide à une phase liquide. Elle nécessite beaucoup plus d’énergie que la méthode dite sensible, qui consiste à faire monter en température des matières comme l’eau ou la roche. Le CEA développe en ce moment cette méthode de stockage latent et utilise un couple de matériaux composés de nitrate de potassium et de nitrate de calcium. « Il ressemble à un agglomérat de sels et lorsqu’il chauffe, il devient liquide, puis lorsque l’on évacue sa chaleur, il se solidifie à nouveau, complète l’expert de l’INES. La densité énergétique d’un stockage latent est au moins trois fois supérieure à celle d’un stockage sensible classique. À noter que ce système de stockage permettra aussi de stocker la chaleur fatale de l’industrie, celle qui n’est pas utilisée par les process, et qui sera renvoyée dans le dispositif de stockage ».
Et parce qu’en plus de la chaleur, les industriels ont souvent besoin de froid dans leurs process, un groupe froid à absorption thermique basé sur un cycle GAX (Generator-Absorber heat eXchange) est en cours de développement, là encore au CEA. Il permettra la production de froid avec des températures qui devrait atteindre jusqu’à -40 degrés à l’issue du projet. À l’heure actuelle, ce type d’équipement n’existe pas à l’échelle industrielle. Ce froid étant produit grâce à la chaleur, le système solaire sera donc dimensionné pour assurer la production de chaleur et de froid. Comparé à des systèmes de climatisations classiques fonctionnant par compression mécanique, et pour une compression équivalente, la consommation électrique est divisée par un coefficient de l’ordre de 100.
D’ici à la fin de cette année, un démonstrateur pilote de l’ensemble du système doit être mis en service au CEA de Grenoble. Actuellement, les scientifiques mènent une enquête auprès des industriels pour connaître l’acceptabilité et la comptabilité d’un tel système sur leurs sites. « Nous réalisons une étude sous la forme d’un questionnaire pour connaître leurs besoins exacts, afin de leur proposer dans le futur des solutions clés en main, ajoute Pierre Dury. Nous travaillons également avec deux industriels pilotes, l’allemand Clariant et le portugais Sonae, pour étudier l’installation d’un tel système chez eux. À la fin de ce projet, qui doit se terminer en 2024, nous allons également proposer des formations aux industriels pour les accompagner à transférer notre technologie sur leurs sites ».
Pour plus d’informations sur ce projet, des vidéos explicatives sont accessibles en cliquant sur ce lien.
Avec une nécessité de réduire les émissions de CO2, de plus en plus de solutions se développent sur le marché de l’emballage. Deux en particulier semblent prometteuses : le réemploi et la réutilisation. Ils se différencient par un passage, ou non, par le statut de déchet lors de la fin de vie de l’objet. Dans le réemploi, l’objet est donné ou vendu à un tiers pour qu’il lui donne une nouvelle vie. Dans la réutilisation, le produit ne passe pas par une structure qui s’occupe du réemploi. Il prend alors le statut de déchet. Il va ensuite subir une opération de traitement des déchets pour retrouver son statut de produit.
Ces deux options sont d’ailleurs plébiscitées par la loi anti-gaspillage pour une économie circulaire, ou loi Agec, qui impose que 5 % des emballages mis sur le marché en 2023 (pour les metteurs en marché de plus de 50 millions d’euros de chiffre d’affaires) doivent être réemployés ou réutilisés. En 2025, cette mesure concernera les metteurs sur le marché de plus de 20 millions d’euros de chiffre d’affaires et en 2026, pour les autres metteurs en marché de plus de 10 000 unités de ventes. En 2027, 10 % des emballages devront être réemployés ou réutilisés pour tous les metteurs sur le marché de plus de 10 000 unités de ventes.
Différents types de réemploi
Il existe ainsi trois grands types de réemploi pour les emballages. Le premier concerne le vrac pour les produits vendus sans emballages primaires. Le consommateur remplit alors ses emballages réemployables comme des bocaux, des sachets en tissus ou des barquettes, qui proviennent du point de vente ou qui lui appartiennent. En revanche, les sacs en plastique ou les sachets papier à usage unique, appelés « économats » et fournis par le magasin, n’entrent pas dans le cadre du réemploi.
Deuxième type de réemploi, les emballages préemballés en usine et réemployés par les professionnels. Le consommateur achète un produit déjà préemballé. Une fois utilisé, il ramène l’emballage qui sera pris en charge par le professionnel.
Enfin, la troisième méthode concerne l’utilisation de recharges. Elles permettent de remplir à nouveau un emballage parent avec le même produit. La recharge n’est pas faite pour être utilisée seule.
Des exemples concrets de réemploi
Aujourd’hui en France, 30 à 40 % des bouteilles utilisées dans les cafés, les hôtels, les restaurants sont encore consignées pour être lavées et remplies à nouveau. Un système de consigne perdure aussi en place en Alsace, ou près de 25 millions de bouteilles en verre sont réemployées chaque année et 30 % des supermarchés y sont équipés de machines de déconsignation. Toujours dans cette région, la brasserie Meteor a misé sur un système de consigne. Elle représente à elle seule 42 % du parc de bouteilles réemployables en France sur le circuit ménager. Une étude de 2009 avait montré que ce dispositif permettait d’économiser 76 % d’énergie primaire, d’éviter 79 % d’émissions de gaz à effet de serre et d’utiliser 33 % d’eau en moins par rapport à des bouteilles en verre à usage unique.
Depuis le 1er janvier 2023, les établissements de restauration qui servent plus de 20 couverts doivent désormais avoir recours à de la vaisselle réutilisable selon la loi Agec. Ces enseignes servent 6 milliards de repas par an dans 30 000 points de vente en France, ce qui génère 180 000 tonnes de déchets chaque année. Ceux qui continueront à utiliser de la vaisselle jetable s’exposeront à une amende de 7 500 €. L’association Zero Waste regrette également que la vaisselle soit en plastique, matériau dont la durabilité au fil des lavages doit être démontrée et ayant potentiellement des risques de migration vers les aliments.
Repenser toute une économie
De nombreuses initiatives de réemploi existent au niveau régional, mais elles sont rares à l’échelle nationale. Avec une montée en puissance du réemploi grâce à la loi Agec, le marché va devoir se réorganiser. Citéo, spécialisé sur les questions d’emballages, préconise ainsi de développer des emballages standardisés, principalement en verre, à diffuser dans toute la France. Ils présentent de nombreux avantages. Regroupés, ils permettront d’optimiser les processus de retour, de tri, de lavage et logistique et d’améliorer le bilan économique et environnemental du réemploi.
Concernant le vrac, le principal enjeu consiste à réduire le gaspillage alimentaire en amont, dans le magasin et chez le consommateur. D’après Citéo, dès 10 % de perte, le vrac est moins performant que les produits emballés.
80 % des déchets présents dans les océans ont été jetés sur terre et une part importante de cette pollution a pour origine les trottoirs des villes. Les déchets jetés sur la voie publique sont en effet charriés par les eaux pluviales, puis sont rejetés dans des cours d’eau avant de finir leur course dans la mer. Située à Marseille, la start-up Greencityzen développe des technologies basées sur l’IoT (Internet of Things) pour protéger l’environnement. Depuis 2019, elle a installé plusieurs milliers de capteurs connectés dans le réseau d’eaux pluviales de la ville de Marseille. Le but : piloter le nettoyage de ce réseau à l’aide de données, et non plus comme avant sur la base d’un planning fixé à l’avance. Rencontre avec Alexandre Boudonne, le cofondateur de l’entreprise.
Techniques de l’Ingénieur : De quelle manière avez-vous instrumenté le réseau pluvial de Marseille ?
Alexandre Boudonne, cofondateur de Greencityzen. Crédit : Greencityzen
Alexandre Boudonne : Cette ville compte 16 000 avaloirs, ce sont ces bouches d’égout que l’on voit sur les trottoirs. Ils ont pour fonction de récupérer les eaux pluviales, et Suez, qui exploite ce réseau, doit les contrôler 50 000 fois par an, par engagement contractuel. À chaque fois, les techniciens doivent se déplacer, ouvrir l’avaloir, regarder à l’intérieur, et s’il est encombré de déchets, le curer. Au total, 25 000 curages sont effectués chaque année, ce qui signifie qu’un déplacement sur deux est inutile.
Nous avons progressivement instrumenté 5 000 avaloirs, en installant dans chacun d’eux un capteur connecté. Celui-ci permet de déterminer si l’avaloir est vide ou si par exemple 10 cm de déchets sont présents à l’intérieur. Il fonctionne grâce à des ultrasons et transmet les données deux fois par jour à un logiciel. Le système installé est très frugal en énergie, avec une faible empreinte carbone. Nous utilisons le réseau LPWAN (Low Power Wide Area Network), plus couramment appelé le réseau 0G et l’empreinte numérique annuelle d’un capteur est inférieure à celle d’un email. La consommation d’énergie avec cette technologie est très faible, si bien que la pile installée dans le boîtier du capteur a une durée de vie de 8 ans.
Comment sont traitées les données collectées ?
Nous avons développé une application qui se décline en trois volets. Elle collecte les données des capteurs, puis procède au classement des avaloirs, et établit des priorités de curage à effectuer.
Ensuite, nous avons profité de cette instrumentation du réseau pluvial pour réaliser un référencement de chacun des avaloirs. Concrètement, pour chacun d’eux, nous avons recueilli plusieurs informations comme la superficie d’engouffrement, la taille de la fosse, sa profondeur… Cette meilleure connaissance permet d’améliorer l’organisation des tournées de curage et le travail des techniciens. Par exemple, certains avaloirs se nettoient à la main à l’aide d’un outil, tandis que d’autres nécessitent l’envoi d’une aspiratrice, car ils font 3 à 4 mètres de profondeur.
Un dernier volet concerne la gestion des interventions. À chaque déplacement, les techniciens remplissent les détails de leur intervention (curage manuel, équipements,…) dans le logiciel, ce qui permet d’alimenter un journal d’entretien, génère des statistiques d’intervention, et permet de valoriser le travail de l’exploitation de ce réseau.
Quels sont les bénéfices apportés par votre technologie ?
À présent, le taux de curage des avaloirs instrumentés lors de chaque déplacement des techniciens est de 100 %, alors qu’avant, il était de 50 %. Grâce aux capteurs, on s’aperçoit que certains avaloirs ont besoin d’être curés 13 fois par an, tandis que d’autres n’ont jamais besoin d’être nettoyés, alors qu’ils étaient contrôlés au moins deux fois par an avant.
Un capteur connecté installé dans un avaloir. Crédit : Greencityzen
Les capteurs permettent également d’avoir une meilleure connaissance du comportement des avaloirs, avec certains qui se remplissent avec la pluie, tandis que d’autres au contraire se vidangent. Nous avons installé des capteurs de pluviométrie, et Suez peut à présent adapter sa stratégie d’intervention. Avant les pluies, l’entreprise peut curer les avaloirs qui risquent de se vidanger et ainsi éviter que les déchets ne soient rejetés dans l’environnement. Et pendant les pluies ou juste après, elle peut déboucher les avaloirs obstrués pour éviter le risque d’inondation.
Auparavant, Suez collectait entre 150 et 200 tonnes de déchets par an. Potentiellement, grâce à notre technologie, entre 40 et 70 tonnes vont pouvoir être collectés en plus chaque année. Nous allons également faire économiser 10 000 déplacements sur les 50 000 initialement prévus dans le contrat de Suez. Cela permettra de diminuer l’empreinte carbone liée aux déplacements des engins motorisés en milieu urbain.
Quelles sont les perspectives de votre entreprise ?
Après Marseille, nous avons commencé à instrumenter les avaloirs à Nice, et nous avons également le projet d’équiper plusieurs collectivités situées dans le bassin Loire Bretagne. En parallèle, nous poursuivons notre travail de R&D. À Marseille, plus de 30 000 photos ont été prises des déchets présents dans les avaloirs, au moment du référencement et avant chaque curage. Nous développons un algorithme d’intelligence artificielle pour qualifier la nature de ces déchets à partir de ces images. L’objectif final est d’être en mesure de réaliser des tournées de curages spéciales pour les feuilles, le plastique… afin de trier ces déchets puis les recycler.
En complément des avaloirs, nous développons des capteurs pour l’assainissement, afin de mesurer des niveaux, éviter des colmatages… Nous proposons aussi des solutions pour procéder à de l’arrosage intelligent des espaces verts publics. Grâce à des capteurs implantés dans le sol, nous sommes parvenus à réaliser en moyenne 41 % d’économie d’eau dans plusieurs villes comme à Paris, Lyon, Bordeaux, mais aussi à Florence en Italie.
Nous avons récemment remporté un appel d’offres organisé par l’ONU. Durant les cinq prochaines années, nous allons aider à la sécurisation de l’approvisionnement en eau potable de camps de réfugiés situés dans 15 pays dans le monde (Tchad, Ouganda, Bangladesh…). Grâce à des capteurs, nous allons superviser le niveau des nappes phréatiques, le fonctionnement des pompes, les systèmes de traitement et de contrôles de la qualité de l’eau, le niveau des stocks d’eau ainsi que la consommation finale. Cette instrumentation nous permettra d’avoir une vision complète du cycle de l’eau, de mieux piloter le système, et de s’assurer que les réfugiés ont tout le temps accès à de l’eau potable.
Les grandes entreprises font de plus en plus de promesses sur leur « neutralité carbone » à venir ou leur objectif de devenir « zéro émissions nettes » en 2040 ou 2050. Mais leurs plans climatiques sont en réalité incompatibles avec une hausse des températures limitée à 1,5°C d’ici la fin du siècle, selon un nouveau rapport des groupes de réflexion New Climate Institute et Carbon Market Watch. Celui-ci évalue les stratégies climatiques de 24 des plus grandes entreprises mondiales qui mettent pourtant en avant leur leadership climatique.
Les auteurs ont défini quatre niveaux d’intégrité et de transparence : « haute », « raisonnable », « modérée » et « faible ». Aucune entreprise n’atteint le haut du panier. Le géant danois du transport maritime Maersk est le seul à avoir une stratégie climatique dont l’intégrité est qualifiée de « raisonnable » par les auteurs. Huit entreprises – Apple, ArcelorMittal, Google, H&M Group, Holcim, Microsoft, Stellantis et Thyssenkrupp – atteignent le niveau d’intégrité « modéré ». Quinze autres entreprises ont une intégrité faible ou très faible. L’entreprise française Carrefour se retrouve en queue de peloton, malgré une neutralité carbone visée pour 2040.
Des baisses d’émissions largement insuffisantes
La sentence est sans appel : il faudrait que les entreprises baissent deux fois plus leurs émissions de gaz à effet de serre d’ici à 2030 pour rester dans les clous de l’Accord de Paris. Selon les projections les plus optimistes, leurs engagements permettraient de réduire de 15 à 21 % les émissions de leur chaîne de valeur d’ici 2030. Pour limiter la hausse des émissions au niveau mondial à 1,5°C, il faudrait qu’elles les diminuent en réalité de 43 %, calculent les auteurs.
Les choses ne s’arrangent pas à long terme. Loin de baisser fortement leurs émissions, les entreprises tablent plutôt sur la compensation carbone, en plantant des arbres ou en finançant des projets d’énergie renouvelable. Pour atteindre la neutralité carbone, elles prévoient une baisse de leurs émissions de 36 % en moyenne. Le consensus scientifique est pourtant clair : la neutralité carbone nécessiterait de les réduire de 90 % à 95 %, pour la plupart des secteurs, avant de compenser les émissions résiduelles. « Cela démontre un gouffre énorme entre les engagements actuels des entreprises et ce qu’elles devraient faire pour éviter les impacts les plus dommageables du changement climatique », souligne le rapport.
Carrefour s’est officiellement engagé à réduire de 30 % ses émissions de GES d’ici 2030 et de 55 % d’ici 2040, par rapport à 2019. Mais le groupe semble exclure plus de 80 % de ses magasins franchisés de ses objectifs, estime le rapport. Concernant sa place en bas de classement, le groupe a réagi auprès de l’AFP : « Nous ne sommes pas d’accord », mettant en avant une trajectoire chiffrée de réduction, y compris sur des émissions indirectes, mais sans répondre sur la question du périmètre de magasins retenus.
« En faisant des déclarations aussi farfelues sur la neutralité carbone, ces entreprises trompent non seulement les consommateurs et les investisseurs, mais elles s’exposent également à une responsabilité juridique et réputationnelle croissante, juge Lindsay Otis, experte en politique sur les marchés du carbone chez Carbon Market Watch. Au lieu de cela, elles devraient mettre en place des plans climat ambitieux pour réduire leurs propres émissions, tout en finançant des actions en dehors de leurs propres activités, sans prétendre que cela les rend neutres en carbone. »
Le coût des catastrophes naturelles en France a atteint près de 10 milliards d’euros en 2022, a annoncé fin janvier dernier France Assureurs. Un record depuis 1999, avec « l’intensification des phénomènes » climatiques extrêmes.
Au niveau mondial, l’ONG britannique Christian Aid avait publié au même moment un rapport dans lequel elle estimait que les dix plus grosses catastrophes naturelles en 2022 avaient coûté plus de 158 milliards d’euros.
Pour limiter les impacts de ces événements extrêmes (tremblements de terre très intenses, pandémies, vagues scélérates…), des scientifiques tentent d’anticiper leur création et leur réaction. Plus facile à dire qu’à faire ! Ces phénomènes extrêmes sont, par définition, rares même si France Assureurs note une « augmentation de leur fréquence ».
Algorithmes statistiques
Statistiquement parlant, il n’y a pas assez de données sur eux pour utiliser des modèles prédictifs permettant de prévoir avec précision le moment où ils se produiront. Mais un groupe de scientifiques de l’université Brown et du Massachusetts Institute of Technology a peut-être trouvé une méthode efficace.
Dans une étude publiée fin 2022 dans Nature Computational Science, les chercheurs expliquent comment ils ont utilisé des algorithmes statistiques qui nécessitent moins de données pour des prédictions précises, en combinaison avec une puissante technique d’apprentissage automatique développée à l’université Brown.
Cette combinaison leur a permis de prédire des scénarii, des probabilités et même des chronologies d’événements rares malgré le manque de données historiques. Pour schématiser, ils ont contourné la problématique de l’absence d’un volume important de données pour se focaliser sur la qualité plutôt sur la quantité d’informations.
Ils se sont donc posé la question suivante : « Quelles sont les meilleures données possibles que nous pouvons utiliser pour minimiser le nombre de points de données dont nous avons besoin ? »
Anticiper les vagues scélérates
Les chercheurs ont trouvé la réponse dans une technique d’échantillonnage séquentiel appelée apprentissage actif (ou Active learning). Ces types d’algorithmes statistiques sont non seulement capables d’analyser les données qui leur sont fournies, mais surtout, ils peuvent tirer des enseignements de ces informations pour identifier de nouveaux points de données pertinents qui sont tout aussi importants.
Depuis plusieurs années, l’apprentissage actif est utilisé dans le traitement du langage naturel, où des données non étiquetées peuvent être abondantes, mais l’annotation est lente et coûteuse.
Les scientifiques de l’université Brown et du MIT ont donc utilisé cette technique d’Active learning pour alimenter leur modèle d’apprentissage automatique et rechercher de manière proactive les indices qui signifient les événements rares.
Présenté dès 2019 par ces chercheurs de Brown, DeepOnet (deep operator networks) est un type de réseau neuronal artificiel qui utilise des nœuds interconnectés en couches successives imitant grossièrement les connexions établies par les neurones du cerveau humain.
Selon cette équipe, DeepOnet peut être entraîné à rechercher les paramètres ou les précurseurs qui conduisent à l’événement désastreux analysé, même si les points de données sont peu nombreux.
Par exemple, en ce qui concerne les vagues scélérates, les chercheurs ont découvert qu’ils pouvaient déterminer et quantifier le moment où elles se formeront en examinant les conditions probables des vagues qui interagissent de manière non linéaire au fil du temps, ce qui conduit à des vagues parfois trois fois plus grandes que leur taille initiale.
L’équipe travaille actuellement avec des spécialistes de l’environnement afin d’utiliser leur méthode pour prévoir les événements climatiques, tels que les ouragans.
Le Grand défi des entreprises pour la planète, cofondé par Virginie Raisson-Victor, géopolitologue et prospectiviste, et Jérôme Cohen, président fondateur d’Engage, a fait travailler pendant plus d’un an une centaine de délégués – des dirigeants, des salariés et des actionnaires d’entreprises – pour aboutir à une liste de 100 propositions visant à enclencher la bascule écologique des entreprises françaises. Techniques de l’ingénieur revient avec Virginie Raisson-Victor sur l’aboutissement d’un long processus qui propose des mesures internes, transversales et externes à l’entreprise.
Techniques de l’ingénieur : Pourquoi avoir lancé ce Grand défi et comment s’est-il déroulé ?
Virginie Raisson-Victor : Au départ avec Jérôme Cohen, nous voulions accélérer la transition des entreprises pour que leurs activités rentrent dans les limites planétaires. L’activité des entreprises doit être positive sur le plan économique, mais non destructrice de la nature.
On a tiré au sort 120 000 entreprises, puis retenu 100 délégués. Parmi eux : des dirigeants, des salariés et des actionnaires. Ils ont travaillé pendant 12 mois au cours de 6 sessions pour élaborer 100 propositions visant à accélérer la transition écologique de l’économie. Suite à la présentation de ces propositions au CESE[1] qui a eu lieu le 9 février 2023, les délégués deviendront des ambassadeurs au sein de leurs entreprises et de leurs réseaux.
Comment pousser les entreprises à s’emparer de ces propositions ?
La première chose que nous avons faite est d’associer les parties prenantes du processus en amont de notre travail. On a commencé par y associer une communauté : on a plus d’une centaine de partenaires institutionnels et associatifs, des réseaux d’entreprises, des réseaux étudiants, la CFDT, des collectifs de salariés, des associations écologistes comme le WWF, des collectivités territoriales et des entreprises marraines. Cela va d’Entreprises pour l’Environnement qui représente des entreprises du CAC 40 au Mouvement Impact France qui a une vision plus radicale sur le sujet.
L’idée est que chacun de ces partenaires s’empare des propositions et les porte à débat ou à présentation dans ses structures. On ira nous-mêmes porter ces propositions auprès des élus, des pouvoirs publics et du gouvernement.
Comment classez-vous vos propositions ?
Il y a onze catégories de propositions qui englobent l’ensemble de la chaîne de valeur de l’entreprise et proposent un parcours de transformation. On aborde sa gouvernance, l’engagement des acteurs de l’entreprise dans ce processus et le financement de la transition. On s’intéresse à son outil de production, que cela concerne le site, les approvisionnements, et la production elle-même. Ensuite, il y a des volets sur l’emballage du produit, le suivi de la distribution, la communication, la comptabilité et la rémunération.
Plusieurs propositions sont directement applicables par les entreprises. D’autres s’adressent davantage aux collectivités territoriales, aux pouvoirs publics ou à l’État. Il s’agit de mesures d’accompagnement et éventuellement de modifications réglementaires, sans lesquelles les entreprises ne pourront pas lancer certains aspects de la transition.
Quelles sont les propositions que vous jugez prioritaires ?
J’affectionne particulièrement les solutions éprouvées et qui fonctionnent. Par exemple, je suis membre de comités de mission. Je trouve que c’est remarquable comme outil pour entamer un parcours durable et suivi dans la durée. Quand on devient entreprise à mission, on a une raison d’être. On est obligé de trouver son lien avec l’intérêt général. On replace donc l’intérêt général dans l’entreprise. Ensuite, on associe des missions à la raison d’être. On se donne des objectifs et une grille d’indicateurs pour suivre la trajectoire. Le comité de mission est là en accompagnement et en surveillance de cette évolution.
J’aime aussi l’objectif de mettre en place la comptabilité en triple capital à l’horizon 2030 [qui ajoute la performance sociale et la performance environnementale à la performance économique, ndlr]. Elle donne une valeur à ce qui aujourd’hui n’en a pas assez : la valeur humaine et environnementale. Actuellement, le prix d’un produit ou d’un service ne répercute pas la valeur environnementale ou sociale. Il répercute éventuellement la spéculation sur sa rareté. À partir du moment où l’on donne une valeur aux ressources ou au processus qui a permis de réduire son empreinte écologique, on reclasse les priorités. Dès lors, on définit un prix qui est plus compatible avec une économie écologiquement et socialement durable.
Selon lui, 2023 sera une année charnière pour cette start-up Deeptech qui souhaite accélérer son développement, lancer une levée de fonds et démarrer des collaborations avec des acteurs industriels.
Gauthier Chicot (à gauche) est le président de la start-up DIAMFAB, qu’il a co-fondée avec Khaled Driche (à droite) (Crédit : DIAMFAB)
DIAMFAB est une start-up fondée en mars 2019.
Ce spin-off du CNRS met au service de l’industrie des semi-conducteurs son savoir-faire unique au monde issu de 30 ans de R&D en technologie diamant.
La technologie diamant de qualité électronique que propose DIAMFAB permet d’ores et déjà de fabriquer des wafers de diamant aux propriétés électroniques parfaitement maîtrisées.
Le développement de convertisseurs 80 % plus compacts et efficaces que ceux conçus avec des composants en silicium fait partie des nombreuses applications potentielles.
Techniques de l’Ingénieur : L’an dernier, vous aviez évoqué l’arrivée de collaborateurs pour 2022. Avez-vous recruté de nouveaux profils pour accélérer votre développement ?
Gauthier CHICOT : En effet, en 2022, notre équipe s’est considérablement renforcée, avec l’accueil de deux doctorants dans le cadre de thèses CIFRE et le recrutement d’un ingénieur R&D et de deux ingénieurs en alternance sur des projets de R&D.
Nous avons également accueilli Ivan Llaurado, un collaborateur très expérimenté, issu du monde de l’industrie, dont le rôle au sein de DIAMFAB est de créer de nouveaux partenariats industriels.
Pouvez-vous en dire plus au sujet de ces projets sur lesquels intervient DIAMFAB ?
En 2022, DIAMFAB a démarré deux projets de R&D majeurs.
Le premier s’appelle LSD-MOSFET et consiste à obtenir des transistors sur de grandes plaquettes de diamant. C’est un projet en partenariat avec l’Institut Néel et le LAboratoire PLAsma et Conversion d’Energie (LAPLACE) qui est soutenu par l’ANR[1].
Diodes fabriquées sur un substrat diamant à haute valeur ajoutée DIAMFAB (en collaboration avec MinimalFab pour le wafer de droite. Crédit : DIAMFAB)
À l’heure actuelle, nous maîtrisons la fabrication de MOSFET sur des substrats de petite taille. Pour intéresser les industriels, nous devons maintenant réussir la production de wafers de plus grande taille, ce qui fait d’ailleurs partie de notre roadmap.
L’autre projet (Tbatt-Diamond) est assez différent, car il concerne la production de batteries bêta voltaïques. Le but est de développer des piles d’une durée de vie de 20 ans en incorporant du tritium issu de déchets nucléaires au sein d’une cellule élémentaire de diamant.
Le principe de batterie bêta voltaïque n’est néanmoins pas nouveau, puisque c’est une technologie déjà employée dans le spatial. La différence majeure c’est qu’au lieu d’utiliser des semi-conducteurs plus classiques (Si, SiC), nous travaillons sur l’utilisation de diamant, car il y a plusieurs avantages.
D’une part, comme le diamant est un matériau dit « grand gap » il possède la capacité de convertir l’énergie radioactive en électricité de manière plus efficace. D’autre part, une fois que les atomes de tritium ont été « infusés » dans le diamant, leur désorption est bloquée aux températures d’utilisation assurant une étanchéité en conditions usuelles.
Sur ce projet, soutenu par France 2030, DIAMFAB travaille en partenariat avec le CEA et STMicroelectronics qui se charge de toute la partie Energy Harvesting.
Enfin, DIAMFAB intervient aussi dans deux thèses et participe également au projet H2020 CleanSky II.
DIAMFAB développe des solutions pour la transition énergétique. Cherchez-vous également à améliorer votre empreinte carbone ?
La conversion d’énergie (et donc l’électronique de puissance) est au cœur de la transition énergétique. Néanmoins, nous désirons aller plus loin sur ces questions et nous mettons en place des actions pour quantifier et améliorer notre empreinte carbone.
Par exemple, nous réfléchissons à la substitution des gaz utilisés dans notre process (méthane et hydrogène) par des alternatives biosourcées ou durables. Nous essayons aussi de quantifier l’empreinte carbone de notre process, en tenant compte de l’énergie consommée par les machines et nous veillons à maîtriser les émissions de CO2 liées à nos déplacements.
La levée de fonds prévue pour 2022 a-t-elle eu lieu ?
Il y a eu du changement de ce côté, car nous avons décidé de décaler la levée de fonds prévue initialement en 2022, notamment pour affiner notre stratégie et nos besoins.
Cette année nous venons ainsi de lancer une levée de fonds à hauteur de 3 M€. Nous cherchons donc des partenaires financiers, mais pas uniquement. DIAMFAB a également besoin de partenaires industriels intéressés par le co-développement de nouveaux produits. Pour nous c’est une année charnière, nous sommes donc ouverts aux propositions de collaboration.
[1] Projet ANR-21-CE50-0036, d’une durée de 48 mois, soutenu par l’ANR à hauteur de 584 079 €
Depuis des années, les avantages de l’IA sont vantés par des entreprises et des spécialistes. Mais d’autres tirent la sonnette d’alarme sur les dérives, les erreurs qu’un algorithme mal conçu peut engendrer ou encore les deepfakes.
Avec ChatGPT, le risque cyber franchit certainement une nouvelle étape. Les pirates pourraient s’en servir pour écrire des logiciels malveillants ou repérer les vulnérabilités d’un site ou d’un serveur informatique.
Autre exploitation détournée de ce chatbot : le lancement de campagnes de phishing. En décembre dernier, les chercheurs de Checkpoint (une entreprise américaine spécialisée dans la cybersécurité) ont démontré comment ChatGPT pouvait potentiellement construire une campagne de logiciels malveillants du début à la fin, de la création d’un courriel de phishing à l’écriture du code malveillant.
Mais pour générer un code complet, il fallait demander au modèle IA de prendre en compte des éléments auxquels seul un programmeur expert aurait pensé… Et c’est bien là les limites de ChatGPT.
Une solution miracle pour les « script kiddies »
C’est l’avis de Marcus Hutchins, un hacker qui avait permis en 2017 d’arrêter la propagation du ransomware WannaCry. Connu sous son pseudonyme en ligne MalwareTech, il a essayé de développer un ransomware (ou rançongiciel, code malveillant chiffrant les données). Mais « ChatGPT a échoué », a-t-il expliqué dans une interview à CyberScoop.
« L’attaquant doit savoir ce qu’il veut exactement et être capable de spécifier la fonctionnalité. Le simple fait d’écrire “écrire un code pour un malware” ne produira rien de vraiment utile », a déclaré Sergey Shykevich, chercheur chez Checkpoint, dans un communiqué de presse.
« ChatGPT est un perroquet qui a beaucoup lu et qui ne sait que refaire ce qui est déjà connu. Pas besoin de ChatGPT pour développer des virus », affirme un expert du ministère des Armées qui souhaite rester anonyme.
Finalement, dans sa version actuelle, ChatGPT apparaît comme plus utile à des « script kiddies ». Avec cette solution d’IA, ces pirates non expérimentés pourraient ainsi compenser leurs faiblesses dans le développement de codes malveillants. La preuve, sur un forum de pirates, une personne est parvenue à concevoir un script Python capable de chiffrer et de déchiffrer des fichiers à la volée. Un code certes « bénin » en l’état, mais qui pourrait être affiné dans les prochains mois…
Enfin, le traitement du langage naturel (Natural language processing-NLP) pourrait représenter une aubaine pour tous les spammeurs du monde entier qui ne maîtrisent que leur langue maternelle.
En termes de création de contenus, le potentiel est clair et ChatGPT franchit une nouvelle étape. Des pirates pourraient s’appuyer sur cette solution pour concevoir des campagnes de phishing en différentes langues et difficiles à identifier comme étant des pièges, car le contenu serait parfaitement adapté à la cible (un expert-comptable, un DRH…).
Si des solutions permettent actuellement de repérer des contenus générés par ChatGPT, il sera peut-être plus difficile de détecter un email usurpant une banque ou une administration. Seule la vigilance de l’être humain permettra de lutter contre les risques de piratages ou d’usurpation d’identité.
La part croissante des énergies renouvelables (solaire et éolien) dans le mix énergétique oblige à penser à des systèmes de stockage pour faire face à l’intermittence de leur production d’électricité. Les stations de transfert d’énergie par pompage (STEP) et l’hydrogène par électrolyse de l’eau sont actuellement les deux alternatives les plus envisagées pour le stockage de longue durée. Dans une étude publiée dans la revue Energies, une équipe internationale de chercheurs, dirigée par l’IIASA (International Institute for Applied Systems Analysis), un institut de recherche en Autriche, propose un nouveau mode de stockage original, consistant à valoriser des sites miniers abandonnés.
La technique, appelée Underground Gravity Energy Storage (UGES), consiste à utiliser le principe de la gravité. Concrètement, un arbre vertical est installé à l’intérieur de la mine sur lequel sont placés des moteurs/générateurs électriques qui permettent de soulever ou d’abaisser des conteneurs remplis de sable. Le principe est simple : en cas de surplus d’énergie dans le réseau électrique, lors d’une journée très ensoleillée par exemple, le dispositif stocke l’électricité en soulevant le sable pour le déposer sur des sites de stockage supérieurs situés au sommet de la mine. Et à l’inverse, quand le réseau vient à manquer d’électricité, il suffit de convertir l’énergie potentielle du sable en le redescendant vers un réservoir inférieur situé au fond du puits. Grâce à un freinage régénératif et un alternateur associé, cette énergie est alors transformée en électricité, pour être ensuite injectée dans le réseau.
Ce système nécessite d’utiliser des excavatrices pour extraire le sable des sites de stockage supérieur et inférieur ainsi que des camions électriques à benne basculante ou des bandes transporteuses afin d’alimenter les conteneurs en sable. Pour optimiser la capacité de puissance, les conteneurs de sable dans le puits occupent environ la moitié du volume du puits, tandis que l’autre moitié de l’espace sert à remplir et à vider les conteneurs de sable. Les auteurs soulignent que plus le puits de la mine est profond et large, et plus la puissance extraite peut être importante. De la même manière, plus le volume dans la mine est élevé et plus la capacité de stockage d’énergie de l’installation l’est aussi.
Pour une capacité de stockage d’énergie d’une mine de 4 millions de tonnes de sable et d’un dénivelé moyen de 200 mètres, le système décrit dans l’étude a un potentiel de stockage de 1,74 GWh. Les coûts d’investissement sont estimés entre 1 et 10 dollars par kWh, tandis que les coûts de capacité électrique s’élèvent à 2 000 dollars par kW. « Les mines disposent déjà de l’infrastructure de base et sont connectées au réseau électrique, ce qui réduit considérablement les coûts et facilite la mise en œuvre des centrales UGES », explique Julian Hunt, chercheur au sein du programme IIASA Energy, Climate, and Environment et auteur principal de l’étude.
Des millions de mines fermées dans le monde
Contrairement au stockage d’énergie grâce aux batteries chimiques, cette technologie de stockage d’énergie gravitationnelle utilise du sable, ce qui signifie que le taux d’autodécharge du système est nul, et permet des durées de stockage d’énergie importantes allant de quelques semaines à plusieurs années. De plus, l’utilisation de sable comme support de stockage atténue tout risque de contamination des ressources en eau souterraine.
Actuellement, il est difficile d’estimer avec précision la quantité de mines fermées ou abandonnées, mais leur nombre pourrait se compter par millions à travers le monde. Les auteurs estiment que cette technologie a un potentiel mondial compris entre 7 à 70 TWh, et que la majeure partie des mines se concentrent en Chine, en Inde, en Russie et aux États-Unis.
« Pour décarboner l’économie, nous devons repenser le système énergétique en nous basant sur des solutions innovantes utilisant les ressources existantes. Transformer les mines abandonnées en stockage d’énergie est un exemple des nombreuses solutions qui existent autour de nous, et nous n’avons qu’à changer la façon dont nous les déployons », conclut Behnam Zakeri, co-auteur de l’étude et chercheur au sein du programme IIASA Energy, Climate, and Environment.
Après avoir travaillé pendant un peu plus de deux ans au sein de l’un des leaders mondiaux de la technologie de jumeau numérique, Romain Kirchhoff s’est associé au diplômé de l’INSA Strasbourg Théo Benazzi pour fonder Uzufly. Plutôt que de simplement transposer en Suisse le modèle de son ex-employeur, Romain Kirchhoff – détenteur d’un master de l’EPFL en management, technologie et entrepreneuriat – s’est efforcé de comprendre les besoins de ses futurs clients (collectivités et autres promoteurs immobiliers). Avec son associé, il a ainsi conçu une offre axée sur un objectif principal : assurer une meilleure communication entre aménageurs et habitants. Uzufly propose pour cela une solution en trois volets : capture d’images aériennes et génération d’un environnement 3D, intégration des futures constructions et création d’un rendu photoréaliste généré grâce à des outils issus du monde du jeu vidéo. Romain Kirchhoff, CEO et cofondateur d’Uzufly, nous détaille la genèse et nous dévoile les intérêts de cette solution innovante.
Techniques de l’Ingénieur : Quelle est la genèse d’Uzufly ?
Romain Kirchhoff, CEO et cofondateur d’Uzufly. ®Uzufly.
Romain Kirchhoff : J’ai pour ma part commencé mon parcours par un bachelor en génie civil à l’EPFL, suivi par un master en management, technologies et entrepreneuriat. J’avais donc déjà un attrait particulier pour l’innovation. J’ai rejoint ensuite, pour mon projet de fin d’études, un fonds d’investissement axé sur la thématique des drones. Cette expérience m’a amené à la conclusion que hardware et software ne sont pas forcément les aspects les plus importants dans ce domaine, mais qu’il s’agit plutôt de la façon dont les données capturées depuis les airs sont converties en informations utiles pour les clients. J’ai ainsi rejoint une start-up spécialiste des drones basée à Londres, rencontrée par le biais de ce fonds. J’y ai travaillé pendant deux ans et demi. J’ai ensuite décidé de rentrer en Suisse pour tenter de pousser plus loin cette thématique. Un peu naïvement, je pensais au départ dupliquer le business model et proposer des relevés topographiques pour des projets d’infrastructures en Suisse… Quand j’ai présenté cela à une première commune, on m’a répondu que l’on ne comprenait pas le concept ! J’ai ainsi réalisé qu’il fallait avant tout être à l’écoute des besoins des clients avant de formuler des offres. C’est là que j’ai pris conscience du besoin le plus important des communes : celui de mieux communiquer avec les habitants au sujet de futurs projets d’aménagements. C’est alors qu’a débuté ma collaboration avec Théo Benazzi, qui vient de l’INSA Strasbourg, et qui est spécialiste des jumeaux numériques photoréalistes. Nous avons ainsi lancé Uzufly en octobre 2020 et commencé à travailler avec les communes puis, de plus en plus, les promoteurs immobiliers, avec un même objectif en trois étapes : modéliser l’existant depuis les airs, intégrer les futurs bâtiments, puis traiter tout cela grâce à un moteur de rendu de jeux vidéo, comme Unreal Engine. Ceci afin d’obtenir un rendu le plus réaliste possible, digne d’être présenté au grand public.
L’offre d’Uzufly s’articule autour de trois volets : génération d’un environnement 3D à partir d’images aériennes, intégration des futurs bâtiments et création d’un rendu photoréaliste. ® Uzufly
Comment votre offre de services s’articule-t-elle ?
Le point de départ est toujours le même : la création d’un jumeau numérique. Nous réalisons l’acquisition des données indifféremment par drone, avion ou hélicoptère – et nous combinons parfois ces modes de prise de vue – afin de créer un socle 3D constituant notre base de travail. Ensuite, nous avons trois offres distinctes. La première concerne la mise à disposition de données techniques pour des logiciels-métier, comme un plan topographique, ou des fichiers 3D. Deuxièmement, une fois que le projet a déjà abouti à un premier aperçu de la volumétrie, nous pouvons intégrer ces premiers designs architecturaux à l’environnement 3D que nous avons créé. Nous mettons alors à disposition de nos clients une plateforme web qui leur permet de consulter et d’utiliser ce jumeau numérique. Il bénéficie d’une résolution de 1,5 cm par pixel – soit près de cinq fois ce que propose Google Earth – et d’une précision absolue inférieure à cinq centimètres…
Enfin, nous pouvons générer des rendus photoréalistes figés, mais aussi les animer en vidéo, puisque nous travaillons dans un environnement entièrement 3D.
Les jumeaux numériques générés par Uzufly atteignent une résolution d’un centimètre et demi par pixel. ® Uzufly
Comment parvenez-vous à modéliser un environnement en 3D à partir de simples photos aériennes ?
Nous mettons en œuvre la technique de photogrammétrie. Quiconque dispose d’un drone et d’un logiciel tel que Pix4D peut faire de même. Nous apportons toutefois notre expertise sur des aspects tels que le choix du capteur, de l’optique, de l’architecture de vol, des points de contrôle, du géoréférencement… Toute la partie processing est aussi notre spécialité. C’est la grande force de mon associé Théo, qui a travaillé chez le leader mondial de la modélisation 3D à grande échelle.
Quel est, en moyenne, le temps nécessaire à la réalisation d’un projet ?
En règle générale, nous travaillons sur des zones d’une cinquantaine d’hectares. Cela implique environ une demi-journée d’acquisition. Les traitements prennent ensuite entre deux et cinq jours. Néanmoins, nous prévoyons généralement un délai d’un mois, afin de prendre en compte les éventuels imprévus logistiques, météo, administratifs, etc.
Qu’est-ce qui guide le choix du mode de prise de vue : drone, hélicoptère, avion… ?
L’idée de base de la société est d’être agnostique en matière de plateforme. Si, par exemple, nous avions une grande zone à cartographier, à l’échelle d’un pays, nous privilégierions l’avion. Si le projet concerne plutôt une commune entière, cela se fera plutôt par hélicoptère. Au-delà de 10 km², il est en effet plus rentable d’utiliser un hélicoptère que des drones. Le rendu visuel est aussi meilleur, car le temps d’acquisition est plus court. On a donc moins de variations de luminosité entre chaque image dues aux changements météo.
Combien de projets avez-vous pu mener à bien jusqu’à présent ?
Depuis un peu plus de deux ans, nous avons réalisé environ 70 projets, principalement à destination de promoteurs immobiliers et de communes. Nous avons toutefois aussi d’autres types de projets qui émergent, autour de l’inspection visuelle d’ouvrages d’art, ou encore l’inspection archéologique par exemple. L’un de nos objectifs principaux est de démocratiser l’utilisation des jumeaux numériques par les professionnels.
En quoi ce projet en lien avec l’archéologie va-t-il consister ?
Je ne peux pas encore en dévoiler tous les détails, mais ce projet est issu de l’une de nos collaborations avec des laboratoires de l’EPFL. Dans ce cadre, nous allons travailler avec l’un d’entre eux pour modéliser en 3D un temple égyptien. Cela va servir la recherche archéologique, mais pourrait aussi aboutir à des usages plus grand public, comme une application de terrain en réalité augmentée apportant des informations sur les hiéroglyphes…
Cela va nous demander beaucoup de temps, notamment sur le plan administratif, mais les opérations de terrain devraient débuter en novembre.
Avez-vous éventuellement d’autres perspectives de développement ?
L’un des meilleurs moyens, selon nous, de démocratiser l’utilisation des jumeaux numériques est de mettre à disposition une plateforme commune, accessible à la fois aux architectes, urbanistes et ingénieurs. C’est donc l’un de nos grands axes de développement.
À plus long terme, nous pressentons aussi un intérêt qui devrait aller croissant pour la réalité virtuelle. Même si nous restons, pour l’heure, concentrés sur le développement de nos solutions dédiées à l’urbanisme, nous restons ouverts aux opportunités qui pourraient se présenter sur ce créneau de la VR*.
Dans le sport de haut niveau, et en particulier ceux chronométrés, l’apport de la data prend une place de plus en plus importante pour aider les athlètes à repousser les limites de leurs performances. La natation n’y échappe pas, sauf que ce sport est confronté à une difficulté majeure. Autant sur terre, il est possible de récupérer des données physiologiques, techniques et biomécaniques des sportifs relativement facilement, dans une piscine, beaucoup moins. La raison principale : l’eau constitue un obstacle à la transmission des informations. Pour surmonter cette difficulté, le TechnoSport d’Aix-Marseille Université développe trois nouvelles technologies de mesure de la performance des nageurs. Ce travail est réalisé en partenariat avec la Fédération Française de Natation (FFN), avec en ligne de mire les JO 2024.
Le premier outil est une plateforme immergée dont la fonction est la mesure de la force de propulsion que doivent exercer les nageurs lorsqu’ils prennent appui avec leurs pieds contre le mur du bassin pour effectuer leur virage, afin de repartir dans l’autre sens. Un passage délicat où des centièmes de seconde peuvent se gagner ou se perdre. Un instrument existe déjà, sauf qu’il coûte environ 250 000 euros et ne s’adapte pas à toutes les piscines.
« Nous avons détourné des capteurs utilisés dans l’industrie agroalimentaire et nous les avons fixés sur une plaque en carbone, afin de fabriquer un nouvel outil plus léger, qui soit facilement transportable, confie Arnaud Hays, Ingénieur de recherche à Aix-Marseille Université. Nous avons aussi conçu un système pour qu’il se fixe sur le rebord des bassins sans faire de trou. Quant à la problématique liée à la sécurité, elle a été résolue à l’aide d’une alimentation électrique basse tension. Pour l’exploitation des données, il existe très peu d’études dans la littérature scientifique, et nous avons été confrontés au fait que les athlètes de haut niveau sont peu nombreux pour réaliser du traitement statistique. Malgré tout, nous sommes parvenus à les exploiter. »
Calculer la vitesse des nageurs, après le virage
Après plusieurs essais concluants, un premier prototype va être mis à la disposition du Cercle des Nageurs de Marseille (CNM), un club local emblématique et référence de la natation française. Et grâce à l’aide de la FFN, il va être dupliqué en trois ou quatre exemplaires afin que les équipes de France s’entraînent dans les autres grands centres d’entraînement. Mais ce nouvel instrument ne sera pas suffisant pour évaluer la performance des nageurs lors de leur virage, car encore faut-il être en mesure de calculer leur vitesse sur les premiers mètres après ce passage. Le chronomètre à la main n’est pas assez précis, tandis que l’utilisation d’une caméra aquatique n’est pas un outil adapté pour être utilisé en direct lors de l’entraînement des athlètes.
Une porte chronométrée a donc été développée en collaboration avec le laboratoire LP3 (Lasers, Plasmas et Procédés Photoniques). L’outil, disposé dans le fond du bassin, est capable de produire un faisceau laser et de mesurer le temps de passage des nageurs une fois la ligne laser franchie. « La lumière dans l’eau se propage beaucoup moins bien que dans l’air et nous avons dû trouver la bonne longueur d’onde pour que l’appareil fonctionne, déclare Arnaud Hays. Nous avons également dû régler les problèmes liés à la sécurité, et pour l’instant les nageurs doivent porter des lunettes polarisées pour protéger leurs yeux du laser. Mais dans la version définitive, il n’y aura plus besoin de cette protection et nous pensons atteindre une précision au millième de seconde. »
Mesurer la fréquence cardiaque, en direct, dans l’eau
Après avoir fait la preuve de concept de ce dispositif, un prototype doit être testé fin janvier. Alors que la plateforme immergée de mesure de la force sera uniquement destinée au sport de haut niveau, la porte chronométrée devrait pouvoir servir à un public plus large, selon Arnaud Hays : « elle ne coûte pas cher à fabriquer, et il y a peut-être un vrai marché pour les enfants notamment, lors d’exercices ludiques dans des piscines, pour par exemple mesurer leur temps de passage à 10 mètres. »
La troisième et dernière technologie développée, est un cardiofréquencemètre. Là encore, ce type d’équipement existe déjà, sauf que les nageurs doivent sortir de l’eau pour exploiter les données. « Pour faire des entraînements de qualité, il est indispensable de pouvoir faire une lecture en direct de la fréquence cardiaque des nageurs », assure l’expert d’Aix-Marseille Université. Pour y parvenir, les scientifiques ont instrumenté une ligne d’eau, qui sert habituellement à délimiter les couloirs de chaque nageur, en y installant des capteurs. Leur rôle est de récupérer les données provenant d’une ceinture cardiaque classique placée sur les nageurs. Ces capteurs transmettent ensuite leurs données dans l’air à l’aide du Wi-fi à un appareil de lecture. Ce mois-ci, un nouveau prototype va être testé et si les résultats sont concluants, la fabrication en série d’une ligne d’eau instrumentée va être lancée. « Cet équipement permet aussi de géolocaliser la personne dans la piscine et donc de calculer sa vitesse moyenne, et des temps de passage, ajoute Arnaud Hays. Certes, la mesure est un peu moins précise que le laser, de l’ordre de la dixième de seconde, mais pour des entraînements quotidiens, c’est assez pratique. » Au-delà de son utilisation pour les athlètes de haut niveau, cet outil devrait aussi avoir un intérêt médical, dans le cadre d’exercices de rééducation fonctionnelle avec des patients, afin de suivre leur fréquence cardiaque en direct.
Ces trois dispositifs devraient être opérationnels en mars ou avril 2023. Les entraîneurs pourront s’en servir pendant un peu plus d’un an pour améliorer les performances des nageurs de l’équipe de France avant les JO 2024.
Dans un contexte de crise énergétique et d’inflation, les Français se tournent vers des solutions qui permettent de réduire leurs dépenses de carburant. Parmi ces solutions, le superéthanol-E85 connaît une croissance particulièrement soutenue. La Collective du bioéthanol, organisation professionnelle qui promet l’utilisation de l’alcool agricole, a partagé le 24 janvier ses chiffres pour l’année 2022 lors d’une conférence de presse à Paris. Elle se félicite d’une année où tous les indicateurs sont « au plus haut ».
En effet, alors que l’E85 ne constituait encore que 1,7 % du marché des essences en 2018 et 4 % en 2021, il se hisse en 2022 à 6,5 % de parts de marché. Il se situe derrière le SP95-E10 (57,9 %), le SP98 (19,4 %) et le SP95 (15,3 %). La croissance de la consommation sur un an atteint +83 %. Le carburant est désormais proposé dans plus d’une station-service sur trois, en hausse de 20 % sur un an. Près de 90 % des stations TotalEnergies et 80 % des stations Intermarché le proposent.
Convertir son véhicule ou acheter un véhicule neuf flex-fuel
Pour utiliser ce carburant, il faut convertir son véhicule en installant un boîtier homologué dit « flex fuel » dans un garage agréé. Près de 85 000 boîtiers de conversion homologués ont été installés en 2022, soit trois fois plus qu’en 2021. Le parc automobile français comprend désormais près de 220 000 véhicules essence équipés de boîtiers de conversion. Quatre fabricants proposent ces boîtiers : Biomotors, FlexFuel, Borel et eFlexFuel.
Il est également possible d’acheter directement un véhicule flex-E85 d’origine. Ford France et Jaguar Land Rover ont vendu près de 35 000 véhicules flex-E85 d’origine en 2022, dont près des deux tiers d’hybrides. C’est six fois plus qu’en 2021. Le parc automobile français comprend désormais près de 81 000 véhicules flex-E85 d’origine.
L’inflation touche aussi l’E85. Au 20 janvier 2023, le prix au litre observé à la pompe est de 1,11 € en moyenne, contre 0,74 € début 2022. Malgré cette augmentation, le litre reste à 76 centimes de moins que le litre de SP95-E10, vendu 1,87 € en moyenne. « Les automobilistes peuvent toujours réaliser des économies annuelles de l’ordre de 440 € pour 13 000 km/an et de 675 € pour 20 000 km/an » hors investissement dans le boîtier, calcule la Collective du bioéthanol. Le coût d’un boîtier s’élève en moyenne à 1 000 euros, mais certaines régions, départements ou communes proposent des subventions, jusqu’à 50 %.
Une filière qui va devoir faire sans néonicotinoïdes
Malgré ces bons chiffres, la filière va rapidement se retrouver face à un défi de taille. Une bonne partie de ce bioéthanol est obtenu par transformation de la betterave sucrière cultivée en France. Alors que les prochains semis doivent être plantés en mars prochain, le ministre de l’Agriculture a annoncé qu’il n’y aura donc pas de « troisième année de dérogation sur l’enrobage des semences de betteraves » par les insecticides néonicotinoïdes.
Le ministre réagit ainsi à la décision de la Cour de justice de l’Union européenne rendue le 19 janvier dernier. Elle juge illégale la mesure dérogatoire autorisant l’usage de ces pesticides qualifiés de « tueurs d’abeilles » par les associations écologistes. « En l’absence de solutions efficaces, les surfaces (de betteraves) risquent de baisser sensiblement », affirme la Confédération générale des planteurs de betteraves (CGB) dans un communiqué. Cette décision va renforcer « le risque d’importations massives de sucre ou d’éthanol (du Brésil notamment) », précise-t-elle.
Inventée pour l’enregistrement audio en 1928, la bande magnétique a ensuite été utilisée par les entreprises pour sauvegarder leurs données. L’apparition d’autres supports plus performants en termes de vitesse, comme le SSD, a mis un frein à son déploiement.
Mais la forte croissance du volume de données oblige les entreprises et les hébergeurs de données à revoir leurs copies. Résultat, la bande magnétique redevient à la mode pour le stockage de masse. Et ce retour en grâce est dû notamment à la commercialisation par IBM, depuis la fin 2022, de cassettes de 18 téraoctets (soit environ 18 fois plus qu’un disque dur classique).
Le géant de l’informatique propose une armoire électronique. Baptisée Diamondback Tape Library, elle intègre plusieurs de ces cassettes pour atteindre 27 pétaoctets de stockage (1 péta : 1 000 téra). Selon IBM, le déploiement opérationnel de plus de 27 Po de données ne prend que 30 minutes. Et avec 1 548 cartouches LTO Ultrium Gen 9, cette armoire de deux mètres carrés a une capacité maximale de 69,5 pétaoctets si les données sont compressées.
Plus sécurisé et moins cher
Cette armoire et ces cartouches de neuvième génération permettent ainsi de répondre aux besoins en stockage de masse de données issues de capteurs (Internet des objets ou IoT) ou nécessaires pour des analyses, l’intelligence artificielle (IA), le streaming vidéo et bien sur l’archivage numérique.
Selon IBM, Diamondback présente trois avantages principaux. Premièrement, la réduction des besoins en énergie et en refroidissement se traduit par une empreinte carbone inférieure de 97 % à celle du stockage sur disque rotatif.
Autre atout intéressant : la sécurité des données contre les cyberattaques. L’armoire n’est pas connectée et elle est isolée par air comprimé. Enfin, le coût serait beaucoup plus réduit que celui des disques traditionnels et des services d’archivage dans le cloud public.
Dans le communiqué de presse du 10 janvier 2023, António Campinos, président de l’OEB, affirme ainsi que « si l’hydrogène doit jouer un rôle majeur dans la réduction des émissions de CO2, il est urgent d’innover dans un large éventail de technologies. »
Cette 3e étude conjointe AIE/OEB, fait ainsi « apparaître des modèles de transition encourageants entre les pays et les secteurs industriels, notamment la contribution majeure de l’Europe à l’émergence de nouvelles technologies de l’hydrogène. Elle met également en évidence la contribution des startups à l’innovation dans le domaine de l’hydrogène, et leur recours aux brevets pour commercialiser leurs inventions. »
L’Europe et le Japon en tête de la course aux technologies propres
Sur la période 2011-2020, les dépôts de demande de brevets internationaux en lien avec l’hydrogène sont dominés par l’Union européenne (28 %) et le Japon (24 %), les États-Unis ayant perdu du terrain (20 % des dépôts).
Au sein de l’UE, le leader incontesté est l’Allemagne, comptant à lui seul pour 11 % du total mondial, suivi de la France (6 %) et des Pays-Bas (3 %).
Chose surprenante, la Chine n’est qu’en cinquième position, bien que l’activité internationale de brevetage sur ce secteur soit en progression.
Automobile, industrie chimique et recherche sont les principaux domaines concernés
Selon le rapport de l’OEB, l’industrie chimique européenne (Linde, Air Liquide, BASF…) domine l’innovation dans les technologies établies de l’hydrogène. En outre, son expertise du domaine lui donne également une longueur d’avance dans les technologies « propres » comme l’électrolyse ou les piles à combustible[1].
Les entreprises du secteur automobile (notamment Toyota, Honda et Hyundai) sont également très actives, aussi bien sur les applications finales dans les véhicules que sur le stockage, la distribution et la transformation de l’hydrogène.
Hormis ces deux secteurs, les universités et les instituts de recherche publics ont par ailleurs généré 13 % de l’ensemble des brevets internationaux liés à l’hydrogène entre 2011 et 2020, pour des brevets concernant des méthodes de production propres comme l’électrolyse. L’étude révèle également un fait intéressant : la France arrive en tête de ce classement, grâce notamment au CEA, à l’IFPEN et au CNRS !
L’innovation du secteur hydrogène attire les investissements
Voici un fait qui peut inciter les jeunes entrepreneurs à innover sur le secteur de l’hydrogène. Selon le communiqué de presse, détenir un brevet serait une garantie d’attirer des financements puisque « plus de 80 % des investissements de dernière phase dans ces jeunes entreprises du secteur de l’hydrogène pour la période 2011-2020 sont allés à des sociétés qui avaient déjà déposé une demande de brevet dans des domaines tels que l’électrolyse, les piles à combustible ou les méthodes à faibles émissions pour produire de l’hydrogène à partir de gaz. »
La trajectoire est la bonne !
L’hydrogène est un élément clé de la stratégie européenne visant à atteindre la neutralité carbone en 2050. Si aujourd’hui la quasi-totalité de l’hydrogène produit dans le monde est issue de ressources fossiles, il est donc urgent d’accélérer la transition vers des modes de production d’hydrogène décarboné.
Dans le rapport, le Dr Fatih Birol, Directeur Exécutif de l’Agence Internationale de l’Énergie, semble confiant : « Les conclusions de ce rapport nous confortent dans l’idée que les innovateurs répondent à la fois aux besoins en termes d’hydrogène à faible taux d’émissions et aux opportunités économiques que cela représente. »
Néanmoins, il précise également que le rapport identifie « des domaines – en particulier des applications finales – où des efforts supplémentaires sont nécessaires. »
Si beaucoup de travail reste donc à accomplir, l’Europe et le Japon semblent néanmoins prendre le bon chemin, ce qui est plutôt encourageant.
[1] Voir la figure E2 en page 12 du rapport complet.
Dans un contexte réglementaire favorable, les pompes à chaleur (PAC) se développent fortement sur le territoire pour chauffer les logements. Mais négaWatt et le CLER-Réseau pour la transition énergétique craignent une dissémination de solutions inadaptées. Ce 31 janvier, les deux organisations ont dévoilé lors d’un webinaire une note technique « Rôle de la pompe à chaleur dans la stratégie de rénovation » réalisée fin 2022.
Selon cette note, substituer des chaudières à gaz ou au fioul par des PAC dans des passoires thermiques n’a d’intérêt que si le geste est accompagné de la réalisation d’une rénovation performante. Sur cette base, les associations recommandent au gouvernement de mieux encadrer l’installation des PAC avec complément de chauffage, et d’orienter les aides prioritairement vers la rénovation performante.
Un second système de chauffage indispensable
Une pompe à chaleur classique rencontre des limites. « Les pompes à chaleur les plus courantes ne peuvent pas délivrer de fluides à plus de 55°C, explique Olivier Sidler porte-parole de négaWatt. C’est à la fois beaucoup dans les constructions neuves et assez peu dans les logements anciens, construits avant les années 1975. » Les logements anciens sont en effet équipés de radiateurs nécessitant par grands froids des températures situées entre 80°C et 90°C.
Lorsque les températures extérieures passent sous la barre des 5°C ou 9°C selon les régions, la PAC ne permettra plus de chauffer suffisamment les logements mal isolés (classés F ou G). Dans ces derniers et par grand froid, la température intérieure ne dépassera pas les 14°C, précise l’étude.
La substitution d’une chaudière par une PAC dans une passoire thermique nécessite donc un second système de chauffage. Il peut s’agir de convecteurs électriques, d’une chaudière en relève ou encore d’une PAC hybride (qui comprend une chaudière sous le même capot). Cela peut aussi être une pompe à chaleur haute température qui permet d’atteindre en sortie de condenseur 70, voire 80°C. Ces compléments entraînent une surconsommation électrique, amplifient la pointe électrique, nécessitent du gaz pour fonctionner, prennent beaucoup de place et entraînent un surcoût non négligeable, estime l’étude.
L’indispensable rénovation en complément des PAC
NégaWatt a modélisé l’effet qu’aurait la substitution des chaudières au gaz ou au fioul dans la moitié des logements classés F ou G en France, soit 1,4 million de logements. Ce parc est tout à fait prioritaire et en adéquation avec les objectifs de la Programmation pluriannuelle de l’énergie, feuille de route de la France. « Cela correspond d’ici 2028 à 280 000 rénovations par an, ce qui est à peine la moitié des objectifs de la PPE », précise Olivier Sidler.
Cet échantillon émet aujourd’hui 7 millions de tonnes de CO2 par an. Une fois la substitution réalisée, les émissions s’élèveraient toujours à 4,5 millions de tonnes en cas de relève par une chaudière, à plus de 3 millions de tonnes avec une PAC hybride. Et pour cause : elles utilisent toujours des énergies fossiles dans les jours les plus froids. Les solutions par convecteurs électriques ou PAC haute température réduisent les émissions à un peu plus de 1 million de tonnes. En revanche, dès lors que la PAC s’accompagne d’une rénovation complète, les émissions chutent à moins de 0,1 million de tonnes.
« L’utilisation de pompes à chaleur associées à une rénovation globale et performante divise par 100 les émissions de GES des chaudières au gaz et au fioul qui existent dans les logements de classes F et G », assure Olivier Sidler.
La différence est encore plus impressionnante en termes d’énergie primaire. Alors que le parc pris en compte consomme actuellement 26,3 térawattheures (TWh) d’énergie primaire, la consommation s’établirait toujours à plus de 20 TWh dans les solutions sans rénovation. L’association d’une PAC à une rénovation globale et performante permettrait cependant d’abaisser la consommation à 1 TWh pour ce parc de logements.
Dernier avantage : associées à une rénovation globale, les pompes à chaleur appellent une pointe électrique de 0,5 gigawatt (GW). Celle-ci s’élève à près de 5 GW dans le cas d’une association avec des convecteurs électriques.
Si la technologie de prétraitement des surfaces développée par Plasmatreat est proposée depuis de nombreuses années aux industriels de la plasturgie, le leader mondial du domaine cherche désormais à multiplier les applications en lien avec l’économie circulaire.
L’activation de surface par plasma atmosphérique : comment ça marche ?
Faire adhérer un revêtement, une colle, un enduit ou une peinture sur un matériau dont la tension superficielle est faible est, par nature, très difficile. C’est malheureusement le cas des matières plastiques, qui sont en majorité des matériaux non polaires et par conséquent relativement hydrophobes.
Pour pouvoir être collé ou recevoir un revêtement, un plastique doit donc subir une étape de préparation de surface permettant de favoriser l’adhérence. Pour ce faire, plusieurs techniques existent : l’utilisation de primaires d’accroche, le traitement à la flamme, ou encore l’activation par plasma.
Le traitement par plasma permet ainsi aux industriels d’éviter l’utilisation de primaires d’accroche, des produits constitués de substances toxiques et de COV dont l’impact environnemental est bien connu. Lorsqu’il est réalisé en conditions atmosphériques, le traitement plasma permet la formation de groupements contenant de l’oxygène et de l’azote en surface des plastiques, ce qui augmente leur énergie de surface.
Cela améliore à la fois la force adhésive des colles et revêtements, mais aussi l’imprimabilité du matériau. Néanmoins, pour les matériaux les plus récalcitrants, il arrive parfois que l’effet du plasma soit insuffisant. D’autres solutions complémentaires peuvent alors être utilisées, en particulier celles permettant la formation de nanostructures en surface.
Traitement plasma des plastiques : des possibilités accrues
Lors du salon K 2022, qui a eu lieu du 19 au 26 octobre 2022 à Düsseldorf (Allemagne), Plasmatreat a présenté de nouvelles possibilités relatives à l’application du plasma et de ses procédés développés en interne pour le traitement industriel des matières plastiques.
Selon le communiqué de presse publié par Plasmatreat, les atouts de ce procédé sont nombreux pour les industriels spécialisés dans la transformation des plastiques :
assemblage de matériaux initialement incompatibles, comme le PMMA et le PP ;
remplacement de certains plastiques techniques comme l’ABS, par du PP, moins cher ;
procédé reproductible, intégrable dans les lignes de production et plus efficace que les techniques chimiques ;
intérêt environnemental certain, en limitant l’utilisation de COV et permettant de traiter des matériaux contenant des matières plastiques recyclées (MPR).
Le traitement plasma des matériaux intégrant des MPR
Au cours de ce salon, Plasmatreat a par ailleurs présenté une nouvelle application, développée en coopération avec un fabricant de systèmes de moulage par injection.
Celle-ci consiste à utiliser le prétraitement Openair-Plasma® de Plasmatreat afin de permettre une impression numérique UV cohérente et de haute qualité sur des gobelets en PP recyclé moulés par injection et à l’aspect froissé.
Après injection, le gobelet recyclé est soumis à un traitement d’activation plasma, puis imprimé directement en impression numérique UV. Bien que les encres utilisées soient sans solvant et ne contiennent aucun agent promoteur d’adhérence, le résultat obtenu est parfaitement satisfaisant puisque l’image obtenue est de haute qualité, brillante, nette, tout en étant résistante à l’abrasion et à l’humidité.
Outre l’aspect esthétique, ce type de marquage sur des gobelets recyclés présente surtout un intérêt technique. En effet, l’idée est d’imprimer sur chaque gobelet un code de type Data Matrix contenant les informations sur le matériau utilisé, la mise en œuvre d’une traçabilité de ces nouveaux matériaux étant essentielle pour faciliter leur tri et leur recyclage.
Les Nations Unies, via la page consacrée à l’édition 2023 de la Journée internationale des femmes et des filles de science, nous rappellent que « les bourses de recherche allouées aux femmes sont moins importantes que celles allouées à leurs collègues masculins et que, bien qu’elles représentent 33,3% de la population de chercheurs, les femmes n’occupent que 12% des sièges dans les académies nationales des sciences. » Ainsi, cette journée internationale de sensibilisation encourage à aller vers davantage de parité.
Quel rôle pour les filles et femmes de science dans les objectifs de développement durable ?
Outre le fait d’encourager les filles et les femmes vers les métiers scientifiques et techniques, cette édition 2023 est l’occasion de présenter les solutions appliquées pour relever les défis et opportunités des ODD. Cette journée se focalise le rôle des femmes et filles aux profits des Objectifs de développement durable (ODD) de l’Agenda 2030. Les suivants seront examinés lors du prochain Forum politique de haut niveau : l’Objectif 6 (eau et assainissement), l’Objectif 7 (énergie abordable et propre), l’Objectif 9 (industrie, innovation et infrastructure), l’Objectif 11 (villes et communautés durables) et l’Objectif17 (partenariats).
Les Journée femmes IngénieurEs
Parmi les nombreux événements organisés autour de cette 8e Journée, citons la manifestation organisée par la Cité des sciences et de l’industrie, à Paris. La Journées femmes Ingénieures s’inscrit dans le cadre du dispositif « Un ingénieur, un projet ». Elle a lieu les 11 et 12 février, et invite le public à aller à la rencontre de femmes ingénieur.es. Elles seront présentes pour présenter les projets sur lesquels elles travaillent, sur des thèmes comme les secrets de fabrication de l’acier, les télécommunications, l’interface homme/machine, ou les biotechnologies. Là encore, il s’agit de donner de la visibilité aux femmes dans ces métiers, où elles sont encore trop peu nombreuses.
La fin des dérogations pour les néonicotinoïdes annoncée par le ministre de l’Agriculture Marc Fesneau, suite à une décision de la Cour de justice de l’Union européenne en janvier, a ravi les ONG. Désormais, elles sont bien décidées à s’attaquer au manque d’évaluation de la toxicité à long terme des pesticides. 30 organisations écologistes et 28 députés de la Nupes déposent en ce sens un recours devant le Conseil d’État. Parmi elles, citons Notre Affaire à Tous, Générations Futures, Terre d’abeilles et l’Union Nationale de l’apiculture Française.
« On saisit le Conseil d’État pour demander à ce que la réglementation soit modifiée et qu’on impose la prise en compte des effets toxiques [des pesticides] à long terme », indique Guillaume Tumerelle, avocat de la campagne Secrets Toxiques qui participe au recours. Philippe Piard, co-président de Secrets Toxiques et président du groupe Nature & Progrès Aveyron, explique « porter ce recours pour demander une réelle application de la réglementation et donc une étude correcte, complète, suffisante, scientifique, des formulations complètes » afin de vérifier la toxicité à long terme des pesticides.
Une réglementation qui oublie la toxicité à long terme
Les ONG se basent sur un arrêt de la Cour de justice de l’Union européenne d’octobre 2019 qui affirme que les « tests sommaires » réclamés par les autorités sanitaires « ne sauraient suffire à mener à bien cette vérification ». « Cet arrêt interprète le règlement européen ‘pesticides’ [n°1107/2009] et indique que les États membres doivent imposer la prise en compte de la composition complète de ses produits tels qu’ils sont épandus dans l’environnement et auxquels nous sommes exposés », précise Guillaume Thumerel.
Selon la réglementation européenne, l’évaluation de la toxicité à long terme des matières actives des pesticides se trouve entre les mains de l’autorité européenne de sécurité des aliments (Efsa). Les agences nationales, dont l’agence nationale de sécurité sanitaire (Anses) en France, ont en charge l’évaluation des formulations commerciales. Celles-ci comprennent à la fois la matière active et ses additifs. Mais « il n’y a aucune évaluation qui est menée sur le produit complet à long terme », martèle Guillaume Tumerelle.
« Que ce soit au niveau européen ou français, à aucun moment il n’y a de données expérimentales qui portent sur la toxicité à long terme de la formulation », abonde Andy Battentier. Il alerte : « Les agences de sécurité sanitaire se basent sur une extrapolation de la toxicité : elles estiment pouvoir déduire la toxicité du mélange de molécules présentes dans la formule à partir de la toxicité connue de chacun des composés qui sont présents dans la formule. » Cela revient à ignorer l’effet cocktail des perturbateurs endocriniens.