EMSPROTO : des cartes électroniques assemblées en quelques clics

En compétition pour le prix SKF « Procédés du futur », EMSPROTO allie le chiffrage en ligne et la fabrication rapide de cartes électroniques.

Ingénieurs en électronique, les deux cofondateurs d’EMSPROTO ont remarqué qu’il était encore difficile pour les bureaux d’études de faire assembler leurs cartes électroniques en petite quantité avec une qualité industrielle. Ils ont alors décidé d’associer digital et chaîne de production connectée pour offrir aux ingénieurs une solution alliant le chiffrage et la fabrication de leurs prototypes.

« EMSPROTO s’appuie sur deux grandes innovations : la première, un site web qui permet en quelques clics et en quelques minutes de calculer le coût de revient de n’importe quelle carte électronique. La seconde innovation, c’est notre usine connectée entièrement automatisée qui permet d’assembler n’importe quelle carte électronique avec des délais de réalisation de 1 à 12 jours », explique Pierre Yves Sempere, cofondateur et président de EMSPROTO.

Créée en 2015, la startup travaille aujourd’hui avec plus de 300 clients dont Thalès, Airbus et Alstom. Une nouvelle ligne de production est prévue pour la fin 2019 afin de répondre à la demande croissante.

SolCold exploite les radiations du soleil pour rafraîchir les immeubles

En compétition pour le prix SKF « Matériaux du futur », SolCold développe un matériau nano-technologique pour rafraîchir les immeubles en utilisant la lumière du soleil.

Et si, au lieu de réchauffer, les radiations solaires pouvaient être utilisées pour rafraîchir ? La startup israélienne SolCold est partie de cette idée et a trouvé un moyen de transformer la lumière du soleil en climatisation. Les fondateurs ont développé un matériau nano-technologique qui utilise la fluorescence anti-Stockes, les photons et les phonons.

Ainsi, plus le soleil est fort, plus les espaces seront rafraîchis. Ce matériau pourrait être utilisé comme revêtement pour les voitures, les immeubles ou les avions. La solution a l’avantage de n’utiliser aucune autre source d’énergie que le soleil.

« Nous attendons de cette technologie qu’elle permette de faire d’importantes économies dans les dépenses de climatisation et d’air-conditionné, et qu’elle baisse significativement les émissions de gaz à effet de serre », explique les fondateurs.

Le matériau est encore en phase de R&D. La startup travaille actuellement sur un prototype qui sera disponible fin 2019 pour une commercialisation prévue en 2020.

NanoPrint : des nano-impressions précises pour fabriquer des matériaux flexibles et transparents

En compétition pour le prix SKF « Matériaux du futur », NanoPrint développe une technologie pour imprimer des membranes et des cellules solaires transparentes et flexibles.

Les trois fondateurs de NanoPrint ont remarqué un problème : les imprimantes 3D ne permettent pas une impression de haute précision car elles ne reconnaissent pas les erreurs, ont des irrégularités de température ou débordent. De plus, les nano-impressions sont particulièrement coûteuses.

Ils ont alors développé une technologie de Smart Manufacturing : une imprimante capable de déposer des couches grâce à des nano-gouttelettes chargées. La précision est améliorée et l’impression de couches ultra-fines est possible. L’imprimante est aussi capable de corriger les erreurs.

Cette technologie permet de créer des matériaux flexibles et transparents. Elle peut être utilisée pour fabriquer des cellules solaires, des batteries, des membranes bio-inspirées, des textiles qui intègrent de l’électronique. L’imprimante peut aussi être utilisée pour les métaux et les matériaux organiques, ce qui permet de créer des circuits électroniques sur n’importe quelle surface et de fournir une bonne adhésion.

La solution est en phase de R&D et commence à être développée, notamment chez Huawei.

Carbon Waters, la startup qui développe des dispersions aqueuses de graphène

En compétition pour le prix SKF « Matériaux du futur », Carbon Waters produit du graphène en dispersion aqueuse pour la protection anti-corrosion des surfaces dans des domaines tels que l’aéronautique ou l’électronique.

Créée en 2018, Carbon Waters est une startup de 8 personnes qui développe des dispersions aqueuses de graphène polyfonctionnelles, biodégradables et biocompatibles. Les créateurs de la jeune entreprise sont partis d’un constat : de par sa toxicité, le chrome va bientôt devoir être remplacé dans les traitements anti-corrosion par des solutions plus performantes et respectueuses des nouvelles réglementations européennes.

La startup propose donc d’utiliser le graphène. La forme aqueuse de leur solution permet d’éviter les désagréments du graphène en poudre -problèmes sanitaires et de faibles performances- tout en ayant des dispersions stables, avec un haut niveau de performance du fait de la qualité du matériau produit (1 à 8 feuillets, moins de 0,05% de défauts).

Leurs dispersions aqueuses sont utilisées en tant que traitement de surface ou en tant qu’additif dans des formulations de revêtements anti-corrosion. Le dépôt d’un film homogène, continu et quasi-transparent de graphène protège alors les surfaces de l’eau, des gaz et des acides. Il est adaptable à de nombreux substrats tels que les métaux, les substrats fins ou poreux.

Green Tropism : des spectromètres pour analyser la composition et la qualité de la matière

En compétition pour le prix Atos « Datascience », Green Tropism est une jeune société française spécialisée dans l’édition de logiciels embarqués dans l’univers de la spectroscopie grand public et industrielle.

Green Tropism s’appuie sur des techniques mises en œuvre dans les années 60 : la spectroscopie et le machine learning. Les solutions de logiciels embarqués conçus par GreenTropism marquent une rupture fondamentale dans les technologies de photonique en assurant un niveau de précision incomparable aux analyses de données spectrales et à leurs traitements. En effet, GreenTropism produit des algorithmes (IA, Machine Learning, Deep Learning) pouvant utiliser toutes les données spectrales de spectromètres et imageurs, quelle que soit leur marque, leur gamme spectrale.

La partie Machine learning est assurée par des data scientists qui travaillent avec les géologues et les biochimistes de l’équipe R&D de GreenTropism. Leur maîtrise des rayonnements infrarouge, visibles, UV et laser (LIBS, Raman) leur permet de proposer une plateforme de logiciels et de modèles agnostiques. Ils sont donc adaptables à divers rayonnements et indépendants du spectromètre utilisé.

« Un déploiement sur une usine va contribuer à un déploiement plus rapide sur d’autres usines. Une erreur détectée dans une usine sera reconnue dans une autre avant que cela ne se reproduise », met en avant Anthony Boulanger, CEO de GreenTropism

Les spectromètres ne sont plus dédiés à une ou plusieurs tâches et peuvent être mis à jour à distance. De plus, la technologie GreenTropism s’adapte également à des usages grand public via l’internet des objets, l’électronique et l’électroménager.

Mechanica AI : machine learning et IA au service de l’efficacité de production

En compétition pour le prix Atos « Data science », Mechanica AI propose une solution pour exploiter les données industrielles et améliorer l’efficacité de production.

Certaines décisions industrielles s’appuient sur des règles ou expertises individuelles. Les formules existantes ne permettent pas un contrôle pro-actif et ne peuvent pas rendre compte des écarts. La start-up Mechanica AI aborde ces problèmes d’efficacité avec de nouveaux outils.

L’entreprise fournit des logiciels basés sur l’IA qui sont intégrés aux processus de production existants dans les grandes entreprises afin d’accroître la qualité de la prise de décision opérationnelle. Ces modules utilisent les données accumulées pour fournir des mesures ou des recommandations très précises en temps réel. Cela améliore directement le rendement et diminue l’utilisation de la matière première ou le taux de défauts.

La technologie Mechanical AI combine des méthodes d’apprentissage automatique et des modèles de processus basés sur la physique. Les modèles sont suffisamment robustes pour fonctionner dans un environnement de production réel et apportent une précision accrue grâce à l’utilisation de techniques d’analyse de données avancées.

« Nous pensons qu’il y a un fort potentiel de partenariat avec Atos en raison de leur savoir-faire et leur expertise dans la transformation numérique », souligne Elena Samuylova de Mechanica AI.

Pour les utilisateurs, l’amélioration de l’efficacité industrielle nécessite un investissement important ainsi que des changements de dispositifs, comme l’achat de nouveaux capteurs.

Awen Collective : des logiciels pour réduire les cybermenaces dans les entreprises

En compétition pour le prix Atos « Cybersécurité », Awen Collective propose une suite logicielle qui permet de réduire les coûts des cybermenaces qui impactent les usines et les entreprises.

Le projet Awen Collective est né de la nécessité de garantir un niveau nécessaire de sécurité pour améliorer la structure des réseaux et atténuer les risques. Leur série de logiciels effectue une inspection approfondie sur des protocoles spécifiques afin de collecter autant de données que possibles (fabricant, modèle, réseau).

Le logiciel Dot est un outil de découverte d’intrus spécialement conçu pour être utilisé sur les systèmes OT (ICS, SCADA et IIOT) et prenant en charge les réseaux Ethernet et autres réseaux. Pour améliorer la profondeur et la qualité des données collectées par Dot, la solution utilise des technologies optionnelles d’analyse ciblée, adaptées aux protocoles et aux périphériques présents sur les réseaux. Dot est donc en mesure d’identifier les risques des systèmes, y compris les logiciels ou micrologiciels vulnérables, les problèmes de configuration réseau et périphériques ou les trafics imprévus.

« Atos s’adresse aux secteurs de l’aérospatiale, de l’automobile, de la défense, de la manufacture, de l’énergie, de la santé, des transports et des services publics, qui fonctionnent tous dans des environnements ICS et qui bénéficieraient grandement de la valeur apportée par la solution Dot », souligne l’un des cofondateurs de Awen Collective.

Panga : des réseaux locaux pour transformer les bâtiments et villes en plateforme de service

En compétition pour le prix Atos « Data science »,  la start-up Panga développe des solutions pour les Smart Buildings et Smart Cities à destination des gestionnaires et usagers des bâtiments.

Les bâtiments et les usines sont des structures complexes avec des outils et protocoles multiples qui cohabitent sans aucune interaction. Par exemple, il n’existe pas de lien entre le chauffage et le système de sécurité incendie. L’idée de Panga repose sur la création d’un intranet, ce qui existe déjà pour les réseaux d’entreprises, mais à l’échelle d’un bâtiment, d’un quartier ou d’un campus.

La solution consiste à construire une infrastructure de communication, puis à positionner des Gateway IoT multi-protocoles et multi-interfaces disposant de systèmes de sécurité embarqués, ainsi que des mécanismes de virtualisation pour pouvoir installer des applications pour les usagers. Panga a également conçu le terminal NEHO qui permet d’accéder en temps réel à toutes les fonctions et qui simplifie l’accès pour les usagers.

« Nous pensons que l’optimisation des chaines de production passera forcément par des structures fédératrices où tout sera connecté ensemble. La meilleure approche est basée sur une infrastructure réseau avec des systèmes de traitement en local pour répondre aux futurs challenges de l’industrie 4.0. », souligne Patrick Simon, le fondateur de Panga.

En concevant un réseau central nommé B-NOS (Building Network Operating System), Panga anticipe la transition vers les bâtiments intelligents. L’entreprise propose des services à valeur ajoutée : maintenance prédictive, automatisation des équipements, analyse des données ou suivi des consommations d’énergie. La solution traite localement les données et les préserve, contrairement aux solutions cloud.

Se défendre des attaques d’ordinateurs quantiques avec QuantiCor Security

En compétition pour le Prix Atos « Cybersécurité », QuantiCor Security propose une solution de cybersécurité pour l’ioT qui permet de résister aux attaques d’ordinateurs quantiques.

Les systèmes de sécurité informatique sont actuellement vulnérables aux attaques informatiques d’ordinateurs quantiques. Par exemple, lors d’achats en ligne, les entreprises dépendent surtout des systèmes de sécurité qui garantissent l’authentification et la confidentialité des utilisateurs. Les hackers peuvent donc utiliser les données personnelles à mauvais escient. QuantiCor s’attache à fournir des solutions résistant à l’informatique quantique pour l’IoT.

« Cette solution applique une nouvelle technologie de cybersécurité basée sur les dernières avancées scientifiques », souligne Dr. Rachid El Bansarkhani, cofondateur de QuantiCor Sécurity.

Les certificats de sécurité de chaque appareil IoT doivent être révisés et maintenus périodiquement, ce qui peut être coûteux, complexe et inefficace. QuantiCor résout ce problème avec une infrastructure informatique qui ne nécessite pas de certificats.

De cette manière, de nouveaux appareils peuvent facilement être déployés dans des réseaux IoT dynamiques. Cette solution est adaptée pour sécuriser rapidement et en douceur les données de millions d’appareils.

LED : l’Anses renouvelle ses recommandations sur la lumière bleue

Présentes des phares de voitures aux smartphones, les LED peuvent émettre une lumière intense, riche en lumière bleue, correspondant aux basses ondes du spectre lumineux. Les LED exposent ainsi davantage la population à la lumière bleue que les ampoules à incandescence ou halogènes. Si la lumière bleue est naturellement émise par le soleil et est essentielle au bon fonctionnement de notre organisme en journée, cela n’est plus le cas le soir.

Les principaux troubles induits par la lumière bleue sont des troubles du sommeil, ou un dérèglement du rythme circadien. L’Anses identifie aussi des effets phototoxiques à court terme liés à une exposition aiguë, et des effets à long terme liés à une exposition chronique. Ceux-ci augmentent le risque de survenue d’une dégénérescence maculaire liée à l’âge (DMLA). C’est pour rappeler ces risques que l’Agence nationale de sécurité sanitaire (Anses) a mis à jour ses recommandations faites en 2010. Si la réglementation en vigueur permet d’assurer un contrôle rigoureux sur les produits d’éclairage, cela est différent pour d’autres usages.

Mieux protéger l’ensemble de la population

L’Agence rappelle l’importance de privilégier des éclairages domestiques de type « blanc chaud », avec une faible composante bleue. Elle précise qu’il est essentiel de protéger les yeux des enfants et des adolescents, chez lesquels le cristallin n’est pas encore tout à fait formé. Or, c’est cette partie de l’œil, qui devient mature vers 20 ans, qui permet de filtrer la lumière bleue. Ainsi, les plus jeunes devraient éviter limiter l’utilisation des ordinateurs, consoles, smartphones ou tablettes à la tombée du jour.

Dina Attia, cheffe de projet à l’Anses, explique qu’il n’existe aucune réglementation sur les objets à LED, hors éclairage. Il peut s’agir de phares automobiles, de lampes torches, de décorations ou de jouets. En clair, un jeune enfant peut risquer d’abîmer ses yeux avec un jouet qui émet trop de lumière bleue.

L’Anses rappelle par ailleurs que les moyens de protection utilisés par le public, comme les verres traités, les lunettes de protection ou les écrans spécifiques, ont une efficacité très variable. Elle appelle à établir des normes définissant les critères de performance de filtration de ces équipements.

Faire évoluer la réglementation

Pour l’éclairage domestique, seules les LED répondant aux normes de sécurité photobiologique NF EN 62471 classées dans le groupe de risque 0 (sans risque) et 1 (risque faible) sont commercialisées. Les lumières des groupes 2 (risque modéré) et 3 (risque élevé) sont réservées aux utilisations professionnelles dans des conditions garantissant la sécurité des travailleurs. L’agence propose donc de restreindre la mise à disposition de tous les objets à LED, et non pas seulement l’éclairage, auprès du grand public à ceux de groupe de risque photobiologique 0 ou 1.

Les études montrent également une augmentation de la mortalité et un appauvrissement de la diversité des espèces animales et végétales étudiées dans les milieux éclairés la nuit, y compris par des éclairages à LED. L’Anses recommande donc de diminuer autant que possible la pollution lumineuse pour préserver l’environnement.

Enfin, les lampes à LED peuvent présenter des variations plus ou moins rapides de l’intensité de la lumière qu’elles émettent. Cette modulation varie notamment en fonction de la qualité de l’électronique associée à la LED commercialisée. Elle peut entraîner fatigue visuelle, maux de tête ou encore migraines. L’Anses recommande donc de réduire au minimum ce niveau de modulation temporelle de la lumière émise par tous les objets utilisant des LED.

En France comme dans le reste du monde, la demande en diodes électroluminescentes, LED, a explosé durant ces dernières années. Et la tendance devrait continuer de s’accélérer. Selon un rapport du cabinet de consulting américain Grand View Research, le marché de la LED devrait pratiquement atteindre 109 milliards de dollars à l’horizon 2025. Cela s’explique par le fait que les LED sont plus économes en énergie que les ampoules à incandescence ou les lampes halogènes. Et leurs performances énergétiques leur permettent d’être aujourd’hui utilisées pour de nombreux usages.

Siemens entre dans la quatrième révolution industrielle numérique

Le discours de Joe Kaeser, le PDG de Siemens, à l’occasion de la présentation des résultats le 7 mai, est clair : « Avec Vision 2020+, nous poursuivons la réorientation des activités de Siemens, et les rendons plus agiles et plus réactives. Ces changements jettent les bases d’une réussite économique durable sur des marchés de croissance qui conserveront leur attractivité sur le long terme. Nous offrons également de solides perspectives aux activités qui doivent faire leurs preuves dans le contexte de transformation structurelle en cours ». Et le PDG d’ajouter : « le succès des activités de Siemens de la prochaine génération sera défini par de nouveaux facteurs. A l’avenir, ce ne seront plus l’envergure, la taille et l’approche universelle qui décideront de notre réussite, mais la cohérence, la réactivité et l’adaptabilité. Ce sont ces facteurs qui nous permettront de pérenniser nos activités à l’ère de la quatrième révolution industrielle digitale, car ils sont essentiels pour rester compétitifs. »

Le PDG souligne que Siemens est en position de force pour fixer son nouveau cap et se trouve dans une situation idéale. Siemens veut poursuivre résolument son développement et conforter sa position de leader dans les secteurs de croissance que sont l’automatisation, la digitalisation industrielle et les infrastructures intelligentes.

Ainsi, les divisions Digital Industries (DI) et Smart Infrastructure (SI) constitueront à l’avenir le cœur industriel de Siemens. Ce nouveau centre sera complété par les unités technologiques et de service du groupe et sa participation majoritaire stratégique dans Siemens Healthineers. Siemens Mobility, considéré comme une activité en croissance, sera également renforcé.

La division Smart Infrastructure entend renforcer ses activités produits, particulièrement en Asie, mais aussi développer ses activités rentables en matière de services, et intensifier ses activités dans des domaines tournés vers l’avenir comme les infrastructures de mobilité électrique, les systèmes d’énergie distribués, les bâtiments intelligents et le stockage de l’énergie – en exploitant notamment davantage les solutions de digitalisation. Cette politique devrait générer une croissance annuelle du chiffre d’affaires de 4 à 5 % sur l’ensemble du portefeuille de SI. Dès lors, SI souhaite recruter jusqu’à 6000 nouveaux employés à l’horizon 2023 – surtout dans les services, la recherche et le développement ainsi que la vente. « Dans l’ensemble, avec une croissance accélérée et une structure allégée, nous pensons faire passer notre marge à 13 ou 15 % d’ici 2023 », a expliqué Cedrik Neike, directeur général de SI. Une orientation qui passe notamment par le développement de micro-grids. Siemens a ainsi investi en 2018 dans une start-up new-yorkaise, LO3 (local microgrid), qui vise à utiliser les énergies renouvelables via des solution liées à la blockchain. Et le groupe participe à de nombreux projets de micro-grids notamment dans les îles, comme Les Galapagos. Enfin, Siemens dispose également d’une technologie d’Electrolyse PEM pour fabriquer l’hydrogène, afin d’accompagner la transition énergétique, pour la mobilité et le stockage, avec le power-to-gas.

« Nous avons plusieurs pistes pour accroître notre rentabilité. Nous pouvons engranger des gains de productivité significatifs rien qu’en allégeant notre administration. Les 79 usines de SI dans le monde sont un autre levier d’action. Au cours des trois prochaines années, nous allons comprimer les coûts grâce à des regroupements de capacité et des partenariats », insiste l’ancien responsable de Cisco. Pour atteindre cet objectif, SI prévoit 3 000 suppressions de postes au total dans le monde. Cette mesure générera 300 millions d’euros de charges de restructuration. Au final, SI table sur une augmentation nette de 3 000 emplois à l’horizon 2023.

De son côté, la division Digital Industries a l’intention de consolider ses activités dans la numérisation industrielle et de conforter encore davantage sa position de leader du marché. DI est notamment en avance dans le domaine de l’automation des processus industriels, mais mise également sur la fabrication 3D.

DI vise une croissance 25 % plus rapide que celle du marché (entre 4% et 5% annuellement), qui se traduirait par la création de 12000 nouveaux postes dans le monde, principalement dans la production, la recherche et le développement ainsi que la vente. DI ambitionne d’optimiser sa rentabilité grâce, par exemple, à l’intégration de deux anciennes divisions, à l’amélioration de ses processus internes dans des domaines tels que la logistique, à la simplification du controlling et à une utilisation accrue du propre portefeuille de logiciels industriels de l’entreprise. Ces mesures auront également un impact structurel sur l’emploi, car elles nécessiteront en partie d’autres qualifications. Jusqu’à 4900 postes seront concernés dans le monde. La direction de DI escompte des charges de restructuration de 300 millions d’euros d’ici 2023. L’un dans l’autre, DI table sur une croissance supplémentaire qui générera près de 7000 emplois à l’horizon 2023.

21 mesures pour changer d’échelle le véhicule électrique

En France, plus de 200 000 véhicules électriques et hybrides rechargeables étaient en circulation fin 2018. Au premier trimestre 2019, les immatriculations ont bondi de 36 % par rapport au premier trimestre 2018. Et la PPE porte un objectif de 4,8 millions de véhicules électriques en circulation en 2028. Cela suppose un taux de croissance des immatriculations de 28 % par an pendant 10 ans, calcule l’association Équilibre des Énergies (Eden). Qu’il s’agisse de particuliers ou de gestionnaires de flottes en entreprise, le parcours est semé d’obstacles pour relever ce défi.

L’étude commandée à Wavestone par Bouygues Énergie & Services, EDF, Enedis, Schneider Electric et le groupe Volkswagen France, regroupés au sein de l’association Eden, se démarque par sa méthodologie. Elle s’est attachée à définir des profils d’utilisateurs, puis à identifier les freins qu’ils rencontraient lors de leur parcours d’achat et au cours de l’utilisation de leur véhicule.

Des défis immenses, notamment en matière d’image

Xavier Metz, directeur associé de Wavestone, en retire un enseignement capital. Mettre des millions de véhicules électriques sur les routes est certes un « défi technologique et économique » pour développer des gammes de voitures accessibles, des batteries performantes et réduire les temps de recharge. Mais il ne faut surtout pas sous-estimer que nous faisons aussi face à « un défi sociologique, un défi de marketing, un défi d’usage et un défi de communication« .

Jean-Pierre Hauet, président du Comité scientifique d’équilibre des Énergies, relève ainsi que les utilisateurs potentiels ont « un immense besoin d’information » pour contrer un « certain scepticisme« . Et pour cause : Xavier Metz révèle que les acheteurs potentiels ont bien souvent des représentations erronées. « Il y a un enjeu de communication pour réduire les risques perçus et démontrer les bénéfices du véhicule électrique dans la transition énergétique et en matière de lutte contre la pollution« , prévient-il.

Inventer une expérience propre au véhicule électrique

Pour faire adopter le véhicule, « il faut aller vers des services qui simplifient au maximum la vie de l’utilisateur« , estime Xavier Metz. Il faut que le véhicule thermique soit définitivement plus attractif que le thermique. « Le rêve atteignable d’ici 2030 est de ne plus avoir à se poser de questions pour charger son véhicule parce que c’est le système qui s’en charge automatiquement dès qu’il a accès à une borne« , estime l’expert de Wavestone.

Il faudra toutefois lever les freins sur plusieurs segments du marché. « Il y a des freins tellement importants sur certains segments qu’ils limiteront considérablement le potentiel du véhicule électrique s’ils ne sont pas levés : les logements collectifs, les Français qui n’ont pas de parking, les véhicules de fonctions, les PME... », prévient Xavier Metz. Eden propose plusieurs solutions pour développer une infrastructure de recharge suffisante à tous les niveaux. Elle invite l’État à soutenir la mise en œuvre de ces recommandations portées par les grands acteurs industriels.

Eden prévoit que les tarifs des véhicules électriques deviennent compétitifs en 2030. L’association demande donc de pérenniser les incitations financières à l’acquisition d’un véhicule électrique pour les trois prochaines années. Elle alerte également sur la nécessité de préparer et stimuler dès à présent le marché de l’occasion. Pour sécuriser la valeur de revente, il faudra mettre en place un diagnostic sur les batteries. À ces conditions, Eden voit un parc de 2 millions de véhicules hybrides rechargeables et de 3,2 millions de véhicules électriques à batterie en 2030.

Les chiffres de l’énergie battent des records aux Etats-Unis

Fait historique, les Américains ont dépassé leur record de production, de consommation et d’exportation d’énergie. Cette nouvelle s’explique par le bon état de santé de l’économie américaine, mais également par le boom de la production de gaz de schiste et de pétrole. Les chiffres partagés par l’Energy Information Administration (EIA) montrent que pendant que les importations d’énergie baissent, les exportations augmentent : +18 %.

Ainsi, au cours de l’année 2018, les États-Unis ont produit 28.128 térawattheures (TWh), et en ont consommé 29.593. Le pays s’approche doucement de l’indépendance énergétique. La production augmente plus vite que la consommation : respectivement +8 % et +4 % par rapport à 2017. L’agence américaine déclare que 80 % de l’énergie consommée sur le sol américain est d’origine fossile, tout comme la majorité de l’énergie produite.

L’énergie solaire avance, et le charbon recule

Si l’on ne s’intéresse qu’au pétrole brut et au gaz naturel, ils représentent tous deux 57 % de la production énergétique américaine. Au cours de l’année 2018, la production de pétrole a augmenté de 17%, et la production de gaz naturel de 12 %. Et,  effet lié à la taxation douanière des panneaux solaires chinois, la production d’énergies renouvelables a augmenté de 4 % en un an, se développant essentiellement autour du solaire (+22 %). Si les démocrates remportent l’élection présidentielle de 2020, la feuille de route énergétique américaine pourrait se verdir davantage.

Autre record, mais cette fois-ci à la baisse : la consommation de charbon. Alors que le président Donald Trump a affirmé à plusieurs reprises vouloir relancer la filière, la production d’énergie charbonnière est à son plus bas niveau depuis 39 ans. Elle marque un recul de 3 %. L’année a été marquée par des fermetures de centrales à charbon plus intenses qu’en 2017. Le pays compte 30 % de mines de charbon actives de moins qu’en 2008.

L’indépendance énergétique passe par l’augmentation des émissions de CO2

Les hausses de consommation et de production d’énergie engendrent une augmentation des émissions de gaz à effet de serre. Selon les estimations du groupe de recherche Rhodium, les émissions de CO2 ont augmenté de 3,4 % en 2018.

Les États-Unis sont redevenus les premiers producteurs de pétrole. Ce pic est causé en premier lieu par les transports, puis par la production d’énergie, l’industrie et les bâtiments. C’est la seconde plus forte augmentation en 20 ans, après celle de 2010 à 3,6 %. Cependant, l’EIA prévoit un ralentissement de la consommation dans les prochaines années. À l’inverse, la production devrait continuer d’augmenter, jusqu’en 2042 pour le pétrole, et jusqu’en 2050 pour le gaz naturel. Une mauvaise nouvelle pour la lutte contre le réchauffement climatique.

Des composites céramiques qui se réparent d’eux-mêmes sans traitement thermique

Le matériau que ces chercheurs ont mis au point présente également une activité photocatalytique ainsi qu’une bonne biocompatibilité, ouvrant la voie à de nouvelles applications potentielles.

Les céramiques : des matériaux à la fois résistants et fragiles

Les matériaux céramiques comme l’alumine (Al2O3) sont couramment utilisés dans l’industrie pour leurs propriétés de résistance à l’usure, leur stabilité chimique et leur tenue aux très hautes températures. Néanmoins, les céramiques sont par nature fragiles, ce qui rend les opérations d’usinage délicates. En effet, lorsque des défauts microscopiques apparaissent, la résistance à la rupture de ces matériaux s’effondre, car les contraintes exercées en périphérie des microfissures peuvent irrémédiablement conduire à une propagation fatale.

De multiples matériaux auto-cicatrisants

Cela fait déjà de nombreuses années que le monde scientifique cherche à apporter des propriétés d’auto-réparation aux matériaux. Cependant, s’il existe déjà des polymères, des bétons ou des céramiques capables de se réparer, le processus d’auto-cicatrisation se produit dans un environnement particulier, propre à chaque matériau. L’auto-cicatrisation des céramiques a ainsi été démontrée à de nombreuses reprises, mais l’excellente stabilité chimique et thermique de ces matériaux complique le processus. En effet, le traitement thermique à haute température reste à ce jour la meilleure technique d’auto-cicatrisation des céramiques, ce qui élimine d’emblée une utilisation à température ambiante.

Auto-cicatrisation par anodisation du titane

L’anodisation est un procédé électrochimique couramment utilisé pour créer une couche d’oxyde à la surface de certains métaux tels que l’aluminium ou le titane. L’équipe de chercheurs a donc eu l’idée de concevoir un cermet Al2O3/Ti, le titane sous forme métallique pouvant être oxydé afin de combler les fissures de la matrice en alumine. Ce matériau composite céramique/métal a été élaboré à partir d’un mélange de poudres (α-Al2O3 et TiH2), qui a ensuite subi une étape de frittage à 1500 °C sous atmosphère protectrice (argon).

Le processus de cicatrisation par anodisation a donc l’avantage d’être réalisé à température ambiante, mais dans un électrolyte aqueux contenant de l’acide phosphorique (H3PO4). Le composite Al2O3/Ti est placé en anode, ce qui signifie qu’il doit suffisamment conduire l’électricité. Par conséquent, l’équipe de chercheurs a dû travailler en amont sur la proportion de particules métalliques présentes dans le composite ainsi que sur leur taille pour obtenir une conductivité suffisante.

Des résultats prometteurs…

Pour tester la capacité d’auto-réparation de ces matériaux, les chercheurs ont tout d’abord soumis les échantillons à des essais d’indentation, en suivant la même méthode que pour la mesure de micro-dureté Vickers. Les empreintes obtenues ont la particularité de créer des fissures de manière assez reproductible, la force appliquée étant connue et maîtrisée. Il leur a donc été possible de mesurer l’effet de la taille des fissures sur la capacité d’auto cicatrisation.

Le processus de cicatrisation a par ailleurs été analysé de manière approfondie par microscopie électronique à balayage (MEB), par diffraction des rayons X et la résistance mécanique des échantillons avant et après cicatrisation a été comparée. Les résultats sont concluants : après cicatrisation le matériau retrouve la même résistance à la flexion qu’avant l’apparition des fissures.

… mais il reste du travail à accomplir

Cependant, si l’équipe de chercheurs a réussi à prouver qu’il était possible de réparer des fissures en utilisant le procédé d’anodisation, il leur reste encore à maîtriser certains paramètres. Par exemple, le procédé de cicatrisation par anodisation semble induire une relaxation de contraintes résiduelles, ce qui semble augmenter la résistance mécanique du matériau. Par conséquent, l’équipe de chercheurs souhaite conduire prochainement une étude approfondie des contraintes résiduelles.

Source : https://phys.org/news/2019-02-simple-low-cost-crack-healing-ceramic-based-composites.html#nRlv

Des usines pour capturer le CO2 de l’atmosphère

Sera-t-il bientôt possible de générer des émissions de CO₂ négatives à l’échelle mondiale ? C’est l’objectif de Carbon Engineering. L’entreprise estime qu’elle pourra extraire du CO₂ de l’atmosphère à l’échelle industrielle, à moins de 100 dollars la tonne de CO₂ captée, purifiée et comprimée à 150 bars, dès 2021. Le CO₂ ainsi capturé pourra être séquestré de façon permanente pour avoir des émissions négatives. Il pourra aussi servir à la synthèse de produits chimiques et de carburants synthétiques – de l’essence, du diesel ou du kérosène – en combinaison avec de l’hydrogène obtenu par électrolyse de l’eau alimentée aux énergies renouvelables.

Fin mars, l’entreprise a annoncé l’obtention d’un financement de 68 millions de dollars. Parmi les multiples investisseurs, citons la compagnie pétrolière Chevron, l’entreprise minière BHP et le milliardaire Bill Gates. Avec ce financement, la société prévoit de construire ses premières installations commerciales à échelle industrielle. « Notre technologie éprouvée de captage du CO₂ atmosphérique permet de capturer un million de tonnes de CO₂ par an avec chaque installation commerciale, assure l’entreprise. Cette quantité de CO₂ équivaut aux émissions annuelles de 250 000 voitures en moyenne. »

Vers un carburant atmosphérique ?

Depuis 2015, un démonstrateur permettant de purifier environ une tonne de CO₂ par jour est en activité à Squamish, en Colombie Britannique, au Canada. Depuis 2017, un autre démonstrateur génère environ un baril de carburant par jour. L’entreprise valide actuellement son modèle pour déployer les premières usines commerciales en 2021. Après la Colombie-Britannique et la Californie, l’entreprise projette un marché mondial.

Dans son rapport spécial sur un réchauffement planétaire de 1,5°C, le GIEC appelle à développer les technologies de capture et d’élimination du CO2. Carbon Engineering imagine que ses machines pourraient devenir aussi répandues que le sont actuellement les stations d’épuration dans les pays développés. L’Inde, la Chine, des pays d’Amérique du Sud et d’Europe auraient fait part de leur intérêt, souligne Radio Canada.

Carbon Engineering est en concurrence avec la start-up suisse Climeworks qui compte déjà une quinzaine de démonstrateurs en activité en Europe. Mais à 600 dollars la tonne de CO2 extraite de l’atmosphère, son coût demeure encore prohibitif. Selon Le Temps, l’entreprise espère retirer 1 % du dioxyde de carbone émis dans le monde d’ici à 2025. Elle travaille donc à l’industrialisation de la technologie et à la réduction des coûts pour imaginer une production de masse.

Ile de la Réunion : une vraie autonomie énergétique en question

Fin 2018, le mix de production électrique réunionnais présentait 32 % d’électricité d’origine renouvelable. C’est beaucoup mieux qu’en métropole, qui peine à atteindre les 18 %. Il n’y a pas de réacteur nucléaire sur l’île : l’atome laisse sa place au charbon (38 %) et au fioul (30 %).

Vers l’autonomie énergétique en 2030 ?

La trajectoire de transition énergétique est, comme en métropole, définie par un document de référence appelé Programmation Pluriannuelle de l’Énergie. En résumé, ce document donne des objectifs de développement filière par filière pour aller vers plus d’énergies renouvelables. Côté électricité, la part renouvelable devrait atteindre 50 % en 2023 et 100 % en 2030.

Là où le bât blesse est que la loi prévoit une autonomie énergétique totale, c’est-à-dire autant du point de vue de l’électricité que du transport, de la climatisation et de l’eau chaude sanitaire. Mais sur le terrain, l’île prend uniquement le chemin d’une autonomie électrique, et même d’une autonomie électrique partielle.

Remplacer le charbon par de la biomasse majoritairement importée

Le gouvernement français a pris l’engagement de fermer toutes les centrales charbon en France d’ici fin 2022. L’île de La Réunion n’est pas épargnée. Ce qui est facile en France métropolitaine, où le charbon ne représente que 1,1 % du mix électrique, l’est moins là où le charbon en représente 38 %. L’exploitant Albioma envisage donc de convertir ses deux centrales électriques charbon/bagasse d’une capacité de 100 MW et 111 MW à un mix biomasse/bagasse.

Pour remplacer les 650 000 tonnes de charbon brûlées chaque année à la Réunion, il faudrait trois fois plus de biomasse : environ 2 millions de tonnes. L’ONF a recensé toutes les entrées possibles et le moins que l’on puisse dire est que le compte n’y est pas si l’on ne considère que la biomasse locale. Car, pas question de toucher aux plus de 110 000 hectares d’aires protégées. Seuls 30% des gisements nécessaires pour remplacer le charbon sont disponibles localement, principalement sous forme de bois d’élagage. Pour faire fonctionner les deux centrales à l’avenir, il faudrait donc importer 70% de la biomasse nécessaire. Il s’agirait de pellets industriels, en provenance du Canada, des États-Unis ou du Brésil, ou de plaquettes forestières, en provenance du Mozambique ou de l’Asie du sud-est.

Et si l’on pariait plutôt sur un mix 100% renouvelable ?

 Soleil, vent, géothermie, biomasse, océan… l’île dispose des gisements nécessaires pour développer fortement les énergies renouvelables. Il manque simplement une vision claire, ambitieuse et globale de transition énergétique. « Actuellement, les acteurs étudient comment ils peuvent faire tourner les centrales existantes en important de la biomasse, relève Jérôme Billerey, président de la commission Régions ultramarines du syndicat des énergies renouvelables (SER). Il faudrait plutôt partir des gisements disponibles et voir comment il est possible de construire une stratégie globale et cohérente pour aller vers une réelle autonomie énergétique, incluant l’électricité, l’eau chaude sanitaire, la climatisation et les transports ».

Une option ambitieuse serait de réinventer la production électrique de l’île. C’est ce que vise l’ADEME dans son étude Vers l’autonomie énergétique en Zone Non Interconnectée (ZNI) à l’horizon 2030. L’agence a exploré plusieurs scénarios, dont un ambitieux d’autonomie énergétique en 2030. « Les potentiels ENR locaux sont suffisants pour assurer un mix électrique 100% renouvelable et local tout en satisfaisant l’ensemble de la demande électrique à tout instant – équilibre offre demande –, moyennant un recours significatif à des capacités de stockage », assure l’agence.

Une autonomie énergétique pas tellement plus chère

L’île de La Réunion disposait fin 2015 d’une capacité installée de 1839 mégawatts (MW) dont 463 MW de sources renouvelables. Un potentiel additionnel de plus de 1,5 gigawatt électrique a été identifié dont 61% de photovoltaïque, 14% d’hydroélectricité, 14% de biomasse, 11% d’éolien, 2% de biogaz et 1% de géothermie. Malgré son potentiel et quelques projets en cours, l’ADEME n’inclut pas l’énergie thermique des mers, car elle juge ses prix prohibitifs.

Le scénario d’autonomie énergétique mobilise l’intégralité du potentiel identifié de la bagasse (120 MW), de la biomasse locale (150 MW), du photovoltaïque (1200 MW), de l’éolien (146 MW), de la géothermie (15 MW), de l’hydroélectricité (192 MW), sans importation de biomasse. Elle prévoit aussi 14 MW d’éolien offshore, soit 28 % du potentiel. Les ressources locales permettraient de recharger un parc de véhicules terrestres légers 100% électrique, hors bateaux, avions et poids lourds.

Sur la période 2015-2030, l’ADEME estime que l’autonomie énergétique demandera plus d’investissements (+68%). Toutefois, en référence à l’année 2015 (coût complet 152 €/MWh), le scénario permettant l’autonomie énergétique en 2030 permet une réduction du coût complet de l’énergie de 36 % en 2030. Au bout du compte, sur la période, 2015-2030, il ne coûtera que 10 % de plus que le scénario tendanciel. L’ADEME pointe toutefois « la fragilité d’une telle situation » et appelle à un « important travail de maîtrise de l’énergie notamment sur le secteur des transports » pour assurer cette autonomie énergétique.

Le SER appelle donc à prendre en compte cette étude dans le cadre de la révision en cours de la PPE pour la Réunion. La trajectoire ambitieuse à adopter doit permettre de définir les nouveaux objectifs en matière d’énergies renouvelables aux horizons 2023 et 2028.

L’intelligence artificielle booste les recherches en toxicité

L’outil développé par l’unité « Toxicité Environnementale, Cibles Thérapeutiques, Signalisation Cellulaire et Biomarqueurs » de l’Inserm dirigé par Karine Audouze a fait l’objet d’une description complète dans Environmental Health Perspectives . Testé avec le bisphénol S, cet outil baptisé AOP-helpFinder réalise un scan d’articles scientifiques (lecture automatisée intelligente) à partir de termes clés recouvrant des données biologiques et chimiques. Ces données ont été extraites de la base AOP-wiki, une base qui comporte « des descriptions précises de toutes les étapes biologiques (molécules, voies de signalisation) menant d’une perturbation moléculaire à un effet pathologique comme l’obésité, la stéatose, le cancer, etc. Elle s’enrichit régulièrement avec de nouveaux processus de toxicité » précise Karine Audouze dans le communiqué de presse de l’Inserm. L’objectif de l’outil est de mettre en relation une substance et des processus pathologiques. Pour améliorer les performances de l’outil, de nombreux paramètres enrichissent la recherche de l’intelligence artificielle : quantification des mots repérés, place des mots dans l’article (résumé, hypothèse, conclusion etc.), éloignement des mots entre eux etc.

Un gain de temps, pas un remplacement

L’analyse a révélé une corrélation entre le bisphénol S et le risque d’obésité. Le résultat a ensuite été vérifié manuellement par les auteurs. Pour enrichir les capacités d’analyse de leur outil, les chercheurs ont aussi intégré les données biologiques de la base américaine ToxCast qui référence les effets d’agents chimiques et physique sur différents types cellulaires. Cet ajout a permis de préciser que le bisphénol S favoriserait la formation d’adipocytes (cellules stockant les graisses), entraînant par là un risque augmenté d’obésité. Si cet outil ne peut remplacer de manière formelle les études biologiques et épidémiologique poussées, il permet de cibler rapidement les effets néfastes probables à étudier. L’outil est en outre en libre d’accès sur la plateforme GitHub afin qu’il s’améliore au fur et à mesure de ses utilisations. Il a déjà été testé sur d’autres molécules par les chercheurs de l’Inserm qui travaillent désormais à une version 2.

Diminuer les expérimentations animales

Ce type de recherches entrent dans la grande classe des prédictions mathématiques de la nocivité ou de l’activité en général des substances chimiques. En matière de toxicité, ces méthodes se sont fortement développées avec l’arrivée du règlement Reach. Eviter les expérimentations animales inutiles pour la classification et l’enregistrement des substances constitue encore un de leurs principaux objectifs. Les modèles les plus simples se fondent sur des relations structure-activité et des relations quantitative structure activité (QSAR). Il s’agit d’outils logiciels s’appuyant sur des bases de données qui permettent de prédire certaines propriétés physico-chimiques, biologiques ou environnementales de composés chimiques par rapport aux connaissances déjà acquises sur des structures similaires dans d’autres composés. Avec la gestion du Big Data et les méthodes de machines learning qui se sont développées ces dernières années, on voit désormais apparaître des outils et méthodes dites RASAR (Regroupement de substances et références croisées). L’agence européenne des produits chimiques (ECHA) a d’ailleurs, en 2018, créé un cadre d’évaluation des références croisées (RAAF) pour structurer l’évaluation scientifiques des différentes méthodes utilisées. L’utilisation du regroupement de substances et des références croisées figure parmi les approches alternatives les plus couramment employées pour compléter des données manquantes en vue des enregistrements présentés au titre de Reach. Plus les données de base sont nombreuses et plus la pertinence des références croisées est forte, aussi des chercheurs de la John Hopkins University ont testé des outils tout d’abord sur des dossiers en langage naturel et plus récemment via des outils de lecture automatique intelligente. Ils ont pu tester des milliers de substances à partir de centaines de milliers de données issues de différentes bases de données de produits chimiques. Selon la méthode appliquée, ils ont ainsi pu obtenir des résultats pertinents entre 80 et 95 % pour neuf risques pour la santé.

De nouveaux matériaux catalytiques pour la fabrication de carburants solaires

On appelle « carburant solaire » un carburant synthétique conçu par captation du CO2 de l’air. Le CO2, combiné à de l’eau est ensuite transformé en hydrogène et monoxyde de carbone puis en hydrocarbures à chaîne longue utilisables dans les moteurs. Ce carburant est ainsi qualifié de « solaire », car l’énergie solaire est utilisée comme ressource inépuisable pour « casser » la très résistante double liaison C=O (750 kJ.mol−1). Par conséquent, alors que les émissions de CO2 ne cessent de s’intensifier, on comprend bien l’intérêt du monde de la recherche pour ce sujet.

Le problème de l’empreinte au sol

La communauté scientifique travaille d’arrache-pied au développement de la conversion du CO2 et H2O en O2 et hydrocarbures, par des procédés photocatalytiques c’est-à-dire, en quelque sorte, à la reproduction du processus naturel de photosynthèse. Si les études montrent que cela fonctionne à l’échelle du laboratoire, l’un des plus grands défis concerne l’empreinte au sol de tels dispositifs à l’échelle industrielle. En effet, les photocatalyseurs « classiques » sont des réacteurs bidimensionnels utilisant des couches minces. Une production massive de carburant solaire par ce procédé empiéterait donc considérablement sur la disponibilité de terres non cultivables, une ressource limitée, contrairement à l’énergie solaire.

La solution : des matériaux photoactifs tridimensionnels

Pour résoudre ce problème, le Centre de recherche Paul Pascal (CNRS/Université de Bordeaux) s’est associé à l’organisme public de recherche IFP Énergies Nouvelles. La solution qu’ils ont développée ensemble consiste à remplacer le catalyseur en couche mince par un catalyseur tridimensionnel. Pour cela, ils ont élaboré un matériau monocellulaire agissant comme une éponge photonique : en augmentant considérablement la pénétration de photons au cœur de la structure, ce nouveau matériau concentre ainsi la génération sélective de combustibles comme l’éthane ou le méthane.

Une mousse monolithique élaborée par HIPE

La synthèse de ce matériau requiert plusieurs étapes. Tout d’abord, une mousse à base de silicium a été élaborée par le procédé HIPE (high internal phase emulsion). Puis cette mousse a servi de support à la nucléation hétérogène de nanoparticules de TiO2 et le matériau a été fritté à 400°C pendant une heure pour conduire à la formation d’un matériau monolithique macroporeux.

Les chercheurs ont ensuite testé l’activité photocatalytique de ce matériau. Ils ont ainsi mis en évidence son caractère multidiffusif, les photons restant emprisonnés au milieu de celui-ci. Il en résulte une limitation des réactions non désirées, ce qui favorise la production de méthane (jusqu’à 80%) et d’éthane (18%), deux carburants facilement exploitables.

Des applications dans tous les domaines utilisant des systèmes photoactifs

Le procédé de préparation d’un monolithe à porosité multimodale ainsi que le procédé de réduction catalytique associé ont d’ores et déjà fait l’objet de brevets. Par ailleurs, la solution développée par l’équipe de chercheurs pourrait annoncer l’arrivée d’une nouvelle génération de systèmes photoactifs 3D. Photovoltaïque, photopurification de l’air ou encore photoprotéolyse font ainsi partie des applications potentielles.

Réalité augmentée : le CEA mise sur la projection rétinienne

Les lunettes intelligentes vont-elles un jour se démocratiser ? Depuis l’échec de Google avec ses Google Glass sorties en 2013 et disparues deux ans plus tard, personne n’a trouvé la bonne paire pour un usage grand public.

Ces types de lunettes sont en effet réservé à usage professionnel comme… les Google Glass version 2 (et renommées Glass Enterprise Edition). Il y a aussi Microsoft qui propose son casque de réalité mixte depuis 2015, mais qui était absent sur son stand au dernier Laval Virtual… Dans les deux cas, leur principe est le suivant : elles sont équipées d’une caméra et d’un projecteur affichant un écran en réalité augmentée sur les verres.

Mais depuis quelques années déjà, des études s’orientent vers le développement de divers types d’affichages dont la projection retienne. ​ Le Laval Virtual 2019 a été l’occasion de faire le point sur cette piste. Beaucoup moins encombrante et offrant potentiellement un champ de vision plus large que les lunettes de réalité augmentée actuelles, cette solution a été présentée par le LETI du CEA lors de la conférence Photonics West.

 Film holographique

Il s’agit d’un dispositif de projection qui projette différentes ondes lumineuses sur les yeux à partir d’une surface en verre. Le système optique et l’écran sont remplacés par l’association d’un circuit optique intégré transparent composé d’un réseau de guides d’ondes nanométriques, et d’un film holographique. Ce dernier contrôle les propriétés optiques du faisceau sortant de façon à ce que l’image se forme directement au niveau de la rétine de l’utilisateur.

L’intégration de l’appareil par le CEA-LETI et l’utilisation d’une couche holographique permettent également de créer des verres RA compacts avec un champ de vision plus large que les systèmes existants, tandis que le dispositif de projection rétinienne transparente laisse passer la lumière ambiante à travers l’appareil pour des applications AR améliorées.

Ce projet de recherche s’appuie sur les nombreuses années de développement du CEA-LETI dans le domaine des microaffichages pour les écrans proches de l’œil, tels que les technologies OLED (organic LED technologies) et les dispositifs à cristaux liquides (LCD). Plus récemment, l’institut a fait des progrès significatifs dans le domaine de la fabrication d’écrans LED inorganiques.

Sur le papier, ce concept est tentant… Mais verra-t-il le jour ? Il y a un an, Intel a annoncé qu’il abandonnait Vaunt, ses lunettes à projection rétinienne. Peut-être que Tim Cook, le patron d’Apple avait raison lorsqu’il estimait en 2017 que « la qualité de l’écran ou la technologie d’un champ de vision suffisamment étendu ne sont pas encore au rendez-vous. Nous nous fichons d’être les premiers, nous voulons être les meilleurs et donner aux utilisateurs la meilleure expérience ».

Les fabricants européens veulent perdre moins de granulés de plastique

Selon Eunomia, environ 230 000 tonnes de granulés de plastique rejoindraient les eaux chaque année dans le monde. L’industrie européenne en perdrait pour sa part environ 41 000 tonnes. Ils sont perdus le long de la chaîne de production, des fabricants et recycleurs jusqu’à la livraison aux transformateurs. Les pertes de granulés peuvent survenir à tous les niveaux : tout de suite après leur production, durant le transport ou lors des échanges commerciaux.  Il peut s’agir d’un sac percé, d’une perte de container, d’une fuite d’un camion… C’est pourquoi les producteurs de matières plastiques ont mis en œuvre un programme visant à ne plus rejeter ces granulés dans l’environnement : l’opération Clean Sweep.

Zéro perte de granulés en 2030 ?

Cette opération déployée en Europe veut atteindre l’objectif de zéro perte de granulés d’ici 2030. L’engagement volontaire pour 2030 prévoyait que 100 % des membres de PlasticsEurope participent à l’opération d’ici fin 2018. Selon le rapport 2018 PlasticsEurope Operation Clean Sweep, 45 entreprises, représentant 88 % des membres de PlasticsEurope qui produisent des matières plastiques, sont finalement engagées.

Si l’objectif n’est pas atteint, PlasticsEurope se veut optimiste : les participants représentent 98 % de la production européenne de matières plastiques. « Sur les six entreprises qui n’ont pas encore signé, deux se sont déjà engagées à rejoindre le programme« , assure l’association. « Les sociétés non signataires à ce stade sont essentiellement soit des sociétés de petite taille, soit des sociétés dont l’activité granulés plastiques est minoritaire (essentiellement des chimistes)« , précise Hervé Millet, directeur des affaires techniques et réglementaires de PlasticsEurope.

De nouveaux engagements le long de la chaîne

Le programme est ouvert aux autres entreprises de la chaîne de valeur manipulant des granulés de plastique. Au total, plus de 500 entreprises l’appliquent. « Le nombre de signataires du programme a doublé entre 2017 et 2018, montrant ainsi une prise de conscience réelle de la profession » relève PlasticsEurope.

L’opération Clean Sweep reste toutefois assez simple et peu contraignante. En s’engageant dans le programme, une entreprise s’engage à diffuser et systématiser les bonnes pratiques, définies site par site. Elles consistent globalement à ramasser les granulés lorsqu’un sac se perce, mettre des unités sous vide, installer des collecteurs, sceller les tuyaux pour le chargement des camions et mettre à disposition du personnel des aspirateurs ou des pelles. La société s’engage à former ses salariés, à organiser régulièrement un audit de performance et à encourager ses partenaires à s’engager.

Désormais, le programme doit être déployé jusque dans les ports où s’opère l’exportation des matières plastiques vers les pays étrangers. En octobre 2017, le port d’Anvers, principal site d’Europe où transitent les granulés de plastique et deuxième plus grand port maritime du continent, est devenu le premier port européen à participer à cette initiative. En 2018, Teesport en Grande-Bretagne est devenu le deuxième port à adhérer au programme. La course reste longue pour convaincre les autres, mais PlasticsEurope assure que des discussions sont engagées avec d’autres ports européens, notamment le port espagnol de Tarragone.

Cybersécurité : l’Europe la joue « collectif »

Au cours des dernières années, les attaques directes via des malwares ont régulièrement diminué. Elles ont cédé la place à de nouveaux comportements plus sophistiqués. Mais le poste de travail reste toujours la principale cible. Après avoir réussi à en prendre le contrôle, un attaquant cherchera en effet à étendre son intrusion aux autres ordinateurs pour, in fine, accéder aux documents ou aux informations qu’il recherche.

Conscients que les organisations déploient des solutions de sécurité, les attaquants mènent des opérations plus sophistiquées afin de passer inaperçus. Ils peuvent usurper des applications légitimes, exploiter des failles « zero-day » ou en mener des attaques sans fichier.

Premières mondiales

Face à ces menaces, l’Europe regroupe ses forces à travers le consortium Sparta (fille du dieu fleuve Eurotas). Il s’agit d’un nouveau réseau de compétences en cybersécurité, soutenu par le programme H2020 de l’UE.

Horizon 2020 est le plus grand programme de recherche et d’innovation de l’UE à ce jour avec près de 80 milliards d’euros de financement sur 7 ans (2014-2020), sans compter les investissements privés.

Même si l’imagination des pirates semble sans limites, Sparta a pour objectif de susciter d’importantes découvertes technologiques et des premières mondiales en transférant les meilleures idées des laboratoires de recherche aux marchés.

Pour relever ce défi majeur, ce consortium Sparta, piloté par le CEA (chargé de maximiser les impacts pour la communauté), rassemble un groupe équilibré de 44 acteurs des États membres de l’UE. Il inclut l’ANSSI (Agence nationale de la sécurité des systèmes d’information), l’Institut Mines-Télécom, INRIA, Thales et YesWeHack pour la France.

Des entreprises trop vulnérables

« En mutualisant toutes les expériences et les compétences, les défis et les capacités, Sparta contribue au renforcement de l’autonomie stratégique de l’UE » explique l’ANSSI.

Mais l’innovation et les logiciels ne feront pas tout. C’est une prise de conscience générale qui permettra surtout de relever le défi des cybermenaces. Or, encore trop souvent, les cibles (les entreprises en l’occurrence) restent encore trop vulnérables.

C’est le cas notamment dans l’industrie. «Les systèmes de contrôle (Industrial Control Systems – ICS) sont interconnectés. Les vulnérabilités sont, de ce fait, plus nombreuses, et les cyberattaques passent souvent inaperçues pendant un certain temps », constate Fsecure dans son dernier rapport.

Il y a quelques années, le général Keith Alexander de la NSA indiquait que « 41 % des cyberattaques ciblent les entreprises de l’énergie, particulièrement le pétrole et le gaz ».

Lors du FIC (Forum International de la Cybersécurité organisé à Lille) en 2017, Guillaume Poupard, le patron de l’ANSSI, a même évoqué des pertes humaines.

Dans une interview accordée à Industrie & Technologies, il avait avoué que sa grande crainte était le « sabotage. C’est-à-dire quelqu’un qui voudrait, dans le meilleur des cas, éteindre le système pour l’empêcher de fonctionner. Mais dans le pire des cas, il y a évidemment la volonté de provoquer des catastrophes. Quand on s’attaque au monde du transport, on peut vite avoir des effets absolument dramatiques, y compris sur les vies humaines ».

Montée en puissance du marché des pompes à chaleur

L’étude d’Observ’ER porte sur les pompes à chaleurs (PAC) dans le secteur du résidentiel (jusqu’à 30 kW). La progression des PAC aérothermiques (air/air et air/eau) atteint 18 % au global, mais dans le détail, elle est de 15 % pour les PAC air/eau et 19 % pour les PAC air/air. Ainsi, au total quelques 591 700 PAC aérothermiques ont été installées en 2018, auxquelles il faut ajouter 105 140 chauffe-eau thermodynamiques (CET).

Observ’ER signale que globalement, c’est la relance des constructions neuves, amorcée en 2016 et qui s’est poursuivie jusqu’à la fin du premier semestre 2018, qui est à l’origine de cette nouvelle montée en puissance. Néanmoins, le ralentissement dans le secteur amorcé depuis pourrait impacter les dynamiques de marché en 2019.

Les appareils air/air demeurent les équipements « les plus diffusés avec une activité portée essentiellement par le remplacement d’anciens systèmes de chauffage électrique. Depuis 2017, les appareils air/air ont également profité de la vague de remplacement des appareils équivalents installés suite à la canicule de 2003 », précise l’étude. Les PAC air/air ont ainsi représenté un marché évalué à plus de 498 120 pièces l’an dernier. « Les voyants sont tous au vert pour le segment », insiste Observ’ER. Les PAC air/eau ont également enregistré une bonne année (93 580 pièces, + 15 % par rapport à 2017).

Quant aux chauffe-eaux thermodynamiques, leur progression continue (+25 %), profitant notamment d’une bonne pénétration sur le marché du neuf et grâce aux diverses aides en place, comme le crédit d’impôt dans la rénovation et la RT2012 dans le neuf.

A noter que la RT2012 oriente aussi le marché des PAC aérothermiques vers des équipements de plus petite puissance (5kW et 10 kW), dans la mesure où ils s’adressent à des logements neufs et mieux isolés.

Depuis 2013, ces deux marchés PAC et CET ont progressé de 120 %, indique Observ’ER.

En revanche, côté pompes à chaleur géothermiques, le bilan est inverse. « Les ventes restent à un niveau désespérément bas (3 080 pièces), soit quasiment le même niveau depuis les trois dernières années, et aucun signe de reprise ne semble venir en 2019 », souligne l’étude. En 2013, plus de 8 000 unités avaient été vendues. Pourtant c’est la technologie qui affiche « un bilan énergétique et économique performant sur le long terme », signale le document, concédant que ces équipements demeurent très mal connus du grand public. Les PAC géothermiques sont en outre plus chères à l’achat. Observ’ER signale d’ailleurs qu’elles sont confrontées à la concurrence des autres technologies renouvelables (au premier rang desquelles figurent les PAC aérothermiques), réduisant leur marché à une « niche », celle d’une « clientèle essentiellement constituée de particuliers à fort pouvoir d’achat, très attachés à la géothermie ».

En termes de répartition géographique, Observ’ER constate que l’activité des PAC géothermiques est centrée dans les régions Auvergne-Rhône-Alpes, Bretagne et Normandie (52 % à elles trois), tandis que les ventes de PAC aérothermiques sont réparties de manière relativement homogène sur l’ensemble du territoire. Néanmoins, quatre grandes régions accueillent la moitié des installations aérothermiques : Normandie, Pays de la Loire, Provence-Alpes-Côte d’Azur et Grand Est.

Les ministres français peu concrets pour défendre la biodiversité

Comment endiguer rapidement et de manière efficace l’extinction massive du vivant qui est en train de se produire à travers le globe ? C’est la question que se posent les membres de l’IPBES, réunis pour une septième session plénière. Cette organisation créée en 2012, sur une idée de Jacques Chirac, a été pensée pour être le pendant du GIEC pour la biodiversité. Les représentants de 132 États étaient réunis jusqu’au 4 mai à l’UNESCO pour adopter leur rapport. Lors de la cérémonie d’ouverture, plusieurs voix se sont succédé pour rappeler à quel point les travaux de l’IPBES sont capitaux pour la préservation de la biodiversité.

Ceux-ci sont d’autant plus essentiels dans un contexte où se prépare la COP 15 sur la biodiversité en Chine en 2020. Devant un parterre de scientifiques internationaux, les grands absents de la matinée d’ouverture ont été les membres du gouvernement français. Une situation regrettée par Laurent Stéfanini, ambassadeur de France à l’Unesco. Ce dernier s’est cependant fait porte-voix pour le ministre des Affaires Étrangères Jean-Yves Le Drian pour annoncer que « 2020 sera l’année de la biodiversité comme 2015 a été celle du climat ».

De Rugy se veut être chef de la barque française pour la biodiversité

 Un avis partagé par le ministre de la Transition écologique et solidaire. François de Rugy a voulu se placer comme chef de file d’un grand mouvement en faveur de la biodiversité. Il s’est exprimé lors d’une brève intervention à la fin de la première journée de travail. « Cette nouvelle session de l’IPBES doit être l’acte de naissance d’une mobilisation internationale sans précédent pour la biodiversité. La France sera pleinement mobilisée, au niveau national comme au niveau international, pour en faire une priorité, au même rang que la lutte contre le réchauffement climatique » déclare-t-il. Un souhait qui résonne néanmoins comme un vœu pieu tant qu’aucune annonce claire sur la marche à suivre n’est donnée.

François de Rugy en a également profité pour rappeler à quel point la France a une riche biodiversité sur son territoire. Pour lui, cela s’explique notamment par l’abondance des écosystèmes ultramarins. Le ministre de la Transition écologique a également rappelé qu’il était essentiel que tous les acteurs respectent le Plan pour la biodiversité, annoncé à l’été 2018. Il a, de plus, annoncé la mise en place d’un réseau de surveillance de la biodiversité, composé de scientifiques français. Ceci a pour but d’aboutir à une meilleure coordination entre le monde scientifique et la sphère politique, en faveur de la préservation des intérêts environnementaux.

De la science à la finance, tous à mobiliser pour la biodiversité

De son côté, Frédérique Vidal, ministre de l’Enseignement supérieur, attend impatiemment le rapport final de l’IPBES, qui devrait être divulgué le 6 mai. Selon elle, c’est ce document qui donnera l’impulsion de l’action internationale. « Sans ce constat partagé, les décideurs du monde entier, les acteurs de la société civile et les scientifiques ne pourront pas engager d’action éclairée. Je souhaite donc que tous les gouvernements se saisissent pleinement du consensus scientifique qui leur sera présenté pour définir une feuille de route ambitieuse, articulée avec les engagements en faveur du climat » affirme-t-elle.

Tout aussi désireuse de voir aboutir la lutte pour la préservation de la biodiversité, Brune Poirson en appelle au monde de la finance. La secrétaire d’État rattachée au ministère de la Transition écologique a notamment voulu s’adresser aux banquiers. Pour elle, l’action conjuguée des scientifiques et des politiques aboutira seulement si ces acteurs participent également au changement. Encore une fois, l’intention est louable, mais aucune ambition concrète n’est affichée. Globalement, les ministres français attendent patiemment les grands rendez-vous. À commencer par le G7 environnement qui se tient à Metz les 5 et 6 mai.

Un métamatériau acoustique révolutionnaire

Notre monde moderne baigne dans un brouhaha insupportable. Heureusement, une équipe de chercheurs de l’université de Boston a développé un matériau permettant d’atténuer jusqu’à 94 % du son, tout en laissant l’air circuler librement. Imprimé en 3D, peu coûteux et léger, ce métamatériau pourrait éliminer une grande partie des bruits de moteurs et de ventilation.

L’effet Fano et l’atténuation des ondes acoustiques

Le physicien Ugo Fano a été le premier à théoriser le phénomène d’interférence quantique dont il a décrit le principe en 1961. Mais ce phénomène, qui intervient souvent en spectroscopie sous la forme d’une asymétrie des raies spectrales, a également des applications dans le domaine acoustique. En effet, la transmission asymétrique d’une onde acoustique, résultant en une atténuation par effet d’interférence, présente un certain nombre d’applications dans le domaine du filtrage et de l’isolation acoustique.

Les avancées de la recherche sur les métamatériaux

Les métamatériaux sont des milieux artificiels dont la structure est ordonnée de manière périodique. Cette particularité leur confère des propriétés électromagnétiques hors du commun, par exemple le phénomène de réfraction négative. Néanmoins, du point de vue acoustique, ceci a également un intérêt certain, car la propagation du son dans les métamatériaux est dominée par la forme de la structure, bien plus que par les propriétés des matériaux constitutifs. Si les métamatériaux ont déjà fait leurs preuves dans le domaine acoustique pour la modulation des fronts d’onde ou avec le phénomène de « cape d’invisibilité acoustique » (acoustic cloaking), il leur reste encore des défis à relever.

La problématique : atténuer le son tout en laissant l’air circuler

Comment atténuer le son tout en permettant à l’air de circuler librement ? C’est le challenge qu’a voulu relever l’équipe de l’université de Boston. En effet, bien que les métamatériaux étudiés jusqu’à présent soient capables d’atténuer le son de manière efficace, la section permettant à l’air de passer librement est souvent réduite pour favoriser la performance de l’amortissement. De tels matériaux sont ainsi inutilisables pour de la ventilation forcée. Afin de résoudre ce problème, les chercheurs ont proposé une méthodologie de conception d’un métamatériau à structure ultra ouverte (ultra-open metamaterials ou UOM) ayant la forme d’un anneau.

Modélisation mathématique et impression 3D

La structure UOM a été dimensionnée à partir des résultats d’une simulation numérique par éléments finis. Une fois la forme fixée, celle-ci a été fabriquée en utilisant un procédé d’impression 3D FDM à partir de plastique ABS, puis les porosités de l’objet imprimé ont été refermées en utilisant une résine époxy.

Afin de vérifier ses propriétés acoustiques, la pièce a ensuite été soumise à des essais en conditions réelles. L’équipe de chercheurs a mis au point un test simple et représentatif : un tube PVC a été placé à l’extrémité d’une enceinte audio et le métamatériau a été positionné à l’autre bout du tube. Les résultats sont visibles sur cette vidéo et parlent d’eux-mêmes : le métamatériau agit quasiment comme un bouton « mute ». En comparant les niveaux sonores avec et sans ce matériau, les chercheurs ont même calculé qu’il pouvait éliminer environ 94 % du bruit.

De nombreuses applications pour un monde plus silencieux

Leur prototype ayant fait ses preuves, les chercheurs sont dorénavant en quête de nouvelles applications pour rendre le monde réellement moins bruyant. L’application la plus évidente concerne tous les systèmes utilisant des ventilateurs, ce qui représente énormément de cas de figure, que ce soit dans la vie de tous les jours ou dans le monde industriel, avec en premier lieu les systèmes d’air conditionné ou de chauffage de type pompe à chaleur. Par ailleurs, ce matériau pourrait s’avérer très utile dans un futur proche, pour l’isolation acoustique des drones. En effet, des entreprises comme Amazon affirment vouloir utiliser des drones pour effectuer des livraisons aux particuliers, mais les nuisances sonores causées par les hélices sont fréquemment considérées comme des freins. Ce nouveau métamatériau, parce qu’il est léger et performant, serait donc un bon candidat pour résoudre ce problème.

Apple assure le recyclage de ses iPhone grâce à Daisy

Grâce à Daisy, Apple veut prouver que le monde du smartphone n’est pas étranger au recyclage. Ce robot mis en place par le numéro 2 mondial de la téléphonie mobile permet de trier les composants des smartphones envoyés à la poubelle. Ses performances sont élevées : Daisy peut ainsi recycler 200 téléphones à l’heure, soit 1,2 million d’unités par an. Pour le moment, le dispositif n’est disponible qu’aux États-Unis et aux Pays-Bas, où deux machines similaires sont en fonctionnement.

Le recyclage des téléphones est capital pour récupérer des matériaux essentiels à leur fabrication, et dont l’extraction est controversée. Cela concerne notamment le cobalt, un composant incontournable présent dans les batteries des smartphones, et souvent extrait par des enfants en République démocratique du Congo. Ce petit pays d’Afrique répond à 60 % des besoins mondiaux en cobalt.

Daisy, le robot d’Apple plus performant que Liam

De manière globale, Apple montre de plusieurs façons sa volonté d’adopter une attitude plus respectueuse de l’environnement dans ses activités. Grâce à Daisy, 15 % des smartphones qui sont restitués à la firme voient leurs matières premières triées. Et ce robot est bien plus performant que son prédécesseur, Liam. Ce dernier avait été créé pour recycler simplement l’iPhone 6, alors que Daisy est capable de démanteler neuf modèles différents.

Cependant, une grande marge de progression est à espérer, car le robot n’est pas fait pour démanteler les derniers nés d’Apple, à l’instar de l’iPhone X. Malgré cela, la vice-présidente d’Apple chargée de l’Environnement et des Initiatives sociales, Lisa Jackson, affirme que l’entreprise cherche activement des moyens de réduire son empreinte écologique. C’est pourquoi Apple a annoncé la mise en place d’une opération pour favoriser le retour de ses appareils en fin de vie.

Apple réduit son empreinte écologique par rapport à 2008

Grâce à une telle initiative de la part des consommateurs, Apple peut redéfinir sa stratégie de développement en verdissant sa ligne. Ainsi, le recyclage des matières premières des vieux appareils a permis de modifier la composition de certains produits neufs. Les nouveaux MacBook Air et les Mac Mini ont des boîtiers composés à 100 % d’aluminium recyclé. De plus, le géant du smartphone déclare souhaiter développer le reconditionnement des appareils encore en bon état. En 2018, 7,8 millions d’appareils reconditionnés ont été vendus.

Dans le rapport 2019 faisant état de son impact écologique, Apple rappelle que tout l’étain utilisé pour la confection des smartphones, notamment dans les cartes mères, est 100 % recyclé. Cela a permis d’éviter d’extraire 29000 tonnes de ce minerai. Dans le même temps, la firme américaine indique qu’en 2018, son empreinte carbone s’est élevée à 25,2 millions de tonnes de CO2. C’est 70% de moins qu’en 2008. Les trois quarts des émissions sont liées à la fabrication des appareils.

TOP 5 : les articles les plus lus #avril2019

La géo-ingénierie pour refroidir la planète bientôt testée ?

La géo-ingénierie revient sur la table avec une nouvelle étude parue dans la revue Nature Climate Change. L’idée n’est pas nouvelle ; elle consiste à répandre des produits chimiques dans le ciel. Mais les chercheurs pourraient bientôt lancer une première expérience sur le terrain.

 

HSE : la santé-sécurité au travail dans l’industrie 4.0

Derrière la mise en place de l’industrie 4.0 et la digitalisation de l’ensemble des activités économiques et/ou sociales, c’est l’ensemble de la société, de la place de l’homme et des relations interpersonnelles qui évoluent. Qu’en est-il des questions de santé-sécurité au travail ? Les risques évoluent mais la démarche de prévention change-t-elle ? Les principes fondamentaux sont-ils en train de se transformer ?

 

Une croissance économique durable est-elle réaliste ?

La notion d’économie durable a le vent en poupe. Pourtant accoler ces deux mots peut paraître antinomique, l’un tirant sa force d’une croissance infinie, l’autre partant du postulat de la finitude de nos ressources. Alors peut-on concilier économie et durabilité ? Tentative de réponse.

 

La Russie peut-elle faire web à part ?

En février 2019, un projet de loi « sur l’isolement du segment russe de l’Internet » a été adopté en Russie. Le pays avait déclaré son intention de se déconnecter temporairement du réseau Internet mondial. Info ou intox ?

 

L’innovation territoriale a besoin de l’Europe

A quelques semaines des élections européennes, la question qui revient est toujours la même. L’Europe est-elle un atout ou une contrainte ? Au-delà de l’aspect politique, l’industrie française, pour innover, a tout intérêt à se rapprocher de l’instance continentale, qui mène une politique assumée au niveau territorial pour impulser une innovation cohérente avec la réalité économique mondiale.

Par I. B.

L’Europe mise sur la 6G pour rester dans la course

La 5 G commence à faire tourner les têtes.  Depuis le 19 mars, les opérateurs allemands se battent à coups de milliards pour les fréquences 5G. En France, on regarde plutôt le calendrier. L’ouverture de réseaux 5G est planifiée pour 2020, mais elle sera limitée. Quant aux principaux axes de transport, ils devraient être connectés d’ici à 2025.

Pendant ce temps-là, la Chine et son géant des télécoms Huawei ont « entre 12 et 18 mois d’avance », estime sur franceinfo André Loesekrug-Pietri, fondateur du fonds d’investissement A.CAPITAL et porte-parole de la Joint European Disruptive Initiative (Jedi).

Garantir une qualité de service

Afin de ne pas jouer les Poulidor des télécoms mobiles, l’Europe ne regarde pas les échappés Chinois, mais au-delà ! C’est-à-dire la 6G. 287 experts et scientifiques de 28 pays de tous les continents ont participé au tout premier sommet 6G au milieu de la Laponie.

Lors du Sommet « 6G Wireless Summit », il a été demandé aux participants de se projeter dans le monde en 2030. « Nous devons aborder à la fois les problèmes du monde réel et les rêves pour l’avenir », a déclaré Takehiro Nakamura. Le vice-président directeur et directeur général des laboratoires 5G de NTT DoCoMo a aussi indiqué que les acteurs des télécoms devront aussi « fournir une fiabilité très élevée pour garantir une qualité de service à l’industrie ».

« La vision pour 2030 est que notre société sera axée sur les données grâce à une connectivité quasi instantanée et illimitée. Nous serons confrontés à une population croissante et vieillissante, à des demandes d’augmentation de la productivité et à la nécessité de connecter les milliards de personnes qui ne le sont pas encore », explique le professeur Matti Latva-aho, directeur de 6 G Flagship à l’Université d’Oulu.

Dangerosité des ondes

De son côté, Peter Vetter, responsable de la recherche chez Nokia Bell Labs, estime que le réseau devra être considéré comme une plate-forme qui crée des instances réseau pour des environnements spécifiques. « Il s’agira non seulement d’un réseau permettant la connectivité, mais aussi d’une infrastructure qui servira de capteur pour déduire l’état et la signification de l’infrastructure afin d’augmenter le nombre de personnes et de machines. Comprendre ce qui se passe dans une pièce, par exemple, ouvre de nouvelles applications pour la gestion de l’énergie ou la surveillance de la santé », explique M. Vetter.

Autre thème abordé en Finlande : la dangerosité des ondes. Cette question n’est pourtant pas encore au centre des préoccupations. « Mais c’est un sujet qui pourrait le devenir », note Philippe Dallemagne, responsable du secteur Systèmes sans fil embarqués au CSEM (Centre suisse d’électronique de microtechnique), à Neuchâtel. « Il est clair que multiplier les antennes pose probablement un problème de densité d’émissions de radiofréquences ».

Faudra-t-il réduire la puissance des antennes, en contrepartie de leur multiplication ?

Déchets nucléaires : le débat public est lancé

Que faire des déchets nucléaires français et comment les gérer ? Ce sont des interrogations auxquelles devront répondre les participants au débat public sur l’avenir de la gestion des déchets nucléaires. La Commission nationale du débat public (CNDP) a annoncé que la concertation nationale se tiendra du 17 avril au 25 septembre prochain. Cette dernière fait suite à la demande formulée par l’ancien ministre de la Transition écologique, Nicolas Hulot, auprès de la CNDP, en février 2018.

Au programme, plusieurs dossiers brûlants, à commencer par la saturation des actuels espaces de stockage des déchets nucléaires. La question est d’autant plus pressante que l’Agence nationale pour la gestion des déchets radioactifs (Andra) a révélé qu’il y a en France 1,54 million de mètres cubes de déchets nucléaires, soit l’équivalent de 400 piscines olympiques. Ils sont disséminés dans 950 sites répartis sur tout le territoire national.

Un débat qui reviendra sur Cigéo

Pour les associations de lutte pour la préservation de l’environnement, cette concertation est capitale. « Ces déchets sont tous toxiques et présentent un risque de contamination pour la santé mais aussi les sols, les nappes phréatiques, l’air, les cours d’eau ou la mer en cas de fuite » considère Greenpeace France. Pour l’ONG, il est capital que la concertation aboutisse à un cinquième Plan national de gestion des matières et des déchets radioactifs (PNGMDR) qui permette d’assurer pleinement la sécurité des citoyens.

L’épineux sujet du projet Cigéo à Bure sera, à ce titre, l’un des incontournables de ce débat public. Pour rappel, l’État prévoit de créer un centre de stockage des déchets nucléaires les plus dangereux sous ce petit village de la Meuse, dans une couche d’argile, à 500 mètres de profondeur. Ces déchets sont classés dans les catégories MA-VL (moyenne activité à vie longue) et HA-VL (haute activité à vie longue). S’ils ne représentent qu’une toute petite partie des déchets nucléaires français (3%), leur radioactivité est quant à elle estimée à plusieurs centaines de milliers d’années.

Les piscines de refroidissement interrogent

Cependant, le projet Cigéo est loin d’être le point le plus chaud de cette concertation, car il n’est pas nécessairement le plus urgent. « Même si le projet de Cigéo se fait, on ne pourra pas y mettre les premiers déchets HA-VL et MA-VL avant 2075. Il y a plein d’autres problèmes en amont » rappelle Yannick Rousselet, porte-parole de Greenpeace France sur les sujets nucléaires, à 20 Minutes. Il considère en effet que le sujet principal du débat est le traitement des sites dont la capacité de stockage est au bord de la saturation.

En novembre dernier, l’Institut de radioprotection et de sûreté nucléaire (IRSN) avait estimé que la situation des piscines de refroidissement – où sont placés les déchets en sortie de réacteurs – était « globalement très tendue ». Cela concerne notamment le site d’Orano à La Hague dans la Manche, où les piscines risquent d’atteindre leur stade de saturation à l’horizon 2030. De son côté, le Centre industriel de regroupement d’entreposage et de stockage (Cires) dans l’Aube risque d’être saturé, selon l’Andra, dès 2025.

Des solutions qui divisent

Pour pallier le problème de stockage des déchets les moins radioactifs, à l’instar de ceux présents sur le site de l’Aube, des voix prônent le recyclage. « Pour les [déchets] TFA (très faible activité), la réglementation française nous impose aujourd’hui de les mettre en stockage, bien qu’ils présentent une très faible radioactivité et que nous savons les recycler », déclare Valérie Faudon, déléguée générale de la Société française de l’énergie nucléaire (Sfen). Elle ajoute que cette pratique est répandue en Allemagne, au Japon et en Suède, et propose que la France puisse en faire de même.

L’une des autres pistes suivies par EDF est la création d’une nouvelle piscine de refroidissement. Le projet, qui pourrait potentiellement voir le jour vers 2030, se situerait dans la commune de Belleville-sur-Loire (Cher). Cette nouvelle structure aurait une capacité de 5000 tonnes. Initialement, le projet a été pensé pour être un site de traitement du Mox usé (un mélange d’oxydes composé d’uranium et de plutonium). Mais les associations opposées au nucléaire désapprouvent cette option. « Le recyclage des TFA pose ensuite la question de la traçabilité de ces déchets, avec le risque qu’ils finissent par se retrouver dans des biens de consommation grand public », indique Charlotte Mijeon, porte-parole du Réseau Sortir du Nucléaire.

Des associations, dont le Réseau Sortir du nucléaire, ont d’ailleurs annoncé qu’elles ne participeraient pas à ce débat public. « À quoi bon débattre des options de gestion de ces substances ingérables, si la seule solution réellement existante, à savoir l’arrêt de leur production, est exclue par les pouvoirs publics ? », interrogent-elles dans un communiqué commun.

Le « GIEC » de la biodiversité s’ouvre à Paris

Plus de 800 délégués se réunissent toute la semaine au siège de l’UNESCO à Paris. Parmi eux, des hauts représentants des gouvernements, des experts scientifiques, des représentants de la société civile et des entreprises de plus 132 pays. Au programme : l’examen par les gouvernements du rapport d’évaluation mondial de l’IPBES, le premier rapport intergouvernemental sur l’état de la biodiversité. Il s’agit de l’analyse la plus complète de la nature depuis l’évaluation décisive des écosystèmes pour le millénaire, réalisée en 2005.

En ouverture de cette semaine de travail, les appels à l’action se sont succédé. « Cette évaluation mondiale aura demandé l’analyse de plus de 15 000 publications scientifiques par plus de 150 chercheurs et autres porteurs, y compris des porteurs de savoirs autochtones et locaux, prévient Anne Larigauderie, secrétaire exécutive de l’IPBES. Ils y auront passé plus de trois ans et répondu à plus de 20 000 commentaires qui ont été soumis par leurs pairs et les gouvernements. »

 Faire le lien entre biodiversité et climat

 Le rapport sera approuvé par la plénière en fin de semaine et dévoilé le 6 mai prochain. « Cette évaluation mondiale démontre toute l’importance de la biodiversité, sa perte continue, les causes sous-jacentes de cette perte, les avenirs plausibles de la biodiversité, explique Robert Watson, Président de l’IPBES. Elle présente une gamme de politiques, de pratiques et de structures de gouvernance qui peuvent être utilisées par les gouvernements, les états, le secteur privé et la société civile pour protéger et utiliser de façon durable la biodiversité. »

Robert Watson le martèle : les luttes contre le changement climatique et pour la sauvegarde de la biodiversité vont de pair. Pour lui, « la perte de biodiversité et le changement climatique anthropique sont des questions d’équité inter et intragénérationnelle ». Il poursuit : « Il est essentiel que les questions de perte de la biodiversité et de changement climatique soient reconnues comme ayant un effet l’une sur l’autre et sont d’importance égales. La perte de biodiversité tout comme le changement climatique ne sont pas seulement une question environnementale, mais une question de développement, une question économique, sociale, de sécurité, ainsi qu’une question morale et éthique. La perte continue de biodiversité met à mal l’aptitude de la majorité des pays à atteindre la plupart des objectifs de développement durable. »

Des rendez-vous à ne pas louper

 Le rapport éclairera l’urgence autant que la nécessité d’agir pour préserver la biodiversité terrestre et marine. Dans les mois à venir, plusieurs rendez-vous sont inscrits à l’agenda de la communauté internationale. « Cette évaluation mondiale de l’IPBES servira notamment de base scientifique aux travaux de la COP15 de la Convention sur la diversité biologique en Chine en 2020, prévient Audrey Azoulay, directrice générale de l’UNESCO. L’IPBES forme donc l’espoir que son travail contribuera à susciter d’ici 2020 le grand élan international afin de faire enfin de la biodiversité la grande cause universelle qu’elle doit devenir aux côtés du changement climatique. »

En amont de ces événements, la France accueille le G7 des ministres de l’Environnement, des Océans et de l’Energie les 5 et 6 mai prochains. Du 24 au 26 août 2019, le sommet du G7 prendra place à Biarritz. En juin 2020, viendra le tour du Congrès de l’UICN à Marseille, à quelques mois de la COP15.

Ingénieuses’19 : les nominées sont connues !

Techniques de l’Ingénieur a été heureux de faire partie du jury Ingénieuses 2019 qui s’est réuni le lundi 15 avril pour étudier 179 candidatures et projets, répartis dans les 6 catégories du concours. Celui-ci récompense des actions ayant pour finalité l’égalité entre les femmes et les hommes.

À l’issue des délibérations, les nominé-e-s suivant-e-s ont été désigné-e-s :
  • Prix de l’école la plus mobilisée :
    • CentraleSupélec,
    • l’ENIT,
    • l’ENSI Poitiers
    • l’ISAE SUPAERO ;
  • Prix du projet le plus original :
    • l’IMT Mines Albi
    • l’IOGS ;
  • Prix pour l’enseignement à l’égalité femmes-hommes :
    • l’EFREI,
    • l’ESIGELEC
    • l’INSA Strasbourg ;
  • Prix de l’élève-ingénieure France en partenariat avec l’AUF : 
    • Stella BOURDIN, élève-ingénieure de CentraleSupélec,
    • Sarah CROMER, élève-ingénieure de l’ESTACA,
    • Mylène LE CALVEZ, élève-ingénieure de l’ENSIMAG,
    • Elise REY DU BOISSIEU,  élève-ingénieure de l’EPF
    • Marie TESTI,  élève-ingénieure de l’ENISE ;
  • Prix de la femme ingénieure :
    • Elisabeth EUDE, diplômée de l’INSA Rennes,
    • le Commandant Sophie, diplômée de l’ISAE-SUPAERO et
    • Rima OULD, diplômée de Polytech Sorbonne.

L’Agence universitaire de la Francophonie au Maghreb, le partenaire du concours pour le prix de l’élève-ingénieure Maghreb, a d’ores et déjà désigné Meriem BAKRI, élève-ingénieure de l’ESI Alger, comme lauréate 2019. Vous pourrez la retrouver lors de la cérémonie de remise de prix ainsi que l’ensemble des nommé-e-s.

La RATP sera partenaire de cette cérémonie, durant laquelle le nom des autres lauréat-e-s (élève-ingénieure France, femme ingénieur, et écoles d’ingénieur-e-s) sera dévoilé. Elle se tiendra le vendredi 17 mai, de 14 h à 18 à l’espace Van Gogh, 62 Quai de la Rapée, Paris 12e.

Cet événement est ouvert à tous et toutes. C’est l’occasion pour chacun d’assister à des conférences, des retours d’expérience d’ancien-ne-s lauréat-e-s, et d’échanger avec les autres participants. Pour vous inscrire à la cérémonie, rendez-vous sur le site d’Ingénieuses 2019.