Hydroélectricité et changement climatique, une nécessaire adaptation

EDF est en effet le premier gestionnaire de l’eau en France, avec quelque 75% des réserves d’eau artificielles, soit environ 7,5 milliards de mètres-cube (m3), a rappelé Yves Géraud, directeur de la production et ingénierie hydraulique d’EDF, à l’occasion d’une rencontre avec les associations de journalistes de l’énergie et de l’environnement (AJDE et AJE), début septembre. L’énergéticien est ainsi l’un des acteurs « les mieux placés pour que d’autres pour voir l’effet du changement climatique à l’œuvre sur nos rivières et sur nos glaciers », rappelant qu’il existe une prise d’eau sous la Mer de glace, qu’elle a déjà été reculée et que l’électricien prévoit déjà de devoir l’adapter une fois encore. « Nous sommes donc aux premières loges et nous en sommes les victimes. Même s’il n’y a pas forcément de perspective de moins d’eau, et d’une production en baisse, mais avec des périodes de sécheresse exceptionnellement longues et des périodes de crues plus fréquentes, insiste le responsable des barrages d’EDF. D’ores et déjà les barrages ont été adaptés avec des évacuateurs de crues en « touches de piano ».

Depuis 1948, EDF dispose ainsi d’une mission de service public du suivi des précipitations en altitude (lieu où sont les barrages en général), tandis que Météo France réalise cette mission en plaine. Un suivi particulièrement fin, et ce qui intéresse EDF c’est les centimètres d’eau contenus dans la neige par exemple, indique Pierre Bernard, de l’unité rattachée à EDF Hydraulique experte de la connaissance de la ressource en eau et du débit des rivières. Le « stockage » d’eau sous forme de neige est mesuré automatique via des instruments à rayonnement cosmique, car si un mètre de neige fraîche représente environ 10 cm d’eau, ce même mètre en fin de saison (tassée donc) « pèse » ses 40 à 50 cm d’eau.

Des événements de plus en plus contrastés

Le premier semestre 2019 fait ainsi apparaître un déficit de production hydraulique de 31,6% par rapport au premier semestre de l’année précédente. Mais, comme le souligne Yves Géraud, 2018 était une année avec une production très forte, avec un premier semestre très arrosé, même si dans certains bassins, comme le Rhin, les niveaux d’eau ont été particulièrement bas, avec une sécheresse forte. Une variation à la hausse et à la baisse de 30% environ qui est « intégrée » dans les schémas de production d’EDF, indique Pierre Bernard.

Ainsi, l’électricien a géré ces fluctuations et les barrages ne montrent qu’une faible baisse de niveau (2%) par rapport à l’année dernière. En 2018, le lac de Serre-Ponçon a ainsi été historiquement bas, afin de pouvoir accueillir les fortes précipitations du premier semestre. En revanche, en 2019, sur les Pyrénées, l’enneigement ayant été très déficitaire, les lacs ont moins été utilisés, et EDF a moins turbiné.

Le partage de l’eau

Mais une gestion qui pèse sur la production d’électricité car, l’eau des retenues « se partage », insiste Yves Géraud. Ainsi, le plus grand barrage, Serre-Ponçon, dans les Alpes, avec ses 1,2 milliard de m3, sert également au tourisme et à l’agriculture, mais aussi à l’alimentation en eau potable de Marseille et du littoral. Et s’il est bas en cette période de l’année, c’est parce qu’il a fallu ouvrir les robinets pour fournir de l’eau à toute la région en aval. Voire parfois en utilisant de l’énergie, en faisant fonctionner les pompes pour remonter l’eau du canal de Provence et alimenter les agriculteurs. Ainsi, sur le bassin Durance-Verdon, où il passe en moyenne 5 milliards de m3, 1,8 milliard est destiné à la seule agriculture.

Le régime de concession

Dans ce cadre, Yves Géraud rappelle opportunément que les concessions d’exploitation des lacs et rivières ne font apparaître que la production électrique. Sur la Durance et sur le Rhône (géré par la CNR), les règles de partage de l’eau ont été posées après l’attribution des concessions. Mais aujourd’hui c’est l’électricité qui supporte les coûts liés aux autres usages de l’eau. Une réglementation qui était « possible quand il y avait des tarifs réglementés, et qu’il s’agissait d’un service public, ajoute le responsable de l’hydraulique, mais qui « dans un contexte de changement climatique et de dérégulation des marchés de l’énergie, n’est plus une situation tenable ». Sur Adour-Garonne, un mécanisme de soutien d’étiage existe (avec le Syndicat mixte d’étude et d’aménagement de la Garonne, SMEAG), avec des volumes d’eau convenus répartis par le syndicat. Reste que l’exploitant hydroélectrique n’est pas en position d’arbitrer les usages et qu’il est soucieux de préserver son équilibre économique, ajoute Y. Géraud. Si EDF ne vend pas l’eau, l’entreprise la met à disposition et perd de la production. Dans le cadre du changement climatique et des nouvelles contraintes sur la ressource (qui ne sera pas disponible aux moments voulus) il faut un partage plus efficace. C’est l’un des aspects à prendre en compte dans le dossier du renouvellement des concessions…

Distribution électrique : Lérins Grid, une première numérique et électronique de puissance

Dans le cadre de l’expérimentation smart grid Nice Smart Valley, Enedis a en effet sécurisé le réseau de l’île Sainte-Marguerite, en remplaçant les diesels de secours par une batterie pour pallier les potentielles défaillances du câble reliant les îles de Lérins, dont Sainte-Marguerite fait partie, au continent. Mais aussi une première démontrant la possibilité de « remonter » un réseau à partie de batteries, comme dans le cas d’un « black start », c’est-à-dire après un black-out (une coupure totale) quand le réseau est totalement hors service et qu’il faut commencer à le rétablir et faire remonter la tension et le voltage.

Enedis est ainsi allé au-delà du « simple » îlotage prévu au départ dans le cadre du projet Lérins Grid, qui s’articule autour de trois grands axes : la gestion des flexibilités sur le réseau de distribution électrique, l’utilisation du stockage d’électricité et l’îlotage d’une partie du réseau de distribution. Il regroupe six entreprises : Enedis, GRDF, EDF, Engie, GE et Socomec.

La problématique

L’île Sainte-Marguerite est reliée au réseau de la région Sud PACA par un câble sous-marin. En cas d’interruption du câble, c’était jusqu’à présent des groupes diesels qui assuraient l’alimentation de l’île, le temps d’effectuer les réparations. Les îles ne disposent pas pour l’heure d’alimentations alternatives fondées sur les énergies renouvelables (ni solaire, ni éolien), la zone étant protégée.

L’objectif de la Mairie de Cannes, dont dépendent les îles du Lérins, en collaboration avec Enedis, a consisté à trouver une solution innovante afin de réduire les émissions carbonées des groupes. La solution adoptée s’est fondée sur les solutions en matière de stockage d’énergie de Socomec, partenaire de Nice Smart Valley. Le but recherché était de pouvoir mettre en autonomie (îloter) l’île en cas d’incident sur l’alimentation apportée par le câble.

L’îlotage d’une zone spécifique avait d’ailleurs déjà été testée dans le cadre du projet européen Interflex* sur la région (NiceGrid), mais reposait sur des industriels et des commerces capables de mettre en œuvre des moyens décentralisés de production, le tout avec une batterie ad hoc.

Le système

D’abord testé en laboratoire, le système a ensuite été testé une première fois en mars dernier, avec succès, c’est-à-dire que les consommateurs de l’île n’ont pas enregistré de coupure au moment du passage du câble à la batterie. Et vice-versa, au moment du recouplage au réseau, le consommateur ne doit pas sentir de changement dans son alimentation. Des essais qui se sont poursuivis jusqu’à la semaine dernière, avec succès. C’est sur ce point que réside l’innovation technologique, menée de concert entre Enedis en Socomec, spécialiste du contrôle-commande et des convertisseurs d’énergie. La batterie, installée et opérée par Enedis, est pilotée à distance par le gestionnaire du réseau de distribution et permet l’alimentation à la fois en basse et en moyenne tension de l’île.

En général, en cas de coupure du réseau, la remise en service s’opère à partir d’installations hydrauliques (rapides à démarrer) qui facilitent également le retour à la fréquence demandée par le réseau, car il s’agit de turbines, donc tournantes.

Ainsi, une première en matière de black-start avait été réalisée en 2017 aux Etats-Unis par un énergéticien de Southern California, Imperial Irrigation District (IID), qui avait réussi à « remonter » le réseau à partir de batterie, mais qui étaient soutenues ensuite par la remise en service de plusieurs centrales thermiques.

Comme le souligne Bernard Mouret, responsable d’Enedis sur la région du distributeur (PACA), cette réalisation offre également des possibilités nouvelles. Une seconde batterie appartenant à Engie a ainsi été installée en avril dernier pour renforcer la capacité d’îlotage des îles, grâce à une communication sans fil, également conçue par Socomec, avec la batterie d’Enedis existante. Ce qui crée un écosystème, indique Bernard Mouret, alliant un opérateur de réseau, Enedis, et un acteur de marché, Engie, apportant un service au réseau d’électricité et permettant d’imaginer un modèle d’affaires innovant ouvrant la voie à la viabilité économique de tels projets. Engie peut en effet mettre l’énergie de la batterie à disposition de ses clients en autoconsommation, ou pour répondre aux demandes su système électrique dans son ensemble.

Bien entendu, les batteries n’étant pas, pour l’heure, capable de délivrer du courant pendant plusieurs jours, l’étape suivante, insiste le responsable d’Enedis, vise à favoriser l’installation de panneaux solaires (dans ce cas, mais ailleurs, cela peut reposer sur de l’éolien) capable d’alimenter les batteries, afin de rendre l’île autonome, le temps de rétablir la liaison avec le réseau de distribution du continent. Enedis entend bien également s’appuyer sur cette expérimentation pour proposer ce « modèle » à d’autres collectivités territoriales iliennes.

*Projet européen de Smart Grid, Interflex a officiellement été lancé le 1er Janvier 2017. Le projet associe des fournisseurs d’électricité, des fabricants de matériels et des experts des Smart Grids avec 5 distributeurs d’électricité européens : ČEZ Distribuce (République tchèque), Enedis (France), E.ON (Suède), Enexis (Pays-Bas) et Avacon (Allemagne). Pendant trois ans, les 20 partenaires du projet expérimentent de nouvelles formes de flexibilités dans le but d’optimiser le système énergétique à une échelle locale.

IFA 2019, salon international d’électronique : les innovations à retenir

Plus encore que le CES aux Etats-Unis, le salon IFA de Berlin, qui s’est terminé la semaine dernière, est généralement la vitrine d’un futur technologique proche : les téléviseurs, les réfrigérateurs et les smartphones présentés sont prêts à s’installer dans nos foyers ou dans nos poches. Lors de cette édition, il a été surtout question d’intelligence artificielle, de reconnaissance vocale et de connectivité dont la 5G, selon les organisateurs. Au vu des annonces, on peut ajouter la 8K. Marginaux l’an dernier, les écrans 8K se répandent sous l’impulsion des fabricants chinois, dans l’attente que le contenu approprié en fasse autant. Les fabricants comptent sur ces innovations pour relancer les ventes. Car, à l’exception de quelques niches (PC gaming, petit électroménager, casques audio…), les marchés de l’équipement électronique et du smartphone fléchissent un peu partout dans le monde. Le contexte international tendu – guerre commerciale sino-américaine – et la situation économique incertaine ne font pas souffler un vent favorable.

Panasonic joue la transparence avec Vitrine

Aperçu en avril dernier à la Milan Design Week, l’écran Vitrine de Panasonic s’est à nouveau exhibé à Berlin. Il se caractérise par sa dalle OLED, opaque ou transparente selon l’usage : quand l’écran est allumé, il sert de téléviseur classique : quand il est éteint, il devient transparent comme une vitre et se fond bien mieux dans le décor. Tous les composants électroniques sont dissimulés dans le cadre en bois. D’autres fabricants comme LG ont déjà exploité cette propriété de l’OLED, dont les composés organiques peuvent être organisés en couches si minces qu’ils laissent filtrer la lumière. Mais la dalle «changeante» de Panasonic est novatrice. On parle d’une commercialisation en 2020.

Panasonic

Acer «immerge» le gamer

Certains «gamers» veulent les meilleures conditions pour optimiser leurs performances ou vivre l’expérience la plus immersive possible. S’ils sont prêts à débourser 8975 €, Acer les exaucera avec le Thronos Air, dont la commercialisation est prévue début 2020. Plus qu’un siège «gaming », c’est une véritable cabine réunissant une structure en acier, un fauteuil, un bureau modulaire et un bras capable de porter trois moniteurs. Le fauteuil est massant et dispose d’un repose-pied. Un porte-gobelet est disponible en option, si jamais le confort n’est pas suffisant. Le PC se dissimule quant à lui derrière le fauteuil.

LG intègre trois écrans dans le G8X

Un, deux et même trois si l’on compte le petit afficheur de 2,1 pouces à l’extérieur de la coque : signé LG, le smartphone G8X ThinQ comporte trois écrans en tout et s’apparente à un téléphone pliable. Ce qu’il n’est pas véritablement, s’il est comparé à celui de Samsung : dans le cas présent, les deux écrans principaux (OLED, 6,4 pouces) sont distincts. Un configuration susceptible d’être intéressante pour les utilisateurs adeptes du multitâche. Le reste de l’équipement est plus classique (4G, etc). La mise en vente serait prévue au quatrième trimestre 2019, mais il n’est pas sûr que la France soit concernée.

LG

Catspad nourrit automatiquement le chat

Au rayon insolite, l’idée de la start-up toulousaine Catspad se pose là. Voici donc le distributeur connecté de croquettes et d’eau pour chat ! Muni d’un double réservoir contenant d’un côté 1,6 kg de croquettes et de l’autre 6 litres d’eau, cet appareil Wifi permet de superviser l’alimentation du greffier… et aussi de se débarrasser d’une corvée, admettons-le. A l’aide de l’application mobile, l’utilisateur obtient un suivi nutritionnel et règle la méthode de «livraison» de la nourriture : selon une programmation horaire, ou à la demande, l’animal montrant alors patte blanche grâce à son médaillon RFID (cinq profils de matous peuvent être enregistrés). La batterie de secours prend le relais en cas de panne de courant. Il en coûte tout de même 389 €.

Catspad

Airdresser, le mini-pressing personnel de Samsung

Vu sur le stand de Samsung, le AirDresser combine une penderie et un mini-pressing à domicile. Les vêtements sont nettoyés grâce à des jets de vapeur, puis séchés à basse température afin que le tissu soit préservé. Les autres procédés mis en œuvre éliminent les odeurs et aussi la poussière. Le Airdresser accueille et nettoie jusqu’à trois vêtements en même temps – chemise, veste de costume, robe, etc – et quelques accessoires, comme les cravates. C’est bien entendu un objet connecté, son propriétaire pouvant le programmer ou recevoir des notifications à partir de l’application mobile dédiée.

La double dalle de Hisense : Full HD et 8K

Bien que cela ne saute pas aux yeux, cet écran de la gamme Uled XD du chinois Hisense ne possède pas une dalle LCD, mais deux. La seconde, bénéficiant d’une définition Full HD,  est dissimulée à l’intérieur du châssis et sert à filtrer le rétroéclairage LED. Il en résulte un contraste nettement amélioré selon Hisense : 150 000:1 contre 10 000:1 d’ordinaire. Cet industriel avait déjà montré un écran 4K exploitant cette astuce technique  au dernier salon CES, et l’a commercialisé quelques mois plus tard en Chine. Ce nouveau modèle, prévu l’an prochain, fait encore mieux cependant, en raison de sa définition 8K. Son prix est estimé à 10000 €.

Hisense

Le Galaxy Fold de Samsung prend un nouveau départ

Signé Samsung, le Galaxy Fold est équipé de deux écrans : le premier de 7,3 pouces qui s’active une fois le smartphone déplié, le second de 4,6 pouces opérationnel quand le smartphone est refermé. Présenté en mars dernier dernier au MWC de Barcelone, ce smartphone avait été victime peu après d’un faux départ, au moment de sa commercialisation : les premiers exemplaires se révélaient trop fragiles. Il revient dans une version renforcée  et sera mis en vente en France à partir du 18 septembre. Sans surprise, c’est du haut de gamme : 2020 €.

Samsung

Sharp allie 8K et 5G

Avec ses 120 pouces de diagonale, soit un peu plus de trois mètres, cet écran LCD de Sharp – sans nom, prix ou date de commercialisation – est le plus grand écran 8K au monde. Une autre spécification attire l’attention : le modem 5G. A l’avenir, il est en effet possible, voire probable, que les signaux de la télévision 8K (ou de tout autre contenu avec une telle définition) transitent par la 5G, au lieu de la TNT. Voici quelques mois, France Télévisions a expérimenté la diffusion en 8K de Rolland Garros par l’intermédiaire d’antennes 5G. On est encore loin d’une proposition commerciale, en particulier en France où la 5G tarde, mais les procédés techniques s’affûtent.

Sharp

La R&D a encore un rôle à jouer dans le solaire photovoltaïque

C’est ce qui ressort de l’ouverture de la conférence européenne EU PVSEC 2019, à Marseille, du 9 au 13 septembre. Walburga Hemetsberger, directrice générale de SolarPower Europe, le lobby photovoltaïque, a tracé un chemin lumineux, à l’aune de l’European Green Deal annoncé par la nouvelle présidente de la Commission européenne, Ursula von der Leyen, dans les cent premiers jours de sa mandature.

La représente du lobby européen signale que la demande en solaire PV va progresser de 81% cette année, permettant d’installer 20,4 GW (gigawatts) en 2019 dans l’Union européenne. Dans le monde, le seuil des 500 GW installé va être dépassé et le térawatt est en vue pour 2022, a-t-elle insisté.

Elle ajoute que le solaire pourrait répondre à près de 20% de la demande en électricité dans l’UE d’ici à 2030, et créer près d’un demi-million d’emplois dans le secteur. D’où le lancement de la campagne de communication du lobby en faveur du PV sur le bâti, qui représente un potentiel de quelque 680 TWh dans l’UE. Une initiative portée par l’industrie pour répondre à l’un des enjeux phares de la Commission européenne, de réduire les émissions de gaz à effet de serre du secteur du bâtiment, qui pèsent pour 40% des rejets européens.

Le retour de l’emploi en Europe ?

Piotr Symanski, du Centre commun de recherche européen, le JRC (en initiales anglaises), a de son côté souligné que l’aménagement des toitures pourrait représenter quelque 24% de la demande européenne. Une industrie du PV qui potentiellement pourrait contribuer à la création de quelque 240 000 emplois directs, dont 55 000 dans les centrales et 185 000 dans le secteur minier et quelque 215 000 emplois indirects, à comparer aux pertes de l’ordre de 160 000 emplois attendues dans le secteur thermique classique. Il ajoute que le PV est présent dans l’ensemble des scénarios présentés par la Commission européenne à l’horizon 2050. Le JRC travaillant à la fois à harmoniser les marchés en mettant en place de la normalisation adaptée et en réalisant de la recherche de pré-normalisation.

Pour que ces scénarios se réalisent, « il faut transférer l’innovation acquise vers les industriels », a souligné Florence Lambert, directrice du CEA-Liten (le laboratoire d’innovation pour les technologies des énergies nouvelles du Commissariat à l’énergie atomique et aux ENR), et présidente de la manifestation marseillaise. A noter que c’est la première fois qu’une femme préside ce salon européen (36e édition).

Des giga-factories

Si la Chine a trusté, dans les dix dernières années, la production mondiale de panneaux photovoltaïques, et plus particulièrement de cellules de silice, les nouvelles technologies, le nombre plus limité de process, vont impliquer un changement de toutes les usines dans le monde, dans des référentiels avec des cibles économiques très basses, a insisté la responsable du CEA-Liten, estimant que « nous sommes à l’aube d’un grand soir du PV, dont la France doit savoir saisir sa part ».

Mais l’heure sera aux giga-factories, a noté Andreas Bett, de l’institut allemand de recherche, le Fraunhofer Institute. Des usines capables de fabriquer 10 GW de panneaux par an, et des usines « vertes ». C’est là où l’Europe espère aujourd’hui retrouver un rôle dans le secteur et revenir en amont dans la chaîne de valeur, insiste Florence Lambert, réclamant une « hyperconnexion de tous les acteurs dans les transferts vers l’industrie ».

Une montée en puissance via la R&D

Le silicium représente encore plus de 95% dans la production totale des modules, et ne devrait pas disparaître de sitôt. Néanmoins, la course aux rendements a vu monter en puissance des technologies « mixtes », a indiqué Daniel Lincot, directeur au CNRS (et ex-directeur scientifique de l’Institut solaire d’Île-de-France, l’IVPF, qui regroupe recherche publique et privée) à Marseille le 9 septembre. Le rendement actuel des cellules au silicium plafonne à 26,6% en laboratoire. Mais demain, les cellules à hétérojonction, qui consistent en la mise en place de plusieurs couches de matériaux différents, offrent des perspectives très intéressante. Le CEA a réalisé un rendement de 22% sur une ligne pilote industrielle en début d’année. Par ailleurs, a indiqué le responsable du CNRS, « les cellules perovskites, qui n’existaient pas 2014, affichent aujourd’hui des rendements de 22% ». Un travail qui provient de la recherche fondamentale sur les couches minces, ajoute-t-il. Ce qui est peu par rapport aux records atteints en laboratoire (46%), mais qui mettront du temps avant d’arriver dans l’industrie.

Cependant, il existe « une compétition foisonnante dans la recherche amont », avec plus d’une vingtaine de catégories de filières. Mais la progression des cellules perovskites combinées au silicium annonce un rendement qui pourrait rapidement monter. Un travail est en cours à l’IVPF et à l’Ines, l’Institut national de l’énergie solaire, avec une feuille de route, 30-30-30, soit 30% de rendement des modules en 2030 à 30c€/W. Un programme qui s’articule avec de grands laboratoires européens également, tel le Fraunhofer allemand, ajoute Daniel Lincot. Reste qu’il faudra réussir à se mettre d’accord sur les sites d’implantation en Europe de ces nouvelles giga-usines…

 

La France, premier émetteur de particules fines PM2,5 en Europe

En matière d’émissions de particules fines, la France est placée au rang de lanterne rouge en Europe. Selon une étude menée par l’Agence européenne de l’environnement (EEA), la France aurait rejeté dans l’atmosphère durant l’année 2017 environ 164.000 tonnes de particules fines PM2.5. Dans les pays voisins, seule l’Italie a enregistré des niveaux d’émissions similaires. À l’inverse, le Portugal, les Pays-Bas, l’Irlande ou encore la Belgique ont atteint de niveaux d’émissions beaucoup moins élevés.

Les foyers français, premiers responsables de la pollution au PM2.5

Principal responsable de ces émissions de particules fines : les systèmes de chauffage. Ainsi, les chaudières, cuisinières et autres foyers – fermés ou ouverts – engendrent 70.000 tonnes de PM2.5 en 2017. Dans les faits, 45% des émissions de PM2.5 en France sont dus aux rejets domestiques (tabac et autres sources comprises). Notons que selon l’association de surveillance de la qualité de l’air AirParif, les émissions de particules fines PM10 et de gaz à effet de serre (GES) liées aux activités domestiques sont également élevées.

Le reste des émissions de particules fines se partagent majoritairement entre l’industrie manufacturière (17%), le transport routier (15%), les déchets (6,7%), l’utilisation énergétique liée à l’industrie (66%) et l’agriculture (6,4%). Il est important de noter que grâce aux convertisseurs catalytiques installés sur les système d’échappement des véhicules, les rejets de PM2.5 liés aux transports ont été considérablement réduits depuis les années 1990.

La France patine, et Paris s’équipe contre les particules fines

Mais malgré les efforts réalisés par la France depuis trente ans pour réduire ses émissions de particules fines, la santé publique exige que davantage de mesures soient mises en place. Toujours selon l’EEA, la France était, en 2017, le troisième pays d’Europe à enregistrer le plus de décès liés à l’exposition aux particules PM2.5. Ainsi, 35.800 personnes seraient décédées dans l’Hexagone des suites d’une pathologie liée à l’exposition aux particules fines. Au niveau européen, 10% des personnes mortes à cause des particules fines sont décédées en France.

Afin de lutter contre les émissions de particules fines, la France a pris des engagements fixés par la directive sur les plafonds d’émissions nationaux (NEC). Dans le rapport 2019, la France s’engage à réduire à l’horizon 2030 de 30% les émissions de particules fines PM2.5 par rapport à celles enregistrées en 2017. Preuve de la volonté d’action des pouvoir publics, Valérie Pécresse, présidente de la région Île-de-France, a récemment indiqué sur France Bleu que Paris serait très prochainement équipé d’une station de mesure des particules ultrafines.

Des télescopes pour espionner des satellites

Détourner la finalité d’un objet est vieux comme le monde. C’est le cas aujourd’hui avec un interféromètre optique. Comme l’explique Wikipedia, il s’agit d’un ensemble de « télescopes fonctionnant dans le spectre visible ou infrarouge. Il est utilisé en astronomie afin d’obtenir un pouvoir de résolution (finesse de l’image) plus grand qu’avec un seul télescope ».

En travaillant ensemble, cet ensemble de petits télescopes pourrait produire des portraits détaillés des satellites en orbite géosynchrone. Cette « photo détaillée » pourrait être très utile aux propriétaires de satellites pour établir un diagnostic de leurs vieux satellites ou pour comprendre pourquoi un modèle plus récent ne s’est pas correctement déployé.

Seigneur des Anneaux

Mais ce type d’informations intéresserait aussi les milieux militaires et du renseignement. Cette technique leur permettrait d’obtenir des informations sur les satellites d’autres pays,

Jusqu’à présent, aucun interféromètre de ce type n’a été mis en service. Et les versions qui existent sont toutes plus chères que ne le voudrait l’IARPA, l’Intelligence Advanced Research Projects Activity (elle a pour mission d’imaginer et de conduire des activités de recherche à risque et potentiel élevés). D’où le programme Amon-Hen (nom aussi d’une forteresse qui était à la frontière nord du Gondor dans « Le Seigneur des Anneaux »). Lancé en 2017, il a pour objectif de développer des télescopes  » innovants et peu coûteux  » (moins de 25 millions de dollars) au sol qui peuvent prendre des images haute définition de satellites en orbite lointaine.

Selon SpaceNews, Lockheed Martin, Boeing, Honeywell et Applied Technology Associates participeraient à ce projet qui devrait durer 33 mois.

Officiellement, cette solution sera utilisée pour observer les satellites américains et internationaux ainsi que les débris spatiaux. « Nous apprécions de surveiller la santé et l’état de nos propres satellites. Par conséquent, tous les débris sont à suivre, car ils représentent un risque pour nos satellites et pour les satellites d’autres pays. Et si nos satellites se comportent bizarrement, ou s’ils commencent à mal fonctionner, cela peut poser un risque pour nos autres satellites », explique Merrick DeWitt, responsable de ce programme.

Ce programme confirme que l’espace est (re) devenu une priorité pour les militaires. La preuve, la France vient d’installer officiellement à Toulouse son commandement de l’espace avec un général des forces spatiales. Coût de l’opération: 700 millions d’euros.

Il s’agira d’assurer la protection des satellites français et de réguler l’accès à l’espace.

Le trou dans la couche d’ozone se reforme plus tôt que prévu

La Journée internationale pour la préservation de la couche d’ozone a été créée par les Nations Unies pour célébrer la signature du Protocole de Montréal en 1987 par 196 Etats et l’Union européenne. Celui-ci a interdit les gaz nocifs pour la couche d’ozone, au premier rang desquels les chrlorofluorocarbones (CFC).  Malgré cette interdiction, le trou dans la couche ne devrait pas se rétablir avant 2060 selon l’évaluation scientifique de l’appauvrissement de la couche d’ozone réalisée en 2018.

Dans ces conditions, le Service pour la surveillance de l’atmosphère de Copernicus (CAMS)  surveille continuellement l’évolution de la couche d’ozone. Il est déployé par le Centre Européen pour les prévisions météorologiques à moyen terme (CEPMMT) pour le compte de la Commission Européenne.

Une évolution saisonnière du trou dans la couche d’ozone

L’évolution du trou de la couche d’ozone au-dessus de l’Antarctique est saisonnière. Durant l’hiver, il fait nuit en Antarctique. Cela provoque la formation d’une configuration venteuse particulière, appelée vortex. « Les substances chimiques contenant du chlore et du brome s’accumulent dans le tourbillon polaire et demeurent inactives dans l’obscurité, où les températures peuvent descendre sous -78 °C explique le CEPMMT. Lorsque le soleil se lève au-dessus du pôle, l’énergie solaire libère des atomes de chlore et de brome chimiquement actifs dans le tourbillon qui détruisent rapidement les molécules d’ozone et provoquent la formation du trou. » Chaque année, c’est en septembre qu’apparaît le trou dans la couche d’ozone, avant sa dissolution en décembre. Il atteint habituellement son maximum entre mi-septembre et début octobre.

Cette année, les données montrent que le trou dans la couche d’ozone en Antarctique a commencé à se former environ deux semaines plus tôt que les années précédentes. « Le trou dans la couche d’ozone est actuellement excentré et les prévisions indiquent des signes d’instabilité dus à une activité dynamique importante dans la partie spécifique de la stratosphère, relate le CEPMMT. Par conséquent, l’étendue spatiale du trou dans la couche d’ozone progresse actuellement à un rythme beaucoup plus lent que d’habitude. Cela peut mener à un trou dans la couche d’ozone plus petit et possiblement sur une durée plus courte. » Le CAMS surveille la formation du trou au jour le jour. Le service produit également des prévisions sur l’évolution probable du trou dans la couche d’ozone sur les cinq jours à venir.

« Il n’y a pas lieu de se reposer sur ses lauriers », analyse Vincent-Henri Peuch, chef du Service pour la surveillance atmosphérique de Copernicus (CAMS). « Le rétablissement de la couche d’ozone dépend du changement climatique, car le refroidissement à long terme de la stratosphère peut exacerber la perte d’ozone et retarder le processus. En outre, la possibilité d’émissions non autorisées de substances appauvrissant la couche d’ozone ne peut être exclue – en effet, les émissions du deuxième chlorofluorocarbone le plus abondant (CFC-11) ont été détectées en 2018 et elles pourraient être retracées sans équivoque et faire l’objet de mesures. Il est très important de maintenir les efforts internationaux de surveillance du rétablissement de la couche d’ozone et des trous dans la couche d’ozone. »

Techniques de l’Ingénieur et le Cetim : Un partenariat pour la diffusion des connaissances en mécanique

Cette année, les éditions Techniques de l’ingénieur vont diffuser, sous forme de conférences en ligne, les désormais incontournables « Rendez-vous de la Mécanique », organisés chaque année par le Cetim. Ces manifestations gratuites sont organisées en collaboration avec la Fédération des Industries Mécaniques (FIM) ainsi que des syndicats professionnels, et ont pour vocation la diffusion des derniers résultats des travaux d’intérêt collectif menés par le Cetim (Centre d’expertise mécanique français).

Un partenariat fructueux

Avec cette collaboration, les Editions Techniques de l’Ingénieur, éditeur scientifique et technique francophone, souhaite permettre au plus grand nombre de partager les connaissances scientifiques applicables dans l’industrie.
Le Cetim, quant à lui, multiplie cette action grâce à un réseau de partenaires scientifiques et techniques de référence.
Les premières collaborations fructueuses avec le Cetim ont permis la coédition d’un ouvrage dédié à la fabrication additive métallique, mais aussi la tenue d’un Forum Innovation afin de lier entreprises et startups, et de favoriser l’innovation dans l’industrie mécanique.

En 2019 : Les Rendez-vous de la Mécanique

Les Rendez-vous de la Mécanique proposent à tous les industriels d’assister à des conférences en ligne organisées lors de réunions d’informations technique en régions. Les experts du Cetim interviennent pour échanger sur des enjeux en communs et partager leurs connaissances scientifiques applicables dans l’industrie .

En partenariat avec Techniques de l’Ingénieur, c’est une série de 5 Rendez-vous de la Mécanique qui vous sera présentée en direct sur notre site. L’ensemble de ces conférences en ligne sont gratuites et vous pouvez vous inscrire jusqu’au dernier moment.

Voici le programme :

Enjeux de la filière automobile : Appréhender la mutation vers l’électrification des véhicules.
Le mardi 17 septembre 2019 de 15h00 à 16h15, cette conférence en ligne est présentée par deux experts du Cetim : Vincent Caulet, responsable du marché automobile et Jean-Paul Candoret, ingénieur veille technologique.

– Une session de 3 webinars sur le thème « Matériaux et traitements «   :
De 14h15 à 14h40 : Veille technologique et stratégique sur l’ingénierie des surfaces : les tendances actuelles.
Cette conférence en ligne est présentée par Jean-Marc Belot, Chargé de veille technologique traitements de surfaces et traitements thermiques au Cetim.

De 14h45 à 15h35 : Matériaux en fabrication additive.
Cette conférence en ligne est présentée par Florence Doré, Expert matériaux au Cetim.

De 15h40 à 16h30 : Les verres métalliques, de nouveaux alliages tout-terrain.
Cette conférence en ligne est présentée par Oriane Baulin, Expert matériaux au Cetim.

– « Du nouveau en fabrication additive : vers une production agile et au plus juste ! »
Le Jeudi 17 Octobre de 14h30 à 15h30, cette conférence en ligne est présentée par Maxime Robert.

– Le mardi 29 octobre : Reach en Mécanique (Plus d’infos à venir)
– Le jeudi 21 novembre : Métrologie et Contrôle (Plus d’infos à venir)

D’autres événements prévus.

Retrouvez également d’autres conférences en ligne en partenariat avec le Cetim :

Comment les traitements de surface se sont adaptés à l’évolution de la mobilité et de l’industrie 4.0 ?

Un verre souple biomimétique qui s’inspire de la nacre des coquillages

La nacre, un matériau composite naturel

Les propriétés exceptionnelles de la nacre proviennent autant de sa composition chimique que de sa microstructure. Lorsqu’on l’observe au microscope électronique, on constate que la nacre est constituée à plus de 95% d’un empilement de plaques d’aragonite de formule chimique CaCO3. Pourtant, l’aragonite n’est pas réputée pour être un matériau particulièrement résistant : avec une dureté de quatre sur l’échelle de Mohs, c’est un matériau qui se raye facilement à l’aide d’un simple couteau. En réalité, la nacre est un matériau beaucoup plus complexe. Ainsi, le secret de la nacre vient de ses conditions de production : un procédé naturel de polymérisation de molécules organiques et minérales qui permet d’obtenir un matériau avec une résistance propre 10 fois supérieure à celle de l’aragonite.

Reproduire le mécanisme de glissement des plaques de CaCO3

Si la nacre est aussi solide, c’est grâce à un empilement de plaques hexagonales de CaCO3, soudées entre elles par une substance organique à base de protéines. Lorsque la nacre subit un choc, ces plaques glissent les unes sur les autres en suivant la déformation du polymère, ce qui permet de dissiper l’énergie de l’impact. Ces propriétés sont connues depuis longtemps et leur exploitation intéresse de nombreuses équipes de chercheurs dans le monde. L’équipe du professeur François Barthelat, de l’université de McGill au Canada a ainsi créé un nouveau type de verre feuilleté en gravant des motifs au laser sur de fines feuilles de verre. En cas de choc, ces feuilles se brisent en hexagones microscopiques en suivant les motifs gravés.

Un verre 2 à 3 fois plus résistant que le verre trempé, mais trop flexible

Lorsqu’il subit un impact, un verre feuilleté classique absorbe une partie des chocs, mais peut-être brisé. Ce nouveau type de verre réagit différemment. Les dommages restent extrêmement localisés et il n’y a quasiment pas de propagation de l’énergie du choc : le verre se déforme et renvoie l’énergie, car ce verre est très flexible. Malheureusement, cette caractéristique le rend, pour le moment, inutilisable pour la fabrication de vitrages de fenêtres, bien qu’il soit deux à trois fois plus résistant qu’un verre trempé.

Le matériau idéal pour les écrans de Smartphones

Ce nouveau type de verre a pourtant une application évidente : la fabrication d’écrans. Actuellement, les écrans de Smartphones sont conçus en verre trempé, ce qui ne les empêche pas de se briser facilement en tombant au sol. Cette « nacre artificielle » pourrait donc permettre de concevoir des écrans deux fois plus résistants et pourrait même être utilisée pour la fabrication de Smartphones pliables.

Gestion des déchets radioactifs : le débat continue !

Il reste encore une dizaine de jours pour participer en ligne au débat public sur la gestion des déchets radioactifs. À ce jour, la plateforme a reçu 74 questions, 357 avis et 38 contributions et cahiers d’acteurs. Fin juillet, 1285 commentaires avaient été publiés. Si la plateforme a récolté des questions et avis relevant de différents horizons, seulement une dizaine de personnes sont actifs. « Trois quarts des commentaires proviennent de neuf utilisateurs », relève la commission particulière du débat public.

Le nucléaire fait toujours autant débat

Durant l’été, la commission particulière du débat PNGMDR a fait le point à mi-parcours des débats en ligne. Elle relève des « avis opposés et tranchés ». Si les échanges sont qualifiés de débat, « chacun reste sur ses positions ». La commission voit « la difficulté à établir des échanges rationnels et dénués d’émotion ».

La commission relève par ailleurs un manque de confiance des opposants au nucléaire dans la science. « Ce ne sont pas tant des arguments scientifiques qui sont contestés, mais plutôt la vision globale d’une science perçue comme arrogante et incapable de tirer les leçons de catastrophes environnementales passées ». Les deux camps sont irréconciliables : « Les missionnaires EDF en nombre prétendent à l’excellence en niant la réalité. Les antinucléaires ne peuvent imaginer autre chose que l’arrêt de la filière nucléaire », note un participant.

En somme, la question du nucléaire est symptomatique d’une société qui peine à trouver un équilibre entre le scientifique, le politique et le citoyen. Plusieurs partisans du nucléaire regrettent que la voix des scientifiques et des ingénieurs ne soit pas prépondérante sur celle des simples citoyens. À l’inverse, les opposants appellent à un référendum présentant les alternatives et leurs caractéristiques pour avoir un réel choix démocratique sur l’énergie nucléaire et la gestion des matières et déchets radioactifs.

Un débat qui peine à se concentrer sur la gestion des déchets

Le débat tourne autour de 5 thèmes majeurs. Par ordre de priorité : la santé publique et l’environnement, les déchets ultimes de haute activité et moyenne activité à vie longue, le débat public, les enjeux éthiques et l’entreposage. Le principal sujet de discussion portant sur les déchets demeure le centre de stockage en couche géologique profonde Cigéo, dans la Meuse.

« Depuis le lancement du débat et encore actuellement, une part importante des échanges en ligne porte sur la pertinence ou non du recours à l’énergie nucléaire », relève la commission. Et plusieurs appels cherchent à recentrer le débat sur l’objet même du débat public, à savoir la gestion des matières et des déchets radioactifs. Car même en cas de sortie de la filière électronucléaire, il sera nécessaire de traiter les déchets déjà produits. L’énergie nucléaire n’est d’ailleurs responsable que de 51% de la production des déchets radioactifs. « La société serait-elle prête à se passer des autres applications de l’atome, dans le domaine médical et celui de la défense notamment? », s’interroge un participant. « La question des déchets est indissociable de nos choix de société », analysent plusieurs participants.

Le projet Cigéo déchaîne toujours les passions

Cigéo réduit tous les risques à long-terme pour ses partisans. Ses opposants y voient plutôt « un moyen fallacieux d’oublier le problème des déchets, de les soustraire aux regards de la société ». Quelques partisans du projet s’inquiètent tout de même de l’irréversibilité du stockage au -delà de la période de fonctionnement de 100 ans.

Les opposants proposent comme alternative le stockage des déchets de haute activité à vie longue directement sur leur lieu de production pendant plusieurs centaines d’années. Une proposition balayée par les partisans de Cigéo qui y voient une dissémination des déchets radioactifs beaucoup plus difficile à surveiller, notamment en cas de bouleversement des structures de la société.

Deux sujets émergents

La commission note que l’expertise complémentaire relative aux alternatives au stockage géologique des déchets de haute et moyenne activité à vie longue par l’IRSN n’a pas fait l’objet de commentaires. Elle invite les participants à le lire et à en débattre.

Ces dernières semaines, la commission voit s’intensifier un courant d’opinions en faveur du déclassement des déchets de très faible activité. Des participants appellent à considérer comme déchets conventionnels ceux qui ne dépassent pas un certain seuil de radioactivité. EDF vient d’ailleurs de publier son avis sur le site du débat public pour réutiliser des matériaux métalliques très faiblement radioactifs issus de ses centrales nucléaires après les avoir traités. Pour l’instant, l’énergéticien est obligé de les stocker.

La loi d’orientation des mobilités : un manque d’ambition ?

« Tous les amendements déposés par les députés pour faciliter et accélérer la transition vers des véhicules et des moyens de transports moins polluants et plus économes ont […] été rejetés, déplore le Réseau Action Climat (RAC) dans un communiqué. Les conclusions du Haut Conseil pour le climat appelant à accélérer la décarbonation des transports et celles de l’ANSES recommandant de réduire en priorité le trafic routier pour lutter contre la pollution de l’air n’ont donc pas été entendues au sein de l’Assemblée nationale. »

Une loi trop peu ambitieuse ?

La Commission Développement durable de l’Assemblée nationale a notamment rejeté l’idée d’avancer l’interdiction de vente des voitures neuves essence et diesel de 2040 à 2030. Elle a refusé la généralisation de la prime vélo et son cumul avec le remboursement des abonnements aux services de transports en commun. Enfin, elle a écarté la taxation du kérosène et les investissements dans les trains, notamment de nuit.

Dans un communiqué, les sénateurs appellent les députés à « garantir les ressources nécessaires au financement des services de mobilité ». Ils estiment que le projet de loi ne prévoit « aucune ressource spécifique et durable » pour que les collectivités territoriales puissent « offrir aux citoyens des alternatives crédibles à la voiture individuelle ». C’est ce manque de financements qui avait déjà abouti à l’échec de la commission mixte paritaire le 10 juillet dernier.

Des émissions qui ne cessent d’augmenter

Il  y a pourtant urgence à agir sur les transports pour accélérer la transition énergétique. Selon un rapport de la Commission des comptes des transports de la Nation publié fin août, les émissions des transports n’ont baissé que de 1,6% en 2018 par rapport à 2017. La part des transports dans le volume total des émissions de gaz à effet de serre de la France ne cesse même d’augmenter. Elle est passée de 29% en 2016, à 30% en 2017 et 31% en 2018.

Ce rapport appel à une action beaucoup plus forte.« Pour être compatible avec l’accord de Paris, le rythme moyen annuel de la réduction des émissions de gaz à effet de serre des transports devrait être deux fois plus important que celui constaté entre 2017 et 2018 », affirme-t-il. En particulier, la hausse des émissions de gaz à effet de serre provient des poids lourds et du trafic aérien intérieur. Les véhicules neufs émettent aussi plus de CO2. Reste à savoir si les députés prendront en compte ces nouveaux éléments pour augmenter l’ambition du projet de loi actuel.

Des films en nylon dans les appareils électroniques

Dans quelques années, les appareils électroniques pliables (en particulier les smartphones) et les vêtements intégrant de l’électronique seront, peut-être, une réalité pour la majorité d’entre nous.

Pour l’instant, la nouvelle version du Samsung Galaxy Fold se fait encore un peu désirer. Les déboires du Sud-Coréen sont peut-être une aubaine pour l’industrie de la microélectronique qui s’oriente de plus en plus vers les gadgets électroniques pliables et les (e -) textiles.

Une des pistes envisagées serait d’utiliser des films en nylon. Certains « rejetons » de cette famille de polymères synthétiques (introduits pour la première fois dans les années 1920)
présentent des propriétés dites « ferroélectriques ».

Des transistors en nylon

Cela signifie que les charges électriques positives et négatives peuvent être séparées et que cet état peut être maintenu. Les matériaux ferroélectriques sont utilisés dans les capteurs, les actionneurs, les mémoires et les dispositifs de récupération d’énergie.

L’avantage de l’utilisation de ces polymères est qu’ils peuvent être liquéfiés à l’aide de solvants adéquats et donc traités à partir d’une solution peu onéreuse pour former des couches minces flexibles. Elles conviendraient aux dispositifs électroniques tels que les condensateurs, transistors et diodes.

Après des années de recherches, des scientifiques de l’Institut Max Planck for Polymer Research – ou MPI-P – en collaboration avec des chercheurs de l’Université Johannes Gutenberg de Mayence et de l’Université de technologie de Lodz) ont mis au point une méthode de fabrication de condensateurs à couche mince (quelques centaines de nanomètres d’épaisseur, soit des centaines de fois plus fines qu’un cheveu) en nylon ferroélectrique.

© Frank Keller / MPI-P

Les scientifiques ont soumis leurs prototypes des condensateurs à des cycles de contraintes prolongés. Ils ont démontré la robustesse des nylons ferroélectriques sous des millions de cycles de fonctionnement.

Selon l’équipe du MPI-P , « la disponibilité, la facilité de synthèse et le cout réduit des nylons par rapport aux fluoropolymères ferroélectriques permettraient la mise à l’échelle de films minces flexibles à faible coût pour les applications envisagées des polymères ferroélectriques en microélectronique, en mémoire et en récupération d’énergie ».

2 GW de nouveaux appels d’offres solaires annoncés pour 2020

Elisabeth Borne a annoncé durant l’été 107 nouveaux projets de centrales solaires au sol ou d’ombrières de parkings totalisant 853 MW. Ils étaient lauréats de la dernière tranche de l’appel d’offres lancé par le gouvernement pour les grands projets solaires. « Cette annonce permet en particulier de redonner de la visibilité au segment des grandes installations photovoltaïques, dont le calendrier d’appels d’offres s’achevait cet été », se félicite le syndicat des énergies renouvelables (SER). Par la même occasion, le SER salue une annonce « qui  apporte à la filière une année de visibilité ».

Atteindre les objectifs de la PPE sur le solaire

Mi-2019, la capacité de production du parc solaire photovoltaïque français s’élevait  à 9,1 gigawatts (GW). La programmation pluriannuelle de l’énergie (PPE) vise un objectif de 20.6 GW en 2023, puis entre 35.6 et 44.5 GW en 2028. Cela revient à multiplier par 4 à 5 la puissance en moins de dix ans. « La filière attend maintenant la confirmation de ces objectifs dans la version finale de la PPE », rappelle le SER.

Les panneaux au  sol devront contribuer à hauteur de 11,6 MW en 2023 et entre 20,6 et 25 MW en 2028. C’est sur ce poste que se focalisent majoritairement les nouveaux appels d’offres annoncés par Elisabeth Borne. « Les cahiers des charges seront publiés prochainement sur le site de la Commission de régulation de l’énergie », annonce le ministère de la transition écologique et solidaire.

Le métier d’ingénieur est toujours recherché

L’enquête IESF 2019 rappelle que la rémunération des ingénieurs est confortable pour cette catégorie d’actifs. En effet, le salaire médian, tous âges confondus, est de 57.700 euros brut annuels. En début de carrière, le salaire est de 41.000 euros, et pour ceux qui arrivent en fin de carrière, il peut atteindre 94.000 euros.
En plus d’une rémunération attractive, le secteur ne connait pas la crise de l’emploi. Seulement 3,3% des ingénieurs actifs sont au chômage. Les ingénieurs travaillent à 81% dans le secteur privé et 11% dans le public. Le secteur de l’industrie est le secteur qui recrute le plus, suivi des activités tertiaires et les sociétés de services. Les ingénieurs en activité occupent majoritairement des fonctions « Etudes, recherche et conception », « Productions et activités connexes », « Systèmes d’information ».
Parmi, les ingénieurs diplômés en 2018, seuls 14% étaient en recherche d’emploi. Un chiffre qui explique la forte attractivité pour les carrières d’ingénieurs.

Des diplômes encore valorisés

Les inscriptions pour les écoles d’ingénieurs sont en hausse, surtout pour les concours post bac. Avec le développement de ces différentes voies d’accès, l’enquête de l’IESF confirment que plus d’un ingénieur sur deux n’est pas passé par les classes préparatoires. La formation initiale sous statut étudiant occupe toujours une place dominante mais la part réservé aux formations par apprentissage est en croissance.
On compte près de 40% d’ingénieurs qui possèdent un double diplôme. Pour exemple, plus de la moitié des ingénieurs chimistes ou physiciens possèdent ou préparent un double diplôme. Ces diplômes complémentaires traduisent une option de carrière vers des postes de management, des postes techniques ou encore vers la recherche. Ils sont souvent associés à une augmentation de salaire ou des responsabilités hiérarchiques. Pourtant ces doubles diplômes sont moins bien rémunérés mais beaucoup estiment qu’ils leur procurent plus de satisfactions personnelles.

L’appel du large

77% des ingénieurs sont satisfaits dans leur emploi. Ils sont même 86% à considérer que leurs valeurs personnelles sont en adéquation avec celles de leur entreprise. Une adéquation très importante puisque 73 % des ingénieurs seraient prêts à refuser de faire quelque chose si cela allait à l’encontre de leurs principes.
La 30ème enquête de l’IESF souligne également que les ingénieurs sont nombreux à envisager de quitter l’Ile de France pour une région présentant « plus d’atouts pour leur vie personnelle ». Parmi les régions attractives, l’Auvergne-Rhône-Alpes et la Nouvelle-Aquitaine arrivent en tête, suivies de la région PACA, l’Occitanie.

 

Techniques de l’Ingénieur participe à Measurement World !

Toute la profession réunie autour d’un projet inédit : la création d’un Salon dédié à la Mesure dans son sens le plus large.

Ce salon de dimension internationale deviendra la référence du secteur à Paris, tous les deux ans. L’objectif du salon est d’informer, de vulgariser et de promouvoir les bonnes pratiques du secteur, l’étendu des solutions technologiques et tous les apports de la mesure (contrôle, optimisation, productivité, qualité, fiabilité, valorisation des donnée…) pour tous (experts, universitaires et chercheurs, institutionnels, fabricants, prestataires et utilisateurs industriels), et pour tous les secteurs industriels : mécanique, médical, biologie, agro-alimentaire, environnement, énergie, chimie, pharmaceutique, cosmétique…

LE SALON EN CHIFFRES

  • ​​ 5 000 m² d’exposition comprenant un Village Métrologie de plus de 2 000 m²
  • 3 jours d’exposition
  • 230 exposants
  • 4 000 visiteurs
  • 1000 participants de 45 pays du Congrès International de Métrologie

START’HUB

Cet espace de démonstration, le Start’Hub, mettra à l’honneur les « jeunes pousses » qui réinventent la filière et façonnent l’industrie de demain par leur capacité d’innovation, leur potentiel de création et leur dynamisme.
Une vingtaine de start-ups viendront présenter leurs technologies et solutions liées à la métrologie et à la mesure autour des sujets contrôle non destructif, traitement intelligent des données et des images, réalité augmentée, et IoT…

CAMPUS & JOB CORNER

Le Campus & Job Corner est entièrement dédié à l’emploi, la formation et l’attractivité des métiers de la filière.
Il reflétera à la fois la richesse des carrières, valorisa les métiers et mettra en avant les postes disponibles.

  • Lycéens, étudiants… trouvez les métiers et les formations adaptés à votre profil scolaire. 5 écoles partenaires mettront en avant leurs formations.
  • Jeunes diplômés, demandeurs d’emploi ou recruteurs, découvrez les entreprises présentes au salon en recherche de futurs candidats pour un emploi.

CONFÉRENCES

3 jours de conférences en accès libre animées par les experts de : CLUB DE L’OPTIQUE, EMVA, LCIE BUREAU VERITAS, Revue MESURES sur les thématiques tels que les Capteurs, l’Acquisition de données, l’Optique, la Vision, l’évolution de la mesure, le CND….

CONGRÈS CIM

Le Congrès International de Métrologie 2019 est un événement unique à la croisée des chemins entre applications industrielles et R&D pour tout public.

La SNCF vise une quinzaine de TER à hydrogène d’ici deux ans

Le diesel est sur la sellette. Après les camions, les bus et les voitures, c’est au tour des trains de préparer leur transition énergétique. « L’objectif est qu’il n’y est plus aucun diesel sur les rails français dans 15 ans, rappelle Guillaume Pepy, PDG de la SNCF. C’est extrêmement ambitieux parce qu’aujourd’hui, il y a encore 20% des trains ou des locomotives qui sont diesel. »

Guillaume Pepy vante les mérites de l’hydrogène

Dans cette perspective, l’entreprise ferroviaire veut tester le train à hydrogène « d’ici deux ans à peu près ». « L’intérêt va être de regarder si grâce à ces nouveaux trains, on pourra diminuer la pollution en ville, mais aussi diminuer la pollution à la campagne, c’est-à-dire que tout au long du trajet le train n’émet aucun polluant », explique Guillaume Pepy. S’agissant d' »une première en France », ce dernier rappelle que le train à hydrogène « ne rejette que de l’eau, pas de particules » et estime qu’il ne présente « pas de difficultés vis-à-vis de l’écologie ».

Reste tout de même à connaître l’origine de l’hydrogène. Actuellement, 95% de l’hydrogène consommé en France provient du vapocraquage du gaz naturel. Pour être intéressant d’un point de vue climatique, il doit être obtenu par électrolyse de l’eau obtenue grâce à des énergies renouvelables.

Trains à hydrogène et trains hybrides

Dans un premier temps, « on espère que d’ici quelques semaines, en mettant autour de la table 6 régions […], l’Etat qui va nous aider, et puis Alstom et nous, on va signer un contrat pour construire une quinzaine de trains à hydrogène », annonce le PDG. Il cite la Région Sud, la Nouvelle Aquitaine, Bourgogne-Franche-Comté, le Grand Est, la Normandie et les Pays de la Loire.

Ce projet s’inscrit dans le cadre du Plan Hydrogène lancé par Nicolas Hulot, alors ministre de la transition énergétique et solidaire en juin 2018. Celui-ci prévoit le lancement d’appels à manifestation d’intérêt pour développer les véhicules lourds : à hydrogène (bus, camions, trains et bateaux). Les objectifs du plan s’élèvent à 200 véhicules lourds en 2023 et entre 800 et 2.000 en 2028.

La SNCF se lance aussi dans l’hybride. À savoir, un autorail comprend quatre moteurs diesels. Afin de développer un autorail hybride, « on enlève deux moteurs diesel et on met à la place deux batteries à haute puissance », associées à des moteurs électriques, explique simplement le PDG. Ces batteries se rechargent lors des phases de freinage et la motorisation électrique serait uniquement activée en ville pour réduire la pollution de l’air.

Des revêtements en verre bioactifs pour la fabrication d’implants osseux

Dans le domaine des implants osseux, les biomatériaux bioactifs font figure de révolution. Ces matériaux, parce qu’ils contiennent des molécules actives, offrent de nombreuses possibilités médicales, car cela permet de contrôler l’interaction entre les cellules et le matériau. Néanmoins, ces matériaux présentent l’inconvénient d’être classés comme “systèmes d’administration de médicaments”. Ils sont donc soumis à une réglementation bien plus contraignante que celle des autres dispositifs médicaux.

Les verres bioactifs, une solution alternative aux polymères bioactifs

Les verres bioactifs sont des matériaux qui permettent en théorie de contourner ce problème, car après insertion dans l’organisme, ils se recouvrent naturellement d’une couche hydroxyapatite carbonatée, ce qui permet la création de liaisons chimiques avec les cellules osseuses. Néanmoins, ils sont peu utilisés en pratique à cause de leur fragilité.

Pour remédier à ce problème, l’équipe de chercheurs du CNRS propose ainsi de combiner les propriétés bio actives d’un verre SiO2 -CaO et la résistance d’une gélatine, une forme hydrolysée de collagène osseux de type I.

Une recette élaborée avec précision

Pour concevoir ce matériau innovant, les chercheurs ont testé de multiples compositions de bio-verres, élaborés par le procédé sol-gel. Le procédé sol gel a plusieurs avantages : il est facile à mettre en œuvre et peut-être opéré à température ambiante, ce qui en fait un bon candidat. En effet, la principale difficulté était de trouver un moyen de contrôler la porosité à l’intérieur du matériau sans passer par un traitement thermique qui aurait pour conséquence de détruire la matrice en collagène.

Les propriétés bioactives de ce matériau hybride ont ensuite été testées par l’incorporation d’ions calcium dans la matrice poreuse, le calcium étant connu pour stimuler la formation osseuse et l’activité cellulaire.

Par ailleurs, la caractérisation de ces matériaux a été rendue possible grâce à une technique d’analyse ultrasensible des surfaces : la méthode PIXE, qui permet d’obtenir une cartographie des éléments chimiques sous l’action d’un faisceau de protons.

Un matériau facilement industrialisable

En plus de permettre une cicatrisation deux fois plus rapide, ce biomatériau hybride présente d’autres avantages. Ainsi, il est d’autant plus intéressant que sa synthèse demeure remarquablement simple à mettre en œuvre en comparaison avec d’autres procédés utilisés jusqu’ici. En effet, la synthèse à température ambiante, l’absence d’atmosphère inerte et de produits chimiques dangereux ou toxiques pour les cellules humaines sont également un argument de poids. Cette simplicité, associée à un faible coût des matières premières en font un matériau très compétitif.

Un tel hybride pourrait même, à l’avenir, supplanter l’utilisation des phosphates de calcium tels que l’hydroxyapatite qui n’ont pas de comportement bio actif. Néanmoins, à plus court terme, ce nouveau verre bioactif est annoncé pour la fabrication d’implants dentaires et sa commercialisation est d’ores et déjà prévue pour 2022.

Greenpeace et le CNRS vont mieux documenter les écosystèmes guyanais

Greenpeace a sorti les grands moyens pour en savoir plus sur la biodiversité guyanaise et mieux connaître le Récif de l’Amazone. Les recherches seront d’abord dédiées à la diversité marine, en particulier les grands cétacés. Baleines à bosse, dauphins, cachalots fréquentent les eaux guyanaises. L’association écologiste veut en particulier approfondir « la compréhension des phénomènes qui influencent leur distribution au large ».

Pour cela, les nouvelles observations compléteront les campagnes aériennes de recensement des mammifères marins (REMMOA) menées en 2008 et 2017. « La comparaison de ces observations permettra de tester les modèles de distribution de ces espèces face aux changements des conditions environnementales”, explique Sophie Laran, de l’observatoire Pelagis (CNRS/La Rochelle Université) qui assure la coordination scientifique de ce volet, en collaboration avec son collègue Olivier Van Canneyt. En particulier, la mission cherchera à découvrir l’origine des baleines à bosse observées depuis quelques années dans la région.

Cap sur le Récif de l’Amazone

Dans un second temps, l’Esperanza prendra la direction du Récif de l’Amazone pour confirmer son étendue et analyser les caractéristiques de cet écosystème. Ce récif avait été découvert en 2016 par des scientifiques brésiliens. Dès 2017, Greenpeace avait mené une importante campagne médiatique pour protéger le récif des projets de prospection pétrolière dans la zone. En décembre dernier, l’agence environnementale brésilienne (Ibama) avait annoncé sa décision de rejeter définitivement la demande de Total de forer au large de l’embouchure de l’Amazone.

Serge Planes, chercheur au Centre de recherches insulaires et observatoire de l’environnement (Criobe) du CNRS est responsable scientifique de ce deuxième volet. « Près de l’embouchure de l’Amazone, les eaux sont très troubles et la quantité de lumière qui atteint le fond marin extrêmement faible, explique-t-il. La structure de l’écosystème doit être très différente de celle qu’on peut rencontrer dans une eau limpide et pauvre en nutriments, où toute la chaîne alimentaire repose sur la photosynthèse des algues associées aux coraux.” Pour documenter les spécificités de cet écosystème, des plongeurs récolteront des échantillons à des fins d’analyses génétiques entre 80 et 100 mètres de profondeur.

Greenpeace veut protéger les océans

Cette mission scientifique s’inscrit dans le cadre plus large d’une campagne menée par Greenpeace au niveau international. Lancée en avril dernier, elle appelle à protéger les océans. « Pendant un an, les bateaux de l’organisation sillonnent les océans de l’Arctique à l’Antarctique pour documenter les menaces auxquelles ces derniers font face et mieux connaître leurs richesses« , fait savoir l’association.

« Nous espérons que les résultats de cette mission fourniront des arguments scientifiques pour renforcer notre demande de traité mondial pour les océans, actuellement en cours de négociation à l’ONU, prévient Edina Ifticène, chargée de campagne pour Greenpeace France. Si ce traité est suffisamment fort et ambitieux, il ouvrira la voie à la création d’un réseau mondial d’aires marines protégées, exempt de toutes activités humaines néfastes, visant à protéger au moins 30 % des océans, comme le recommande la communauté scientifique internationale.

Une anode au lithium semi-liquide veut révolutionner les batteries à électrolyte solide

Les électrolytes solides sont considérés comme la clé vers une nouvelle génération de batteries au lithium plus denses, plus légères et avec une durée de vie améliorée. Néanmoins, ceci reste encore de la théorie, car la fabrication d’électrolytes solides au lithium est confrontée à de nombreux problèmes technologiques, comme la présence de réactions chimiques néfastes, à l’interface entre les électrodes et l’électrolyte. Autre problème rencontré dans les batteries utilisant un électrolyte céramique et une anode au lithium solide : le contact solide/solide est insuffisant pour produire la quantité d’énergie nécessaire à la plupart des produits électroniques.

Un électrolyte fluide innovant

L’idée d’utiliser des électrodes métalliques alcalines liquides avec des électrolytes solides n’est cependant pas nouvelle. Cependant, les solutions jusqu’ici proposées avaient l’inconvénient majeur de nécessiter une température de fonctionnement élevée (250 °C à 700 °C), ce qui limite fortement leur champ d’application.

La solution proposée par les équipes de l’université de Carnegie Mellon est totalement différente. L’anode semi-liquide au lithium (SLMA) est constituée d’une dispersion colloïdale homogène de microparticules de lithium, incorporée dans une matrice composite polymère/carbone. La concentration en lithium de ce fluide est de 40 % en volume pour une capacité volumétrique de 800 mAh/mL.

Ainsi, les chercheurs ont réussi à concevoir une nouvelle classe de matériaux qui combine les avantages d’un liquide tout en gardant les propriétés du lithium, pour une température de fonctionnement de seulement 65 °C.

Une solution très performante

Les résultats obtenus par les deux doctorants de Carnegie Mellon, Sipei Li du Mellon College of Science et Han Wang du College of Engineering sont plutôt prometteurs. En effet, en combinant le SLMA avec un électrolyte solide céramique à base de grenat (Li6.4La3Zr1.4Ta0.6O12 ou LLZTO), ils ont réussi à faire fonctionner la cellule à une densité de courant 10 fois supérieure à celle atteinte avec les électrolytes solides traditionnels utilisant une feuille de lithium. La cellule de test a également montré un profil de tension stable avec 150 mV de surtension, sans hystérésis à 1 mA/cm², pour une heure de demi-cycle à 65°C pendant 400 heures.

Un grand nombre d’applications possibles

Les chercheurs pensent que leur méthode pourrait être utilisée pour créer des batteries haute capacité pour les véhicules électriques. Par ailleurs, ce concept serait également transférable aux autres systèmes de batteries rechargeables telles que les batteries au sodium ou au potassium ainsi qu’aux systèmes de stockage d’énergie à grande échelle.

La recherche sur les électrolytes solides au Lithium avance à grands pas

Les batteries à électrolyte solide ont le vent en poupe et cette équipe n’est pas la seule à travailler sur le sujet. Ainsi, des chercheurs japonais (Université du Tōhoku et institut KEK) viennent de développer un conducteur super ionique à base d’hydrures complexes de lithium, ouvrant également la voie vers un nouveau domaine de recherche.

La Convention citoyenne pour le climat en construction

Serez-vous appelés pour faire partie de la Convention citoyenne pour le climat ? La campagne téléphonique menée par Harris Interactive en vue de sélectionner les 150 Français à la Convention citoyenne pour le climat a commencé le 26 août. Jusqu’à fin septembre, plus de 250 000 numéros de téléphone seront générés de manière aléatoire et appelés.

Une Convention citoyenne, pour quoi?

La Convention citoyenne pour le climat doit résulter sur des propositions concrètes pour lutter contre le réchauffement climatique en France. Elle doit notamment redessiner les aides aux citoyens et définir des mesures complémentaires et leur financement pour permettre à la France d’atteindre ses objectifs climatiques. En particulier, l’objectif de baisser les émissions de gaz à effet de serre d’au moins 40 % en 2030 par rapport à 1990. Elle pourra traiter des questions relatives aux économies d’énergie, à la rénovation thermique des logements, à l’agriculture, aux mobilités et à la fiscalité écologique.

La première réunion aura lieu les 4, 5 et 6 octobre prochain.  En plus, six week-ends de trois jours de travail et une  sont programmés jusqu’à début 2020. Au plus tard début février, la Convention présentera ses recommandations. Les propositions retenues seront soumises soit au vote du Parlement, soit à référendum, ou donneront lieu directement à des mesures réglementaires. Le gouvernement publiera ensuite un calendrier prévisionnel de mise en œuvre de ces propositions. Les citoyens pourront enfin formuler leurs réactions aux réponses du Gouvernement.

Convention citoyenne pour le climat : mode d’emploi

Pour constituer cette assemblée de 150 personnes représentatives de la population française, plus de 250 000 numéros de téléphone seront tirés au sort : 85% sur portable, 15% sur fixe. Six critères de sélection permettront de faire le choix, conforme à la population française : 52% de femmes, 48% d’hommes et  6 tranches d’âge, conforme à la pyramide des âges de la population française. Suivent des critères de diplôme et de métier. Le poids des régions, ainsi que le type de territoire – pôles urbains, couronnes et zones rurales – sera respecté.

Pour les participants, tous les frais seront pris en charge : déplacement, hôtel, restauration et garde d’enfants pour les familles monoparentales. Ils toucheront une indemnité journalière de session de 86,24 €, à laquelle peut s’ajouter une indemnité de perte de revenu professionnel et une indemnité journalière de séjour.

Pour s’assurer du bon fonctionnement de la Convention, l’organisation a été confiée au Conseil économique, social et environnemental (CESE).  Le comité de gouvernante a été mis en place début juillet. Co-présidé par Thierry Pech, directeur général de Terra Nova  et Laurence Tubiana, présidente et directrice exécutive de la Fondation européenne pour le climat, il regroupe 12 personnalités qualifiées dans le domaine de l’écologie, de la démocratie participative et des sujets économiques et sociaux. Julien Blanchet, vice-président du CESE, en assurera le rôle de rapporteur général.  Son rôle : élaborer le programme de travail et de veiller à sa mise en œuvre. Par ailleurs, un comité des garants sera chargé de veiller au respect des règles d’indépendance et de déontologie du processus.

Ecologie : les Français sont pessimistes mais ils veulent agir

Alors que les feux en Amazonie ont fait la Une des médias ces dernières semaines, RTL et M6 ont demandé à Harris Interactive d’en savoir plus sur la perception des Français des enjeux écologiques. L’enquête a été réalisée en ligne les 28 et 29 août 2019 auprès d’un échantillon de 1066 personnes représentatif des Français âgés de 18 ans et plus, selon la méthode des quotas.

Des Français pessimistes mais qui veulent agir

69 % des Français se déclarent pessimistes pour l’avenir de la planète.  Un sentiment qui s’amplifie avec l’âge et qui est plus marqué chez les femmes. Près de trois Français sur quatre affirment que leur intérêt pour ces enjeux a crû au cours des derniers mois  et 52% d’entre eux qu’ils ont modifié leur comportement pour mieux respecter l’environnement. Notons que si seulement 41% des 18-24 ans se disent pessimistes,  la prise de conscience récente est particulièrement élevée pour cette tranche d’âge :  89%.

Les gestes simples comme les éco-gestes se sont bien répandus chez les Français. Ils sont 99% à se dire prêts à éteindre la lumière lorsqu’ils quittent une pièce, 98% à fermer le robinet lorsqu’ils se brossent les dents ou encore 97% à trier leurs déchets. Plus de 9 Français sur dix sont aussi prêts à acheter des produits de saison, recycler leurs équipements numériques, bannir les plastiques à usage unique, réparer leurs équipements, favoriser le made in France, débrancher les appareils en veille et préférer les produits en vrac. Ils sont toutefois seulement 65% à se déclarer prêts à ne plus prendre l’avion et 53% à se passer de véhicules individuels.

L’écologie toujours en quête d’une politique claire

Contrairement à ce qui est souvent avancé par les médias, le sondage montre que 62% des Français estiment que la mise en place de politiques de préservation de l’environnement n’a pas forcément un impact négatif sur leur pouvoir d’achat. Ce chiffre monte à 81% chez les sympathisants d’Europe Ecologie-Les-Verts et 72% chez la France Insoumise. A l’opposé, il tombe à 59% chez les sympathisants Les Républicains, 48% pour le Rassemblement National.

La sentence est claire :  seulement 43% des Français estiment que le président de la République Emmanuel Macron est sincère lorsqu’il évoque son engagement en faveur de l’écologie. Ce chiffre varie énormément en fonction des horizons politiques : les sympathisants La République en Marche (LREM) sont évidemment 89% à soutenir cette sincérité, contre 32% pour la France Insoumise et 15% pour le Rassemblement national.

Les différents partis devront prendre à bras le corps la question de l’écologie pour les prochaines échéances électorales. Après les impôts locaux, la préservation de l’environnement constitue la deuxième thématique qui comptera le plus dans les prochaines élections municipales. C’est principalement le cas pour les sympathisants de gauche, tous partis confondus ou pour les sympathisants de LREM.

Sérieux coup de frein à la quatrième génération nucléaire

Le Commissariat à l’énergie atomique et aux énergies renouvelables (CEA) a ajouté dans un laconique communiqué que la « perspective du développement industriel » des réacteurs de quatrième génération n’était « plus envisagée avant la deuxième moitié de ce siècle ».

Astrid – acronyme de Advanced Sodium Technological Reactor for Industrial Demonstration – est un projet de réacteur à neutrons rapide, dit de génération quatre (l’EPR en construction constitue la génération trois, et les tranches en service actuellement en France forment la génération deux), refroidi au sodium.

Un projet contrarié

Il devait être construit à un horizon 2030 sur le site du CEA à Marcoule, au sud de la France, et sa capacité prévue sera de 600 MW. Une technologie fondée sur les réacteurs Phénix (250 MW) et Superphénix (1 200 MW) tous deux arrêtés désormais. Et une technologie relancée dans un cadre international, le Forum GIV, qui visait à étudier six types de réacteurs nucléaires de quatrième génération.

Jusqu’alors, l’objectif, annoncé sous la présidence de Jacques Chirac, était d’exploiter un réacteur de démonstration rapide en France autour de 2030 après avoir pris une décision de construction en 2024. Mais la programmation pluriannuelle de l’énergie du gouvernement en janvier dernier indiquait qu’en raison de la grande disponibilité d’uranium, une série de réacteurs rapides ne serait pas nécessaire au plus tôt avant la deuxième moitié du siècle. Ce que confirme le communiqué du CEA daté de vendredi 30 août.

Des enjeux multiples

La déclaration du CEA fait suite à un article paru jeudi dans Le Monde, citant une source anonyme au CEA, que ce dernier avait complètement abandonné le projet Astrid et que l’équipe dédiée au projet (25 personnes) avait été démantelée en février.

Le CEA déclare dans son communiqué que, sur la base de ses engagements pris avec les pouvoirs publics, le CEA « proposera d’ici la fin de cette année un programme de recherche révisé sur les réacteurs de quatrième génération pour 2020 et les années suivantes. »

Le CEA ajoute que le programme de recherche de quatrième génération qu’il entend proposer vise à lui permettre de maintenir son expertise dans la technologie des réacteurs refroidis au sodium.

Un rapport de la Cour des Comptes publié en 2017 indiquait que 738 millions d’euros avaient déjà été dépensés pour le programme Astrid, dont 500 millions d’euros provenant du programme d’investissements d’avenir (PIA) du gouvernement français.

L’enjeu d’Astrid était également, selon le CEA, de « fermer » le cycle du combustible, en « brûlant » le plutonium issu du retraitement des combustibles usés dans les réacteurs de génération deux et trois. Ce report risque ainsi de ne pas être sans conséquence sur la « doctrine » française qui vise à considérer toutes les matières nucléaires nobles (donc avec de l’uranium et du plutonium) comme valorisables, les excluant des déchets, même si, la PPE souligne la poursuite de cette voie. Les débats sur la Plan national de gestion des matières et déchets radioactifs, en cours s’instruction, qui jusqu’alors conservait cette doctrine, risquent d’être relancés par la décision de reporter sine die Astrid… Et de relancer le débat sur un potentiel stockage de combustibles usés dans le futur centre de stockage ultime des déchets de haute et de moyenne activités à vie longue, Cigéo.

Au plan international aussi, cette décision présente un enjeu. Au-delà du Forum GIV, en 2014, aux termes d’un accord entre la France et le Japon, le Japon aurait accepté de payer une partie non divulguée du coût de la construction du réacteur rapide Astrid, dans l’espoir d’obtenir des connaissances techniques et une expérience opérationnelle. La France visait aussi la possibilité de tester certains combustibles pour Astrid dans le prototype nippon, Monju (240 MW), qui avait enregistré nombre de déboires.

Les organisations environnementales se sont toutes réjouies de cette décision d’arrêt. En revanche, Bruno Retailleau, président du groupe Les Républicains au Sénat, s’est fendu d’un communiqué estimant que « nous ne pourrons pas protéger notre environnement sans la recherche et l’innovation », estime que c’est « une faute, écologique, stratégique et politique », et accuse le gouvernement de céder « aux ayatollahs d’une écologie régressive et décroissante ».

Polybiom lance son plastique de miscanthus 100% biosourcé

« Notre polymère Polymisc est fabriqué à partir d’eau, de miscanthus et de gélatine animale de bœuf ou de porc. Il s’agit d’un agrocomposite qui peut être enduit, thermoformable et moulable, explique Olivier Suty, DG de la Société d’économie mixte Moret Seine & Loing, représentant de Polybiom. « Nous produisons trois gammes de produits : une pâte qui peut être thermoformée et moulée pour faire des objets avec des caractéristiques similaires au plastique, une colle et une résine qui pourrait remplacer le polystyrène dans les emballages de la restauration rapide », complète-t-il. Pour cette dernière application, il faudra obtenir l’agrément au contact alimentaire.

Il s’agit d’une aventure locale innovante. Elle commence en 2010 lorsque le groupement d’agriculteurs, planteurs de Miscanthus (B.E.S.) se rapproche de la communauté de communes Moret Seine & Loing. L’année suivante, les deux organismes confient un mandat de recherche à l’Université Picardie Jules Verne d’Amiens (UPJV.) pour développer un biocomposite à base de miscanthus. En 2015, un premier brevet est déposé pour protéger le processus de fabrication du Polymisc. Polybiom est créé en 2017, avec trois agriculteurs, deux chercheurs et l’intercommunalité au capital. L’entreprise exploite désormais 5 brevets.

Un procédé de fabrication économe en énergie

Le procédé de fabrication trouve tout son intérêt en circuit court. À hauteur d’homme, le miscanthus est récolté chaque année, entre janvier et mars. La plante est d’abord transformée en poudre dans un broyeur. « C’est le principe actif de cette poudre qui nous intéresse, confie Olivier Suty. La poudre est mélangée avec de l’eau dans des cuves, puis filtrée ; la polymérisation est ensuite provoquée par un choc thermique via une chaîne de micro-ondes. »

L’entreprise assure que la pâte à base de Polymisc est recyclable jusqu’à trois fois en boucle fermée. « Nous avons une méthode de recyclage simple pour certains produits : par exemple, pour une coque d’emballage, il suffit de  la faire repasser dans la chaîne de micro-ondes pour retrouver une pâte qui peut ensuite être remoulée dans le même produit », assure Olivier Suty. Le matériau serait aussi compostable, mais l’entreprise n’a pas encore mené les tests pour passer la norme de compostabilité domestique ou industrielle. En revanche, les trois gammes de produits ont passé le test de biodégradabilité facile ou disparition du carbone organisque dissous suivant la ligne directrice OCDE 301A. Après 28 jours, la biodégradation varie entre 97 % et 99 %. « L’avantage est que nos trois gammes de produits sont 100% biosourcés et biodégradables, sans aucun dérivé pétrochimiques », complète Olivier Suty.

Du pilote à la première usine en 2020

Depuis 2017, un premier pilote industriel a été mis en place à La Brosse-Montceaux (77). Il produit environ 8 tonnes de matière Polymisc par mois. La première usine de fabrication de taille indutrielle est en construction à Moret-sur-Loing, en Seine et Marne. Son ouverture est prévue en mars 2020. Elle sera en capacité de produire plus de 25 tonnes de matériaux par mois. Coût d’investissement : 2,2 millions d’euros pour l’entreprise qui prévoit une levée de fonds d’ici la fin de l’année. Une deuxième chaîne de fabrication pourra ensuite être ajoutée pour doubler la production. Un premier contrat a été signé avec une société belge pour une production de 72 tonnes par an sur dix ans. Deux autres contrats sont en cours de négociation.

« Dans un premier temps, notre objectif est de déveloper notre usine pour la faire tourner au maximum et de montrer que cela fonctionne, prévient Olivier Suty. À partir de là, nous pourrons vendre le concept clé en main, des rhizomes de miscanthus à planter jusqu’au process industriel« . Polybiom imagine planter un peu partout quelques dizaines d’hectares de miscanthus et installer à proximité des champs une petite unité de fabrication de Polymisc.

Dépolluer les rhizomes en fin de vie

250 hectares de miscanthus sont cultivés localement, près de la future usine. Alors que la récolte actuelle est majoritairement utilisée en chaufferie ou en paillage, Polybiom propose aux agriculteurs un débouché complémentaire intéressant pour environ 10% de la récolte.

Le miscanthus pousse sans pesticide, sans engrais et sans irrigation. Il pousse partout, même sur les sols pollués, sans entrer en concurrence avec les terres agricoles. Toutefois, le rhizome va concentrer, et non dégrader, les métaux lourds. Sur les sols pollués, il faut donc trouver un procédé pour traiter les rhizomes en fin de vie. « Nous allons prochainement lancer des travaux sur ce sujet, prévient Olivier Suty. La production s’échelonne sur une durée de 15 à 20 ans sans ressemer. Chaque hectare cultivé produit jusqu’à 10 tonnes de miscanthus par an.

La Chine fait un grand bond en avant dans l’offshore éolien

DEC a réalisé et testé sa machine dans son usine de Deyang, dans la province de Sichuan. L’éolienne de 10 MW est à entraînement direct dotée d’un aimant permanent, comme ses homologues occidentales. Début juillet, la production de pales de 90 mètres (B900A) a commencé dans l’usine de Tianjin du constructeur chinois et la turbine va être acheminée sur le projet offshore de la baie de Xinhua, signale DEC dans un communiqué daté du 22 août. L’éolienne chinoise est annoncée par le fabricant comme capable de supporter les conditions météorologiques spécifiques à la zone, notamment les ouragans.

Tous les grands constructeurs occidentaux, de Siemens Gamesa (qui a absorbé Adwen) à MHI-Vestas en passant par GE Renewable Energy (qui a repris la technologie Haliade développée par Alstom), ont en quelques années proposé des machines de plus de 6, puis 7 et enfin 8 MW. Moins de machines signifie en effet moins d’espace occupé en mer, et surtout moins d’installation et de maintenance.

L’avance occidentale est toujours patente. MHI-Vestas (le groupe dano-japonais), comme Siemens Gamesa (germano-espagnol), avec sa SG 10.0- 193 DD (pales de 94 m), affichent de leur côté la volonté de mettre à l’eau des éoliennes de 10 MW à très brève échéance.

GE, grâce à son Haliade-X, sortie d’usine récemment à Saint-Nazaire, mène le jeu pour l’heure avec 12 MW et des pales de 107 m. Une machine qui est issue de l’Haliade 6 MW d’Alstom.

Le groupe étatique chinois DEC passe ainsi le premier le cap des 10 MW dans l’Empire du Milieu, mais ses concurrents nationaux le suivent pas à pas. Goldwind, le leader chinois (et mondial) de l’éolien, vient en effet de révéler une machine de 8 MW avec des pales fabriquées par Sinoma (85,6 m). Mingyang Smart Energy (MYSE) vient de livrer une turbine de 7,25 MW et vise également les 10 MW. Quant à Shanghai Electric, il a présenté une éolienne de 8 MW fondée sur la technologie Siemens Gamesa dans son usine de Shantou, dans la province du Guangdong. Son usine du Fujian est déjà en production pour les 7 MW.

En 2018, la Chine est le pays à avoir installé le plus de capacité en éolien offshore que tout autre pays (1,8 GW), suivie du Royaume-Uni (1,3 GW) et de l’Allemagne (0,9 GW) d’après le chiffre du GWEC, l’association mondiale de l’industrie éolienne… Le pays compte également le plus grand espace maritime pouvant être équipé d’éoliennes en mer. D’ores et déjà leader mondial en termes d’éolien terrestre, Beijing entend bien ne pas rater ce nouveau marché que constitue l’éolien en mer.

La puissance moyenne des nouvelles turbines installées en Europe en 2018 a atteint 6,8 MW, ce qui représente une augmentation de 15% par rapport à 2017, soit un doublement en moins de 10 ans, signalait le dernier rapport de WindEurope, le lobby européen de l’éolien. Cette montée en puissance a été acquise notamment par un changement des machines, qui se débarrassent de leur multiplicateur pour passer à l’attaque directe, réduisant d’autant la problématique de la maintenance toujours malaisée en mer.

La plus grande éolienne offshore à ce jour est installée dans un parc « commercial » au Royaume-Uni. C’est la V164-8,8 MW de MHI Vestas. Le fabricant a annoncé le 1er avril 2019, que l’Ecosse accueillera dès 2020 pour le parc éolien flottant de Kincardine, 5 turbines MHI Vestas V164 de 9,5 MW.

Au tour de Londres de récupérer la chaleur du métro

Ce n’est pas une première puisqu’un tel système de récupération de chaleur via une pompe à chaleur est en opération… à Paris, depuis novembre 2018. Sauf peut-être par sa dimension, puisque le projet londonien entend alimenter près d’un millier de logements et d’entreprises dans ce cadre d’ici la fin de l’année à partir de la chaleur de la Northern Line, l’une des plus vieilles lignes du « Tube » londonien.

L’origine du projet, dénommé Bunhill Heat and Power Network, remonte à 2012, juste avant que Londres adhère au projet européen Celsius Smart Cities * (doté de 26 millions d’euros et qui devait courir jusqu’en 2017), avec comme partenaire, Transport for London (le STIF londonien), ainsi que la mairie d’Islington et le réseau électrique UK Power Network. A noter que c’est l’actuel Premier ministre britannique Boris Johnson lui-même qui a donné le feu vert quand il était le maire de la Greater London Authority, la super-mairie de Londres.

Un projet en deux étapes

Après une première phase de travaux dédiés à raccorder des logements sociaux à un réseau de chaleur (quelque 800 équivalents-logements), notamment grâce à la cogénération gaz installée localement, Bunhill Heat and Power Network a décidé de profiter d’un puits d’aération de la Northern Line afin de récupérer l’énergie et de l’injecter sous-forme d’eau chaude dans le réseau afin d’étendre ce dernier à plus de 500 habitats, dont nombre de logements sociaux. Le projet repose sur la création d’un nouveau puits d’aération couplé à une pompe à chaleur de 1 MW. Le bureau d’étude Ramboll chargé du dossier de faisabilité, puis de la mise en œuvre, estime que quelque 1 350 équivalents-logements pourront être alimentés grâce à la récupération d’énergie du métro.

Chaud et froid

L’air chaud rejeté dans l’atmosphère par le « Tube » est compris entre 18°C et 28°C, la pompe à chaleur portera cette température autour de 70°C avant d’être injectée dans le réseau de chaleur. La pompe à chaleur permettra en outre de fonctionner en mode climatisation pour rafraîchir les tunnels du métro durant les période d’été, quand le chauffage est coupé dans les logements.

Le projet prévoit d’ajouter deux micro-cogénération afin de fournir la chaleur quand ce sera nécessaire, et l’électricité pour alimenter la pompe à chaleur, quand les livraisons électriques sur le marché seront plus chères, afin de réduire le coût pour les utilisateurs du réseau de chaleur.

Comme le rappellent les acteurs de ce projet londonien, il y a suffisamment de chaleur « perdue » à Londres pour délivrer 38% des besoins en chauffage de la ville. En outre, le gouvernement a décidé d’interdire à partir de 2025 les chaudières à gaz dans les nouveaux bâtiments. Quasiment la moitié de l’énergie britannique est utilisée pour produire de la chaleur, et le chauffage représente un tiers des émissions de CO2 du pays. La quête de solutions énergétiques bas carbone fait donc rage outre-Manche.

L’exemple parisien

A Paris, c’est la RATP et Paris Habitat, grand acteur du logement social en Île-de-France avec près d’un habitant sur dix, qui ont installé une pompe à chaleur en 2017 dans les sous-sols d’un bâtiment construit dans les années 1930 situé dans le 4e arrondissement. Elle filtre et achemine l’air chaud du tunnel du métro de la ligne 11 qui circule quelques mètres plus bas. Cela produit de l’énergie qui permet d’apporter 35% des besoins en chauffage des 20 logements de l’immeuble. La RATP s’est engagée à réduire de 50% ses émissions de gaz à effet de serre d’ici à 2025.

* Ce programme européen vise à transférer les expériences en matière de réseaux de chauffage à partir de récupération d’énergie. Les villes partenaires, fondatrices du projet, sont les suivantes : Göteborg, Cologne, Rotterdam, Londres et Gênes.

Techniques de l’Ingénieur partenaire de Smart City 2019 !

Techniques de l’Ingénieur s’associe au salon de la ville, des réseaux intelligents et de la mobilité durable, qui aura lieu les 2 et 3 octobre 2019 à Paris, Porte de Versailles.

Smart City + Smart Grid 2019  c’est :

  • 20 conférences
  • 15 ateliers
  • 70 exposants
  • 4500 visiteurs attendus

La thématique qui animera le salon de cette année est : CONNECTED CITIES for smart territories : de la smart city à la ville résiliente, inclusive et connectée

L’enjeu pour une ville n’est plus seulement de faciliter le quotidien des habitants mais de s’appuyer sur l’exploitation des data issues des dispositifs connectés (objets connectés, capteurs, détecteurs, télégestion, vidéosurveillance,…), de l’innovation technologique (analyse prédictive, intelligence artificielle…) et de la participation citoyenne (applications participatives…) : la ville intelligente devient résiliente.

Nouveau modèle de déplacement urbain (multimodalité, transports doux), habitat participatif, évolution des modes de vie, de consommation, émergence de nouvelles offres au service des territoires, la ville doit s’adapter à des réalités nouvelles, à des nouveaux usages,… Passer d’un modèle de ville intelligente à un modèle de ville résiliente, inclusive et connectée. Autant d’enjeux et de défis que doivent relever les villes et les territoires.

Cette 6ème édition du salon Smart City + Grid sera une nouvelle fois l’occasion d’aborder les enjeux et les défis pour la Ville, à travers des témoignages d’utilisateurs, le décryptage de tendances de professionnels du secteur : entreprises, décideurs locaux et territoriaux, dans un cycle de conférences-débats et d’ateliers orientés cas pratiques, retours d’expériences et usages des smart cities.

Vous souhaitez participer au salon Smart City + Smart Grid ? Vous pouvez obtenir votre place en cliquant ici

Black-out au Royaume-Uni : le rapport du gestionnaire de réseau

La filiale dédiée à la gestion du système, National Grid ESO (la propriété des lignes étant séparée de sa gestion outre-Manche), a décidé, moins d’un jour avant sa transmission au régulateur du secteur énergétique britannique, Ofgem, de rendre publiques ses premières conclusions sur le black-out le plus important enregistré par le pays depuis 2008, a rappelé John Pettigrew dans une tribune publiée le 12 août dernier. Un rapport qui reprend la séquence des événements qui ont conduit à cet incident, qui a notamment bloqué nombre de passagers des trains en Angleterre et au Pays de Galles pendant plusieurs heures.

Le système avant l’incident

Ainsi, le 9 août dernier, comme le souligne le gestionnaire du réseau (GRT), avant 16h52, le réseau électrique est exploité dans des conditions « normales », sont anticipées de fortes pluies et des épisodes de foudre sont attendus. Au moment de l’incident, quelques 32,13 GW étaient appelés sur le réseau. Environ 30% de la consommation électrique est couverte par l’éolien, 30% par les centrales au gaz, 20% par le nucléaire et 10% à partir des interconnections. L’île anglaise est interconnectée à la plaque continentale européenne via deux interconnexions (2 GW avec la France, via IFA, et 1 GW avec les Pays-Bas, via BritNed) en outre, il existe deux interconnexions avec l’Irlande (500 MW avec l’Irlande du Nord, via Moyle, et 500 MW avec la République d’Irlande, via East West). Le Royaume-Uni n’est pas relié à la plaque européenne électrique de manière synchrone (gestion identique de la fréquence). La fréquence outre-Manche est néanmoins identique à celle de la plaque électrique européenne, soit 50 Hz (Hertz).

16h52, tout bascule

A 16h52, le National Grid ESO enregistre la foudre sur la ligne de transport du circuit nord de Londres Eaton Socon-Wymondley Main. Les mécanismes de protection du réseau entrent en action, et la perturbation dure moins de 0,1 seconde, et la ligne est à nouveau opérante dans les 20 secondes, indique l’opérateur du système. Ce dernier enregistre en outre une chute de production de l’ordre de 500 MW (en général des installations solaires et de petites unités thermiques qui disjonctent). En revanche, quasiment simultanément avec la foudre, « quelques secondes après), deux producteurs réduisent drastiquement leurs livraisons au réseau. Il s’agit de la centrale au gaz de Little Barford (740 MW connecté au réseau à la ligne 400 kV d’Eaton Socon, dont 240 MW disjonctent immédiatement, et une autre unité se met en sécurité entraînant une perte de 641 MW au total) et du parc éolien offshore de Horsnsea (ce parc de 1 200 MW, le plus grand anglais, connecté au réseau 400 kV à Killingholme délivre alors 799 MW, qui « tombent » brutalement à 62 MW après avoir enregistré l’impact de foudre et se mettent en sécurité). Au total, la perte de production atteint 1 378 MW, soit plus que la valeur prévue en termes de réserve primaire (le back-up-pour ce jour (1 000 MW). Malgré le recours à cette réserve, dont 475 MW de batteries de stockage, signale le GRT, la chute de fréquence dépasse l’amplitude acceptée (zone de 49,5 à 50,5 Hz) et descend à 48,8 Hz à 16h53 et 49 secondes. A ce point, les systèmes secondaires de réserve entrent en jeu, et des clients sur les réseaux de distribution sont déconnectés correspondant à quelque 5% de la demande totale, pour protéger les 95% restants. A 16h57, la fréquence est restaurée sur le réseau de National Grid, et dès 17h06, les distributeurs reconnectent les clients, ce qui dure jusqu’à 17h37. A noter, signale National Grid que la durée de remise en service sur le réseau de transport par rail prend plus de temps et sera la cause de massifs blocages qui dureront des heures dans les gares du Sud-Est anglais.

Conclusions préliminaires du GRT

  • Les deux coupures de courant inattendues presque simultanées se sont produites indépendamment l’une de l’autre, mais chacune est associée à la foudre. Néanmoins, la production n’est pas supposée s’interrompre à la suite d’un impact de foudre, cela semble représenter un événement extrêmement rare et inattendu.
  • Ce coup de foudre est l’un des nombreux reçus par le réseau ce jour, mais c’est le seul à avoir eu un impact significatif.
  • Les systèmes de protection du réseau de transport ont fonctionné correctement pour gérer la foudre et les perturbations de tension correspondantes ont été conformes aux attentes.
  • La foudre a également déclenché la protection contre la perte de réseau sur la production dans la zone et a ajouté à la perte de puissance totale subie. Il s’agit d’une situation planifiée et gérée par National Grid ESO et la perte correspondait aux prévisions de l’ESO pour un tel événement.
  • Ces événements ont entraîné un niveau cumulatif exceptionnel de perte de puissance, supérieur au niveau requis par les normes de sécurité. De ce fait, une chute de fréquence importante en dehors de la plage normale s’est produite.
  • Le système de déconnexion de la demande de basse fréquence (LFDD) a fonctionné en grande partie comme prévu.
  • Les opérateurs de réseau de distribution ont rapidement restauré les fournitures dans les 31 minutes suivant le retour à la stabilité du système.
  • Plusieurs surtensions ont affecté pendant plusieurs heures certains systèmes, en particulier les services ferroviaires.

Une analyse plus approfondie sera remise à Ofgem le 6 septembre afin de permettre au régulateur son enquête annoncée le 20 août dernier et devrait permettre de tirer des enseignements pour l’ESO. En outre, ce dernier soutiendra activement l’examen plus large du secteur engagé par l’Energy Emergencies Executive Committee (E3C) à la demande du ministère de tutelle, le BEIS. Le GRT juge notamment nécessaire d’analyser de manière plus approfondie « les mécanismes exacts de défaillance à Little Barford et à Hornsea, en tirant parti de notre bonne compréhension actuelle du calendrier et des niveaux des diverses pertes de production. »

Quantonation, premier fonds d’investissement en Europe pour les technologies quantiques

E.T.I: Un an après son démarrage, combien de projets sont soutenus par Quantonation aujourd’hui ?

Christophe Jurczak: Quantonation soutient aujourd’hui 4 startups, et bientôt deux de plus. Les 4 projets dans lesquels nous avons déjà investi ne concernent pas que des startups françaises. Parmi les 6 projets que nous soutenons, la moitié sont français.

Présentez-nous ces projets.

La première startup dans laquelle nous avons investi est une très belle startup française, LightOn, issue de l’ESPCI, qui développe un coprocesseur optique. Assez compact, il est basé sur de l’optique et des lasers, dans le but d’accélérer significativement des calculs de machine learning, tout en réduisant la consommation d’énergie par rapport à des cartes graphiques classiques qui font ces calculs. C’est vraiment quelque chose de très disruptif, avec un très gros potentiel.

La seconde startup dans laquelle nous avons investi est issue de l’université de Bristol, elle s’appelle KETS et développe des solution de sécurité quantique, plus précisément des chips et des cartes électroniques pour de la génération de nombres aléatoires et de la distribution de clés quantiques. KETS est, comme la majorité des startups dans lesquelles nous investissons, une spin-off d’université, co-fondée par des scientifiques.

La troisième est canadienne, Quantum Benchmark. Nous avons investi un peu plus tard dans cette startup, après un premier tour d’investissement. C’est une startup fantastique, leader dans les softwares pour caractériser des qubits et les améliorer, en réduisant une partie des erreurs. Ils commercialisent déjà leur solution pour les ordinateurs quantiques déjà existants – Google, IBM et d’autres – même si ce ne sont pas des machines encore très performantes.

Enfin le quatrième investissement que nous avons réalisé concerne PASQAL, la première startup française de hardware quantique, une des toutes premières en Europe aussi. Là, nous sommes intervenus très tôt, en pré-amorçage. 

Cette société développe un ordinateur quantique à partir de la technologie d’atomes refroidis et manipulés par laser.

Les deux autres investissements sur lesquels nous travaillons sont dans le domaine des capteurs et de la cyber-sécurité. De cette façon nous couvrons l’ensemble des secteurs d’application du quantique.

Aujourd’hui, quels sont les marchés existant pour ces technologies quantiques ?

On trouve dans le secteur des capteurs des startups qui ont déjà des marchés aujourd’hui, pas forcément très importants mais cela va grossir. Ce sont des startups qui ont souvent déjà des revenus, notamment auprès d’académiques, dans des labos, dans des centres de recherche… Au fur et à mesure que les prix baissent et que la proposition de valeur est améliorée, nous allons avoir des marchés plus significatifs.

C’est pour ça qu’une entreprise comme Bosch s’intéresse beaucoup au quantique, et ce type d’entreprise adresse des marchés de masse. On n’en est pas encore là mais c’est la trajectoire qui se dessine pour les années qui viennent.

Qu’en est-il en ce qui concerne l’ordinateur quantique ?

Pour l’ordinateur quantique, on peut imaginer des applications commerciales dans un horizon de 3 à 5 ans : pour certaines formes de calcul, la simulation, l’utilisation pour la pharmacie, l’optimisation de la finance… Une entreprise comme Total, par exemple, s’y intéresse aussi beaucoup pour identifier des champs pétrolifères.

A cet horizon, on parle de processeurs quantiques spécialisés, comme cela existe d’ailleurs déjà dans le calcul « classique » avec certains processeurs de nouvelle génération. Pour le développement d’un ordinateur quantique qui résout vraiment tout, je tablerai plutôt sur une dizaine d’années. Attention, il s’agit de processeurs pour des applications « B to B », on ne parle pas d’ordinateurs pour particuliers.

Financièrement, que va représenter le marché des technologies quantiques dans les années à venir ?

Un rapport du BCG qui vient de sortir estime que d’ici trois à quatre ans, la « création de valeur » due à l’ordinateur quantique, c’est-à-dire l’impact pour les entreprises clientes, représentera entre 2 et 5 milliards de dollars par an, ce qui est très significatif. Dans le domaine des communications quantiques, on parle de 25 milliards de dollars à l’horizon 2025, et c’est bien sûr en lien avec le déploiement de la 5G. Même si ces chiffres sont à prendre avec précaution, on commence à réaliser que l’impact sera majeur, même s’il ne faut pas cacher les obstacles technologiques qu’il va falloir surmonter.

Dans le domaine du calcul quantique, la grosse nouveauté des 18 derniers mois, c’est que, précisément, l’on n’est plus focalisé sur la fabrication de la machine qui “fait tout”, mais sur des utilisations spécifiques des machines dont on dispose déjà, qui ont des défauts mais dont on attend tout de même un bénéfice par rapport à du classique. Du coup, on arrive plus vite à des usages pertinents. C’est la révolution qui s’est déroulée ces derniers mois sur le quantique : la compréhension qu’il y a une approche long terme et une approche court terme. Pour moi, c’est l’enjeu principal pour les startups du secteur : développer des solutions pour des revenus à court terme mais aussi garder une vision moyen/long terme dans leur stratégie de développement pour adresser la disruption à venir.

Comment l’état français accompagne t-il les startups pour qu’elles existent sur ces marchés en développement ?

Je pense qu’en France nous avons la chance d’avoir des dispositifs de soutien public aux startups, mis en place par l’Etat et les Régions, avec l’acteur de référence qu’est BPI France, qui sont importants notamment en termes de montants attribués et de mécanismes de soutien (coaching, accompagnement sur l’international ….). Ils sont plutôt focalisés sur les phases de démarrage des sociétés, et un des axes pour BPI France – mentionné dans le plan Deep Tech – doit être de faire émerger des fonds comme le nôtre qui prennent le relais pour la phase de croissance qui demande des capitaux importants. De façon plus générale, il faut que nous, les acteurs privés, soyons plus enclins à investir sur des technologies difficiles d’accès, avec des horizons relativement longs. C’est encore trop rare, et c’est la raison d’être de Quantonation.

Muquans, pépite française quantique

E.T.I: Comment est née Muquans ?

Bruno Desruelle: Nous avons démarré très tôt sur les technologies quantiques. La décision de créer Muquans a été prise en 2009, et la création administrative a eu lieu en 2011. Le secteur sur lequel nous nous sommes positionnés concerne la partie sensing et métrologie, donc concrètement les capteurs quantiques et les mesures de précision.

En 2019, nous sommes une trentaine d’employés, dont la moitié sont docteurs, pour un chiffre d’affaire de 3 millions d’euros.

Quelle a été votre stratégie ?

Nous nous sommes adossés à deux laboratoires de recherches académiques, l’Observatoire de Paris et l’Institut d’Optique. Ce couplage avec la recherche académique est quelque chose d’absolument fondamental pour faire sortir des technologies aussi avancées et les amener à maturité.

Vous vous êtes positionnés sur une technologie très spécifique.

Oui, cette technologie repose sur l’utilisation des propriétés quantiques des atomes refroidis par laser. Pour faire court, en utilisant une combinaison intelligente de faisceaux lasers, on arrive à refroidir une vapeur atomique – du rubidium en l’occurrence – à une température de l’ordre du micro kelvin. A ces températures, le caractère quantique de la matière est exacerbé: on peut alors exploiter les propriétés ondulatoires des atomes, pour effectuer les mesures que nous proposons à travers nos instruments.

C’est un domaine sur lequel on a réellement une excellence scientifique française : nous avons eu plusieurs prix Nobel en physique qui reposent sur ces technologies là, et on trouve en France plusieurs laboratoires de très haut niveau sur le sujet.

Quels types de mesures proposez-vous ?

Les atomes froids permettent de faire essentiellement deux types de mesure : des mesures inertielles – accélération et rotation – et des mesures temps/fréquence.

En ce qui concerne les mesures inertielles, nous développons des capteurs gravimétriques : nous sommes la seule société au monde à proposer depuis deux ans une version commerciale du gravimètre quantique.

Pour vous donner une idée des niveaux de performances dont on parle, nous mesurons la gravité avec une précision relative de 10-9

Quels sont les domaines d’applications pour cet appareil ?

La mesure de gravité en surface permet de remonter à des informations sur la répartition de densité dans le sous-sol. A partir de là, les applications possibles sont nombreuses. Un exemple que j’aime citer est celui des volcans : quand on a un afflux de magma dans la cheminée d’un volcan, cela créé une augmentation de gravité que l’on peut mesurer en surface. L’idée est bien sûr d’anticiper des éruptions volcaniques. Nous allons d’ailleurs déployer un équipement au sommet de l’Etna dans le courant de l’année prochaine.

Au-delà de la surveillance des volcans, nos appareils trouvent également des débouchés dans les travaux publics, l’hydrologie, et plus généralement toutes les sciences de la terre. Il y a aussi des applications dans le domaine de la défense pour tout ce qui est navigation inertielle de haute performance.

Qu’en est-il des mesures temps/fréquence ?

Nous proposons la meilleure horloge atomique du monde, qui dérive d’une seconde tous les 30 millions d’années. Nous sommes là sur des applications pour ce qui concerne la définition des bases de temps, qui intéresse principalement les instituts de métrologie, qui cherchent à avoir des fréquences extrêmement stables.

Nous sommes aussi en discussion pour des applications dans les Telecoms, le high frequency trading, les smart grids… En fait, à partir du moment où on est face à une application qui nécessite une synchronisation fine et indépendante du GPS – pour des raisons de sécurité – nous avons besoin d’avoir un oscillateur primaire de très haute qualité, et c’est ce à quoi nous destinons notre horloge.

Nous sommes également leaders industriels pour le déploiement d’un grand réseau de transferts de fréquences, qui fait partie des projets d’équipements d’excellence, financés il y a quelques années.

L’idée est de bénéficier de tous les développements que nous avons menés sur le gravimètre et l’horloge pour les appliquer à d’autres types d’utilisations.

Comment avez-vous accueilli la création du premier fonds d’investissement français et européen Quantonation, dédié aux technologies quantiques ?

Quantonation est un fonds très actif et aide à dynamiser, au niveau européen, le développement des technologies quantiques.

Quand on voit les financements autour du quantique aux Etats-Unis, on ne peut que se réjouir de voir le travail fait par Quantonation pour nous permettre de rester dans la course.