Propulsion chimique : méthane à tous les étages

C’est le grand dada du moment : utiliser du méthane comme ergol pour les futurs moteurs chimiques des lanceurs. Pourquoi le méthane ? Car même s’il est moins puissant que l’hydrogène, il est beaucoup moins coûteux et facile à manipuler – il est liquide à -161°C contre -253°C pour l’hydrogène. Cette température, proche de l’oxygène liquide (183°C), permet des simplifications dans l’architecture du moteur pour le stockage des deux ergols. En effet, il peut par exemple être utilisé pour pressuriser les réservoirs d’ergols (pressurisation autogène), ce qui élimine le besoin de systèmes de pressurisation complexes et coûteux à base d’hélium par exemple. En outre, le méthane est six fois plus dense que l’hydrogène, il prend donc six fois moins de place. Les étages de fusées pourront être plus compacts et potentiellement plus faciles à récupérer pour être réutiliser.

L’Europe mise sur Prometheus

Pour les lanceurs européens, dont Ariane 6, le moteur phare sera Prometheus (pour Precursor Reusable Oxygen METHane cost Effective propUlsion System) qui, comme son acronyme anglais l’indique, est un moteur qui fonctionne à l’oxygène et au méthane et qui doit être réutilisable. Il vise bien sûr aussi une réduction des coûts ! Prometheus disposera d’une poussée variable d’un maximum de 100t et Ariane 6 décollera équipée de 7 d’entre eux. Les premiers essais d’allumage ne sont prévus qu’en 2020 et l’intégration sur les lanceurs à l’horizon 2030. La série des moteurs actuels, Vulcain, a donc encore de beaux jours devant elle.

Prometheus est en début de fabrication dans l’usine d’ArianeGroup à Vernon (Eure) où les premières pièces fabriquées par fabrication additive sont sortis l’été dernier (générateur de gaz). L’utilisation de la fabrication additive et un dispositif industriel conçu pour la production de 50 moteurs par an doit permettre de diviser par 10 le coût de production par rapport à Vulcain 2. Portant le tarif d’un moteur à « seulement » 1M€.

Illustration du moteur Prometheus. Prometheus (Precursor Reusable Oxygen METHane cost E!ective propUlsion System) est un moteur de rupture a tres bas cout, reutilisable et fonctionnant a l’oxygene liquide et au methane. Il possedera une poussee variable avec un maximum a 100 tonnes. Universel et bon marche, il sera utilisable sur toute une gamme de lanceurs futurs, du micro-lanceur a une evolution d’Ariane 6, en version consommable ou reutilisable si l’interet economique de la reutilisation est demontre, en moteur d’etages inferieur et superieur.

Les Américains aussi carbureront au méthane

L’Europe n’est pas la seule à opter pour le méthane. Blue Origin et son moteur BE4 avance aussi. La société fondée par Jeff Bezos, le PDG d’Amazon, a en effet annoncé en janvier 2018, qu’un nouveau test au feu du moteur BE-4 a été effectué avec succès après celui déjà annoncé en octobre 2017.

BE-4-hotfire
crédits @blueorigin

Ce moteur doit notamment équiper le lanceur lourd New Glenn dont le premier vol est prévu en 2020. Il est toujours en compétition pour équiper la future fusée réutilisable Vulcan de United Launch Alliance (ULA). La décision devrait être prise dans les prochains mois. Le test, réalisé à pleine puissance, a montré que les objectifs d’impulsions spécifiques étaient même dépassés. Cet essai avait notamment pour but de vérifier la réutilisation des pompes hydrostatiques et la stabilité des processus de marche/arrêt. Une variante de ce moteur le BE-4U doit en effet pouvoir équiper l’étage supérieur de la New Glenn et permettre ainsi la mise en orbite de plusieurs charges utiles différentes. La New Glenn, qui doit être disponible en version deux ou trois étages, dont le premier réutilisable sera propulsée par une poussée de l’ordre de 176 tonnes (3,85 millions de livres) grâce à 7 BE-4 et devrait pouvoir mettre en orbite basse un peu moins de 50t.

De son côté, Space X travaille à son Raptor. De multiples versions de ce moteur fonctionnant au méthane ont été présentées depuis les débuts du projet en 2009. La version en cours, dont les tests d’allumage sur banc d’essais ont commencé, est finalement la plus petite et doit servir de base à la propulsion de la BFR (Big Fucking Rocket), un lanceur très lourd destiné aux lancement nécessaires aux voyages interplanétaires qui serait pourvu d’une trentaine de Raptors.

Plusieurs autres projets sont aussi en cours ailleurs dans les grandes nations spatiales comme en Russie ou en Chine.

Plus efficace et moins chère

Pour rendre la propulsion chimique plus efficace et attractive, la tendance est à l’optimisation. Du côté d’Ariane, il s’agit par exemple du moteur Vinci pour l’étage supérieur des lanceurs moyens/lourds de l’ESA qui doit apporter plus de polyvalence à Ariane 6. Fonctionnant à base d’ergols liquides (hydrogène et oxygène), il aura par exemple une capacité d’allumages multiples : il pourra se ré-allumer en vol autant de fois que nécessaire pour placer plusieurs charges utiles en orbite à différents endroits, selon les besoins. Une propriété essentielle à l’heure du développement des constellations de satellites. Vinci subit actuellement ses derniers tests avant essais en vol et la fabrication des premières pièces des moteurs de vol sont déjà sorties des usines.

Pour la Nasa, la future « Méga » fusée SLS qui doit être capable d’emporter une capsule Orion avec des passagers pour 2020 sera équipée de moteurs RS25 d’Aerojet Rocketdyne un peu revisités.

Les quatre moteurs RS25 qui doivent équiper le futur lanceur SLS. crédits @Aerojet Rocketdyne
Les quatre moteurs RS25 qui doivent équiper le futur lanceur SLS. crédits @Aerojet Rocketdyne

Le dernier test effectué en décembre 2017 visait ainsi à valider l’un des quatre contrôleurs du moteur qui optimise son fonctionnement avec les données des ordinateurs de vols et les paramètres mesurés dans le moteur. L’essai visait aussi à valider la plus grande pièce de moteur de fusée imprimée en 3D par la Nasa : un système amortisseur d’effet POGO (vibrations provoquées par les fluctuations de poussée du moteur qui peuvent entrer en résonance avec la structure et détruire le lanceur). La fabrication additive doit permettre de réduire les coûts de fabrication du moteur RS-25 de l’ordre de 30 %. Rien que pour l’amortisseur POGO, imprimée en deux parties par fusion laser, le nombre de pièces est passée de 28 à 6 et le nombre de soudures originelles de 123 à 27.

Le chimique fait aussi dans le petit

Les innovations en matière de propulsion chimique ne sont pas réservées aux très gros moteurs. Des solutions voient aussi le jour pour les nanosatellites. Notamment via des systèmes de propulsion par gaz froid miniaturisés. Ainsi, le GomX-4B de l’ESA, lancé en février 2018, est muni de deux paires de petits propulseurs qui ressemblent à des briquets de cigarettes.

GomX-4_pair
La paire de cubesat GOMX4, dont le A est muni de micropropulseurs à butane. crédit @ESA

La mission GomX-4 vise à tester cette propulsion et la communication par radio entre plusieurs satellites (dans ce cas GomX-4B et GomX-4A). Les propulseurs fabriqués par le suédois NanoSpace doivent permettre d’ajuster les mouvements du satellite à des vitesses de l’ordre de 15m/s. Deux réservoirs de butane liquide pressurisés sont reliés aux deux paires de propulseurs. Il n’y a pas de combustion, la poussée est assurée lorsque le liquide pressurisé relâché à l’extérieur se détend pour devenir un gaz. Le butane liquide, 1000 fois plus dense que son gaz, peut être stocké dans un très petit volume. Chaque propulseur fournit une poussée de 1 millinewton, ce qui reste suffisant pour faire bouger le satellite de 8 kg. L’ensemble, chambre, capteurs et tuyères tient sur dans un élément de 1×2 cm et d’1mm d’épaisseur. Avec le vol de GomX-4B, NanoSpace vise à démontrer les différentes variantes de poussées possibles : longues, courtes, par impulsion, dirigées vers le haut, le bas et ce dans de réelles conditions spatiales.

Sophie Hoguin

Propulsion spatiale : la grande foire aux idées !

Les lasers focalisent toujours beaucoup d’attention et sont à l’origine de plusieurs concepts de propulsion spatiale. Cependant, leur utilisation concrète est encore assez limitée. Les premières théories et essais de propulsion laser ont vu le jour dans les années 1970. Mais pendant plus de 25 ans, la technologie laser n’était pas encore assez mûre pour que les concepts inventés puissent être réellement testés.

La propulsion par ablation laser

Au départ, la propulsion par ablation laser s’appuyait sur une source laser émise depuis la Terre ou un satellite, qui, concentrée par un miroir fixé sur le véhicule spatial, était envoyée soit dans une chambre de combustion contenant un ergol (l’air), soit sur un matériau. Dans les deux cas, il y a apparition d’un plasma qui est ensuite éjecté par une tuyère pour créer la poussée. Très vite, on comprend qu’il est préférable d’embarquer directement le laser dans le véhicule. Selon les périodes, l’activité de recherche dans ce domaine est plus ou moins abondante. Depuis, l’apparition des laser pulsés micro et maintenant femtosecondes, les recherches ont repris et portent notamment sur un couplage d’une impulsion laser et des méthodes utilisées en propulsion électrique pour optimiser les plasmas et la poussée. Des systèmes de micro-propulsion ont vu le jour et peuvent permettent par exemple de contrôler l’altitude ou l’orientation d’un satellite.

Le Lightcraft, un véhicule détonnant !

Le laser a aussi été à la base de concepts plus ou moins réussis. Parmi eux, le Lightcraft. Un véhicule spatial ou aérien propulsé par un faisceau laser via la création d’un plasma et de détonations à l’extérieur du véhicule. La source d’énergie de propulsion est externe. Conceptualisé en 1976, quelques prototypes seront construits dans les années 1980 au sein de laboratoires de défenses américains mais il faudra attendre les années 1990 pour voir un véritable projet prendre forme. Le record atteint par un tel engin restera en octobre 2000, 71m et 10,5 secondes de vol via un laser au CO2 de 10kW basé au sol. L’engin emportait alors un carburant d’ablation sous forme de plastique et le corps du véhicule tournait autour de son axe (10000 tr/mn) pour se stabiliser par effet gyroscopique. Le concept a ensuite évolué et le laser remplacé par un maser (microwave amplification by stimulated emission of radiation), dispositif permettant d’émettre un faisceau cohérent de micro-ondes. La propulsion est alors fournie aussi par des détonations mais en plus, des antennes redresseuses récupèrent une partie de l’énergie micro-ondes et la convertissent en électricité pour alimenter un propulseur MHD (LIEN à faire sur article propulsion électrique). Une partie du faisceau est aussi concentré en pointe sur l’avant du véhicule pour former une torche à plasma qui atténue l’onde de choc à l’avant quand le véhicule atteint des vitesses supersoniques. Mais avec le départ en retraite de son inventeur et développeur, Leik Myrabo, en 2011, Lightcraft Technologies Inc a disparu. De leur côté les Japonais se sont emparés de l’idée du Lighcraft pour concevoir un lanceur constitué d’un tube rempli d’un gaz dans lequel on placerait le véhicule qui serait propulsé par un faisceau laser. Avantages : on peut contrôler tous les paramètres physiques du lancement. Inconvénients : il faut construire un tube de plusieurs centaines de mètres, donc le lieu de lancement sera fixe. Et surtout on est encore loin du démonstrateur opérationnel. Les essais menés au début des années 2000 sont restés confinés en laboratoire sur des tubes raccourcis avec un projectile de quelques grammes.

Le LightCraft, propulsé par un rayon laser. La pointe du bas focalise le laser sur le pourtour où a lieu le réchauffement de l’air qui se transforme en plasma.
Le LightCraft, propulsé par un rayon laser. La pointe du bas focalise le laser sur le pourtour où a lieu le réchauffement de l’air qui se transforme en plasma.

Le laser, clé de l’antimatière ?

La propulsion par création d’antimatière est une espèce de Graal. Les obstacles technologiques tombent petit à petit mais il reste encore à résoudre le problème de la source d’énergie, du confinement de l’antimatière et des éventuels rayons gammas produits. Les lasers pourraient faire partie de la solution pour produire de l’antimatière « facilement » depuis qu’on s’est aperçu que certains rayons laser projeté sur des feuilles d’or par exemple produisait en grand nombre de positrons. Un programme de recherche de la Nasa s’est penché sur le sujet de la propulsion antimatière entre 2000 et 2010 mais sans aller jusqu’à une phase de démonstrateur. La création et la manipulation de l’antimatière restant un domaine de recherche constant, cette solution technologique reste toujours prête à sortir des cartons.

La propulsion photonique

Des lasers pour remplacer les radiations du soleil et des étoiles. Une vieille histoire, remise au goût du jour par Philip Lubin et le projet Deep In (Directed Propulsion for interstellar exploration) qui affirme que l’on pourrait atteindre Mars en 3 jours avec un vaisseau de 100kg munis de voiles laser. La feuille de route du projet lancée en 2015-2016 a reçu des soutiens financiers de la Nasa. Depuis mi-2016, le projet est entré dans la phase II des recherches. Mais il reste de très nombreux défis technologiques : de la source du laser, de sa position, de sa puissance à la conformation des voiles.

Voiles solaires : un déploiement très lent

Le concept de voile solaire utilisant les particules éjectées par les étoiles pour pousser des voiles spatiales est né il y a plus d’un siècle dans l’imagination tant des scientifiques que des romanciers mais ce n’est que très récemment, depuis 2010 que l’on a réussi les premiers déploiements de voiles solaires sur des sondes ou des petits satellites. Les principales difficultés résultent de la complexité à trouver une forme et une taille idéale pour capter le maximum de radiations et en même temps que cette forme et taille soient aptes à réussir le déploiement de la voile une fois en orbite tout en assurant un minimum de manoeuvrabilité. Ce sont les Japonais qui ont réussi à déployer et utiliser la première voile solaire sur leur sonde Ikaros (interplanetary Kite-craft Accelerated by Radiation of the Sun). La mission d’une durée initiale de 6 mois a finalement été poursuivie et l’agence spatiale japonaise (Jaxa) continue de récolter les données de la sonde qui orbite autour du Soleil en 10 mois. Cette mission a confirmé que la propulsion basée sur une voile solaire est envisageable.

voile laser

La voile d’Ikaros d’une superficie de 173m2 a permis d’augmenter la vitesse de la sonde – qui pèse 315kg –  d’une dizaine de m/s au bout d’un mois via une poussée mesurée à 1,12 milliNewton. Depuis d’autres démonstrateurs et projets ont vu le jour et les technologies se déploient doucement. L’ESA et le projet européen Graphene Flagship ont par exemple récemment testé l’utilisation du graphène pour des voiles solaires. Le prochain lancement notable devrait être celui de la Planetary Society et sa LightSail 2 en octobre 2018. Le cubesat et sa voile seront lancés en même temps qu’une série de petits satellites des programmes de recherches de l’US Air Force via le premier lancement commercial de la Falcon Heavy de Space X.

L’Em-Drive, l’impossible concept qui défie la chronique

En 2001, un ingénieur britannique, Roger Shawyer, imagine un concept de propulsion spatiale qui générerait une poussée sans éjecter ou absorber de matière. Fonctionnant donc sans carburant. Dans l’EM-Drive (pour Electromagnetic Drive), la force de poussée serait produite par une onde à haute fréquence qui circulerait dans une cavité résonante de forme conique. Le problème : ce concept ne respecte pas l’une des lois piliers de la physique newtonienne, la conservation de la quantité de mouvement. Pour beaucoup de scientifiques c’est une supercherie et ils attendent une explication physique plausible avant de pouvoir y croire. Les résultats du groupe de travail Eagleworks de la Nasa, même parus dans une revue à relecture, restent difficiles à vérifier et à reproduire et pourraient être le résultat d’erreurs de mesure ou d’artefacts. Pour le moment, seuls les Chinois corroborent de telles données. En décembre 2016, lors d’une conférence de presse, les Chinois ont d’ailleurs annoncé qu’ils avaient réussi à mettre en évidence le phénomène en laboratoire et en orbite sur la station spatiale Tiangong 2 et qu’ils s’attaquaient désormais à intégrer cette technologie sur des satellites. Des annonces, accompagnées de fréquents papiers fournissant des tentatives d’explications, bien souvent fondées sur des phénomènes quantiques invérifiables, relancent régulièrement la controverse. Faisant couler beaucoup d’encre et amenant croyants et sceptiques à s’affronter durement sur les réseaux sociaux.

Par Sophie Hoguin

Les starts-up construisent la mobilité de demain !

Wavestone a analysé l’activité de 421 start-up, extraites de la base de données Dealroom, qui regroupe les entreprises à forte croissance dans le monde. Le cabinet a ainsi dressé trois grandes catégories de start-up liées à la mobilité. 50 % d’entre elles s’intéressent au véhicule de demain, 36 % aux nouveaux services proposées autour de la mobilité et 14 % à la place du véhicule dans les trajets intermodaux.

Capture d’écran 2018-05-29 à 16.30.22

Priorité à l’autonomie et à la sécurité des données

Sur 210 start-up consacrées au développement du véhicule de demain, la priorité consiste à rendre les véhicules plus autonomes, à mieux les connecter et mieux les sécuriser. Les entrepreneurs cherchent également à rendre les véhicules plus verts, notamment grâce aux batteries électriques.

Parmi les 85 start-up s’intéressant à l’autonomie des véhicules, trois thèmes de recherche sortent du lot. 51 % d’entre elles développent des capteurs pour que le véhicule soit capable d’apprécier l’environnement dans lequel il évolue (caméras, radars, lidars…). À côté,  33 % développent des systèmes autonomes et des intelligences artificielles grâce au deep learning. Enfin, 16 % s’attachent à développer les technologies cartographiques.

Concernant la cyber-sécurité, la priorité est donnée à la sécurisation des matériels, logiciels et à l’échange de données.  Les start-up développent également des moyens pour mieux détecter les intrusions et savoir comment réagir. Enfin, elles doivent être en mesure de mettre à jour en permanence la vulnérabilité et en suivre l’évolution.

De nouveaux services en préparation

Wavestone distingue trois types de services centrés sur les véhicules : le ride-sharing (avec chauffeur), le car-sharing (auto-partage) et le car-pooling (covoiturage). La majorité des start-up se créent actuellement dans l’auto-partage. Les services liés à la mobilité reposent de leur côté sur l’exploitation des données du véhicule. Il s’agira notamment de pouvoir proposer des services d’assurance ou de maintenance.

Le développement de l’autonomie imposera de repenser complètement l’intérieur des voitures pour proposer de nouveaux services. Le développement de ces nouveaux services à bord est  mis de côté pour le moment. Les start-up se focalisent en priorité sur le fait de faire rouler les véhicules autonomes en toute sécurité.

Le dernier grand défi est d’assurer l’intermodalité et connecter les différents modes de transport entre eux pour un parcours optimisé. Les grands opérateurs de transports s’intéressent de près à cette question. La RATP a par exemple récemment financé Cityscoot, les scooters en libres service. De son côté, Ford a racheté Chariot Shuttle, un service de navettes partagées. Les géants de la tech Didi et Alibaba ont pour leur part racheté Blue Gogo Likesharing et Ofo Bike Sharing, deux systèmes de vélos en libre service. «Les alliances commencent mais le jeu reste ouvert», conclut Amal Boutayeb, experte transports pour le cabinet de conseil Wavestone et auteure de l’étude.

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #16

Qu’est-il arrivé à la Tesla Model 3 ?

tesla

Alors que les acheteurs attendent toujours la livraison de la Tesla Model 3 plusieurs fois reportée, les interrogations se multiplient autour de l’état de santé de la firme d’Elon Musk. Lire

Source : The Guardian

Zuckerberg devant le Parlement européen : les 5 choses à retenir

zuckerberg

Les déclarations du patron de Facebook vues du Royaume-Uni. Lire

Source : The Guardian

Comment empêcher Google de gérer votre vie numérique ?

Capture d’écran 2018-05-28 à 11.52.29

Google est impossible à « éviter », mais il existe des moyens de limiter le volume de données personnelles qui vous échappe au profit du géant américain. Lire

Source : Wall Street Journal

Macron et la start-up nation : où en est-on ?

macron

Le Président français avait promis de faire de la France la start-up nation. Qu’en est-il de cette promesse, vu des Etats-Unis ? Lire

Source : New-York Times

Jeff Bezos en dit plus sur son projet de colonisation de la lune

bezos

Le patron de Blue Origin veut faire de la lune un lieu pour l’industrie extractive, afin de préserver les ressources sur terre. Lire

Source : Tech Crunch

Un revêtement omniphobique, durable, applicable partout

Ce revêtement succède à ceux déjà créés par ce laboratoire dont un revêtement qui repoussait la glace et l’eau et un revêtement omniphobique beaucoup plus fragile. En effet, la nouveauté réside dans la durabilité, la transparence et la faible toxicité de ce nouveau revêtement. Le détail de cette recherche, publiée dans ACS Applied Materials & Interfaces de mars 2018, vient compléter un article de l’an dernier sur le même type de composé et qui détaillait ses propriétés d’auto-réparation.

Depuis 20-30 ans, on arrive régulièrement à créer des composés hydrophobes ou superhydrophobes – hydrophobie basée sur des propriétés physiques plus que sur des propriétés chimiques et qui repousse donc tous les liquides qu’ils soient polaires ou apolaires et que les anglo-saxons qualifient parfois d’omniphobie. Mais, il existe en général des freins à leur expansion. Il peut s’agir de leur toxicité ou leur danger pour l’environnement – les premiers composés étaient souvent à base de fluorocarbone -de leur complexité dans le processus de synthèse ou d’application ou encore de leur fragilité, ils perdent leurs propriétés très facilement avec même une faible abrasion par exemple.

Trouver la bonne formule

L’équipe coordonnée par le Pr. Anish Tuteja procède par une approche systématique et des outils mathématiques pour trouver les formules des matériaux. Leurs travaux ont consisté à lister les propriétés fondamentales d’un vaste catalogue de substances et ensuite de créer l’outil mathématique capable de prédire comment deux substances pourraient se comporter mise ensemble. Cela fournit une variété quasi-infinie de combinaisons avec des propriétés sur-mesure.

La bonne formule pour cette fois est un mélange d’un polymère (un polyuréthane fluoré) et d’un matériau superhydrophobe spécial appelé F-POSS (fluorodecyl polyhedral oligomeric silsesquioxane). Le résultat annoncé par les chercheurs est assez bluffant puisque le composé peut être appliqué sur n’importe quel substrat, il est transparent, repousse tous les liquides (eau, éthanol, huiles de silicone, hexadécane), assure une fonction d’auto-nettoyage, et est durable dans le temps grâce à une capacité d’auto-réparation (fonction de l’épaisseur du revêtement). En outre, il est très facile à appliquer avec des procédés courants : dépôt par centrifugation, spray, trempage etc.

Vers une production de masse peu coûteuse ?

Pour Anish Tuteja, ce revêtement, encore cher aujourd’hui, pourrait très vite devenir accessible. Le polyuréthane fluoré est un ingrédient courant et peu cher et le F-POSS pour l’instant rare, est en phase d’industrialisation. Les coûts devraient donc chuter. Les premières études de toxicité semblent prédire que le composé pourrait être sur le marché dans les deux prochaines années y compris pour des objets à destination des enfants, annonce le chercheur.

En outre, des applications industrielles sont déjà envisagées pour la réfrigération, l’énergie et le raffinage ou toute autre industrie qui dépend de la condensation de liquide. En effet, ce revêtement pourrait permettre d’augmenter l’efficacité de certains processus de 20 % en aidant à détacher l’eau ou les produits chimiques condensés sur les parois des équipements.

La commercialisation de cette découverte est déjà entamée via la création d’Hygratek, une start-up fondée par Tuteja.

Les travaux ont fait l’objet de brevets co-déposés par l’Université du Michigan et l’US Air Force qui a subventionné une partie des recherches et qui s’intéresse depuis plus de 10 ans aux propriétés des F-POSS.

Tests de résistance :

Par Sophie Hoguin

Revue du web #114 : les 10 vidéos scientifiques les plus étonnantes du mois

Boston Dynamics : Atlas est maintenant capable de courir !

NASA : des ailes d’avion orientables

Spectacle : une cellule immunitaire dans un organisme vivant

Visite privée : voici le parking connecté de l’Apple Park

RoboFly, un robot insecte qui vole grâce à un rayon laser (projeté sur son dos photovoltaïque)

Drone facile à piloter : défi relevé par MotionPilot

Des propulseurs à gaz pour éviter les chutes à moto

Un matériau mimant la peau des caméléons

Un nouveau jeu vidéo Nintendo en… carton

Microsoft : une manette de jeu dédiée aux personnes handicapées

Par I. B

Découverte du premier corps du Système solaire d’origine extrasolaire

Certains corps de notre système solaire pourraient-il provenir des environs d’autres étoiles ? Les astronomes sont divisés sur le cas des comètes, dont certains imaginent qu’elles puissent s’être formées autour d’autres étoiles avant d’être capturées par notre Soleil… sans l’avoir jamais prouvé. Quant au cas célèbre d’Oumuamua, un astéroïde frôlant la Terre en 2017, il provenait certes d’un autre système solaire mais ne faisait que passer, tel un touriste, et poursuivre son chemin vers d’autres mondes.

L’astéroïde 2015 BZ509, lui, est bien un membre permanent du Système solaire… mais il n’y serait pas né, comme le démontrent les calculs d’Helena Morais, chercheuse à l’Unesp au Brésil, et Fathi Namouni, chercheur CNRS au Laboratoire J.-L. Lagrange (CNRS/Observatoire de la Côte d’Azur1/ Université Nice Sophia Antipolis2).

2015 BZ509, découvert par les télescopes Pan-Starrs à Hawaii en 2014, fait environ 3 km de diamètre. Il occupe l’orbite de Jupiter et tourne autour du Soleil à la même vitesse que la planète géante. Sauf qu’il le fait… en sens inverse. Or les astéroïdes qui ont de telles orbites rétrogrades se trouvent habituellement dans les confins du Système solaire. Seuls certains d’entre eux, les Centaures, s’aventurent occasionnellement vers les planètes géantes pour n’y séjourner que quelques millions d’années.

Intrigués par ce particularisme, Fathi Namouni et Helena Morais ont retracé l’orbite de 2015 BZ509 par simulation numérique, de septembre 2017 à février 2018, en utilisant le Mésocentre Sigamm, installé à l’Observatoire de la Côte d’Azur. Ils ont pu ainsi remonter durant 4.5 milliards d’années jusqu’à la naissance du Système solaire. Surprise : 2015 BZ509 a toujours eu une orbite rétrograde, même aux premiers temps du Système solaire, alors qu’à cette époque, absolument tous les astéroïdes et planètes tournaient autour du Soleil dans le même sens. Cela implique que 2015 BZ509 n’est pas originaire de notre système solaire et qu’il a dû naitre dans un système stellaire voisin avant d’être capturé par Jupiter.

Une immigration tout-à-fait possible car l’amas d’étoiles original dans lequel le Soleil s’est formé contient des étoiles possédant leurs propres planètes et astéroïdes. La grande proximité de ces étoiles, combinée aux forces gravitationnelles des planètes, a pu permettre à ces systèmes stellaires d’attirer, d’enlever et de se capturer des astéroïdes les uns des autres.

2015 BZ509 est donc le premier astre du Système solaire dont l’origine extrasolaire a été identifiée. Mais la liste pourrait bientôt s’allonger. En effet, pour mener cette simulation, les deux chercheurs ont créé numériquement un essaim d’un million de clones de 2015 BZ509 évoluant dans les mêmes conditions. Au fils du temps, la majorité d’entre eux sont restés stables sur leur orbite, beaucoup d’autres sont « tombés » vers le Soleil. Mais quelques-uns de ces astéroïdes virtuels ont été expulsés sur une orbite polaire, à la perpendiculaire du plan où se trouvent les orbites des planètes. Or, des astéroïdes en orbite polaire existent bel et bien aujourd’hui : ils ne sont qu’une dizaine, au-delà de Neptune, la plus éloignée des planètes. Des candidats désormais sérieux pour rallonger la liste des corps extrasolaires du Système solaire.

Comprendre exactement quand et comment 2015 BZ509 a migré dans le Système solaire permettrait de mieux connaitre l’environnement originel du Soleil et de fournir des indices supplémentaires sur l’enrichissement potentiel de notre environnement primaire avec des composants nécessaires à l’apparition de la vie sur Terre.

premier-corps-Système solaire -extrasolaire-cap

Source : cnrssyst

Eolmed : l’éolien offshore fait appel au financement participatif

Le consortium piloté par Quadran Energies Marines lance le premier financement participatif local dédié à un parc éolien offshore, avec un objectif de 300.000 euros. Le financement sur la plateforme Enerfip est réservé dans un premier temps aux habitants de la région Occitanie entre le 22 mai et le 30 juin. Puis, la collecte sera ouverte à tous jusqu’au 5 juillet.

Tout particulier peut investir entre 10 et  2.500 euros. Il bénéficiera en contrepartie d’un taux d’intérêt annuel fixe de 5 %. Les fonds récoltés financeront une partie du Lidar flottant, qui servira à évaluer les gisements de vent sur le site. L’investissement total du parc pilote est estimé à 212 millions d’euros. La construction du parc débutera en 2019 pour une exploitation commerciale à partir de 2021.

Eolmed : 4 éoliennes flottantes

Le consortium a été retenu en juillet 2016  pour installer un parc pilote de 4 éoliennes flottantes en mer Méditerranée. Le parc Eolmed sera situé à plus de 18 km des côtes, au large de Gruissan et de Port-la-Nouvelle dans l’Aude. Il sera doté d’une puissance de 24,6 mégawatts. Le parc produira près de 100 millions de kilowattheures par an. C’est l’équivalent de la consommation électrique annuelle de 50.000 habitants.

Les éoliennes seront installées sur des fondations flottantes en béton d’environ 15.000 tonnes. Une éolienne flottante équipée du flotteur en béton d’Ideol a été acheminée le 29 avril sur le site expérimental Sem-Rev, situé à 22 kilomètres des côtes bretonnes au large du Croisic (Loire-Atlantique). L’installation permettra d’étudier, en situation réelle, les performances de l’éolien flottant avec la technologie prévue pour le parc Eolmed.

Par Matthieu Combe, journaliste scientifique

La bioraffinerie de Total et son huile de palme interrogent

La production de la nouvelle bioraffinerie de Total devrait débuter d’ici cet été. Elle sera en mesure de traiter 650.000 tonnes d’intrants pour produire 500.000 tonnes par an de biodiesel de type HVO (hydrotraitement des huiles végétales). Il s’agit d’une alternative aux carburants traditionnels d’origine fossile. La bioraffinerie « s’approvisionnera à hauteur de 60 à 70 % d’huiles végétales brutes d’origines aussi diverses que le colza, le tournesol, le soja, la palme, le maïs ou de nouvelles plantes du type carinata », fait savoir Total dans un communiqué. Le reste des intrants sera constitué de graisses animales, d’huiles alimentaires usagées et d’huiles issues de déchets et de l’industrie papetière. Cette part a vocation à « augmenter au fil des années en fonction de la disponibilité de ces ressources alternatives », précise le pétrolier.

Jusqu’à 300.000 tonnes d’huile de palme importées par an

L’autorisation accordée par le préfet de la région PACA permet à Total de traiter un maximum de 450.000 tonnes d’huile végétale brute chaque année, soit 69 % de la capacité de l’usine. Total garantit de limiter l’approvisionnement en huile de palme brute à un volume inférieur à 50 % des volumes de matières premières qui seront traitées sur le site, soit au plus 300 000 tonnes par an. « A titre de comparaison, environ 136.000 tonnes d’huile de palme alimentaire sont consommées chaque année en France », note l’association Greenpeace. Cette importation massive d’huile de palme interroge donc.

Selon le rapport Durabilité de l’huile de palme et des autres huiles végétales publié en décembre 2016 par le Ministère de l’écologie, 650.000 tonnes d’huile de palme sont importées en France pour faire de l’huile de palme, représentant 23% de la totalité du biodiesel importé ou produit. Ces nouvelles importations augmenteront donc la production de biodiesel à base d’huile de palme de près de 50 %. Total deviendra ainsi le premier importateur français d’huile de palme.

Des certifications qui ne garantissent pas l’absence de déforestation

Total s’engage à promouvoir un label de certification durable de haute qualité auprès de l’Union Européenne et à ce que l’approvisionnement soit issu de producteurs certifiés RSPO. « Malheureusement, aucune certification ne garantit aujourd’hui l’absence d’impacts directs ou indirects sur les forêts, estime Greenpeace. La RSPO souffre de lourdes carences dans la définition de ses critères de durabilité, de manquements répétés dans sa mise en oeuvre ou encore de faiblesse chronique sur le plan de la transparence ». Ainsi, qui dit certification RSPO ne veut pas forcément dire « absence de déforestation ».

Selon le Ministère de la transition écologique et solidaire, la modernisation de l’usine de la Mède conduira à une baisse des émissions de CO2 de 75%. Les émissions de dioxyde de soufre baisseront quant à elles de 93% et celles de poussières de 98%. Enfin, les composés organiques volatiles (COV) baisseront de 45% par rapport au fonctionnement de la raffinerie historique. De son côté, Greenpeace estime que ce biodiesel serait responsable de « trois fois plus d’émissions de gaz à effet de serre que les carburants fossiles » du fait de la déforestation qu’entraîne la culture du palmier à huile. Même son de cloche chez les Amis de la Terre. « Il y a d’autant plus de risques que Total refuse de rendre public son plan d’approvisionnement, notamment sa liste de fournisseurs », estime Sylvain Angerand, Coordinateur des campagnes de l’association.

Vers davantage d’économie circulaire ?

Pour justifier ce projet, le ministère met en avant les aspects liés à l’économie circulaire. « Le projet de la Mède doit donner la priorité au recyclage des huiles usagées, et dans ce cadre l’Etat a fixé, à Total, comme objectif d’utiliser au moins 25 % de matières premières issues du recyclage des huiles (huiles alimentaires usagées, graisses animales, distillats d’acide gras) avant d’autoriser la mise en service de la bioraffinerie », précise-t-il. La bioraffinerie participerait ainsi à « à la structuration de ces filières encore trop peu utilisées en France et en Europe » pour « se substituer progressivement à d’autres sources d’approvisionnement ».

Une consultation publique d’un mois débutera bientôt sur la stratégie française de lutte contre la déforestation importée. Greenpeace invite les citoyens à y prendre part pour « en finir avec ce double discours toxique pour la lutte contre la déforestation et la protection du climat ».

En janvier 2018, le Parlement européen a voté pour l’interdiction de l’huile de palme dans les carburants d’ici 2021. « Un vote qui se heurte jusqu’à présent au refus des Etats membres, et en particulier de la France », estiment les Amis de la Terre. La pérennité même du site de la Mède serait en jeu si l’Europe décidait d’interdire prochainement l’utilisation d’huile de palme. L’association exhorte donc Total à présenter un plan alternatif prenant en compte cette interdiction potentielle.

Par Matthieu Combe, journaliste scientifique

Engie : une batterie pour l’autoconsommation électrique

Engie dévoile une batterie résidentielle pour les particuliers à des fins de stockage et de consommation d’énergie d’origine solaire. Cette solution, complémentaire de l’offre My Power lancée l’an dernier (production d’électricité via des panneaux photovoltaïques ), promeut l’autoconsommation plutôt que la revente d’électricité sur le réseau. L’industriel estime que le moment est propice grâce à la convergence de trois facteurs. «C’est tout d’abord une tendance dans la société», observe Léo Bénichou, responsable de l’offre, qui étaye son argumentaire par un sondage réalisé par Toluna pour le compte d’Engie : 69% des Français seraient motivés par l’installation de panneaux solaires dans l’objectif de stocker l’énergie produite et de la consommer quand ils le souhaitent.

batterie-engie-consommation-electrique-700

batteries-engie-consommation-electrique

Le prix constitue le deuxième moteur. «Les deux courbes commencent à se croiser : celle du prix du kilowatt-heure (kWh) acheté sur le réseau et celle du coût du kWh produit par une installation de panneaux solaires» poursuit Léo Bénichou. La première croit doucement mais régulièrement, la seconde décroît de manière spectaculaire, le prix des modules photovoltaïques (PV) baissant d’année en année. Troisième incitation : l’évolution règlementaire. «L’arrêté de mai 2017 instaure un cadre rassurant» confie Léo Bénichou. La prime à l’investissement, étalée sur cinq ans et variable selon la puissance de l’installation, peut atteindre 400 €/kWc (kilowatt-crête) pour une puissance inférieure à 3 kWc.

Un procédé annoncé plus sûr et plus durable

La batterie en question est l’oeuvre de l’entreprise allemande Sonnen. Elle ne recycle pas de batterie de seconde vie employée initialement dans l’automobile, comme le fait xStorage Home d’Eaton. Elle ne se base pas non plus sur la technologie Li-Ion, la plus répandue, mais sur la technologie Lithium-Fer-Phosphate. «La densité énergétique de notre batterie est moindre mais elle est plus sûre, offrant une meilleure stabilité thermique, précise Jean-Baptiste Cornefert, directeur marketing de Sonnen. Sa durabilité est supérieure car elle tolère 10000 cycles de charge, soit environ 20 ans de fonctionnement.» La sonnenBatterie, dont la capacité s’échelonne de 2,5 kWh à 15 kWh, a aussi l’avantage d’être modulaire et évolutive, via l’ajout ultérieur de blocs supplémentaires de 2,5 kWh si nécessaire. La garantie est de 10 ans.

Cette batterie, qui peut se raccorder à une installation PV existante, comporte un onduleur bidirectionnel et un gestionnaire qui optimise l’autoconsommation. L’algorithme auto-apprenant tient compte des habitudes des occupants du foyer et des données météorologiques. L’application mobile permet quant à elle d’avoir accès à plusieurs statistiques, dont le niveau d’autonomie et l’historique. Engie ne fournit pas de prix indicatif, si ce n’est un plan de financement sur 10 ans, à partir de 109 €/mois, et évoque un retour sur investissement au bout de 10 à 15 ans. Le groupe a calculé un taux théorique d’autonomie de 96%, en prenant comme référence une maison située à Nice et disposant d’une installation PV de 5 kWc et d’une batterie de 10 kWh.

Plusieurs industriels se sont positionnés sur ce marché naissant depuis environ deux ans : EDF, avec des batteries LG, Eaton (évoqué plus haut), Tesla ou encore Solarwatt avec la batterie MyReserve. Il reste à savoir si la France est un pays aussi hospitalier que l’Allemagne par exemple, où le PV et le stockage sur batterie sont nettement plus développés. Il est vrai que le prix du kWh acheté sur le réseau y est presque le double de celui pratiqué en France, ce qui pousse davantage les particuliers à investir dans l’autoconsommation.

Par Frédéric Monflier

Les enjeux de l’OPA chinoise sur Energias de Portugal

Une OPA ni hostile, ni amicale

Difficile de caractériser formellement l’OPA lancée par la China Three Gorges sur Energias de Portugal. Elle n’est pas vraiment amicale puisque le conseil d’administration n’a pas été intégré dans la manœuvre, contrairement à celui de Direct Energie lors de l’OPA de Total le mois dernier par exemple. Pire, il a estimé mardi après avoir examiné l’offre, de 9 milliards d’euros tout de même, qu’elle n’était pas suffisante et qu’elle ne valorisait pas suffisamment le groupe portugais qui dispose d’un portefeuille de près de 10 millions de clients, plus de 20 000 kilomètres de lignes électrique et un parc de production électrique installé de quelque 26,7 GW, soit l’équivalent d’une trentaine de réacteurs nucléaires…

Elle ne peut pas non plus être considérée comme totalement hostile car avec 23,27%, la compagnie propriétaire des fameux barrages des Trois Gorges est le premier actionnaire d’EDP depuis que le groupe a été privatisé en 2011 suite à la crise financière qui a si durement touchée le Portugal, contraint de vendre tout ou partie de ses fleurons nationaux. La China Three Gorges aurait ainsi investi beaucoup dans la compagnie qui lui appartient déjà pour près d’un quart du capital.

Enjeu géopolitique

Mais voilà, l’énergie est un secteur stratégique et la prise de contrôle d’un acteur de référence sur la scène européenne (surtout ibérique) par une compagnie détenue par l’Etat chinois serait une première et pose problème. D’aucuns voient dans l’opération une tentative à peine déguisée de Pékin de prendre le contrôle d’infrastructures stratégiques pour mieux peser sur les décisions européennes. « Au-delà des infrastructures de transport dont la conquête vise à maîtriser les flux commerciaux, qu’il s’agisse du contrôle du port grec du Pirée ou des investissements colossaux dans l’est et le sud de l’Europe pour construire ses « nouvelles routes de la Soie », cette acquisition d’EDP s’inscrit dans une stratégie chinoise évidente de leadership dans les industries liées aux nouvelles technologies de l’énergie », met en garde la CFE-CGC Energies, l’un des syndicats du secteur français de l’énergie.

D’autres estiment au contraire que l’argent venu d’Asie est le bienvenu pour renflouer des entreprises européennes mises en difficultés par le désengagement de leur Etat et la concurrence accrue sur le marché mondialisé de l’énergie. En réalité, les rumeurs sur l’acquisition d’EDP allaient déjà bon train et il n’est guère surprenant de voir la compagnie faire l’objet d’une OPA. Les noms de l’espagnol Gas Natural Fenosa ou du Français Engie revenaient régulièrement dans les discussions, le premier ayant confirmé son intérêt, le second l’ayant nié. Reste à savoir si le groupe chinois va réussir à atteindre les 50% du capital pour prendre le contrôle d’EDP ou s’il va devoir réévaluer à la hausse son offre pour convaincre des actionnaires encore hésitants. Autre option possible, l’apparition d’une contre-offre issue d’un grand acteur européen pour contrer les velléités chinoises. Affaire à suivre.

Romain Chicheportiche

Les GAFAM : rois d’internet et… des énergies renouvelables

Les énergies renouvelables ont le vent en poupe. Selon les chiffres du Business Renewable Center, publié mi-avril, les contrats d’énergie renouvelable pourraient dépasser les 2,78 gigawatts d’électricité cette année.

Parmi ces acteurs ayant signé des contrats, il y a les géants de l’IT ! Selon une étude menée par Bloomberg New Energy Finance, les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ont été les principaux acheteurs et utilisateurs mondiaux d’énergies renouvelables l’an passé.

infographie bloomberg

Par exemple, Google (à travers sa filiale Google Energy créée il y a plusieurs années) a acheté suffisamment d’électricité issue de ce type d’énergies pour compenser l’énergie consommée par ses bureaux et ses datacenters.

De son côté, Apple a indiqué en mars que l’intégralité de ses installations fonctionnaient désormais grâce à de l’électricité issue d’énergies renouvelables.  La marque californienne a notamment deux centres de données 100 % renouvelables en Irlande et au Danemark. Mais cela ne signifie pas pour autant qu’elle a accès à de l’électricité renouvelable produite localement : ils s’approvisionnent dans un autre pays à l’intérieur des mêmes « frontières naturelles du marché  » que le pays d’exploitation.

Deux gros contrats pour Microsoft

Il y a deux ans, l’éditeur de Windows avait annoncé que non seulement ses datacenters étaient 100 % neutres en carbone, mais qu’il souhaitait augmenter la quantité d’électricité renouvelable alimentant ses datacenters. Son objectif est de franchir le cap des 50 % d’ici la fin de cette année. Résultat, au cours des deux derniers mois, Microsoft a signé deux importants contrats. Le premier, pour 100 % de la production de 60 MW du plus grand projet solaire de Singapour. Le second pour 500 MW auprès d’un réseau solaire géant en Virginie. C’est le plus gros achat de ce type d’énergie jamais effectué par une entreprise aux États-Unis.

Au total, Microsoft dispose actuellement de 1,2 GW d’électricité renouvelable garantie par des contrats d’achat d’électricité à long terme, ainsi que d’un panneau solaire de 480 kilowatts sur le toit de son campus dans la Silicon Valley.

Datacenters gloutons

Pourquoi cette frénésie de contrats ? Pour ces géants, c’est un argumentaire marketing supplémentaire visant à redorer leur blason. Car la consommation d’électricité des datacenters ne cesse d’augmenter. Elle atteignait 2 % de la consommation mondiale en 2012. Elle pourrait grimper à 13 % en 2030. Leur décision est également motivée par la baisse des coûts des énergies renouvelables. Ils veulent aussi se prémunir contre la hausse des prix de l’électricité.

Mais pas seulement. Les actions des GAFAM incitent aussi des investisseurs à s’intéresser de plus en plus à ce secteur. L’éditeur d’Office s’est aussi associé à Facebook et à un fonds d’investissement pour créer le Microgrid Investment Accelerator (MIA). Cette structure est destinée à mobiliser 50 millions de dollars d’ici 2020 pour la recherche et le développement de nouvelles technologies dans le secteur des microgrids (micro-réseaux d’approvisionnement en énergie renouvelable).

Histoire d’être prises au sérieux, les GAFAM sont d’ailleurs membres de RE100. Créé par le Climate Group en partenariat avec CDP (anciennement Carbon Disclosure Project), ce consortium regroupe des grands comptes qui s’engagent à s’alimenter exclusivement à partir d’énergies renouvelables. De quoi séduire d’autres géants dont les besoins en énergie sont moindres comme Walmart, IKEA ou encore Adobe.

Philippe Richard

Les limites de la reconnaissance faciale

C’est le rêve de toutes les autorités et services de sécurité : repérer, en quelques minutes, un individu recherché en analysant des vidéos ou des photos. C’est l’un des objectifs de la reconnaissance faciale. En Chine par exemple, des paires de lunettes (vendues 500 €) dotées de cette technologie sont portées par les agents de sûreté ferroviaire de Zhengzhou, au centre du pays. Connectées à une tablette, elles permettent de consulter une base de données répertoriant près de 10.000 personnes suspectées de délits et de crimes.

Mais est-elle aussi efficace que le prétendent les entreprises qui vendent ces solutions ? En avril, tous les médias se sont fait l’écho de l’arrestation en Chine d’une personne qui se trouvait au milieu d’une foule de 50.000 personnes venues assister à un concert. Des caméras avaient repéré cet individu recherché pour « crime économique ». Toujours en Chine, les paires de lunettes auraient permis d’arrêter quelques fraudeurs.

Mais au-delà de ces quelques cas, le résultat est très loin d’être positif. C’est ce que montre une étude menée en Angleterre. Il y a un an, lors de la finale de la Ligue des Champions au Pays de Galles, la police a mis en place un système capable de comparer le visage des supporters à une base de données d’images de plus de 500 000 personnes. Un an plus tard, le quotidien britannique The Guardian révèle que cet outil, baptisé « Locate », avait trouvé 2470 potentiels suspects. En réalité, 2297 d’entre elles se sont révélées être des erreurs. Soit un taux de réussite de seulement 7 %.

Discrimination

La police de South Wales a précisé que sur les 15 évènements durant lesquels « Locate » avait été testé, seules 234 personnes avaient été identifiées correctement. Pour les autorités, ces nombreuses erreurs sont dues à une forte proportion d’images de mauvaise qualité et au fait que c’était la première fois que le système était utilisé.

D’autres études ont également constaté des erreurs élevées dans le repérage de personnes de couleur. En février dernier, une étude menée par une équipe du Massachusetts Institute of Technology (MIT) avait constaté que les trois logiciels testés (ceux de Microsoft, d’IBM et de l’entreprise chinoise Megvii) identifiaient correctement des hommes blancs parmi 1270 personnes provenant de trois pays africains (Afrique du Sud, Sénégal et Rwanda) et européens (Finlande, Islande, Suède).

Par contre, ces programmes ont plus de difficultés à reconnaître des femmes (presque 80 % de réussite pour le programme chinois qui avait obtenu le meilleur taux) et encore plus celles de couleur. Le taux d’erreur a atteint jusqu’à 35 %. Ce résultat s’explique notamment par le choix des données qui vont venir alimenter l’algorithme lors de son apprentissage. « On ne peut pas avoir des intelligences artificielles qui ne sont pas inclusives. Or, ceux qui créent les technologies sont ceux qui mettent en place les standards », avait explique Joy Buolamwivi, la scientifique du MIT dans une interview accordée au New York Times.

Par Philippe Richard

L’agrégateur d’énergies renouvelables : 
un métier en plein boom

Bascule vers le marché

Les énergies renouvelables ont réalisé une progression spectaculaire dans le mix électrique mondiale (+ 167 GW dans le monde pour la seule année 2017 selon l’Irena) grâce notamment à de généreuses subventions publiques. Ces dernières se sont caractérisées par des aides directes ou encore des tarifs de rachat de l’électricité produite, un système très en vogue notamment en Europe, qui a produit une rente et une visibilité confortable aux développeurs de parcs éoliens, photovoltaïques, etc. En France par exemple, un parc éolien construit dans les années 2000 bénéficie encore aujourd’hui de ces tarifs d’achat grâce au contrat de 20 ans souscrit avec EDF, l’opérateur national obligé de racheter à prix fixe l’électricité générée par ledit parc. Un système qui a permis de rassurer les investisseurs de l’époque et de créer un effet d’entraînement et d’échelle, avec à la clé une réduction des coûts qui rend aujourd’hui ces énergies rentables, notamment le solaire photovoltaïque.

Comme convenu, ces contrats de 20 ans s’éteindront progressivement dans les années à venir (c’est déjà le cas pour ceux signés à la fin des années 90) et il n’est pas question pour l’Etat de continuer à subventionner des infrastructures largement amorties et qui ont rapportés une rente (certains diront excessive) à leurs propriétaires. Pour autant, elles continueront de fonctionner et seront donc désormais rémunérer dans le cadre d’un mécanisme de marché. Une évolution prévue mais qui n’enchante pas forcément tous les exploitants d’énergies renouvelables qui pour certains appréhendent le passage sur le marché dont les prix sont assez bas et surtout fluctuants. C’est là qu’interviennent les agrégateurs.

L’intermédiaire trader

L’agrégateur est l’intermédiaire entre le producteur d’électricité et le marché. A la fois technicien et trader, il rachète selon des conditions définies à l’avance la production d’une installation renouvelable et la revend soit directement à des clients, soit à la bourse de l’électricité. Pour l’exploitant, cet intermédiaire lui donne une visibilité sur les revenus qu’il va tirer de sa production d’électricité avec des contrats plus ou moins indexés sur les fluctuations du marché en fonction du niveau de risque qu’il accepte de prendre. L’agrégateur cherche quant à lui à se constituer un stock d’installations le plus large possible et surtout les plus complémentaires. En effet, les centrales éoliennes, solaires ou hydroélectriques ne fonctionnent pas de manière optimale au même moment de la journée mais leur mutualisation permet de créer une sorte de centrale virtuelle. L’agrégateur dispose ainsi d’une vue d’ensemble sur les centrales qu’il administre grâce à des capteurs et interfaces de communication complexes type Scada. Il peut en quelques minutes décider de stopper/relancer la production d’une centrale grâce à des système de contrôle à distance afin de tirer le meilleur profit en temps réel des fluctuations des cours de l’électricité.

Des compétences pluridisciplinaires

Pour maximiser l’utilisation des centrales et les revenus générés, les spécialistes de l’agrégation s’appuient sur des ingénieurs aux compétences très diverses. Il y a bien sûr les spécialistes des technologies de communication pour faire remonter les informations issues des centrales, les experts de la big data pour traiter le volume considérable desdites informations, en passant par les opérateurs de marchés financiers. Sans oublier les scientifiques météorologiques qui élaborent des prévisions ultrafines pour anticiper les vents pour les parcs éoliens, l’ensoleillement pour les centrales solaires d’un jour sur l’autre, afin de limiter autant que faire se peut les écarts entre la production anticipée et réelle. Autant de compétences jusqu’ici dispatchées et désormais réunies au sein de mêmes structures telles que Statkraft, Agregia la filiale d’EDF, Vattenfall, Solvay Energy Services, la filiale du groupe chimique, Engie ou encore Uniper, entre autres.

Romain Chicheportiche

Quel bilan pour Nicolas Hulot un an après ?

Lorsque Nicolas Hulot est arrivé au gouvernement le 17 mai 2017, plusieurs défis l’attendaient. Il avait notamment pour mission d’assurer l’application de la loi de transition énergétique pour la croissance verte  et de l’Accord de Paris.

Des avancées dans plusieurs domaines

À travers son Plan Climat, Nicolas Hulot prévoit que la France atteigne la neutralité carbone en 2050. Il projette également la fin des hydrocabures made in France pour 2040, malgré de nombreuses dérogations.

Avec sa secrétaire d’Etat Brune Poirson, il vient de lancer la feuille route pour l’économie circulaire. Celle-ci comprend notamment l’objectif de tendre vers le recyclage de 100% des plastiques en 2025. Malgré quelques mesures intéressantes, on reste toutefois loin de la promesse de basculer complètement vers une diminution sensible de la consommation des ressources. Par ailleurs, l’ancien animateur vient de lancer le plan quinquennal de rénovation énergétique des bâtiments. Il vise à rénover 500.000 logements par an.

La majorité des décisions prises engagent la France sur le long-terme, mais les associations regrettent le peu d’engagements du gouvernement sur le court-terme. Seul l’abandon du projet d’aéroport de Notre-Dame-des-Landes a été jugé comme une réelle victoire. En revanche, l’intervention policière et le maintien de la ZAD pèsent sur cette réussite.

La transition énergétique en question

Le plus grand revers du ministre est certainement le report à 2030 ou 2035 de la diminution de la part du nucléaire dans le production d’électricité à 50%. Cet objectif était initialement prévu pour 2025 et inscrit depuis 2015 dans la loi de transition énergétique. Pour y parvenir, il faudrait fermer entre 17 et 25 réacteurs nucléaires. « Impossible », juge Nicolas Hulot, sauf à relancer les énergies fossiles et les émissions de gaz à effet de serre. Il préfère prioriser la fermeture des quelques centrales utilisant du charbon d’ici 2022.

Du côté des dossiers en cours, la programmation pluriannuelle de l’énergie (PPE) subit les critiques des ONG. La première version présentée en juillet prochain devrait annoncer le calendrier de fermeture des réacteurs nucléaires.

Concernant le développement des énergies renouvelables, des groupes de travail ont été lancés par filières. Les procédures ont été simplifiées et le volume des appels d’offres photovoltaïque a été augmenté de 1 gigawatt. Toutefois, cette politique a été ternie par la volonté du gouvernement de renégocier les projets éolien offshore attribués par appels d’offres.

La mobilité en question

Nicolas Hulot aura réussi à programmer le rapprochement de la fiscalité du diesel à la pompe et de l’essence d’ici 2022. Le ministre a par ailleurs annoncé la fin de la vente de voitures à essence et diesel dès 2040. Il reste à en définir les premières étapes et les différentes technologies qui les remplaceront. Dès 2018, la  prime à la conversion prévue lors de la mise à la casse d’un véhicule diesel a été étendue et une campagne d’information nationale a été lancée le 12 mai pour encourager les français à se débarrasser de leurs vieux véhicules polluants et les remplacer par des voitures plus récentes.

Pour le reste des transports, Nicolas Hulot délègue les décisions à Elisabeth Borne, ministre chargée des Transports. Entre septembre et décembre 2017, elle a mené les Assises de la mobilité. Pour le moment, les conclusions sont accaparées par la réforme de la SNCF, mais elles donneront prochainement naissance à la loi d’orientation sur les mobilités. Cette dernière promet d’atteindre des mobilités plus propres, plus connectées, plus solidaires, plus intermodales, plus sûres et plus soutenables.

Des réformes qui ne vont pas assez loin ?

Au bout du compte, Nicolas Hulot n’aura pas réussi à convaincre ses collègues européens : le glyphosate a été réautorisé en novembre 2017 pour cinq ans en Europe. La France a toutefois annoncé la sortie du glyphosate en trois ans, malgré l’opposition du monde agricole.

Les états généraux de l’alimentation ont déçu les ONG. Son plan loup 2018-2023 présenté en février n’aura pas non plus réussi à apaiser les tensions entre éleveurs et défenseurs de l’environnement. Fin avril, le gouvernement a dévoilé son Plan d’actions sur les produits phytopharmaceutiques et une agriculture moins dépendante aux pesticides. Ce plan de réduction des pesticides contient plusieurs évaluations, notamment de l’Anses et de l’Inserm, mais peu de décisions de court-terme.

Les Assises de l’eau ont été lancées fin avril. Jusqu’en juillet, la première séquence vise à relancer l’investissement  dans les réseaux d’eau et d’assainissement, notamment pour réduire les fuites. D’août à novembre, la deuxième séquence traitera des aspects qualitatifs et quantitatifs des ressources en eau, afin d’aider les territoires à être plus résilients au changement climatique. Le ministre devrait également prochainement présenter un plan pour mettre fin à la déforestation importée en France. Cela empêchera par exemple d’incorporer du biocarburant à base d’huile de palme ou d’importer du soja «non-durable » issu de la déforestation pour nourrir le bétail français.

L’action de Nicolas Hulot a été perturbée par un article d’Ebdo publié le 9 février révélant qu’il avait fait l’objet en 2008 d’une plainte pour viol classée sans suite pour cause de prescription. Depuis ce scandale, le ministre est beaucoup moins présent face caméras. Il brille par son absence lors des multiples déplacements du président à l’étranger. Pas de Nicolas Hulot lors de la rencontre d’Emmanuel Macron avec Donald Trump, ni avec le premier ministre indien ou encore avec le premier ministre australien. Pour mener à bien les futures réformes, il devra revenir rapidement sur le devant de la scène.

Par Matthieu Combe, journaliste scientifique

Recycler 100% des plastiques? Des annonces en demi-teinte!

Seulement 22 % des plastiques, toutes utilisations confondues, ont été recyclés en fin de vie en France en 2016. Si le taux de collecte des bouteilles est en moyenne de 55 %, il reste bien inférieur à celui des pays nordiques (plus de 90 %). Face à ce constat, le gouvernement a décidé d’agir et lance sa feuille de route Economie Circulaire. En vue de recycler 100 % des plastiques, il compte notamment améliorer la collecte, jouer sur la fiscalité et augmenter le taux d’utilisation des matières recyclées.

Pour permettre aux consommateurs de mieux identifier les produits recyclables lors de leurs achats, le pictogramme Triman sera obligatoire sur tous les produits recyclables dès 2021. Il sera accompagné d’une information sur la nature du geste de tri à effectuer. Le « point vert » et autres pictogrammes qui entraînent de la confusion seront interdits.

Améliorer la collecte des plastiques

Dans un premier temps, le gouvernement entend améliorer la collecte des plastiques. La priorité sera mise sur les zones où les taux de collecte sont les plus bas, notamment les zones urbaines les plus denses. Par ailleurs, depuis juillet 2016, les entreprises produisant plus de 1.100 litres de déchets par semaine – soit une vingtaine de sacs poubelles standards de 50 litres – doivent trier, entre autres, leurs plastiques. Cependant, cette loi est loin d’être respectée. La feuille de route vise donc à augmenter le recyclage dans le secteur des cafés, hôtels et restaurants. Toutefois, encore aucun véritable contrôle et aucune sanction ne sont annoncés pour les entreprises ne respectant pas leurs obligations.

La modernisation des centres de tri d’ici 2022 sera l’occasion de simplifier et harmoniser les règles de tri des déchets sur l’ensemble du territoire. Cette modernisation devrait permettre d’atteindre un taux de recyclage « au mieux [de] 70 % à l’échelle nationale« . D’autres efforts doivent donc être mis en place. La mesure phare est la multiplication de nouveaux types de consignes pour le tri hors-domicile, à l’instar des machines automatisées de Lemon Tri et Canibal, ou des kiosques Réco. Le gouvernement veut également développer la « consigne solidaire » dans les collectivités. « Chaque nouvelle bouteille et canette collectée contribuerait au financement d’une grande cause environnementale, de santé ou de solidarité« , explique la Feuille de route. Ces opérations seront financées grâce à un soutien spécifique à la tonne collectée reversé par les éco-organismes agréés de la filière des emballages. Des expérimentations de consigne seront également lancées dans les territoires ultramarins volontaires. Par ailleurs, trois nouvelles filières de responsabilité élargie des producteurs (REP) seront créées pour développer le recyclage des jouets, des équipements de sport et des articles de bricolage et de jardin.

Pour une nouvelle fiscalité des déchets

Le taux de TVA sera réduit à 5,5 % pour les activités contribuant à l’économie circulaire, comme la prévention, la collecte sélective et la valorisation des déchets. De même, la taxe générale sur les activités polluantes (TGAP) va être repensée pour que le recyclage soit favorisé par rapport à la mise en décharge. Les déchets plastiques qui ne peuvent pas être recyclés, comme ceux contenant des substances polluantes organiques persistantes ou les déchets médicaux, seront exonérés de TGAP s’ils sont incinérés avec valorisation énergétique.

En outre, les frais de gestion de la taxe d’enlèvement des ordures ménagères (TEOM) seront réduits de 8 à 3 % en cas d’introduction d’une part de tarification incitative. Cette dernière vise à faire payer les usagers en fonction de la quantité de déchets qu’ils produisent. Cela diminuera d’autant le coût de gestion des déchets et facilitera les investissements de modernisation des centres de tri.

Augmenter le recours aux plastiques recyclés

D’ici l’été prochain, le gouvernement attend des engagements volontaires de la part des industriels de la filière plastique. Ces engagements se feront résine par résine, en particulier pour le polystyrène (PE), le polyéthylène (PE), le polypropylène (PP) et le polychhlorure de vinyle (PVC). Les secteurs concernés sont l’emballage, le bâtiment, l’automobile et les équipements électriques et électroniques.

La Fédération de la plasturgie et des composites travaille ainsi sur le déploiement d’objectifs volontaires d’introduction de matières recyclées par filière. Elle juge qu’elle pourra atteindre un taux moyen d’incorporation de 40% de recyclé. Avec des aides de l’Etat, il serait possible d’arriver à un taux de recyclage nettement plus élevé. Les annonces pourraient néanmoins être insuffisantes pour atteindre l’objectif recherché.

Des mesures qui manquent à l’appel

Pour augmenter le recyclage des plastiques, il faudra développer de nouvelles filières pour les plastiques de moindre valeur, notamment le polystyrène et les films en polyéthylène. Suite à l’interdiction des importations chinoises de plastiques en mélange, il faudra également développer de nouvelles usines de surtri et de lavage en France et en Europe. Aucune annonce n’est faite dans ce sens.

Un point important reste à préciser. Les éco-organismes devront élaborer un plan quinquennal sectoriel pour développer l’éco-conception des plastiques. Par ailleurs, des sanctions sont prévues pour les éco-organismes qui n’atteignent pas leurs objectifs environnementaux. Toutefois, rien ne garantit que ces deux mesures suffiront à faire en sorte que seuls des plastiques 100 % recyclables soient mis sur le marché dans quelques années. En plus, aucun soutien particulier n’est prévu pour démocratiser la réutilisation des plastiques ou pour développer les bioplastiques.

La France a interdit le recours aux microbilles de plastique dans les cosmétiques rincés à usage d’exfoliation ou de nettoyage. Elle poussera cette interdiction au niveau européen. La France compte aussi pousser l’interdiction des plastiques fragmentables et des contenants en polystyrène expansé pour la consommation nomade. Par ailleurs, afin de limiter la dispersion des granulés de plastique, le gouvernement imposera d’ici 2022 l’installation de filtres de récupération des particules de plastiques sur les sites où celles-ci sont produites ou utilisées en France. En revanche, aucune mesure ne vise à interdire ou diminuer le recours aux plastiques à usage unique, comme cela est envisagé dans de nombreux pays.

Par Matthieu Combe, journaliste scientifique

Tatouages : vraiment indélébiles ?

Pendant de nombreuses années, on pensait que les tatouages teintaient les cellules du derme de la peau, les fibroblastes. Cependant, des chercheurs ont suggéré plus récemment que les macrophages de la peau (des cellules immunitaires spécialisées résidant dans le derme) « engloutissaient » le pigment du tatouage, comme ils le feraient normalement avec un pathogène envahisseur ou un morceau de cellule mourante. Dans les deux cas, on présumait que la cellule porteuse de pigment vivait éternellement, permettant ainsi au tatouage d’être plus ou moins permanent.

Cette hypothèse est remise en question par une équipe de recherche associant des chercheurs de l’Inserm et du CNRS, dirigée par Sandrine Henri et Bernard Malissen du Centre d’Immunologie de Marseille-Luminy, qui a développé avec l’aide du Centre d’Immunophénomique de Marseille une souris génétiquement modifiée capable de tuer les macrophages résidant dans son derme. Au cours des semaines, les chercheurs ont observé que les cellules ainsi détruites avaient été remplacées par de nouveaux macrophages dérivés de cellules précurseurs présentes dans le sang et en provenance de la moelle osseuse et connues sous le nom de monocytes.

Ils ont ainsi découvert que les macrophages du derme étaient le seul type de cellules à absorber le pigment lors du tatouage de la queue des souris. Malgré la mort programmée de ces macrophages, l’apparence du tatouage ne changeait pas. L’équipe a donc conclu que les macrophages morts libéraient le pigment dans la zone les environnant où, au cours des semaines suivantes, ce pigment était réabsorbé par de nouveaux macrophages.

tatouages1

Ce cycle de capture, libération et recapture du pigment se produit continuellement dans une peau tatouée, même lorsque les macrophages ne sont pas tués en une seule fois. Les chercheurs ont ainsi transféré un morceau de peau tatouée d’une souris à une autre et découvert que, six semaines plus tard, la plupart des macrophages porteurs de pigment provenaient de l’animal destinataire plutôt que de l’animal donneur.

« Nous pensons que, lorsque des macrophages porteurs de pigment de tatouage meurent au cours de la vie adulte, d’autres macrophages environnants recapturent les pigments libérés et assurent d’une manière dynamique l’apparence stable et la persistance à long terme des tatouages », explique Sandrine Henri, chercheuse Inserm et co-responsable du projet de recherche.

tatouages2

Les tatouages peuvent être effacés par des impulsions laser qui provoquent la mort des cellules cutanées et la libération et fragmentation de leurs pigments. Ces derniers peuvent ensuite être transportés loin de la peau via les vaisseaux lymphatiques qui drainent la peau. « Le détatouage via cette technique laser peut probablement être amélioré par l’élimination temporaire des macrophages présents dans la zone du tatouage», déclarent les chercheurs. « Ainsi, les particules fragmentées de pigment générées au moyen des impulsions laser ne seront pas immédiatement recapturées : cet état augmente la probabilité de les voir évacuées par les vaisseaux lymphatiques. »

Source : cnrs

Failles dans les puces : la performance au détriment de la sécurité informatique

En matière de sécurité informatique, il y a deux règles incontournables. Plus on développe un appareil (ou un programme) complexe, plus il est difficile de repérer des vulnérabilités. Plus vous développez un appareil performant ou économe, plus vous risquez de délaisser sa sécurité. Dans le premier cas, cette règle s’appliquera certainement aux ordinateurs quantiques. Dans le second cas, cela concerne déjà les objets connectés et autres capteurs : pour simplifier cette problématique, on peut dire que le design fait l’impasse sur le chiffrement des flux pour ne pas utiliser trop la batterie.

Or, les failles Meltdown et Spectre (huit autres, dont 4 critiques, ont été découvertes début mai) confirment que la sécurité informatique doit être globale pour être efficace ! Impactant différentes microarchitectures d’Intel et d’autres fondeurs comme AMD, ces vulnérabilités ont été découvertes en janvier dernier par une équipe de recherche internationale. Soutenu par un financement de l’UE pour le projet SOPHIA (Securing Software against Physical Attacks), l’Institut de traitement de l’information et des communications de l’Université de Graz (Autriche) a joué un rôle central.

Milieu des années 90

La cause fondamentale de Meltdown est le matériel. Indépendante du système d’exploitation, elle rompt toutes les hypothèses de sécurité reposant notamment sur l’isolation de la mémoire. Sur les systèmes concernés, Meltdown permet à une personne malveillante de lire la mémoire des processus et des machines virtuelles sans aucune permission ou privilège. Bref, elle peut accéder à des données personnelles ou sensibles. Quant à la faille Spectre, elle permet de voler les données de la mémoire d’autres applications exécutées sur une machine en contournant l’isolation qui les sépare. Précisons toutefois que ce pirate doit avoir un accès physique au PC pour profiter de ces deux vulnérabilités.

Cette opération est rendue possible par une caractéristique de performance appelée « exécution dans le désordre ». Afin d’accélérer un processus, « les processeurs modernes exécutent les opérations dans le désordre, c’est-à-dire qu’ils anticipent et programment les opérations ultérieures pour ralentir les unités d’exécution du processeur », expliquent l’équipe de Graz et d’autres chercheurs dans un communiqué publié sur le site web de la bibliothèque de l’université Cornell.

Le plus inquiétant que ces failles ont été découvertes récemment, mais qu’elles existent depuis le milieu des années 1990 ! Elles vont peut être obliger le monde informatique à revoir sa copie avec ce commentaire classique : « Peut mieux faire ! ».

Complexité et sécurité

« La façon traditionnelle de concevoir les processeurs met l’accent sur la performance et uniquement sur la performance », rappelle Stefan Mangard qui a dirigé l’équipe de Graz.

« Plus quelque chose est complexe, plus il est difficile à sécuriser. Or, un CPU moderne est conçu pour la performance, pas pour la sécurité. Vous avez besoin d’une approche différente, qui consiste à concevoir le matériel en pensant à la sécurité et non à l’optimiser pour autre chose », rappelle Ben Levine, directeur de la gestion des produits chez Rambus, une entreprise américaine spécialisée dans la sécurité des semi-conducteurs.

Et le pire est à venir lorsque de nombreuses failles de sécurité seront découvertes et exploitées dans tous les objets connectés destinés à des usages professionnels ou de santé… « Mon évaluation de la sécurité dans l’IoT ? Zéro », a déclaré Richard Soley, directeur exécutif de l’Internet Industry Consortium.

Par Philippe Richard

Un nouveau plan de rénovation énergétique des bâtiments

Nicolas Hulot, ministre de la transition écologique et solidaire, et Jacques Mézard, ministre de la Cohésion des territoires ont présenté leur nouveau plan de rénovation énergétique des bâtiments.  Il est issu de plus de trois mois de concertation, de novembre 2017 à janvier 2018, avec tous les acteurs concernés, et de plus de 550 contributions recueillies en ligne. 

Le gouvernement rappelle que le secteur du bâtiment représente 45 % de la consommation d’énergie finale et 27 % des émissions de gaz à effet de serre nationales. Par ailleurs, 7 millions de logements sont mal isolés, 14 % des Français disent avoir froid chez eux en hiver et 3,8 millions de ménages ont des difficultés à payer leur facture énergétique. D’où l’urgence qu’il y a à lancer des rénovations ambitieuses.

Accélérer encore et toujours la rénovation

Le gouvernement entend donc mettre les bouchées doubles pour accélérer la rénovation énergétique de tous les bâtiments, notamment pour les ménages modestes. Son plan comprend une feuille de route en 4 axes, 12 actions et 32 mesures. Objectif prioritaire : rénover 500.000 logements par an, dont 100.000 passoires thermiques (étiquetées de E à G) dans le parc social et 150.000 appartenant à des ménages propriétaires modestes. En somme, la moitié des rénovations annuelles devrait venir en soutien  aux ménages les plus modestes. Enfin, 15 % d’économies d’énergie devront être réalisées d’ici 5 ans pour le parc immobilier de l’État, par rapport à son niveau de 2010.

Au total, le plan représente environ 14 milliards d’euros de soutien sur le quinquennat. Dans le détail, 1,2 milliard d’euros seront consacrés à l’Agence nationale pour l’amélioration de l’habitat (Anah)  pour rénover 375.000 logements de ménages aux revenus modestes. En plus, 3 milliards d’euros de prêts bonifiés seront accordés aux bailleurs sociaux pour la rénovation de 500.000 logements. Encore à destination des ménages, 5 milliards d’euros seront alloués aux certificats d’économie d’énergie (CEE) sur trois ans, avec une part réservée aux foyers aux revenus les plus modestes. Ensuite, 4,8 milliards seront consacrés aux bâtiments publics : cités administratives, écoles, hôpitaux, etc. Et 200 millions d’euros sur trois ans, pour l’innovation, la formation et la solidarité grâce aux programmes (CCE).

Remplacer le crédit d’impôt par une prime forfaitaire

La mesure phare de ce plan est le remplacement du crédit d’impôt pour la transition énergétique (CITE) par une prime d’un montant forfaitaire par type d’équipement dès 2019. Alors que les ménages bénéficiaient du crédit d’impôt l’année fiscale suivant leurs travaux, la prime sera désormais immédiate, sur présentation des justificatifs. Par ailleurs, l’éco-prêt à taux zéro, qui permet de payer le reste à charge, va être revu et mis en cohérence avec la prime. Les démarches seront simplifiées et les conditions pour en bénéficier plus claires.

Un fonds de garantie pour les ménages aux revenus modestes

Malgré de nombreuses aides, les dispositifs existants ne financent pas la totalité des coûts de rénovation. Dans ces conditions, les moins bien lotis ont du mal à entreprendre ces travaux, ne pouvant accéder aux prêts bancaires. Pour y remédier, un fonds de garantie pour la rénovation énergétique sera créé. Financé par EDF grâce au dispositif des certificats d’économies d’énergie (CEE), il sera doté de 57 millions d’euros sur trois ans. Il assurera ainsi des prêts garantis, pendant 3 ans, à 35.000 ménages modestes. Ce fonds permettra également de garantir les prêts collectifs de plus de 6.500 copropriétés par an pour leurs travaux de rénovation.

Une étiquette énergie des logements plus fiable

Les critiques sont récurrentes concernant le diagnostic de performance énergétique (DPE). Il n’existe pas de méthode normalisée et les résultats varient énormément en fonction des diagnostiqueurs. Un contrôle renforcé sera mis en place dès le printemps 2018 et le DPE sera techniquement fiabilisé. Si l’étiquette énergétique s’avère incorrecte, il sera simple de la contester d’ici mi-2019.

Mieux former les professionnels et contrôler les travaux

Le label RGE (reconnu garant de l’environnement) permet d’identifier les professionnels compétents pour réaliser des travaux de rénovation énergétique. Seuls les travaux menés par des professionnels RGE sont actuellement éligibles au crédit d’impôt. Le label sera encore amélioré, 65.000 professionnels seront mieux formés et le contrôle de la qualité des travaux effectués par les professionnels RGE sera renforcé. L’éco-conditionnalité des aides s’appliquera à la prime qui va se substituer au CITE, comme à l’éco-PTZ.

Les prix des travaux seront également rendus plus transparents grâce à la création d’un Observatoire de la rénovation énergétique. La filière immobilière, notamment les syndics de copropriétés, sera formée pour mieux maîtriser les enjeux énergétiques.

Par Matthieu Combe, journaliste scientifique

Bilan 2017 positif pour les biotechs françaises

Des parcours boursiers exceptionnels

Selon France Biotech, 7 sociétés biotechnologiques ont fait leur introduction en bourse (IPO (Initial Public Offering)) en 2017 et ont permis de lever au total 287 millions d’euros. Ces sociétés (Inventiva, Lysogene, Valbiotis, Biom’up, Theranexus, Erytech et Advicenne) développent des innovations qui ouvrent la voie à une nouvelle classe de médicaments afin de traiter des pathologies graves.

A noter que la société Erytech, une société biopharmaceutique qui développe des thérapies innovantes en encapsulant des médicaments dans les globules rouges a réalisé l’IPO la plus importante grâce à sa cotation au Nasdaq pour un montant de 120 millions euros.

D’après France Biotech, 341 millions d’euros ont été levés par les biotechs/medtechs françaises suite à des financements post-IPO et 30 sociétés ont été financées avec en moyenne 11, 4 millions d’euros de financement. Le secteur des biotechnologies représente presque 50% (49,12%) des financements post-IPO. Le plus grand cycle de financement s’élève à un montant de 70,5 millions d’euros et est réalisé par Erytech Pharma.

En outre, au sein du classement des biotechs/medtechs françaises aux capitalisations boursières les plus importantes, ce sont trois biotechnologies françaises qui se hissent dans le trio de tête : DBV Technologies (1050 million euros) ; Cellectis (885 million euros) et Genfit (730 million euros).

Les Biotechs bénéficient des 2/3 des financements

En 2017, les biotechs/medtechs françaises ont levé 315 millions d’euros grâce à des investissements réalisés par des fonds de « private equity ». Au total, 35 sociétés ont été financées avec en moyenne 9 millions d’euros de financement selon France Biotech.

Le segment le plus important est, ici aussi, représenté par les biotechnologies avec 65% des financements. Vivet Therapeutics, société biotechnologique, arrive à la première place avec un financement de 37,5 millions d’euros conclu pour développer son programme de thérapies géniques pour les maladies métaboliques rares et héréditaires.

Bien que ces chiffres prouvent que la France possède de vrais atouts en biotechnologies, ils ne peuvent faire oublier que le pays est bloqué par un certain nombre de contraintes qui l’empêche de peser davantage au niveau mondial. En effet, non seulement la France se retrouve en dernière place dans les essais cliniques du fait des lourdes contraintes administratives imposées, mais elle est également freinée par des contraintes financières puisque peu de fonds d’investissement sont disponibles (seuls trois grands fonds d’investissement peuvent lever plus de 100 000 millions d’euros en France).

Par Aliye Karasu

La chimie affiche une croissance record en 2017

Toute l’industrie de la chimie en hausse

La filière de la chimie a réalisé une année exceptionnelle en atteignant une croissance proche de 5%. Un chiffre remarquable selon Pascal Juéry, le président de l’Union des industries chimiques (UIC) qui précise que ces résultats ne s’étaient pas observés « depuis plus de quinze ans ».

L’ensemble du secteur de la chimie française enregistre des résultats à la hausse avec, fait rare, une progression plus forte que celle observée en Allemagne (+2,6% en 2017). Toutefois, deux secteurs profitent davantage de ce contexte favorable : la chimie organique (+7,5%) ainsi que les savons, parfums et produits d’entretien (+8,2%) qui ont réalisé les croissances les plus fortes.

La chimie, premier exportateur industriel devant l’aéronautique

Le secteur est le premier exportateur industriel avec des ventes à l’export qui s’élèvent à 58, 7 milliards d’euros en 2017 soit une augmentation des exportations de 8,5% par rapport à 2016. Un niveau atteint notamment grâce à la bonne conjoncture intérieure et internationale observée au dernier trimestre 2017 qui a été marqué par une augmentation de 1,2% des échanges extérieurs de produits chimiques par rapport au trimestre précédent (après -4,2 %).

Grâce à ses exportations, le secteur de la chimie prend une place grandissante dans la balance commerciale du pays en affichant un solde positif des échanges cumulé de 8,6 milliards d’euros en 2017 (contre 7,5 milliards d’euros en 2016). Le secteur représente ainsi le deuxième solde industriel en France. En outre, alors que les prix des produits chimiques sont en recul ces dernières années, une progression significative de 3 % est enregistrée en 2017 sur les prix de ventes.

Les prévisions pour 2018

Malgré la crise qui fait souffrir le reste du secteur secondaire et tandis que le déficit commercial de la France est toujours en déclin en 2017, la chimie est à rebours de l’ensemble de l’industrie manufacturière en affichant depuis 2000 une croissance moyenne à +0,8 % par an. Selon l’UIC, l’année 2018 est portée par un environnement économique jugé favorable et se présente donc sous de bons auspices avec des prévisions de croissance « autour de 3% ». Cependant, la filière ne réitèrera probablement pas l’exploit de cette année. En effet, la position de la France et de l’Europe se maintient difficilement car la filière est confrontée à la concurrence des pays d’Asie et du Moyen-Orient qui bénéficient de débouchés importants ou de coûts de l’énergie plus compétitifs.

Par Aliye Karasu

Minalogic Business Meetings le 6 juin à Lyon

Les Minalogic Business Meetings vous proposent des rendez-vous d’affaires afin de renforcer la diffusion de vos projets d’innovation (jusqu’à 14 RDV de 30 mn).

3 raisons de s’inscrire à Minalogic Business Meetings :

  • Une occasion unique de rencontrer de nombreux  donneurs d’ordres français et internationaux en UNE seule journée.
  • Un moment privilégié pour proposer vos solutions innovantes et convaincre des grands comptes.
  • Une vraie opportunité pour développer son business et optimiser son networking.

JUSQU’A 90 DONNEURS D’ORDRES SONT ATTENDUS

(TIC, Santé, Energie & Bâtiment, Usine du futur, Mobilité, Sécurité & Défense, Sport & Montagne)

part

Cette journée de rendez-vous d’affaires internationaux vous permettra :

  • De découvrir de nouveaux projets & innovations technologiques
  • De rencontrer en rendez-vous préprogrammés des offreurs de technologies et donneurs d’ordres issus de pays européens.
  • Assister à des conférences sur les thématiques des technologies du numérique innovantes.

Plus d’information : +33 1 81 89 08 81

Minalogic, pôle de compétitivité mondial des technologies du numérique, s’est imposé comme un acteur incontournable de l’innovation en région Auvergne-Rhône-Alpes. L’événement Minalogic Business Meetings, vous permettra de renforcer l’internationalisation des projets et d’accueillir des offreurs de technologies et des donneurs d’ordres issus de pays cibles comme la Belgique, l’Allemagne, l’Italie, le Royaume-Uni….

Ingénieuses’18 : Et les nommées sont…

Réparti en plusieurs catégories, ce concours récompense des actions ayant pour finalité l’égalité entre les femmes et les hommes.

Cette 8e édition a été de nouveau l’occasion pour la CDEFI de recevoir un grand nombre de candidatures :

  • 88 candidatures d’élèves-ingénieures,
  • 94 candidatures de femmes ingénieures
  • 35 projets déposés par les écoles d’ingénieur-e-s.

L’Agence universitaire de la Francophonie, partenaire du prix de l’élève-ingénieure Maghreb, a reçu quant à elle 44 candidatures pour la troisième édition du prix.

Les candidatures ont été étudiées avec attention par un jury dont Techniques de l’Ingénieur a été fier de faire partie, aux côtés de l’Agence universitaire de la Francophonie, du Bureau national des élèves ingénieurs (BNEI), Campus-Channel, la Commission des titres d’ingénieur, Elles Bougent, Femmes Ingénieurs, Ingénieurs et scientifiques de France (IESF), Social Builder et Talents du numérique.

Réuni le 16 avril dernier, le jury a délibéré et désigné le nom des nommé-e-s dans chaque catégorie (ci-dessous par ordre alphabétique) :

  • Prix de l’école la plus mobilisée :
    • l’ENAC, avec le projet « Politique de diversité de l’ENAC » ;
    • l’ENSEA, avec le projet « Vivre au quotidien l’égalité femmes/hommes au sein d’une école d’ingénieur » ;
    • l’ESTP Paris, avec le projet « Trophée ESTP au féminin ».
  • Prix du projet le plus original :
    • l’ENSCMu, avec le projet « Chimie en maternelle » ;
    • L’ENSCMu avec le projet « Chimie en primaire »  ;
    • l’EPITA, avec le projet « Girls Can Code »  ;
    • l’IMT Lille Douai, avec le projet « Girls’Day à la SNCF ».
  • Prix pour l’enseignement de l’égalité femmes-hommes :
    • l’ESIX Normandie, avec le projet « Adopte un mentor » ;
    • l’INSA Lyon, avec le projet « Genre… Et si on parlait sciences inclusives » ;
    • les Mines Saint-Etienne, avec le projet « Association Womines ».
  • Prix de l’élève-ingénieure France :
    • Diala CISSOKO, élève-ingénieure de l’EPF ;
    • Lou GRIMAL, élève-ingénieure de l’université de technologie de Troyes ;
    • Anne-Laure GRUHIER, élève-ingénieure des Arts et Métiers ParisTech.
  • Prix de la femme ingénieure :
    • Anne-Fleur ANDRLE, diplômée de l’université de technologie de Compiègne ;
    • Amandine DESSALLES, diplômée de l’ENSTA Bretagne ;
    • Charlotte GRAIRE, diplômée de l’EPF.

 

La cérémonie de remise des prix, événement ouvert au public, durant laquelle les noms des lauréat-e-s (les deux élèves-ingénieures, la femme ingénieur, et les trois écoles d’ingénieur-e-s) seront dévoilé-e-s, se tiendra à Paris, à la Fédération nationale des travaux publics, le vendredi 25 mai 2018 de 13 h 30 à 18 h 30. Les inscriptions sont ouvertes sur le site : http://www.cdefi.fr/fr/evenements/ceremonie-de-remise-des-prix-ingenieuses

Chantal Jouanno prend les rênes du débat public

La CNDP gère actuellement 27 concertations et deux débats publics. Dans cette dernière catégorie, on trouve le débat public de la Montagne d’Or en Guyane et le débat public lié à la Programmation Pluriannuelle de l’Energie (PPE). Le débat public de la Route des Géraniums à la Réunion s’est quant à lui achevé le 3 mai dernier. En septembre prochain, le débat public sur le plan national triennal de gestion des matières et déchets radioactifs (PNGMDR) sera lancé.

Pourquoi avoir pensé la CNDP ? « Son rôle fondamental est d’être un tiers garant, explique Chantal Jouanno. Surtout elle ne donne aucun avis sur le fond du projet et n’est pas partie prenante, donc elle ne peut pas être suspecte d’orienter la décision dans un sens ou dans un autre ». L’organisme veille à ce que l’information communiquée soit compréhensible par les citoyens et la plus objective possible. Elle fait appel à des expertises complémentaires lorsque cela est nécessaire.

Prendre en considération l’ensemble des avis

« On veille à aller chercher toutes les paroles et ne pas traiter que les paroles dominantes, car une seule personne peut exprimer une opinion majoritaire mais silencieuse », prévient Chantal Jouanno. En plus des grandes réunions publiques et des plateformes Internet dédiées, la CNDP organise des débats mobiles dans les trains, les gares, les universités, les marchés et des conférences citoyennes. Pour le débat public sur la PPE, elle va par exemple organiser un G 400. Sur l’ensemble de la France, 400 personnes représentatives de la population française seront formées et réunies pour donner leur avis sur le projet.

Le débat public sour l’égide de la CNDP a des exigences en matière  d’indépendance, d’objectivité et de pluralité des avis. Il se démarque en cela des débats organisés lors du Grenelle de l’environnement ou du débat national sur la transition énergétique. « Dans le débat public, on fait plutôt une cartographie des opinions que de la co-construction, précise Chantal Jouanno. On peut identifier ainsi les intérêts en présence pour les personnes, les gagnants et les perdants et les mesures de compensations nécessaires ». Mais la représentativité est difficile à atteindre. « En Guyane, on entend que les opposants, regrette Chantal Jouanno. Les défenseurs ne s’expriment pas dans le débat public ».

Par ailleurs, sur le nucléaire et beaucoup d’autres sujets, les experts sont forcément des parties prenantes. « On ne trouvera pas sur un sujet comme les déchets nucléaires, des experts qui n’ont pas travaillé sur le nucléaire à un moment ou à un autre », prévient l’ancienne présidente de l’ADEME. Pour garantir l’indépendance de l’expertise, la CNDP veille donc à assurer la pluralité des avis d’experts recueillis et énonce leurs conflits d’intérêts.

Une analyse critique des débats en cours

Il y a déjà eu un débat public dédié à Cigéo. Désormais, des concertations sont prévues en fin d’année sur les aménagements nécessaires au projet. Elles porteront notamment sur le raccordement au réseau électrique haute tension et peut-être sur la prolongation de la ligne ferroviaire pour amener les colis de déchets. « Il y a une grande confusion dans l’ensemble des procédures, que cela soit la chaîne depuis le débat public jusqu’à l’enquête publique et sur ce qui est mis dans la concertation, analyse Chantal Jouanno. On se discrédite soi-même lorsqu’après avoir fait un débat public sur Cigéo, on demande des concertations sur ses sous-produits ».

Selon l’ancienne secrétaire d’État chargée de l’Écologie, le débat de la Mine d’Or arriverait trop tard. L’aménageur a déjà défini ses installations de manière très précise. « Est-ce que l’exploitation de l’or en Guyane doit reposer sur de grosses installations ou une exploitation sous forme plus artisanale, voire locale ? », voici un débat qui aurait pu être « extrêmement intéressant », pour Chantal Jouanno.

Respecter le débat public?

Les premières conclusions du débat public sur la PPE seront connues le 29 juin. .  Le gouvernement devrait publier sa première version en juillet. Aura-t-il le temps de prendre en compte les conclusions ? « C’est au gouvernement de respecter les règles qu’il a lui-même fixées, estime Chantal Jouano. Soit le gouvernement accorde du crédit au principe même du débat public et attend la fin du débat public pour faire ses premières orientations de la PPE, soit il n’attend pas et en termes de confiance vis-à-vis de l’ensemble des participants au débat public, ce n’est pas très respectueux ».

Le débat public n’est pas là pour faire de la pédagogie, mais pour demander aux gens de donner leur opinion en opportunités sur telle ou telle grande orientation. Le maître d’ouvrage doit argumenter ses choix, notamment les raisons qui le pousse à retenir ou non telle opinion exprimée. Sur les 87 débats passés, six ont donné lieu à l’abandon définitif du projet, la majorité entraîné des aménagements ou une réorientation. « Il n’y a jamais eu de bilan et d’évaluation de l’ensemble des activités de la CNDP depuis sa création, regrette Chantal Jouanno. On est en train de collecter les données pour faire une cartographie des opinions qui sont versées au débat public et savoir ce qui est repris ».

Donner toute sa valeur au débat public

Le budget du débat public de la PPE s’élève à 500.000 euros. « Le budget est clairement sous-dimensionné par rapport à l’ampleur du débat », dénonce Chantal Jouanno. Pour la route des géraniums, le budget est supérieur, à 600.000 euros. En comparaison, la grande consultation interne d’EDF « Parlons Energies » auprès de 12.000 salariés aura pour sa part coûté 3 millions d’euros.

La CNDP est automatiquement saisie et organise un débat public pour les grands projets soumis à évaluation environnementale. Elle joue le même rôle pour les plans et programmes, soumis à évaluation environnementale, à caractère nationaux. Enfin, elle s’occupe des plans et programmes régionaux. « Je ne suis pas sûre que les collectivités en aient conscience, ce qui est dommage », regrette Chantal Jouanno. En effet, les collectivités sont assez avancées dans l’élaboration de ces différents plans. Elles ont mis en place des méthodes de participation auprès des parties prenantes. En revanche, elles n’ont pas nécessairement organisé cette concertation large du public à une échelle régionale. Dans ces conditions, « le droit d’initiative citoyen reste ouvert, ce qui est potentiellement source de contentieux », conclut Chantal Jouanno.

Par Matthieu Combe, journaliste scientifique

Les conséquences du rachat de Direct Energie par Total

Total s’épaissit

Avec cette transaction, Total fait d’une pierre deux coups. Il augmente massivement sa taille sur le marché français – il passe d’un portefeuille de sites clients de 1,5 million (Lampiris et Total Spring) auxquels s’ajoutent les 2,6 millions de Direct Energie – et absorbe le principal concurrent indépendant (pas détenu par l’Etat) devenant de fait le troisième fournisseur alternatif sur le marché français.

En termes de capacités de production, Total réalise une bonne affaire en récupérant  un parc électrique de 1,35 GW, dont 800 MW de centrale à gaz et 550 MW d’électricité renouvelable (EnR). Il s’ajoute à la capacité installée de 900 MW du groupe dirigé par Patrick Pouyanné. Mais c’est surtout le portefeuille de projets de Direct Energie comprenant une centrale à gaz en construction de 400 MW et un pipeline de 2 GW d’EnR qui a dû attirer Total. Le duo gaz-EnR correspond en tout point à l’orientation formalisée en 2016 par la Major française de s’orienter vers les énergies décarbonées tout en maintenant le cœur de métier : l’Oil&Gas avec une préférence marquée pour le gaz, la moins polluante des énergies fossiles.

Total est déjà bien présent dans le secteur des EnR par des acquisitions ciblées. Il a ainsi renonmé Total Eren, une compagnie très actives lors des appels d’offres internationaux  (650 MW installés ou en construction et 1,5 GW en développement). L’intérêt de la Major pour le photovoltaïque s’est concrétisé dès 2011 avec le rachat de Sunpower aux Etats-Unis. Elle anticipe une électrification accrue des usages et a décidé d’investir le marché de l’électricité, de l’amont (la production) à l’aval (la fourniture) à l’image de la chaîne de valeur pour les hydrocarbures. Total se fixe l’objectif de disposer d’un parc d’au moins 10 GW d’ici 5 ans.

Concurrence accrue

La montée en force de Total, qui n’est arrivé sur le marché des particuliers qu’en octobre dernier, secoue le secteur à commencer par EDF qui commence à voir poindre les ennuis. L’opérateur historique garde une position largement dominante (25 millions de clients), devant l’autre opérateur historique devenu Engie (entre 3-4 millions de clients) et Total. Mais ce dernier dispose d’une force marketing qui pourrait accélérer l’érosion du portefeuille d’EDF. Le groupe dirigé par Jean-Bernard Levy a perdu en 2017 près d’1 million d’abonnés.

Total est ambitieux et dit viser 6 millions de clients en France et plus de 1 million en Belgique à horizon 2022. Les petits acteurs (Ekwateur, Eni, Enercoop, etc) espèrent tirer profit d’une meilleure communication sur un marché encore peu connu des citoyens pour accroître leurs parts de marché. Mais à court terme, le rachat de Direct Energie signifie surtout que les deux opérateurs historiques vont devoir affronter un troisième grand groupe, tous trois issus des sociétés françaises historiques de l’énergie, toutes fondées au XXème siècle, du pétrole (SFP), du gaz (GDF) et de l’électricité (EDF).

Quelles conséquences  au quotidien ?

L’électricité est une commodité et c’est l’une des raisons pour lesquelles il a été si difficile de libéraliser ce secteur. L’électricité étant la même, le seul facteur de différenciation était le prix, ce qui rendait les monopoles très dur à concurrencer sur ce domaine sur lequel ils bénéficiaient de nombreuses économies d’échelle. Mais depuis, l’électricité a une couleur (verte) si vous choisissez une offre d’électricité issue des EnR (mais généralement plus chère). C’est un facteur de différenciation même s’il s’estompe à mesure que ces offrent se multiplient sur le marché français.

Interrogée sur l’opération de Total, la patronne d’Engie, Isabelle Kocher, s’est voulue sereine estimant que la concurrence ne lui faisait pas peur. Elle présentait la dernière offre de son groupe sur l’autoconsommation dans la droite ligne de la stratégie d’Engie : devenir un groupe de services, non plus de commodités. Intégrant le fait que des citoyens veulent s’approprier l’énergie, Engie propose une offre consistant en l’installation de panneaux solaires, finançables à crédit, couplés à une ou des batteries.

Engie n’est pas le seul à proposer des services pour fidéliser ses clients . Même EDF s’y est mis avec sa filiale Sowee qui propose une application permettant de contrôler à distance de nombreux objets connectés dans la maison (lumière, hifi, machines à laver, etc) ainsi que le chauffage. De nombreuses start-up se sont mises sur ce créneau de la domotique et des services énergétiques. Ces services annexes liés à l’usage d’objets électriques sont devenus le nouveau marché des électriciens qui peuvent désormais s’appuyer sur une base de données beaucoup plus précise grâce aux compteurs communicants Linky, dont l’installation fait désormais débat. Ce sont les courbes de charge qu’ils génèrent qui permettent de créer les profils de consommation nécessaires à tous ces acteurs pour créer des services innovants en matière énergétique. Il y a fort à parier qu’ils deviendront les principaux arguments de vente des fournisseurs d’électricités et de gaz à l’avenir. Sans oublier le prix évidemment.

Romain Chicheportiche

Creative manufacturing

Il s’agit d’une maquette numérique, permettant de visualiser dans un environnement de réalité virtuelle immersif 3D, des lignes de fabrication de composants aéronautiques intégrant des machines de production en fonctionnement et reproduisant dans leur intégralité les processus industriels de fabrication.

Ce démonstrateur est le résultat d’un travail de collaboration entre des fabricants de machines et d’équipements, et des acteurs du numérique. Il permet de sensibiliser par l’exemple, et d’accompagner les entreprises, plus particulièrement les PME, à faire le saut technologique vers les outils numériques, indispensables pour moderniser et adapter leur outil industriel aux demandes de l’Industrie du Futur.

Ce projet, « CREATIVE MANUFACTURING » initié par un collectif d’industriels autour du Symop, s’inscrit dans le cadre des Projets Pilotes de l’Alliance Industrie du Futur (A.I.F.)

Un consortium a été constitué autour des entreprises suivantes :

entreprises-logos

Le Symop, membre fondateur de l’A.I.F. a été chargé de coordonner la réalisation de cette initiative.

Ce « démonstrateur » servira de vitrine, lors de prochains salons en France et à l’International et/ou de support à l’occasion d’un évènement spécifique à organiser.

entreprises-maquette

Description de la maquette

Cette maquette a été réalisée à partir des géométries 3D des équipements et machines, fournis par les partenaires.

Le principe de fonctionnement de cette maquette réside dans une simulation complète d’un processus de fabrication d’un composant aéronautique. Le scénario permet ainsi de visualiser une pièce de structure d’un avion (tronçon central) puis d’être transporté dans la ligne de fabrication.

Toutes les étapes de visites virtuelles se déroulent dans un environnement de réalité virtuelle immersif à partir de la plateforme 3DEXPERIENCE de Dassault Systèmes à l’aide d’un casque HTC Vive.

La navigation est réalisée à l’aide d’un pointeur laser, à partir d’un panneau descriptif du processus, qui permet de se situer dans la ligne.

Dans l’usine de production, on visualisera les machines de production et les équipements, en fonctionnement, reproduisant dans leur intégralité les processus industriels de fabrication. On réalise ainsi un « jumeau numérique » des lignes de production. Ces simulations se différencient d’une simple représentation graphique par le fait qu’elles intègrent des données numériques provenant de sources très diverses en illustrant l’ergonomie, le fonctionnement, le comportement mécanique des machines.

La continuité numérique, le moyen de disposer de l’ensemble des informations numériques pendant toute la durée du cycle de vie

Mieux collaborer tout au long de la chaîne industrielle implique, en premier lieu, de réduire les discontinuités numériques. Elles se situent particulièrement entre l’engineering (la définition du produit) et la production. On assiste souvent à une cassure dans la transmission des informations relatives aux produits et aux processus due à des logiciels et des formats de données différents. Cela induit des ressaisies d’informations sources de nombreuses incohérences et incompréhensions entre les métiers. Si, en production, il faut ajuster certains paramètres d’usinage directement sur la machine, l’information ne remonte pas automatiquement vers les programmeurs FAO : les experts métiers qui, à partir de la CAO, élaborent la stratégie d’usinage d’une pièce (choix des outils, définition de leurs trajectoires…) et le programme de la machine-outil. La connaissance issue de la fabrication n’est donc pas forcément capitalisée pour être réutilisée lors de projets ultérieurs et faciliter l’obtention d’une pièce bonne du premier coup.

C’est tout l’enjeu de la continuité numérique, qui désigne la capacité de gérer, d’analyser et de capitaliser sur l’ensemble des données numériques d’un produit ou d’un système tout au long de son cycle de vie. Tout le défi aussi, car il s’agit d’intégrer des données provenant de sources très diverses, et donc de formats fortement hétérogènes : fichiers de CAO en 3D, de FAO, plans, documentation technique, fichiers …

On pourra associer des applications de REALITE AUGMENTEE, mariage du réel et du virtuel, pour l’amélioration de l’efficacité des opérations de maintenance et d’exploitation.

En savoir plus : symop.com/un-pavillon-france-au-ccmt

Les bus à batterie chinois à la conquête de la France

La Chine comptait 1700 Bus électriques à batterie en 2013 et 350.000 fin 2017.  La part de marché est passé de 0,6% à 22%. Certaines villes chinoises, comme Shenzhen ont à présent une flotte de bus intégralement électrifiée, bus fabriqués par le géant Byd. Les batteries des voitures électriques représentent un réservoir de 30,6 GWh à l’échelle mondiale. Les bus chinois, à eux seuls, 12,5 GWh. Le marché chinois représente 99% du marché mondial des bus à batterie. Mais cela pourrait évoluer très vite dans les autres pays selon Colin McKerracher, expert en transports avancés de l’agence BNEF.

Alors qu’un bus à batterie du californien Proterra est parvenu à parcourir 1800 kilomètres à faible vitesse, les bus électriques français n’ont pas une autonomie suffisante pour offrir un service satisfaisant. Ce sont donc des bus à batterie chinois qui ont été choisis par la société Flixbus pour relier Amiens à Paris (150 kilomètres), premier projet d’une série de nombreux autres. En effet de nombreuses villes sont situées à moins de 200 kilomètres de Paris, Lyon et Marseille. Les actionnaires principaux de la société Flixbus sont les fondateurs: le constructeur allemand Daimler ainsi que les fonds d’investissement américains General Atlantic et Silver Lake.

Le fabricant de ces bus est Yutong, un industriel chinois associé à une firme alsacienne, Dietrich Carebus Group (DCG), en partenariat avec B.E. green, filiale du transporteur Autocars Dominique. Yutong est présent dans plus de 140 pays. En 2017 DCG a vendu des bus Yutong d’une autonomie de 250 kilomètres à la société Savac spécialiste du transport scolaire pour la ville de Paris.

Jean-Gabriel Marie