Management : 5 nuances fondatrices de l’expérience humaine

C’est la raison pour laquelle – à travers une série d’articles interactifs – nous avons voulu présenter des situations professionnelles réelles s’inspirant de l’expérience et des commentaires de nos lecteurs pour les aider à mieux traverser leurs propres épreuves professionnelles.

Le nombre cinq a souvent été associé à la représentation de l’homme en tant que synthèse du monde. Par exemple, dans « l’homme de Vitruve », célèbre dessin de Léonard de Vinci, le pentagramme symbolise l’homme avec ses cinq extrémités : deux bras, deux jambes, la tête. Cinq extrémités, cinq doigts de la main, cinq sens, cinq vertus, cinq niveaux de la douleur… cinq thématiques existentielles qui accablent et pimentent à la fois la vie de l’être humain.

Ces 5 thématiques existentielles sont :

  1. Liberté – Responsabilité – Choix.
  2. La quête de sens et la question de l’absurde.
  3. La perfection.
  4. La solitude.
  5. La finitude.

Ces thèmes sont des éléments fondamentaux et invariants de l’existence des systèmes humains. Nous vous montreront à quel point leur connaissance peut vous apporter un précieux soutien à la construction de relations interpersonnelles fructueuses tant dans votre vie professionnelle que personnelle.

Au cours des publications qui vont suivre, nous essayerons, par exemple, de trouver des réponses aux questions suivantes : Comment comprendre qu’un manager instruit ne témoigne aucune compassion vis-à-vis de loyaux et valeureux collaborateurs congédiés au nom des règles de bonne gestion de l’entreprise ? N’est-ce pas inquiétant qu’un manager ne s’émeuve pas publiquement des conséquences de décisions aberrantes d’un directeur basé à 8000 km de la réalité locale ? Comment conserver sa motivation et celle de ses collaborateurs lorsqu’on ne comprend plus les valeurs et les orientations de l’entreprise ? Comment faire et assumer le choix de ne pas réaliser certaines activités « administratives » rituelles de l’entreprise pour privilégier celles qui conduisent à l’innovation et à une plus grande valeur ajoutée ? Comment oser insérer des plages de temps professionnel sans autre objectif que d’être ensemble et de renforcer les aptitudes à rester présent à soi et aux autres ? Dans son style de management, comment intégrer – au lieu de rejeter a priori – le risque (ou l’opportunité) de perdre son job ? Comment assumer ses limites, sa propre incompétence ?

Ces questions sont au manager ce que l’épine est à son pied : elles produisent de l’inconfort et il n’est pas facile de s’en débarrasser sans souffrance. Certains responsables continuent donc de « manager à cloche-pied », préférant bâcler toute confrontation aux 5 expériences mentionnées ci-dessus.

Pourtant, notre environnement professionnel nous offre de multiples opportunités pour apprendre à mieux traverser ces grandes épreuves existentielles.

La connaissance de ces constantes humaines est un atout pour le manager attaché à la qualité des relations et des décisions.

Vous vous êtes probablement aperçus que ces problématiques vous conduisent très souvent dans d’inextricables dilemmes que vos méthodes classiques de résolution de problèmes ne vous permettent pas de débroussailler. Pour explorer ce contexte souvent inconfortable, nous vous proposons – à travers les prochains 12 articles de cette série – une suite d’expériences réelles d’acteurs de la vie économique. Chaque article illustrera une problématique existentielle particulière parmi les 5 que nous avons répertoriées ci-dessus. Pour chacun de ces récits, nous vous proposerons de choisir, en votre âme et conscience, entre trois formules présentant chacune une manière différente de le clôturer.

Vous y reconnaitrez peut-être des situations que vous – ou des proches – avez vécues.

À partir des dénouements que vous auriez souhaités nous proposerons des enseignements qui, nous l’espérons, pourront vous être utiles et vous aideront à mieux faire face à des situations contingentes de la vie professionnelle.

A travers nos échanges, nous avons l’ambition de développer un système dynamique, collaboratif, ouvert, favorisant la découverte, la croissance, la solidarité et le développement des contributeurs dont vous ferez peut-être partie.

Notre prochaine publication sera consacrée au thème de la quête de sens et de l’absurdité dont relèvent certaines épreuves de la vie professionnelle.

Au travers du récit de « traversée du désert » de Marie, et en vous référant à vos propres expériences/échecs, venez aider Marie à donner du sens à ses « mésaventures ». Vos témoignages et commentaires seront très utiles à tous ceux qui pourraient se décourager trop vite face à cette cruelle épreuve existentielle de confrontation à l’absurde.

Dino Ragazzo

Fukushima : Tepco prêt à ériger son mur de glace

Lancée en juin 2014 par Tepco, l’opération « mur de glace » aurait pu faire sourire si la situation de la centrale nucléaire de Fukushima n’était pas si grave. Les employés de la compagnie japonaise luttent depuis près de cinq ans déjà pour maintenir le site nucléaire sous contrôle et empêcher l’eau souterraine de s’infiltrer dans les bâtiments réacteur accidentés. Tepco estime qu’au moins 400 tonnes d’eau entreraient chaque jour dans les bâtiments grâce aux multiples conduits qui équipent les bâtiments réacteur. La compagnie pompe quotidiennement l’eau pour la retraiter, mais face à l’ampleur de la tâche, des millions de mètres cube d’eau contaminée ont déjà été reversés en mer.

ice_wall714

Geler le sol

Le concept de mur de glace consiste concrètement à forer sur 35 mètres de profondeur tout autour des bâtiments et à insérer dans chaque trou un tuyau dans lequel circulera un liquide réfrigérant. L’objectif est de geler le sol en permanence pour empêcher toute infiltration. Le projet a été testé et Tepco semble suffisamment satisfait des résultats pour lancer les travaux à grande échelle. Au total, Kajima Corporation, la société choisie pour mener les opérations, devra installer pas moins de 1 550 tuyaux dans le sol pour former un mur de 1,5 kilomètres de circonférence. Le gouvernement japonais a estimé le coût de ce mur à 32 milliards de yen (251 millions d’euros), sans compter la fourniture d’électricité pour alimenter le système. Tepco attend désormais le feu vert de l’Autorité japonaise de sûreté nucléaire pour lancer les travaux.

_69623952_fukushima_ice_wall_624

Par Romain Chicheportiche

Le graphène : matériau du XXIème siècle ?

Isolé en 2004 par Andre Geim, le graphène est un matériau cristallin dont l’empilement forme le graphite de nos mines de crayon. Cette découverte lui a valu de gagner le prix Nobel de Physique six ans plus tard, aux côtés de Konstantin Novoselov. Ce matériau présente des propriétés fascinantes. Il une résistance à la rupture 200 fois supérieure à l’acier, bien que 6 fois plus léger. Cela a naturellement attiré l’attention d’acteurs de l’aéronautique, comme Airbus. Il est également un meilleur conducteur que le silicium, matériau utilisé notamment pour fabriquer les microprocesseurs des ordinateurs, et pourrait révolutionner les technologies de stockage d’énergie.

Batteries au graphène

graphene-battery

L’industrie énergétique fait face depuis toujours à la problématique du stockage de l’électricité. Les solutions qui existent sont généralement coûteuses et/ou peu efficaces. Les batteries lithium-ion se sont imposées ces dernières années, mais leurs performances restent encore insuffisantes, notamment dans le secteur des transports. Elles pourraient prochainement être détrônées par des batteries au graphène. Début février, une jeune compagnie espagnole, Graphenano, a présenté, lors d’un salon à Madrid, une batterie automobile d’une autonomie de 800 kilomètres pour un poids de 100 kilogrammes. L’entreprise espère rapidement s’imposer sur ce marché porteur, la plupart des marques automobiles déployant des modèles de voitures électriques. Mais l’entreprise développe également des technologies pour des applications aussi diverses que la construction, la santé, et l’électronique.

14473205316103
Vice-président de Graphenano, José Antonio Martínez.

Feuille de route

L’Union européenne appuie l’industrie dans ses efforts de recherche et développement (R&D). La Commission a ainsi mis en place l’année dernière le « Projet Graphene », doté d’un milliard d’euros sur dix ans. Il réunit 142 acteurs industriels, académiques et groupes de recherche répartis dans 23 pays de l’Union. A noter notamment la présence de grands acteurs français comme le CNRS, Thales ou encore le Commissariat à l’énergie atomique et aux énergies alternatives. Ce dernier mène le groupe de travail sur les applications énergétiques en la personne d’Etienne Quesnel. L’ambition des recherches menées est de supprimer les limites imposées par les matériaux existants, en réalisant de nouveaux systèmes à l’échelle atomique.

Si les promoteurs du graphène promettent de révolutionner de nombreux secteurs et de le propulser matériau du XXIe siècle, sa découverte ouvre le champ des possibles car sa combinaison avec d’autres matériaux semble prometteuse. “Le graphène est le premier matériau découvert que l’on peut contrôler à l’échelle atomique. Cela dit, de nombreux autres matériaux, avec des propriétés complémentaires, ont été découverts ces dernières années. Ils ont aussi un grand potentiel technologique”, conclut Alberto Morpurgo, professeur à la Faculté des sciences de l’Unige et représentant suisse du projet Graphene.

Par Romain Chicheportiche

Substituer le Bisphénol A ne diminue pas les risques

« Nous déconseillons de substituer le bisphénol A dans les tickets de caisse par d’autres bisphénols», explique clairement Nicolas Bertrand, chimiste pour l’Institut national de recherche et de sécurité (INRS). L’association, qui se focalise sur les risques liés au travail, indique que les produits utilisés aujourd’hui pour remplacer le bisphénol A dans les tickets de caisse sont tout aussi dangereux pour la santé.

L’analyse d’une centaine de tickets – provenant de nombreuses enseignes – a révélé que, dans plus de 98% des cas, les éléments utilisés ne sont autres que de nouveaux bisphénols. Peu d’études ont été réalisées sur ces « cousins » du bisphénol A mais il y a fort à parier que leur structure similaire (deux phénols reliés entre eux par différentes molécules) soit à l’origine des effets similaires constatés.

« Le problème est intrinsèque aux tickets de caisse utilisés dans nos différents lecteurs de cartes bancaires » explique l’ingénieur de l’INRS. Ces tickets, dit « tickets thermiques », sont en effet recouverts de bisphénol A qui ont la particularité de changer de couleur lorsqu’ils sont chauffés. Pour éliminer ce produit il faut donc utiliser une molécule aux propriétés similaires. Et quoi de mieux pour remplacer un bisphénol qu’un autre bisphénol ? Ils se succèdent et se ressemblent, ne se distinguant que par la lettre qui évoque des fonctions chimiques liés aux deux phénols. Nicolas Bertrand rappelle les recommandations de l’INRS : « Des solutions existent pour changer de technologie d’impression. Le matriciel par exemple, ou l’impression jet d’encre, tout simplement ».

Simple mais coûteux, ajoute le chercheur. « L’impression à l’encre coûte plus cher, est plus lente et demande une réelle intégration technique et structurelle dans les postes de caisse. » Changer les rouleaux de papier des machines est en effet très simple. Changer les machines thermiques pour du jet d’encre ou du matriciel est nettement plus complexe.

Des bisphénols aux cœurs de deux polémiques bien différentes

Si les projecteurs sont braqués sur les bisphénols, ce n’est pas pour leur utilisation dans les tickets de caisse mais pour leur présence dans les contenants alimentaires. Ce qui peut d’ailleurs étonner, car le bisphénol A n’est présent qu’à l’état de trace dans les emballages alors qu’il est omniprésent sur les tickets de caisse.

Les bisphénols sont en effet utilisés de deux manières. Sur les tickets de caisse, ils sont utilisés tels quels pour leurs propriétés thermiques. Dans les barquettes alimentaires, et plus particulièrement à l’intérieur des boîtes de conserve, les industriels les utilisent en tant que monomères (des éléments que l’on assemble pour fabriquer des polymères, des plastiques). Une fois reliés entre eux, les monomères sont figés et inoffensifs. Le problème vient en fait des résidus de cette fabrication : Les molécules de bisphénol qui n’ont pas réagi sont diffusées petit à petit par le plastique vers le contenu de la boîte.

Désormais interdit pour transporter des denrées alimentaires, le bisphénol est peu à peu remplacé. Ici, comme pour les tickets de caisse c’est la substitution par de nouveaux bisphénols qui prévaut. Au grand dam de l’Agence nationale de sécurité sanitaire de l’alimentation (l’Anses) qui alertait déjà les industriels en 2011 : « En l’absence de données scientifiques complémentaires, l’Agence n’encourage pas à utiliser d’autres bisphénols comme solution de substitution au bisphénol A. »

Il faut dire que les polymères fabriqués à base de bisphénols ont l’avantage de posséder de bonnes propriétés de conservation des aliments à faibles coûts. Difficile de faire mieux, mais des alternatives existent d’ores et déjà. Une étude publiée en 2014 dans le Journal of applied polymer science par une équipe des universités de Malaga et de Séville présentait un nouveau matériau plus respectueux de l’environnement. Un matériau dérivé de la cutine, un polymère présent dans la peau de tomate. Déjà brevetée, l’invention aurait des propriétés de durabilité et de résistance comparables à celles des matériaux habituellement utilisés par le secteur des emballages alimentaires. Finalement, c’est peut-être la chimie biosourcée qui aura la peau des bisphénols.

Par Baptiste Cessieux

Les données liées à la santé : une sécurité très sensible

Mais cette problématique complexe oblige tous les acteurs à renforcer la sécurité des infrastructures et des échanges d’informations. Car le principal enjeu est d’assurer la mise à disposition des données pour les professionnels de santé tout en garantissant la sécurité et la confidentialité.

Comme toutes les entreprises, les établissements hospitaliers et les laboratoires peuvent être en effet touchés par une attaque informatique. Et ces risques devraient être encore plus élevés dans les prochaines années avec la multiplication des objets connectés. Guillaume Poupard, Directeur Général de l’ANSSI (’Agence nationale de la sécurité des systèmes d’information), considère que les attaques sur le système de santé vont se multiplier et pourrait même engendrer des morts ! « Quand on voit la quantité d’informations récoltées, quand on voit l’action que tout cela peut avoir sur les patients, il y aura des morts demain », estime-t-il.  Il ne s’agira pas nécessairement d’assassinats ciblés, mais plutôt de dégâts collatéraux, dans la mesure où « ces appareils vont se faire polluer par des attaques qui ne leur étaient pas destinées ».

Lors de la conférence Ruxcon Breakpoint, à Melbourne fin 2012, Barnaby Jack, expert en solution de sécurité, avait expliqué qu’une faille dans la programmation des émetteurs sans fil pouvait être utilisée pour envoyer des instructions aux stimulateurs cardiaques (pacemakers) et aux défibrillateurs. Cette faille avait en effet permis à ce spécialiste d’obtenir le numéro de série et le modèle du dispositif, lui permettant ainsi de reconfigurer le firmware de l’émetteur. De quoi inquiéter les quelque 400 000 français porteurs de stimulateurs cardiaques. Un chiffre en progression constante depuis 20 ans. 60 000 patients se font poser chaque année ces appareils

Cette situation délétère a été rappelée lors de la 39ème conférence organisée par le CyberCercle en février. Cette édition a réuni Gérard Bapt, Député de Haute-Garonne  et Pierre Morange, Député des Yvelines, tous les deux membres de la Commission des affaires sociales, et Philippe Loudenot, FSSI (fonctionnaire de sécurité des systèmes d’information) des Affaires Sociale, de la Santé et des Droits des femmes. Selon Philippe Loudenot, les enjeux du monde la santé peut être classés en trois catégories : les attributions des remboursements avec les enjeux des fraudes, les organismes des prestations sociales qui donnent lieu à des fraudes en particulier du phishing avec l’envoi d’emails informant de problèmes sur des remboursements et enfin les d’attaques à buts destructeurs visant par exemple les établissements de santé comme ceux du sang.

Lors de cette conférence, Gérard Bapt a par exemple déclaré que des pannes informatiques avaient été à l’origine d’incidents graves entraînant même la fermeture d’établissements hospitaliers comme dans la région bordelaise. Toujours en France, en mars 2015, le laboratoire de biologie médicale Labio avait été victime d’un piratage de 40 000 identifiants et de centaines de bilans médicaux. Les pirates avaient exigé une rançon de 20 000 € pour que ces données ne se retrouvent pas sur Internet.

Il y a quelques années, des hôpitaux français et britanniques avaient été touchés par un code malveillant (virus Conficker). Quelques 8 000 ordinateurs avaient été infectés dans ces services hospitaliers.

Philippe Loudenot  a rappelé que « la sécurité n’est pas un problème de moyens mais de gouvernance, de compétences et d’appropriation ». De nombreuses failles proviennent d’un manque de formation et d’information du personnel, par exemple concernant la gestion des mots de passe (prêts de mots de passe, sessions restées ouvertes, post-it collés près de l’écran), ou du matériel (périphériques ou objets connectés non protégés, obsolescence des logiciels…). Or,  20% de mesures adéquates règlent 80% des problèmes…

Philippe Richard

Vie sur Mars : traces du passé, espoirs futurs ?

silice microdigitee
Vue rapprochée des dépôts de silice lobée prise par le rover Spirit – Crédit: NASA/ JPL-Caltech

Des choux-fleurs sur Mars ! C’est ainsi que le buzz s’est fait sur la toile. Mais bien évidemment il ne s’agit pas de notre crucifère… Seulement de petites structures de silice qui ont pris des formes faisant penser à des choux-fleurs que le rover Spirit a photographié en 2008 et 2009 sur Mars. Deux chercheurs de l’université d’Arizona, Steven Ruff et Jack Farmer, ont trouvé frappantes les ressemblances entre ces structures et celles observées dans des sources chaudes du désert de l’Atacama au Chili. Or ces structures sont façonnées sur Terre grâce à une activité microbienne.

Une activité hydrothermale idéale

Spirit a débarqué sur Mars dans le cratère Gusev dont on attribue de manière avérée certaines structures géologiques à une activité hydrothermale d’origine volcanique. Dès 2008 Steven Ruff émet l’idée que l’on pourrait détecter des formes de vies microbiennes dans cette région. Malheureusement Spirit n’est pas équipé pour les analyses adéquates. Cependant, les dépôts de silice lobée dont l’origine n’est pas encore expliquée de manière formelle semblent en tout point semblables à celles trouvées sur Terre, y compris par leur signature spectrale infrarouge. Or ces structures apparaissent sur Terre grâce à une présence microbienne qui laisse ainsi sa marque. Ces dépôts constituent en quelque sorte des  « microstomatolites » dont on trouve des exemplaires dans la plupart des sites hydrothermaux terriens, en premier lieu desquels El Tatio à 4000m d’altitude, dans le désert d’Atacama au Chili. Mais, pour confirmer totalement cette hypothèse, il faudrait des analyses in-situ ou des échantillons rapportés de Mars. On attend donc avec impatience, les résultats des prochaines missions telles que ExoMars 2016-2018, ou Mars 2020 pour en être sûrs.

La vie est-elle possible aujourd’hui sur Mars ?

Oui ! répondent des expériences menées par l’Esa sur la station spatiale internationale.

Expose-E_node_full_image_2
Le module Expose-E permet de soumettre des organismes à des conditions spatiales. Il est situé à l’extérieur du laboratoire européen Columbus de l’ISS. Crédit : ESA.

La plateforme expérimentale Expose-E de l’ESA accueille depuis plusieurs années des expériences sur le développement du vivant dans des conditions spatiales au sein du laboratoire Columbus. Les études menées au sein d’Expose-E continuent de fournir d’importants indices sur la possibilité de trouver des traces de vie actuellement sur Mars. Ainsi, les dernières recherches montrent que des champignons provenant de l’Antarctique et des lichens issus de milieux extrêmes européens, sont capables de se développer dans les conditions régnant aujourd’hui sur la planète rouge.

Dix-huit mois de tests

Plusieurs échantillons de micro-organismes ont été testés : deux espèces de champignons (Cryomyces antarcticus et Cryomyces minteri) et deux de lichens (Rhizocarpon geographicum et Xanthoria elegans). Les différents échantillons ont été plongés dans des conditions similaires à celles régnant sur Mars pour une partie (reproduisant la pression atmosphérique, la composition de l’atmosphère, et les rayonnements ultraviolets) et dans des conditions spatiales pour d’autres. Résultats : 60% des cellules de champignons ont réussi à préserver leur ADN ou à rester intacts et un peu moins de 10% ont réussi à former des colonies dans les conditions martiennes. Quant aux lichens, quelles que soient les conditions appliquées 70 à 84% sont restés viables après leur retour sur Terre !

Sophie Hoguin

Les ondes gravitationnelles détectées 100 ans après la prédiction d’Einstein

Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l’Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d’une telle collision de deux trous noirs avait été prédite, mais ce phénomène n’avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l’Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l’objet d’une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l’Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.


Ondes gravitationnelles : les détecteurs de l… par CNRS

Clin d’œil de l’histoire : c’est 100 ans tout juste après la publication de la théorie de la relativité générale d’Einstein, qu’une équipe internationale vient d’en confirmer l’une des prédictions majeures, en réalisant la première détection directe d’ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.

L’analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d’estimer que les deux trous noirs ont fusionné il y a 1.3 milliard  d’années, et avaient des masses d’environ 29 et 36 fois celle du Soleil. La comparaison des temps d’arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d’écart) et l’étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l’hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L’entrée en service d’Advanced Virgo fin 2016 permettra justement cela.

Selon la théorie de la relativité générale, un couple de trous noirs en orbite l’un autour de l’autre perd de l’énergie sous forme d’ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d’années avant de s’accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l’ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l’équivalent de 3 soleils, soit une énergie colossale) s’est convertie en ondes gravitationnelles selon la célèbre formule d’Einstein E=mc2. C’est cette bouffée d’ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.

Une preuve indirecte de l’existence des ondes gravitationnelles avait été fournie par l’étude de l’objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d’un pulsar en orbite autour d’une étoile à neutrons. En étudiant sur trois décennies l’orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu’elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l’énergie sous la forme d’ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d’années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l’évolution d’un autre système binaire, formé de deux trous noirs, lorsqu’ils ont fusionné en un trou noir unique.

Détecter un phénomène aussi insaisissable que les ondes gravitationnelles aura demandé plus de 50 ans d’efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd’hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l’astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu’émettent certains objets astrophysiques, comme les trous noirs.

Autour de LIGO s’est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L’équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), deLeibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff,  Birmingham, et d’autres universités du Royaume-Uni, et à l’Université des îles Baléares en Espagne.

Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l’Istituto Nazionale di Fisica Nucleare(INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l’interféromètre Virgo.

A l’origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d’Alain Brillet et d’Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l’INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu’en 2011.

Le projet Advanced Virgo, financé par le CNRS, l’INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d’ici la fin de l’année. En outre, d’autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd’hui.

En s’engageant depuis plus de vingt ans dans la réalisation de Virgo puis d’Advanced Virgo, la France s’est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l’exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l’analyse des données qu’à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées.

Source : CNRS

Interdiction des sacs plastique reportée à Juillet !

Conformément à l’article 75 de la loi relative à la transition énergétique pour la croissance verte, le projet de décret prévoit l’interdiction des sacs plastique à usage unique aux caisses au 1er juillet 2016. Les sacs en plastique à usage unique pour l’emballage des autres marchandises (fruits et légumes, viande, fromage…) seront quand à eux interdits au 1er janvier 2017. La publication au Journal officiel du décret est annoncée pour mars 2016. En attendant, les commerçants sont finalement autorisés à écouler leurs stocks.

Qu’est-ce qu’un sac de caisse à usage unique? Le projet de décret tranche : il s’agit d’un sac en plastique d’épaisseur inférieure à 50 micromètres, soit 0,05 millimètres, sans considération de volume. Dès lors, seuls les sacs réutilisables en plastique (dont l’épaisseur est supérieure à 50 micromètres), les sacs en coton, en papier ou en tissu pourront être proposés aux clients aux caisses au 1er juillet 2016. Le Club Bio-plastiques regrette que les sacs en bio-plastiques ne bénéficient pas d’une dérogation pour être proposés en caisses. « Nous regrettons que la définition du sac plastique à usage unique ne précise aucun litrage limite autorisé en complément de l’épaisseur, réagit Christophe Doukhi-de Boissoudy, président du Club Bio-plastiques. Il faudra donc malheureusement s’attendre à des contournements de la loi à travers la simple augmentation de l’épaisseur des sacs plastiques non biodégradables actuellement mis à disposition des consommateurs ».

A partir du 1er janvier 2017, l’interdiction sera étendue à l’ensemble des autres sacs en plastique à usage unique. Dans ce cas, ils ne pourront être remplacés que par des « sacs compostables en compostage domestique et constitués de matières biosourcées », c’est-à-dire à base de matière végétale. Le projet de décret prévoit une augmentation graduelle de la teneur biosourcée minimale pour ces sacs biosourcés à usage unique : 30 % au 1er janvier 2017, 40 % en 2018, 50 % en 2020 et 60 % en 2025.

Ségolène Royal a décidé de mettre en ligne ce projet de décret sur le site du ministère, afin que les fabricants et les distributeurs puissent s’adapter au plus tôt, et qu’ils puissent utiliser leurs stocks jusqu’à cette date. Par ailleurs, les territoires lauréats de l’appel à projet territoires « zéro déchet, zéro gaspillage » qui engageront une démarche pour anticiper l’interdiction des sacs plastique de caisse à usage unique d’ici juillet pourront bénéficier d’un soutien de 30 000 euros. L’objectif est de trouver des solutions innovantes et originales.

Par Matthieu Combe, journaliste scientifique

L’hydrogène se développe en France

Lorsque l’on parle d’hydrogène, le sujet de la mobilité électrique utilisant une pile à combustible arrive rapidement sur le tapis. Sur cette question, le projet Hyway est emblématique. Il consiste en un déploiement simultanée de véhicules à pile à combustible en flottes captives et de stations hydrogène. Dans ce cadre, 25 véhicules et une station sont déployés à Lyon, ainsi qu’à Grenoble. L’hydrogène utilisé est dans les stations est de l’hydrogène industriel produit par vaporeformage de gaz naturel, mais la deuxième phase du projet consistera à décarboner complètement la chaîne de production en produisant cet hydrogène par électrolyse de l’eau grâce à des énergies renouvelables.

Par ailleurs, la station de St Lô, la première ouverte en France, entraîne le développement de projets aux alentours, à Cherbourg, Caen, Le Havre… Le projet régional EAS-HyMob prévoit le déploiement de 15 stations supplémentaires dans la région entre 2016 et 2018. Il constitue le projet pilote de référence pour l’Europe afin de démontrer la faisabilité et analyser les conditions économiques de déploiement d’infrastructures et de véhicules à hydrogène. Au niveau national, 30 stations sont prévues d’ici fin 2016 pour alimenter plus de 1000 véhicules à hydrogène.

La région voisine, le Nord-Pas-de-Calais-Picardie met à l’honneur le Power-to-gas pour produire de l’hydrogène « propre ». Des démonstrateurs en taille réelle voient le jour en France, notamment GRHYD à Dunkerque, mais aussi au sud du pays, à Fos-sur-Mer, avec Jupiter 1000.

Paris commence des expérimentations

La ville de Paris s’intéresse à l’hydrogène et lance deux initiatives notables. En décembre, la première société de taxis à hydrogène a été lancée : Hype. Composée d’une flotte de 5 taxis, l’objectif est d’atteindre 70 taxis à hydrogène fin 2016 et environ 600 dans 4 ans. Une station est installée au Pont de l’Alma et une dizaine devraient être déployées progressivement.  

La ville s’est également dotée d’une flotte de 6 véhicules de type Kangoo ZE-H2 et d’une petite station hydrogène. Il s’agit de véhicules électriques à batterie dotés d’un système d’extension d’autonomie grâce à une pile à combustible de faible puissance. Ils bénéficient d’une autonomie de 300 km. La ville de Paris étudie aussi l’utilisation de bus hydrogène et attend des propositions de la part des industriels pour les 3.5, 19 et 26 tonnes.

La Poste teste le vélo à hydrogène

La société Pragma Industries a mis au point Alpha, un vélo électrique alimenté par une pile à combustible compacte. Il devrait arriver sur le marché au milieu de l’année, mais La Poste teste d’ores et déjà le vélo à hydrogène en Aquitaine. 12 vélos vont être testés : 4 vont commencer leur tournée et 8 autres devraient arriver début mai. L’intérêt est d’avoir une autonomie doublée et une recharge rapide, pour les tournées supérieures à 25 km. Si l’expérimentation s’avère concluante, la Poste envisage une trentaine de vélos hydrogène sur la région. Par ailleurs, 20 vélos de Pragma Industries vont être testés par les collectivités de Cherbourg et Saint Lô.

Terminons ce panorama de projets industriels par le projet Themis, en Région Rhones-Alpes. Lancé en 2014, il consiste à développer un système d’autonomie énergétique complète, pour la diffusion TV et les télécommunications en sites isolés non reliés au réseau. Themis produira 8 mégawattheures par an, sans recours aux énergies fossiles. L’antenne embarquera un système hybride de stockage de grande capacité et de longue durée des énergies renouvelables (solaire et éolienne) associant batteries et power to hydrogène. Les tests s’achèveront en juin 2016.

Plus proche du citoyen, l’hydrogène joue un rôle dans les équipements domestiques. La technologie la plus prometteuse est celle des chaudières fonctionnant avec une pile à combustible pour produire de l’électricité et de la chaleur. Après la catastrophe de Fukushima, plus de 100 000 unités ont été vendues au Japon. Par ailleurs, 15 000 en pré-séries ont été vendues en Allemagne. Elles devraient apparaître sur le marché français d’ici 1 ou 2 ans.

Par Matthieu Combe, journaliste scientifique

Emploi : les prévisions 2016

La confiance des entreprises, dans un contexte économique un peu plus favorable, s’améliore. Ainsi, 8% d’entre elles prévoient d’augmenter leur effectif cadre au cours de l’année, soit 1 point de plus qu’en 2015, et 5% d’entre elles envisagent de le réduire.

evolution recrutements 2016

Contrairement à l’année 2014, caractérisée par un marché de l’emploi cadre à plusieurs vitesses, la dynamique à l’œuvre depuis 2015 concerne quasiment tous les secteurs de l’économie.

Les recrutements de cadres dans les Services, « locomotive » du marché, progresseraient jusqu’à +11% portés par les activités informatiques – télécommunications, l’ingénierie – Recherche et Développement, les activités juridiques, comptables-conseil et Gestion des entreprises et la Banque-Assurance.

L’Industrie tirerait son épingle du jeu, avec une croissance des embauches pouvant aller jusqu’à +9%.

En 2016, les jeunes diplômés, qui avaient déjà profité d’une situation plus favorable en 2015, bénéficieraient de l’amélioration du marché. Ainsi, de 39 500 à 43 400 débutants pourraient être embauchés durant les 12 prochains mois.

Les cadres ayant acquis de 1 à 10 ans d’expérience seraient toujours les plus courtisés, représentant un peu plus d’un recrutement sur deux.

En revanche, les embauches de cadres de plus de 16 ans d’expérience seraient en baisse.

Les fonctions les plus « porteuses » du marché seraient celles de l’Informatique (jusqu’à 42 300 embauches), du Commercial (jusqu’à 37 500) et des Etudes-recherche et développement (jusqu’à 32 400 embauches). Par ailleurs, la fonction Administration, RH, communication, droit atteindrait des hauts niveaux de recrutements, proches de ceux atteints en 2006-2008 (20 000).

Quasiment toutes les régions de l’Hexagone seraient bien orientées en 2016. Quatre territoires concentrent près de 3 embauches sur 4 : Ile-de-France, Auvergne-Rhône-Alpes, PACAC, Nord-Pas-de-Calais-Picardie. Seules deux régions devraient afficher une stagnation de leurs recrutements de cadres : la BourgogneFranche-Comté et la Normandie.

Enfin, le bilan de l’année 2015 est positif avec 181 800 cadres recrutés, soit 7% de plus qu’en 2014, et une sensible augmentation du nombre de postes cadres créés 1 : 28 800. Ce bon résultat est principalement lié à la performance des activités informatiques (+8%), de l’ingénierie-Recherche et Développement (+16%), des activités juridiques-comptables- Conseil (+14%) et de la Banque-Assurance (+11%). Ces quatre secteurs ont concentré 1 embauche sur 2 en 2015. Dans ce contexte, 38 200 jeunes débutants ont été embauchés en 2015, soit une hausse de +9%, pour retrouver le niveau d’embauches de 2012.

Prévisions à horizon 2018 : les résultats issus du modèle économétrique de l’Apec.

Le modèle construit en 2009 par l’Apec est le fruit des travaux de son Département Etudes & Recherche. Il a permis de montrer que l’investissement, mesuré par la formation brute de capital fixe (FBCF2 ), est au cœur de la dynamique de l’emploi en général et de l’emploi cadre en particulier.

Le modèle intègre également le niveau du PIB ainsi qu’une dimension démographique en tenant compte des départs à la retraite de cadres en emploi. Afin d’élaborer le plus précisément possible des scénarios, l’Apec s’est intéressée aux prévisions établies par différents instituts de conjoncture nationaux ou internationaux (INSEE, OCDE, OFCE, FMI, COE REXECODE).

Ces prévisions concernent le PIB et ses principales composantes (FBCF, dépenses de consommation, variations des stocks, exportations et importations.

Le scénario retenu table, pour les trois prochaines années, sur une « croissance progressive », avec des hypothèses de progression du produit intérieur brut de +1,3 % en 2016, +1,5 % en 2017, et +1,7 % en 2018, et s’appuie sur les analyses du FMI et de l’Insee.

evolution-pib

En 2015, la conjonction de facteurs exogènes favorables (baisse continue du prix du pétrole, dépréciation de l’euro, taux d’intérêt très faible), qui avait boosté la croissance économique durant le premier trimestre, n’a pas été relayée par une reprise significative de l’investissement (la FBCF s’inscrit à la baisse pour la 3e année consécutive). Si, dans les entreprises, l’investissement productif a enregistré une nette progression, l’investissement public s’est contracté trimestre après trimestre. Quant à celui des ménages, il s’est stabilisé après deux ans de recul ininterrompu.

La croissance actuelle est adossée aux dépenses de consommation des ménages particulièrement dynamiques au 1er et 3e trimestre 2015. Mais les attentats de novembre 2015 ont eu de sévères répercussions sur les activités de services (restauration, loisirs, transports) et ont significativement érodé la consommation des ménages au 4e trimestre 2015 (-0,1 %).

Au final, la croissance économique s’est établie autour de +1,1 % en 2015. Dans ce scénario, elle se renforcerait sensiblement en 2016 (+1,3%). Ainsi, les effets des dramatiques évènements de novembre 2015 s’estomperaient au cours du 1er semestre 2016. Du côté des entreprises, les conditions seraient réunies (redressement des taux de marge, montée en charge du CICE et du pacte de responsabilité et de solidarité, faible coût du capital) pour enclencher, enfin le cycle d’investissement. La FBCF progresserait ainsi de +1 % en 2016 et s’inscrirait sur un sentier de croissance solide les années suivantes : +1,3 % en 2017 et +1,5 en 2018.

Quant au PIB, sa progression avoisinerait les +1,7 % en 2018 (après +1,5 % en 2017).

Dans ce contexte d’amélioration modérée du marché de l’emploi, la part des cadres en poste au moment de leur départ à la retraite progresserait et s’établirait à 54 % en 2018 (contre 50% en 2015).

Le taux de chômage devrait s’établir à 10 % (France métropolitaine) courant 2016. La consolidation de la croissance en 2017 et surtout en 2018 associée à une hausse de l’emploi supérieure à la variation de la population active pourrait permettre à l’économie hexagonale d’enregistrer un recul sensible du chômage à l’horizon de notre prévision.

Ces prévisions sont toutefois soumises à différents aléas. L’environnement économique international pourrait ainsi être affecté par un nouvel accès de faiblesse des pays émergents, et notamment de la Chine.

previsions2016-

En 2016, le nombre de recrutements de cadres augmenterait de 7 %, à près de 195 000. Cette estimation dépasse la médiane des prévisions recueillies auprès des entreprises fin 2015 dans le cadre de l’enquête annuelle de l’Apec (de 182 000 à 200 000, médiane : 191 000). Elle demeure toutefois nettement inférieure au haut de la fourchette. Si la reprise progressive de l’investissement se confirme jusqu’en 2018, elle pourrait permettre de dynamiser les embauches de cadres. Les niveaux d’avant la crise de 2008 seraient largement dépassés en 2018.

recrutements2

Note méthodologique :

  • Cette enquête a été réalisée auprès d’un échantillon permanent de 11 000 entreprises du secteur privé.
  • Cet échantillon est représentatif de la répartition par région, par taille et par secteur d’activité des salariés du secteur privé.
  • Les résultats présentés sont issus du traitement et de l’analyse des réponses de ces 11 000 entreprises représentant 1 130 000
    salariés dont 208 600 cadres.
  • Les entreprises ont été contactées du 15 octobre au 8 décembre 2015.

Source : Apec

Imprimer du mou en 3D

Chaque année, le Consumer Electronics Show de Las Vegas est l’occasion pour les professionnels de l’électronique grand public de dévoiler leurs innovations. Lors de cette grand-messe des technophiles, l’entreprise de vente en ligne de produits imprimés en 3D, Sculptéo, présentait un matériau souple et résistant.

Selon la classification Shore, il est d’une dureté Shore A de 65, soit la souplesse d’une chambre à air de vélo. A titre de comparaison, un élastique aurait une dureté Shore A comprise entre 10 et 30. Un matériau plus rigide, comme une semelle de chaussure par exemple, dépasserait les 90 unités sur cette échelle.

Rien de très original, donc. Des chambres à air de vélo, fussent-elles imprimées en 3D, ce n’est pas une révolution. Mais le matériau présenté ici repousse un peu plus les limites de souplesse imposées à l’impression 3D. Yvon Gallet, président de Initial, une autre entreprise spécialisée dans l’impression 3D, rappelle tout de même que des matériaux souples imprimés en 3D existent déjà depuis plusieurs années. Cette vidéo de 2013 présente d’ailleurs un autre plastique, le TPU 92A, d’une dureté Shore A de 92. Des propriétés « uniques », indique la vidéo, mais des propriétés désormais dépassées.

L’intérêt de cette poursuite d’une meilleure souplesse est la création de formes complexes possibles grâce à l’impression 3D. Et l’entreprise Sculptéo s’en donne à cœur joie comme le prouve la ligne de vêtements dessinés par une élève de l’École supérieure des arts et techniques de la mode :

Scupteo800-2

Scupteo800-3

ou les répliques exactes de cœurs de patients pour l’Institut Montsouris à Paris :

Scupteo800-4

Scupteo800-5

Selon Clément Moreau, co-fondateur de l’entreprise en ligne, ce plastique cumule les avantages. Il résiste à l’eau, aux solvants et a une bonne résistance dans le temps. « En fait, ces avantages viennent de la technique d’impression, explique l’entrepreneur. Nous utilisons l’impression par frittage laser. À la différence d’une impression couche après couche, cette technique ne modifie pas le plastique utilisé (et compatible) lors de la création de l’objet ».

Résultat : des objets de meilleure qualité que ce que pourrait produire une imprimante 3D personnelle. C’est d’ailleurs dans ce secteur des objets 3D de qualité que se niche l’entreprise. Impression en polyamide, alumine, résine ou plâtre, Sculptéo propose d’imprimer des prototypes 3D de bonne facture.

Pourtant, bonne facture ou pas, ces méthodes d’impression ne devraient pas quitter le prototypage. La production de masse, elle-même pour de petites séries, est en quête d’autres propriétés. « C’est bien simple, je n’ai jamais de demande sur de tels produits » annonce le président de Initial. L’entreprise s’adresse plutôt à l’industrie qu’au grand public et les demandes ne sont évidemment pas les mêmes. « Il est souvent intéressant d’avoir des objets souples à certains endroits et durs ailleurs. Et ça, c’est possible avec des imprimantes 3D capables d’imprimer plusieurs matériaux en même temps, précise Yvon Gallet. On crée, par exemple, des prothèses dentaires de cette façon-là. Sur la même pièce, on imprime une gencive souple et les dents dures. » Ainsi, chaque corde ajoutée à l’arc de l’impression additive ne sert pas au même utilisateur.

Par Baptiste Cessieux

Première station hydrogène parisienne !

« Hype », c’est le nom de la première flotte parisienne de taxis électriques à hydrogène. Dans un premier temps, la nouvelle station installée par Air Liquide permettra de recharger une flotte de 5 véhicules Hyundai ix35. Depuis début 2016, un réseau de stations hydrogène s’est installé dans la capitale pour recharger la flotte de taxis qui se renforcera progressivement. STEP espère en effet déployer 70 véhicules hydrogène d’ici un an et plusieurs centaines d’ici 5 ans.

hypeLa station hydrogène rechargera les taxis avec de l’hydrogène pressurisé à 700 bars. La recharge se fait en moins de 5 minutes et permet une autononomie de 500 kilomètres. Pour assurer l’intérêt environnemental de cette installation, Air Liquide s’engage d’ici 2020 à produire au moins 50 % de l’hydrogène dédié à ses applications énergétiques sans rejet de CO2, notamment grâce à l’électrolyse de l’eau par des énergies renouvelables, par vaporeformage de biogaz et par captage/valorisation du CO2 émis lors de la production d’hydrogène à partir de gaz naturel.

station-hydrogeneAir Liquide parie sur la généralisation de l’utilisation de l’hydrogène comme énergie propre, notamment dans les transports. À ce jour, 75 stations de recharge d’hydrogène ont déjà été conçues et installées par l’entreprise dans le monde, dont cinq en France. La première station de recharge d’hydrogène pour une collectivité locale française a été inaugurée en janvier 2015 à Saint-Lô par le Conseil Général de la Manche. Avec le projet HyWay, une première flotte captive de 50 véhicules utilitaires hybrides batteries/hydrogène  s’est déployée autour de 2 stations sur Lyon et Grenoble.

« Cette première station nous permettra de mieux faire connaître au grand public les bénéfices de l’hydrogène comme énergie propre pour les véhicules, explique François Darchis, membre du Comité Exécutif d’Air Liquide supervisant l’innovation. L’hydrogène apporte en effet une réponse concrète aux défis posés par la mobilité durable en réduisant les émissions de gaz à effet de serre ainsi que la pollution locale dans les zones urbaines. »

Jusqu’au vendredi 11 décembre, vous pouvez venir essayer une voiture électrique à hydrogène et découvrir la première station de recharge hydrogène à Paris. Rendez-vous au Court Albert Ier, de 10h à 18h,  sur le parking du pont de l’Alma.

Par Matthieu Combe

Le grand carénage d’EDF coûterait le double

Grand carénage

Le projet de grand carénage lancé par EDF répond à deux problématiques distinctes. La première est liée à la volonté de l’électricien de poursuivre l’exploitation de ses réacteurs au-delà de 40 ans, la durée techniquement prévue. Pour cela, il doit soumettre ses installations à d’importants travaux de modernisation et de remplacement de matériels lourds (générateurs de vapeur, alternateurs, transformateurs, etc). Si l’Autorité de sûreté nucléaire (ASN) valide les plans d’EDF, alors ce dernier recevra, au cas par cas pour chaque réacteur, des autorisations d’exploitation décennales. La deuxième raison de ce grand carénage est le retour d’expérience de la catastrophe de Fukushima (2011). La doctrine nucléaire française préconise de tirer profit des accidents rencontrés par cette industrie pour élever continuellement les standards de sûreté. Mais tout cela a un prix. La réalisation du programme de maintenance du parc nucléaire d’EDF atteindra les 100 milliards € entre 2014 et 2030, soit 1,7 md € en moyenne par réacteur, selon la Cour des Comptes. Un quart de l’enveloppe concerne des dépenses d’exploitation (25 mds €) et les trois autres quarts, des dépenses d’investissement (75 mds €). On est loin des 55 mds € évalués par EDF, pour une période certes plus courte (jusqu’en 2025).

Manque d’anticipation

Pour l’institution rue Cambon, EDF fait face à des incertitudes de taille qui pourraient considérablement alourdir le devis initial. La première d’entre elle est « la capacité du tissu industriel à répondre aux besoins » du groupe dirigé par Jean-Bernard Lévy. En effet, les arrêts de réacteur pour raison de maintenance, sont généralement réalisés sur 8 mois, entre mars et octobre, période pendant laquelle la demande électrique est la moins forte. « Cette saisonnalité nécessite, dans des délais courts, un apport très important de main d’œuvre qualifiée. Ainsi, une visite décennale d’un réacteur, nécessite l’intervention de plus de 1 500 salariés dans les différents métiers », indique la Cour des Comptes dans son rapport. Cela suppose que les sous-traitants d’EDF doivent pouvoir tenir de fortes cadences plusieurs années de suites. La Cour semble en douter. D’autant que toutes les opérations ne peuvent pas être externalisées. « EDF doit donc s’assurer de conserver des compétences lui permettant d’exercer sa responsabilité de maître d’ouvrage (rédaction des cahiers des charges, définition et mise en oeuvre des programmes de surveillance) », écrit-elle.

Selon les estimations, la filière nucléaire devrait nécessiter 110 000 recrutements d’ici 2020 dans les emplois directs et indirects. Une opportunité bienvenue en période de chômage massif. Mais alors que les départs à la retraite se multiplient chez EDF, cette dernière éprouve les pires difficultés pour recruter du personnel qualifié. C’est notamment le cas dans les métiers de tuyauterie-soudage ou de robinetterie. Par ailleurs, les capacités des dispositifs de formation sont très nettement sous-dimensionnées pour faire face à l’enjeu du renouvellement des compétences qu’affronte l’entreprise.

Production

Cette problématique des compétences est centrale pour EDF car chaque réacteur à l’arrêt représente un manque à gagner considérable. Une baisse du niveau général des compétences risque donc d’allonger les délais et de réduire le taux de disponibilité des réacteurs, l’un des indicateurs fondamentaux de l’entreprise. Il se situait en 2014 à 81%, soit mieux que l’année précédente, mais moins qu’en 2006 (84%). En 2013, la perte de production due à la prolongation des arrêts de tranches a pu être estimée à près de 800 millions d’euros.

Cette question de la production « effective » des réacteurs tient une place de choix dans l’analyse de la Cour. Elle estime ainsi que le dépassement, même significatif, du devis du grand carénage aura moins d’impact qu’une baisse équivalente de la production. Elle fait le calcul suivant : « Dans une vision pessimiste, l’hypothèse d’une augmentation de 50% des investissements porterait le coût de production à 65 €/MWh, soit moins de 5 % de hausse. À titre de comparaison, à parc constant, une baisse de 50 % de la production moyenne entraînerait un doublement du coût de production (125 €/MWh) ». C’est pourquoi le coût de production de l’électricité d’origine nucléaire est plus sensible au volume d’électricité produite qu’au montant des investissements de maintenance. Le projet industriel de maintenance qu’EDF a défini est conçu pour permettre d’éviter toute baisse de production du parc nucléaire actuellement en service.

Incertitudes

Enfin, la Cour des Comptes balayent d’autres facteurs d’incertitudes qui pourraient menacer un peu plus la santé financière de l’électricien français. Comme tout projet industriel, le programme de maintenance est soumis à des incertitudes liées au temps long (inflation, cours des matières premières, etc). Les évaluations actuelles des coûts futurs d’investissements intègrent un niveau important de marges pour aléas et incertitudes. Elles représentent 13,30 mds € entre 2014 et 2030 mais leur proportion, par rapport au coût total du projet, augmente de façon significative à compter de 2020, passant d’environ 15 % en 2014 à 24 % en 2030.

La Cour s’interroge également sur l’impact de l’objectif de réduction de la part du nucléaire à 50%, inscrite dans la loi de transition énergétique. Elle estime que cela pourrait se traduire par la fermeture de 17 à 20 réacteurs, ce qui modifierait considérablement la donne pour EDF. La programmation pluriannuelle de l’énergie (PPE), dont l’adoption est prévue en avril ou mai prochain, devrait permettre à Jean-Bernard Lévy d’arrêter le volet « maintenance » de son plan stratégique.

Par Romain Chicheportiche

Le Power to Gas séduit à Dunkerque

Le projet Gestion des Réseaux par l’injection d’Hydrogène pour Décarboner les énergies (GRHYD) représente le premier projet de grande envergure illustrant la Troisième révolution industrielle dans la grande région Nord-Pas de Calais – Picardie.

Il s’agit aussi du premier démonstrateur français à grande échelle de Power to Gas, à Dunkerque. Piloté par Engie en lien avec 10 autres partenaires, son objectif est de transformer l’électricité issue d’énergies renouvelables, notamment éolienne, en hydrogène par électrolyse de l’eau. L’hydrogène ainsi produit permet de stocker le surplus d’électricité d’origine renouvelable et servir de vecteur énergétique. En toile de fond, ce projet vise à valider la pertinence technique et économique d’une nouvelle filière industrielle composée d’hydrogène et de gaz naturel pour le transport et le chauffage.

Jusqu’à 20 % d’hydrogène en mélange avec le gaz naturel

Dans le cadre de ce projet, deux produits sont testés : le carburant Hythane et un mélange à différentes teneurs de gaz naturel et d’hydrogène. L’Hythane est un mélange composé à 80 % de gaz naturel et 20 % d’hydrogène à destination des bus de la ville. « En complément de la station actuelle de carburant Gaz Naturel pour Véhicules (G.N.V.), une station de production-stockage hydrogène, localisée sur le site du dépôt de DK’Bus Marine à Petite-Synthe, doit permettre d’alimenter en carburant Hythane® une flotte de plusieurs dizaines de bus fonctionnant actuellement au G.N.V. », assurent les membres du projet dans un communiqué. Grâce aux futurs retours d’expérience,  les partenaires du projet pourront envisager de convertir de nouveaux bus. « A ce jour il n’existe aucune grille d’homologation pour un carburant composé de gaz naturel avec 20 % d’hydrogène, précisent les partenaires. Un frein règlementaire et financier que devra s’attacher à lever le projet GRHYD pour favoriser un futur déploiement de cette énergie ».

L’autre axe du projet est d’injecter de l’hydrogène directement dans les réseaux de distribution de gaz naturel du nouveau quartier de la ZAC de Cappelle-la-Grande. Dès mars 2017, cette injection répondra aux besoins en eau chaude sanitaire et en chauffage des 100 premiers logements de ce quartier. « Des tests en laboratoire ont démontré que les chaudières actuelles permettraient la distribution de cette énergie, en tenant compte de la présence d’un maximum de 20 % d’hydrogène dans le combustible gaz », se félicitent les membres du projet. L’incorporation de l’hydrogène dans le réseau se fera par étapes. Il sera d’abord injecté à faible dose, « peut-être 5 %, pour vérifier que ça se passe bien dans les logements », explique Marie Papadopoulo, chargée de mission GRDF, à La voix du nord. « L’objectif à terme, fin 2018 ou début 2019, est de monter à 20 % d’hydrogène, mais par étapes, à valider à chaque fois », souligne-t-elle. Un bâtiment existant, l’Etablissement Public de Santé Mentale, devrait lui aussi être raccordé à ce réseau gaz naturel et hydrogène.

Incorporer 20% d’hydrogène dans du G.N.V ou dans le réseau de gaz de ville permettra de diminuer la consommation de gaz tout en valorisation l’électricité d’origine renouvelable. Cela serait d’autant plus intéressant en mélange avec du biométhane ou du bioGNV, leurs pendants d’origine renouvelable. Étalé sur cinq ans, le projet GRHYD représente un investissement de 15 millions d’euros.

Par Matthieu Combe, journaliste scientifique

La Voie Lactée masque des centaines de galaxies très proches

Alors qu’elles ne se situent qu’à quelques 250 millions d’années lumière de la Terre, des centaines de nouvelles galaxies viennent juste d’être découvertes. Elles étaient jusque-là cachées par notre propre galaxie, la Voie Lactée. C’est l’amélioration d’un téléscope radio australien qui a permis d’explorer cette région de l’espace méconnue. L’étude parue dans Astronomical Journal du 9 février 2016 met ainsi en lumière une partie de la zone d’évitement de la Voie Lactée.

Des centaines de nouvelles galaxies !

solarLe télescope Parkes de l’agence scientifique australienne (CSIRO), situé  en Nouvelle-Galles du sud, est un radiotélescope de 64m de diamètre mis en service en 1961. Grâce à des améliorations de la fin des années 1990, telles qu’un nouveau récepteur multifaisceaux, la cartographie du ciel est 13 fois plus rapide. Dans la zone étudiée, au sud de la Voie Lactée, l’équipe internationale de chercheurs (australiens, sud-africains, américains et néerlandais) a recensé pas moins de 883 galaxies dont plus d’un tiers étaient inconnues. Après l’essai de nombreuses techniques, il s’est avéré que seules les observations radio permettaient vraiment de passer l’épaisse couche de poussière et de lumière qui constitue le plan galactique de la Voie Lactée dans cette direction.

Cinq grosses structures répertoriées

Les observations des scientifiques ont notamment abouti à identifier cinq nouvelles structures dans cette partie de l’univers : trois groupes de galaxies (NW1, NW2 et NW3) et deux nouveaux amas (CW1 et CW2). Des milliards de nouvelles étoiles qui constituent une masse de matière très importantes et qui se situent à l’emplacement présumé de ce que l’on appelle le « Grand Attracteur ».

La région du Grand Attracteur se remplit

Dans les années 1990, on s’est aperçu que le Groupe Local de la Voie Lactée et d’autres galaxies proches ne suivaient pas le mouvement d’expansion de l’Univers comme on s’y attendait. Cette déviation, en direction du Centaure, a été attribuée à une masse gigantesque équivalente à un million de Voie Lactée, baptisée le Grand Attracteur. Depuis on cherche les corps responsables de cette anomalie. On a d’abord trouvé l’amas de galaxies Abell 3627 (ou amas de la Règle) mais qui s’est révélé être trop petit et décalé pour être le Grand Attracteur, puis le superamas de Shapley 8 qui se trouve à peu près à 500 millions d’années-lumière. Mais à lui seul, il ne fait que la moitié de la masse nécessaire.

Une concentration particulière de galaxies

Bien que des hypothèses farfelues aient vu le jour concernant ce Grand Attracteur, il est maintenant admis qu’il s’agit certainement d’une concentration particulière de galaxies. Les deux amas identifiés dans cette étude, en font certainement partie et sont en tout cas situés dans la zone du territoire supposé du Grand Attracteur, entre l’amas de la Règle et le superamas Shapley 8.

Sophie Hoguin

La sécurité des voitures connectées dans le radar des gendarmes

La connectique et l’informatique se sont progressivement invitées dans l’habitacle. Avec les réseaux mobiles et la miniaturisation des composants électroniques, cette tendance s’est accentuée ces dernières années. La voiture connectée a pour finalité de faciliter la conduite de l’automobiliste et de rendre plus agréable le temps de parcours pour tous ses occupants (accès au web, musique en streaming…).

Mais ce n’est qu’un début. Les véhicules connectés vont passer la vitesse supérieure avec la connectivité coopérative. Jusqu’à présent ce sont des capteurs sur la route qui transmettaient des informations aux voitures. Demain, ces données seront échangées directement entre les véhicules eux-mêmes, mais aussi entre les véhicules et les infrastructures. Ces échanges utiliseront le réseau Wi-Fi sur une fréquence dédiée de 5.9 GHz et transiteraient par la plate-forme SCOOP (Projet de déploiement pilote de systèmes de transport intelligents coopératifs) pour être relayée aux autres véhicules.

Pour PSA, à terme, la voiture connectée devrait permettre de satisfaire quatre besoins du client : le gain de temps, la sécurité, l’économie d’argent et la distraction.

Mais attention, « la voiture connectée ce n’est pas un smartphone avec des roues mais deux tonnes qui roulent à 130 km/h et qui transportent des êtres humains à l’intérieur » a tenu à rappeler fort justement Jean-François Huère, délégué à la sécurité routière pour PSA Peugeot Citroën lors du FIC (Forum International de la Cybersécurité), à Lille fin janvier.

Lors de ce colloque sur la cybersécurité organisé par la Gendarmerie, les forces de l’ordre se posent de sérieuses questions quant à la protection des données transitant dans tous ces véhicules (ce qui inclut aussi les trains et les aéroplanes). Le Colonel de Gendarmerie Franck Marescal, responsable de l’observatoire central des systèmes de transports intelligents, a indiqué qu’un cahier des charges est en cours d’élaboration pour rassembler des préconisations et éviter dans les années à venir des attaques de type ransomware (véhicule bloqué jusqu’au paiement d’une rançon) et DDoS contre l’adresse IP d’une voiture connectée. « La démarche générale de sécurité, les constructeurs automobiles l’ont bien comprise », a déclaré le Colonel de Gendarmerie Franck Marescal.

Cette prise de conscience est indispensable, car les vecteurs d’attaques se sont multipliés : modem 4G/LTE, Wi-Fi, Bluetooth, les prises USB internes ou encore le port ODB. Difficile de tout contrôler, car le nombre de composants a explosé. Ainsi sur une Tesla S, il y a près de 5 300 composants informatiques et électroniques et les mises à jour de l’OS embarqué se font Over The Air. Pas étonnant dans ces conditions que des experts puissent pirater facilement une voiture. L’une des plus éclatantes démonstrations a été menée il y a quelques par deux chercheurs en sécurité pour le compte du magazine Wired. En quelques minutes, ils avaient pris le contrôle d’une Jeep Chrysler. Depuis, son constructeur a déployé un correctif de sécurité…

Autre problématique à gérer : le respect de la vie privée. Dans une note du Centre de Recherche de l’École des Officiers de la Gendarmerie nationale, datée de 2014, le colonel Laurent VIDAL s’inquiétait déjà : « Les systèmes de connexion des véhicules vont engendrer des masses de données qui iront s’accumuler dans des data centers, au milieu d’un cloud toujours plus gros. La question de la propriété de ces données est posée. Le constructeur, le propriétaire, passager, le gestionnaire d’infrastructure, la plate-forme de gestion du trafic, le fournisseur des boîtiers, les opérateurs de télécommunication, les organismes de sécurité publique peuvent tous en revendiquer une parcelle. »

Face à de telles menaces, la CNIL prône autant que possible l’anonymisation des données et leur minimisation.

Philippe Richard

La Mö d’Evovelo : l’e-plein solaire, s’il vous plaît

Avec ses 2 mètres de long et 1,40m de large,  l’empreinte surfacique de la , véhicule deux places, est faible. Ce qui est idéal un milieu urbain. Il s’agit d’un vélo évolué : les trois roues permettent une stabilité optimale (pas de risque de chute) et la carrosserie hyper légère protège de la pluie et du vent. La Mö ne pèse que 85 kilogrammes.  Contre par exemple 445 à 473 kg pour le quadricycle Renault Twizy et plus de deux tonnes pour la Tesla Model S.

Cette légèreté a des conséquences très positives en permettant au solaire de jouer un rôle clé dans la propulsion ainsi que de réduire la capacité des batteries nécessaires pour le stockage de l’énergie.

Pas besoin de permis de conduire, la Mö est homologuée comme vélo à assistance électrique.

MÖ Evovelo - ETI (1)La batterie (48V x 15Ah = 720Wh) est amovible, on peut donc soit laisser le véhicule charger au soleil, soit charger la batterie dans son appartement en ville. « Les futures versions de la Mö seront équipés d’une batterie de 1000 Wh » indique Gonzalo Chomón, ingénieur  et directeur  d’Evovelo, joint par téléphone.

La batterie peut être chargée sur une prise ordinaire à 80% en une heure, et à 100% en deux heures. Les cellules photovoltaïques sur le toit totalisent une puissance de 200 Watts permettant à Malaga de collecter en 4 heures de pleine exposition au soleil 800 Wh et ainsi de parcourir 44 km en mode 100% électro-solaire, et le double avec assistance musculaire. « Nous passeront prochainement à une version de 225 W de cellules solaires » précise Gonzalo Chomón.

Sur la base d’une consommation d’environ 18 Wh/km, l’autonomie est d’environ 40 km avec la batterie actuelle, bien entendu variable en fonction du relief et de la charge transportée. Cette autonomie peut être augmentée au moins par deux grâce au pédalage musculaire. Il est également possible de s’équiper d’une ou deux batteries supplémentaires si nécessaire.  Le Mö permet d’atteindre une vitesse de pointe de 50 km/h.

Le moteur, pour être en conformité avec la réglementation
européenne sur les vélos à assistance électrique, est bridé à une puissance de 250 W sur routes plates. Mais il libère une puissance de 1200 W lors de la montée des pentes. La Mö est équipé de ceintures de sécurité, de rétroviseurs, de freins hydrauliques et offre un grand champs visuel optimisant la sécurité.

A Paris le taux d’occupation des voitures est d’1,4. La distance moyenne des trajets parcourus dans le cadre d’Autolib est de 9 kilomètres. Et la vitesse est limitée entre 30 et 50 kilomètres. Autrement dit Mö est parfaitement adapté pour la mobilité parisienne.

La Mö est en vente depuis le 1er février 2016 au prix net de 4500€. Evovelo étant une start-up en phase de lancement industriel, les livraisons sont effectuées 12 mois après la commande.

« La Tierra ya no puede esperar. Tú tampoco. Cambiate a la movilidad sostenible ya », tel est le slogan d’Evovelo, basé à Malaga.  « La Terre ne peut plus attendre. Toi non plus. Passe à la mobilité durable, maintenant. ». Gonzalo Chomón pose la question : « utilisez-vous un lit géant pour dormir ? Non ? Alors pourquoi utiliser un véhicule de 1000 kilos pour vous déplacer ? ». Evovelo démontre qu’il est possible de disposer d’un vélo protégeant autant des aléas météorologiques qu’une voiture.

La Mö ? Une Mö-bilette particulièrement éco-intelligente.

Par Olivier Daniélo

L’hydrogène vu par l’Ademe

« Les véhicules électriques intégrant une pile à combustible alimentés à l’hydrogène sont une solution adaptée pour des niveaux de services supérieurs ou des profils d’usage plus exigeants que ceux auxquels répondent aujourd’hui les véhicules électriques à batterie seule », prévient l’Ademe dans son nouvel avis publié le 4 février. 

Comparé au véhicule électrique à batterie, le véhicule pile à combustible« full hydrogène » permet en effet une recharge rapide en moins de 5 minutes, une autonomie proche de 600 km et un impact quasiment nul sur le réseau électrique. Ces véhicules embarquent une pile à combustible à forte puissance (> 70 kW), qui assure seule la traction du véhicule, et une quantité d’hydrogène embarquée importante (≥ 5 kg). Des constructeurs étrangers parient sur cette technologie, notamment Toyota, Hyundai, Honda, Daimler.

En France, PSA et Renault ne s’intéressent pour le moment qu’à des systèmes d’extension d’autonomie pour les véhicules électriques à batteries, afin d’atteindre jusqu’à 300 km d’autonomie. Ces sytèmes embarquent une pile à combustible de faible puissance (≤ 20 kW), associée à une quantité d’hydrogène embarquée plus faible (< 3 kg). La traction est essentiellement assurée par la batterie de forte capacité. Symbio FCell commercialise cette offre, avec ses Renault Kangoo H2 et Renault Trucks Maxity H2.

Au-delà des simples voitures, l’hydrogène présente un intérêt pour les bus et les bennes à ordures ménagères. Dans ce cas, il est utilisé en mélange avec du gaz naturel pour véhicules (GNV) ou son pendant d’origine renouvelable, le bioGNV. Il peut alors être incorporé jusqu’à 20 % en volume. Des développements sont aussi en cours pour les poids lourds, les engins de manutentions, les bateaux, etc.

Une recharge qui n’impacte pas le réseau électrique

L’hydrogène est aujourd’hui très majoritairement produit par vaporeformage de gaz naturel, process émetteur de gaz à effet de serre et utilisant une énergie fossile. Néanmoins, ce vecteur énergétique présente tout son intérêt lorsqu’il est produit par électrolyse de l’eau à partir d’énergies renouvelables. « Le procédé d’électrolyse permet de produire de l’hydrogène à partir d’électricité, lorsque par exemple celle-ci est abondante et décarbonée, l’hydrogène étant ensuite stoké en station, explique l’Ademe. L’hydrogène peut alors être introduit dans le réservoir des véhicules à la demande et permet la recharge de la batterie sans sollicitation du réseau électrique ».

Par ailleurs, « c’est à une échelle locale que l’hydrogène peut apporter de la flexibilité aux systèmes énergétiques et que les bénéfices environnementaux liés à son emploi seront les plus grands », souligne l’agence. Cela tombe bien, la plupart des projets de stations à hydrogène pour véhicules s’engagent vers la fourniture d’hydrogène produit par des énergies renouvelables locales. Ils participent ainsi à l’optimisation des ressources énergétiques d’un territoire.

Développer l’industrialisation et la compétitivité

« Comme toute nouvelle technologie, celles relevant de l’hydrogène énergie présentent encore des coûts élevés », relève l’Ademe. Pour assurer le développement du véhicule à hydrogène au-delà des simples flottes captives et atteindre le grand-public, le maillage du territoire national par des stations est un « préalable au développement de ce marché ». Avant d’entreprendre un tel maillage, l’Ademe avertit : il faudra fiabiliser les briques technologiques et industrialiser les process pour diminuer les coûts.

Selon la Position technique de la filière automobile sur l’hydrogène et les piles à combustibles « L’émergence d’un marché de véhicules à hydrogène est conditionnée par l’existence d’un « écosystème hydrogène » bien plus large que la mobilité, qui dépend essentiellement des stratégies énergétiques des Etats. Dans ce cadre, la mobilité hydrogène peut y avoir sa place, mais ne peut être à elle seule le facteur déclenchant d’un déploiement large de l’hydrogène. » Ainsi, sans politiques publiques et choix industriels forts, le marché de l’hydrogène demeure incertain.

Développer le stockage de l’électricité par l’hydrogène

Dans son avis, l’Ademe s’intéresse également à l’intérêt du stockage d’électricité par le vecteur hydrogène. Elle identifie notamment l’importance de ce vecteur énergétique pour assurer « un stockage de longue durée, en complément des technologies de stokage de courtes et moyennes durées (stations de transfert d’énergie par pompage – STP, stockage électrochimique) ». Pour limiter les investissements élevés nécessaires au stockage stationnaire d’hydrogène, la voie privilégiée consisterait à l’injecter dans les réseaux existants de gaz naturel. L’hydrogène serait ainsi mélangé au gaz naturel et injecté dans le réseau de gaz, à une teneur pouvant aller jusqu’à 20%, ou serait combiné avec du CO2 pour former du méthane de synthèse.

Le stockage de l’électricité via l’hydrogène devrait se développer après 2030, pour le stockage au-delà d’une douzaine d’heures et notamment pour le stockage inter-saisonnier à grande échelle. Dans son étude prospective 100% d’énergies renouvelables, l’Ademe identifiait des besoins en capacités de stockage inter-saisonnier s’élevant à 17 gigawatts.

Par Matthieu Combe, journaliste scientifique

Projet d’OS souverain : une fausse bonne idée

Des Gaulois veulent résister à l’empire américain ! Quelques députés ont déposé le 13 janvier un amendement N°CL116 au projet de loi pour une République numérique pour proposer la création d’un OS souverain à l’usage de tous et un autre (N°CL129 )  pour la mise en place d’un commissariat à la souveraineté numérique.

Pour ces députés, cet OS national sera l’outil clé de « la souveraineté sur les services, systèmes et réseaux numériques » et « le socle de l’écosystème numérique national et sera pleinement efficace en étant étendu et partagé au niveau européen ». Derrière ces objectifs, il y a la volonté de protéger les données stockées et échangées sur les ordinateurs. En clair, réduire l’espionnage nord-américain en particulier puisque les principaux éditeurs sont Microsoft, Apple, Google…

Mais faut-il pour autant créer un OS souverain ? Une question qui revient régulièrement à la surface. En mai 2014, le ministre de l’Économie, du redressement productif et du numérique, Arnaud Montebourg, avait déjà proposé cette idée. En 2010, Stéphane Richard, patron d’Orange, avait invité à Paris les patrons de Vodafone, Telefonica et Deutsche Telekom pour « réfléchir en commun à la création d’un système d’exploitation, qui est le cheval de Troie utilisé par les Google et autre Apple pour établir leur propre relation avec nos clients ».

Il y a 35 ans, l’État avait même lancé le LSE (Langage Symbolique d’Enseignement) destiné à l’Éducation Nationale de développer. Un fiasco complet : epi.asso.fr

Tous ne semblent pas connaître le monde libre, car il existe en effet des systèmes d’exploitation qui pourraient être considérés comme « souverain ». Plutôt que de créer un nouvel OS, il pourrait être judicieux de s’appuyer sur une solution qui a fait ses preuves comme la distribution française GNU/Linux Mageia. Développée depuis des années par toute une communauté, ce fork de Mandriva (qui avait d’ailleurs répondu à un appel d’offres de la Gendarmerie, mais cette dernière avait retenu Ubuntu…) est reconnu pour sa stabilité.

Les députés qui ont déposé cet amendement auraient pu aussi citer CLIP (Certifiable Linux Integration Platform), un système d’exploitation dit ultrasécurisé. Basé sur Linux, il a été développé par l’ANSSI (Agence nationale de la sécurité des systèmes d’information) pour les besoins de l’administration et plus récemment auprès d’industriels. Développé depuis 2005, ce système « intègre un ensemble de mécanismes de sécurité qui lui confèrent un très haut niveau de résistance aux codes malveillants et qui lui permettent d’assurer la protection d’informations sensibles », explique l’agence. Et d’ajouter qu’il fournit des « mécanismes de cloisonnement qui rendent possible le traitement simultané, sur le même poste informatique, d’informations publiques d’une part et sensibles d’autre part, au sein de deux environnements logiciels totalement isolés, dans l’objectif d’éliminer les risques de fuite des informations sensibles sur le réseau public. »

Reste la principale question : les Français et les entreprises vont-ils utiliser cet OS souverain ? «En Corée du Nord, citée plus haut, pas de problème, il suffit qu’on leur demande gentiment et tous les citoyens le font. Mais en France ? Il faudrait convaincre les citoyens », explique Stéphane Bortzmeyer, ingénieur R&D à l’Association française pour le nommage Internet en coopération.

Quelle que soit la décision de l’État français, il faut espérer que cet OS souverain ne coûtera pas aussi cher au contribuable que les deux plates-formes de Cloud souverain. (Cloudwatt et Numergy ont englouti 156 millions d’euros d’investissements en trois ans et cumulé 108 millions de pertes…

Par Philippe Richard

Argentine : les tarifs de l’électricité explosent

L’arrivée au pouvoir de Mauricio Macri, le nouveau Président argentin, n’est pas passée inaperçue. Face à une situation économique compliquée, ce quinquagénaire libéral n’a pas tardé à faire voter des mesures d’urgence comme la dévaluation du peso (- 27%) ou la hausse sensible des tarifs d’électricité dans la région métropolitaine.

macri

Multiplication par 8

S’il n’est pas rare de voir les tarifs de l’électricité subitement monter à l’occasion d’un changement de majorité politique, l’ampleur de ce rééquilibrage est en revanche inhabituelle. Selon les cas, les habitants de Buenos Aires et de ses environs pourront voir leur facture s’envoler jusqu’à 700% !

Une hausse massive qui s’explique d’abord par un tarif de base très faible qui rend toute révision incroyablement impopulaire. C’est pourquoi le pays affiche depuis des années des tarifs de l’électricité parmi les plus bas du continent. Et ce, alors que les coûts sont plus élevés que les recettes des deux compagnies électriques : Edenor et Edesur. Ce bilan négatif était jusqu’ici compensé par le gouvernement à coups de milliards de pesos. « Ce que nous sommes en train de réaliser par cette reconfiguration tarifaire, c’est reconnaître les coûts de la production, et de façon progressive, aller sur le chemin de la couverture de ses coûts pour réassigner les subventions », a indiqué lors d’une conférence de presse Juan José Aranguren, le ministre de l’Energie, en charge de mener à bien ce dossier. Selon les estimations du ministère, le pays pourrait économiser 4 milliards de dollars dès cette année grâce à cette mesure.

Economies d’énergies

Concrètement, un usager qui consomme en moyenne 202 kilowatts-heure (kWh) par mois, verra sa facture passer de 26 à 158 pesos. Cette hausse massive s’accompagne d’une stratégie d’incitation aux économies d’énergie, généralement peu en vogue dans les pays où l’énergie est bon marché. Ainsi, les consommateurs pourront diminuer leur tarif électrique à mesure des économies d’énergie réalisées. Si le foyer parvient à diminuer de 10% sa consommation électrique par rapport à l’année précédente, il bénéficiera d’un tarif de 128 pesos par mois (contre 158). Si la baisse est de 20%, le tarif passera à 106 pesos par mois.

Par ailleurs, de nombreuses exceptions permettront de limiter la hausse pour les populations les plus vulnérables. Ainsi, les retraités, les chômeurs et les bénéficiaires de programmes sociaux en général, bénéficieront d’un traitement social qui prévoit la fourniture des 150 premiers kilowatts-heure par mois gratuitement. Selon les calculs du gouvernement, quelque 900 000 personnes devraient bénéficier de ce tarif social, sur les 4,6 millions de consommateurs que compte la région. Pour rappel, avant la mesure, il étaient 4,2 millions à en bénéficier, soit 90% des clients d’Edenor et Edesur…

Equilibre

Malgré la hausse massive des tarifs, le gouvernement a sous-entendu qu’il ne s’agirait que d’une première étape d’une réforme plus profonde du marché électrique. Ce dernier n’est plus du tout concurrentiel et les tarifs artificiellement bas imposés par la présidence de Cristina Kirchner, a sapé le signal prix, tant pour les consommateurs que pour les investisseurs qui ne peuvent rentabiliser le moindre projet dans ces conditions. Pour Mauricio Macri, l’objectif est donc clairement de redonner un signal-prix fort pour attirer à nouveau les capitaux étrangers. Selon le Juan José Aranguren, les tarifs devront à terme rejoindre les coûts de production estimés à 770 pesos par MWh.

L’Argentine est l’un des pays les plus riches d’Amérique du sud, mais il est frappé, à intervalles réguliers, par de terribles crises financières et/ou de surproduction qui ont alternativement poussé le pays vers un libéralisme ou un protectionnisme exacerbé.

Par Romain Chicheportiche

Fusées et lanceurs réutilisables : la course a commencé

22 janvier 2016 – Van Horn, Texas. La firme commerciale Blue Origin, fondée par Jeff Bezos (PDG d’Amazon) fait un doublé mondial. Première réutilisation d’un lanceur, premier lanceur à ré-atterrir deux fois sur la terre ferme en position verticale. La petite fusée New Shepard avait en effet déjà fait son premier vol et son premier atterrissage réussi le 23 novembre 2015. Après nettoyage, révision et quelques améliorations, elle a réitéré son exploit. Blue Origin vient ainsi de damner le pion à son principal rival commercial, Space X avec sa Falcon 9. Néanmoins, on peut nuancer, New Shepard est une fusée qui n’assure que des vols suborbitaux. Elle se compose d’un petit premier étage et d’une capsule destinée à accueillir les premiers touristes de l’espace pour un séjour de quelques minutes en apesanteur à 100 km d’altitude. Assez loin donc de la beaucoup plus massive Falcon 9 qui a déjà ravitaillé plusieurs fois la station spatiale internationale à plus de 400 km de la Terre.

Falcon 9 de Space X : prometteuse

Un mois après son rival, la fusée Falcon 9 de l’entreprise commerciale Space X fondée par Elon Musk (entre autre aussi cofondateur de Zip2, Paypal et Tesla motors) réussissait son premier atterrissage sur la terre ferme. Depuis, l’entreprise essaye de réussir un amerrissage. Mais elle en est déjà à son troisième échec. Le dernier datant du 17 janvier 2016. Pourquoi insister pour savoir amerrir si on sait déjà atterrir ? Pour des raisons de coûts ! Ainsi pas besoin de rediriger la fusée forcément vers la Terre. Car l’objectif n’est pas seulement technologique, il est aussi commercial, réutiliser le 1er étage d’un lanceur doit avant tout permettre de diminuer les coûts d’accès à l’espace. Première raison pour laquelle les navettes spatiales ont été abandonnée : elles revenaient plus chère qu’un lanceur classique. Pour Space X, il reste donc à prouver sa capacité à réutiliser un lanceur qui aurait été récupéré et à montrer que le concept est intéressant commercialement.

Adeline, l’outsider d’Airbus DS, pas avant 2025 !

Airbus Defence and Space a dévoilé en juin 2015 son propre projet de récupération partielle de lanceur. Baptisé Adeline (Advanced Expandable Launcher with Innovative Engine Economy), le concept consiste à intégrer un module retour au premier étage de la fusée qui s’activerait au moment du largage du réservoir et ramènerai sur Terre la baie de propulsion, les moteurs et l’avionique. Le tout ressemble à un petit drone à hélice. Airbus DS espère pouvoir réaliser un gain de 30% sur le coût de lancement d’une fusée avec un supplément de seulement 2 tonnes de kérosène. Mais le premier vol inaugural n’est prévu qu’en 2025 !

Altaïr, un porteur réutilisable pour petits satellites

Dans la famille des réutilisables, l’Onera travaille pour le Cnes sur un autre concept. Un porteur (qui ressemble à un petit avion) amènerait en altitude le lanceur et ses petites satellites (10-50 kg). Ce type de lancement aéroporté présente de très nombreux avantages : structures au sol légères, lancement sur des sites différents envisageables, élargissement des possibilités en terme d’azimut de tir, lanceur beaucoup plus petit… La phase d’étude débute seulement pour une période de 3 ans au terme de laquelle un business plan pourra être proposé à différents partenaires.

Sophie Hoguin

Pesticides : une avancée majeure dans l’évaluation des risques cumulés

Les résultats de ces évaluations seront publiés d’ici la fin de l’année et seront pris en compte par l’EFSA lorsqu’elle développera les deux rapports scientifiques sur l’évaluation des risques cumulés pour la thyroïde et le système nerveux programmés pour 2017.

À plus long terme, l’EFSA espère commencer à intégrer progressivement des évaluations de risques cumulés dans son analyse annuelle des risques chroniques et aigus posés par les pesticides pour les consommateurs. Cette analyse se base sur des données recueillies par les États membres.

Le logiciel – connu sous le nom d’« outil d’évaluation des risques Monte Carlo » (MCRA) – a initialement été développé grâce à un projet financé par la Commission européenne impliquant des chercheurs, des scientifiques et des régulateurs de 14 pays supervisés par l’Institut national de la santé publique et de l’environnement des Pays-Bas (RIVM).

En 2015, l’EFSA a financé le développement ultérieur de l’outil MCRA dans le but de permettre le traitement de groupes d’évaluation cumulative de pesticides contenant jusqu’à 100 substances actives, conseillée en cette matière par le groupe scientifique de l’EFSA sur les produits phytopharmaceutiques et leurs résidus. Cette année encore, l’EFSA soutiendra financièrement d’autres améliorations à cet outil pour des aspects liés à l’accessibilité par les utilisateurs externes ainsi qu’à l’organisation et au formatage des données.

L’expérience acquise dans les évaluations initiales sera utilisée pour optimiser le logiciel afin d’assurer son utilisabilité dans le contexte des décisions réglementaires portant sur des demandes liées aux limites maximales de résidus (LMR) de pesticides dans l’alimentation. Ce volet du projet est étroitement coordonné avec la Commission européenne, qui a mis en place un groupe de travail pour garantir que le projet réponde bien aux besoins des gestionnaires de risques.

Luc Mohimont, de l’unité Pesticides de l’EFSA, a déclaré : « C’est un jalon passionnant et important dans nos travaux. On a fait des progrès dans le développement d’une approche permettant de réaliser des évaluations fiables de l’exposition à de multiples pesticides, ce qui nous rapproche d’un pas de notre but ultime : évaluer de façon complète les effets combinés des pesticides sur l’homme, plutôt que les effets de substances chimiques individuelles. »

Les substances sélectionnées pour les évaluations  pilotes ont été identifiées par les experts en pesticides de l’EFSA, qui ont utilisé une méthodologie spécialement conçue pour classifier les pesticides en « groupes d’évaluation cumulative » (GEC, voir ci-dessous). Au cours des années à venir, des GEC seront définis pour d’autres organes, tissus et systèmes. Des données sont actuellement déjà recueillies pour définir des groupes de pesticides susceptibles d’affecter le foie, les reins, les yeux ainsi que les systèmes reproductif et développemental.

Contexte

Le règlement de l’UE sur les LMR dans les aliments stipule que les décisions sur les LMR doivent tenir compte des effets cumulés des pesticides lorsque des méthodes permettant d’évaluer ces effets sont disponibles. En outre, le règlement relatif à la mise en place de pesticides sur le marché stipule que les pesticides ne devraient pas avoir d’effet nocif – y compris les effets cumulés – sur l’homme.

Groupes d’évaluation cumulative

En juillet 2013, le groupe scientifique de l’EFSA sur les produits phytopharmaceutiques et leurs résidus a publié une méthodologie générale pour classifier les pesticides en  groupes d’évaluation cumulative (GEC). Cette méthodologie repose sur l’hypothèse que les pesticides qui engendrent les mêmes effets phénoménologiques spécifiques, bien définis en termes d’emplacement et de nature, peuvent produire une toxicité cumulée conjointe, même s’ils n’ont pas les mêmes modes d’action.

Source : efsa

Une galaxie « propre et bien ordonnée » voisine de la Voie Lactée

IC 1613 est une galaxie naine située dans la constellation de la Baleine. Cette image acquise par le VST [1] révèle l’extraordinaire beauté de cette galaxie dans ses moindres détails – aussi bien les étoiles dispersées que le gaz d’un rose étincelant.

L’astronome allemand Max Wolf captura la faible lueur en provenance d’IC 1613 en 1906. En 1928, son compatriote Walter Baade parvint à isoler chacune des étoiles qui la constituent au moyen du plus puissant télescope de 2,5 mètres de l’Observatoire du Mont Wilson en Californie. Ces observations ont conduit les astronomes à supposer que cette galaxie devait se situer à grande proximité de la Voie Lactée. En effet, seules des étoiles appartenant à une galaxie très proche de la nôtre peuvent être observées individuellement.

eso1603b

Depuis lors, les astronomes ont confirmé l’appartenance d’IC 1613 au Groupe Local, un ensemble constitué de plus de 50 galaxies dont la nôtre, la Voie Lactée. IC 1613 se situe à 2,3 millions d’années-lumière de nous. Sa proximité en a fait un objet d’étude privilégié. Il est ainsi apparu qu’elle présente l’aspect d’une naine irrégulière, dépourvue toutefois de quelques caractéristiques communes aux galaxies de petite taille, tel le disque étoilé.

Ce qu’IC 1613 perd en terme de forme, elle le gagne en terme de propreté. La grande précision avec laquelle nous connaissons la distance d’IC 1613 s’explique en partie par la faible quantité de poussière contenue à l’intérieur de la galaxie ainsi que le long de la ligne de visée – ce qui permet d’effectuer des observations bien plus claires [2].

Le fait que cette galaxie abrite un certain nombre d’étoiles particulières – des variables Céphéides et des variables RR Lyrae [3] dont la taille et la luminosité augmentent périodiquement, à intervalles donnés, (eso1311), explique également la précision avec laquelle nous connaissons la distance d’IC 1613.

Des objets brillants tels que des ampoules ou des flammes de bougies nous apparaissent d’autant plus faibles qu’ils se situent à distance élevée. De la même façon, les astronomes peuvent déduire de la luminosité intrinsèque des objets célestes, lorsqu’ils la connaissent, leur éloignement exact.

Les variables de types Céphéides et RR Lyrae présentent la particularité suivante : leurs variations périodiques de luminosité sont directement liées à leur luminosité intrinsèque. En mesurant leurs périodicités, les astronomes peuvent donc déterminer leurs luminosités propres. Il leur suffit ensuite de comparer les valeurs ainsi obtenues aux mesures de leurs brillances apparentes pour connaître la distance à laquelle elles nous apparaissent les plus faiblement lumineuses.

En astronomie, les étoiles dont la luminosité propre est connue sont classées parmi les chandelles standards. Elles se comportent à l’image d’une bougie dotée d’une luminosité donnée et dont le scintillement de la flamme indiquerait la distance à laquelle elle se trouve.

Grâce aux chandelles standards – parmi lesquelles figurent les étoiles variables d’IC 1613 ainsi que les explosions de supernovae de type IA plus rares mais visibles sur de plus grandes échelles de distance, les astronomes ont constitué une échelle des distances cosmiques s’étendant sur des régions toujours plus profondes de l’Univers.

Voici des décennies, IC 1613, au travers des étoiles variables qui la constituent, a aidé les astronomes à mesurer l’étendue de l’Univers. Pas mal pour une galaxie informe et de taille réduite.

Notes

  1. OmegaCAM est une caméra CCD constituée de 256 millions de pixels installée sur le télescope de sondage de 2,6 mètres du VLT à l’Observatoire Paranal au Chili. Plus d’images prises par OmegaCAM accessibles via ce lien.
  2. La poussière cosmique est composée d’éléments lourds tels le carbone et le fer, ainsi que de molécules plus larges. La poussière ne bloque pas seulement la lumière, compliquant l’observation des objets qu’elle encercle, elle diffuse de préférence également une lumière plus bleue. De sorte qu’au travers des télescopes, les objets apparaissent davantage rouges qu’ils ne le sont en réalité. Les astronomes peuvent tenir compte de ce rougissement affectant les objets qu’ils étudient. Toutefois, plus ce rougissement est faible, plus les observations sont supposées fiables.
  3. Nettement différente des deux Nuages de Magellan, IC 1613 est la seule galaxie naine irrégulière du Groupe Local au sein de laquelle des étoiles variables de type RR Lyrae ont été identifiées.

Source : eso

Un bilan électrique 2015 mitigé !

Fin 2015, la production nette d’électricité atteint 546 térawattheures (TWh), soit une hausse de 1,1 % par rapport à 2014. La consommation française repart également à la hausse (+ 2,2 %), passant à 475,4 TWh. Corrigée de l’effet météorologique, la consommation augmente plus faiblement, + 0,5 % pour atteindre 476,3  TWh, soit le niveau de 2013.  Dans un contexte économique plus favorable, cette  hausse est attribuée aux industries telles que l’automobile et la métallurgie, mais aussi à la canicule de juillet qui a fait tourner les climatiseurs. Au cours de l’année, les importations et exportations avec les pays voisins ont atteint 120,9 TWh d’électricité.

Avec un solde d’exportation de 61,7 TWh, la France demeure le premier pays exportateur d’électricité en Europe.

Par ailleurs, l’effacement gagne du terrain : RTE dispose désormais d’une puissance d’effacement mobilisable d’un maximum de 1,9 gigawatts (GW), contre 1,2 GW en 2014.

Un autre fait est marquant : les émissions françaises de CO2 liées à la production d’électricité ont augmenté en 2015 de 21,7 % par rapport à 2014, atteignant 23,1 millions de tonnes (contre 19 millions l’année précédente). La majeure partie de ces émissions est due à l’augmentation de la production thermique à gaz (+ 3,5 millions de tonnes). Rappelons qu’en 2014, les émissions avaient connu une chute historique de 40 %.

Portrait du parc électrique français : capacités et production

Fin 2015, la puissance installée des centrales électriques françaises s’élève à 129,3 GW, en hausse de 0,5 % par rapport à 2014.  Les 58 réacteurs nucléaires représentent toujours 63,1 GW de puissance installée, soit, 48,8 % de la puissance du parc électrique français. Il constitue toujours la source de production numéro 1, avec 76,3 % de l’électricité produite (416,8 TWh).

L’hydroélectricité demeure en deuxième position grâce à ses 25,4 GW, soit 19,7 % du parc installé. Elle permet d’assurer 12,6 % de la production (58,7 Twh), malgré une baisse de 13,7 % de  production due à une pluviométrie inférieure à 2014.

En troisième position, on retrouve les centrales thermiques utilisant des combustibles fossiles (charbon, fioul et gaz). Leurs capacités sélèvent à 22,6 GW pour une production de 34,1 TWh fin 2015 (22,1 TWh de gaz, 8,6 TWh de charbon et 3,4 TWh de fioul. Ces centrales représentent 17,4 % du parc installé, mais seulement 6,2 % de la production. Malgré la fermeture de 1,5 GW de centrales à charbon, et une baisse globale de 5,9 % des capacités de centrales thermiques à combusibles fossiles, la production d’origine fossile croît de 9,7 TWh par rapport à 201 (+ 31,9 %). Cette année, c’est la production de gaz qui a le plus augmenté ( + 54,8 %), en raison des besoins en chauffage lors des premiers mois de l »année.

On retrouve ensuite l’éolien et le solaire. Pour ces énergies renouvelables intermittentes, les écarts entre puissance installée et production se creusent.  Entre 2014 et 2015, le parc éolien a gagné 999 MW et le parc solaire 895 MW. Avec des facteurs de charges supérieurs à 2014, le parc éolien a produit en moyenne à 24,3 % de sa capacité contre 22,6 % fin 2013 et le parc solaire à 15 % contre 14 % en 2014, ce qui a engendré d’importantes hausses de production. Fin 2015, si l’éolien représente 8 % de la puissance installée avec ses 10,3 GW, le parc produit 3,9 % de l’électricité française (21,1 TWh, en progression de 23,3% par rapport à 2014). Avec 4,8 % de la puissance installée (6,2 GW), le parc solaire représente 1,4 % de la production française (7,4 TWh, en hausse de 25,1 % par rapport à 2014).

Enfin, le parc de la filière bioénergies électriques est de 1,7 GW, soit 1,3 % du parc français pour une production de 7,9 TWh (1,4% de la production). Il se compose d’installations fonctionnant à partir de déchets ménagers, de biogaz, de bois-énergie et autres biocombustibles renouvelables, ainsi que de déchets de papeterie. Fin 2015, la production renouvelable de cette filière s’élève à 5,9 TWh, soit 1,1 % de la production totale. Une hausse de 8 % par rapport à l’année précédente.

Au final, si l’on combine la production de la part renouvelable de l’hydraulique et des bioénergies, les renouvelables ont produit 88,4 TWh, soit 16,2 % de la production électrique française.

Selon la méthodologie de calcul reprise de la directive européenne 2009/28/CE, la part annuelle de la production issue des sources d’énergies renouvelables par rapport à la consommation d’électricité atteint 18,7%, contre 19,6% en 2014.

Pour préparer le réseau aux objectifs de la transition énergétique, qui visent à porter à 40 % la part des énergies renouvelables dans le mix électrique en 2030, RTE a investi 1,4 milliard d’euros dans l’adaptation, le renforcement et l’entretien du réseau. C’est 28 millions d’euros de plus que l’année précédente.  De quoi intégrer notamment une part croissante d’éolien et de solaire.

Par Matthieu Combe, journaliste scientifique

Plus on est compétent, plus on est responsable

Il s’agit d’une conséquence du principe selon lequel chacun est responsable des accidents causés par les appareils dont il a la garde en qualité d’utilisateur ou de propriétaire.

La Cour a jugé qu’un architecte était censé avoir connaissance du mauvais fonctionnement de sa pompe à chaleur puisqu’il était un professionnel de la construction. Le dysfonctionnement, qui créait un danger, était pour lui un « défaut apparent », a dit la Cour. En revanche, le même défaut sur la pompe à chaleur du voisin, kinésithérapeute, n’a pas été jugé « apparent », son propriétaire n’ayant aucune compétence en la matière.

La pompe à chaleur laissait couler de l’eau de condensation qui formait une plaque de verglas sur le sol et avait provoqué un accident. La victime devait être indemnisée. Ayant glissé sur la glace, les juges ont exclu toute faute de sa part puisqu’elle n’avait fait qu’accomplir un geste de la vie quotidienne qui ne nécessite pas de précautions particulières.

Condamnés, les deux propriétaires de l’appareil ont donc connu un sort différent. L’architecte condamné ne s’est vu reconnaître aucun recours contre le fabricant ou l’installateur de la pompe à chaleur alors que le kinésithérapeute a pu faire valoir qu’on lui avait installé un appareil défectueux et se retourner contre ses fournisseurs.

Pour la justice, même si le dysfonctionnement provenait d’une mécanique interne automatique, il devait être connu d’un propriétaire ou utilisateur reconnu compétent, et ce dernier devait le faire réparer.

(Cass. Civ 3, 21.1.2016, P 14-20.308).

« Tous droits de reproduction et de représentation réservés. © 2016 Agence France-Presse. »

DEEE : une collecte record en 2015

La collecte avait stagné entre 2011 et 2013 autour de 7 kg, avant d’atteindre 7,4 kg en 2014. Mais en 2015, avec l’équivalent de 9 kg par habitant, le taux de collecte atteint 43,8 %, un taux supérieur à l’objectif  réglementaire de 40 %. La progression de 2015 est donc un record, correspondant à une croissance de près de 25%, soit 90 000 tonnes de DEEE collectés supplémentaires.

« Cette progression se répartit à hauteur de 33 000 tonnes émanant de collectivités nouvellement desservies par Eco-systèmes et 57 000 tonnes issues des actions annoncées en 2014 : création de nouveaux canaux de collecte, développement des collectes de proximité en zones urbaines denses et investissements en communication », fait savoir Eco-systèmes.  Les collectes en zones urbaines denses ont notamment montré leur efficacité. « Etendues à 13 nouveaux arrondissements de Paris et à 2 départements d’Ile de France, elles ont également démarré dans les 9 arrondissements de Lyon et à Bron, ainsi qu’en centre-ville de Toulouse, rappelle Eco-systèmes. Ces opérations (4 h le samedi matin) ont permis de collecter […] en moyenne 9 kg/apporteur. Ce résultat est à comparer à la performance nationale en zone urbaine de 2,4 kg/hab en 2014. » Ces actions seront poursuivies en 2016 avec une nouvelle priorité : accompagner les producteurs dans leurs démarches d’éco-conception (grâce au nouvel outil ReeeCyc’Lab lancé en mars 2016) et encourager leurs initiatives en matière d’économie circulaire.

Dans le détail, la collecte des petits appareils électriques est en hausse de 8 % (contre une hausse de 20,2% en 2014). Malgré une communication accrue, la hausse de l’apport des petits appareils électriques en magasins dans les meubles de collecte libre-service diminue donc. La plus forte augmentation de la collecte vient cette année des appareils de gros électroménager hors froid, grâce à une contractualisation rapide des entreprises de recyclage métaux et les opérateurs de broyage : + 30 %, contre + 8 % en 2014. Par ailleurs, la collecte des gros appareils froids augmente de 9 %, contre 4,7 % en 2014. Seule ombre noire au tableau : la collecte des écrans est en baisse de 4 %.

Conformément à la Directive Européenne DEEE 2, les objectifs sont d’atteindre une collecte d’environ 14 kg de DEEE en France en 2019. Cela représente 65 % du poids moyen d’appareils mis sur le marché chaque année. Il faudra alors collecter 6 kg de DEEE supplémentaires par habitant.

Par Matthieu Combe, journaliste scientifique

L’US Navy se met au biocarburant

De la graisse de bœuf. C’est la matière première utilisée pour produire le biocarburant qui servira à propulser quatre bâtiments de l’US Navy. Une première saluée par le secrétaire d’Etat à la Marine, Ray Mabus et à l’Agriculture Tom Vilsack, présents à San Diego (Californie) pour l’occasion.

Great Green Fleet

Cette expérience s’inscrit dans une stratégie plus globale résumée par l’expression : « Great Green Float ». Elle consiste à substituer la moitié de la consommation de pétrole et dérivés de la marine américaine par des carburants de substitution. Et ce, afin de diminuer son empreinte carbone certes, mais surtout réduire sa dépendance envers un produit importé, et dont les cours peuvent affecter la conduite de la guerre.

160120-N-SU278-024 SAN DIEGO (Jan. 20, 2016) – SAN DIEGO -- The Arleigh Burke-class guided-missile destroyer USS Stockdale (DDG 106), departs Naval Base San Diego as part of the Great Green Fleet, for a scheduled deployment. The Great Green Fleet is an initiative optimizing energy use to increase optimal range, endurance and payload, turning energy into a force multiplier. (U.S. Navy photo by Mass Communication Specialist 2nd Class Will Gaskill/RELEASED)

Cette stratégie a été élaborée alors que les Etats-Unis déployaient de nombreuses troupes au Moyen-Orient et que les cours du baril de pétrole dépassaient allégrement les 100$. Elle doit également participer à augmenter l’autonomie des troupes. Une doctrine résumée par le secrétaire d’Etat à la Marine : « La Grande Flotte Verte montre comment nous sommes en train de transformer notre utilisation de l’énergie pour faire de nous de meilleurs combattants, pour aller plus loin et délivrer davantage de puissance de feu. En bref, cela nous permet de remplir notre mission, à savoir une présence globale ».

Réalisable mais coûteux

Les quatre navires bénéficient d’une technologie développée par la société américaine AltAir Fuels, qui raffine les déchets issus des plusieurs fermes bovines de Californie. Ces carburants alternatifs sont compatibles avec les moteurs actuels et ne nécessitent pas d’adaptation. Le procédé reste néanmoins coûteux ce qui explique pourquoi l’armée s’est résolue à n’intégrer ce combustible alternatif qu’à hauteur de 10% dans le mix total, contre 50% initialement envisagé. La diminution des coûts est donc l’objectif principal du secteur des biocarburants, qui a bénéficié de quelque 500 millions de dollars de la part du gouvernement fédéral pour y parvenir. D’aucuns émettent de sérieux doutes sur l’intérêt réel des biocarburants. Outre le risque de concurrence sur les terres agricoles, ces carburants alternatifs ne donneront pas une meilleure autonomie aux navires américains, et ne résolvent en rien la problématique logistique de son acheminement jusqu’aux théâtres d’opération. C’est le principal inconvénient du recours aux carburants fossiles.

C’est pourquoi, l’US Navy travaille sur d’autres pistes que les biocarburants. Son laboratoire dédié, le Naval Research Labaratory, avait fait sensation en 2014 en annonçant avoir réussi à faire voler un avion télécommandé grâce à un carburant fabriqué à base… d’eau de mer ! Le procédé, qui consiste à extraire simultanément le CO2 et l’hydrogène de l’eau de mer pour en faire du kerosène, est en cours de développement à plus grande échelle. L’océan en guise de station-service, un rêve pour tout marin.

Romain Chicheportiche

Nucléaire : Test de refroidissement réussi pour l’EPR

La Chine avance à grands pas vers la mise en service de ses deux EPR. Elle a franchi une nouvelle étape avec ses tests de refroidissement. Leurs objectifs étaient d’obtenir une première série de données sur les équipements, d’assurer la compatibilité de l’opération avec l’interface système et de vérifier la performance de l’ensemble.  « Il s’agit des premiers tests de refroidissement réalisés sur un EPR », s’est félicité la compagnie chinoise. En effet, bien qu’ayant été mis chantier en 2009, soit deux ans après Flamanville, le premier réacteur de Taïshan devrait entrer en service au premier trimestre de l’année prochaine, suivi d’une deuxième EPR en fin de cette même année.

TaïshanPour rappel, il existe deux autres EPR actuellement en construction dans le monde. L’EPR de Flamanville a multiplié les retards et surcoûts. Il a été l’objet d’un nouveau calendrier, présenté par Jean-Bernard Lévy, pdg d’EDF, qui prévoit désormais sa connexion au réseau, au plus tôt, fin 2018.

Le chantier finlandais d’Olkiluoto est un peu particulier. Démarré en 2005, il a lui aussi multiplié les retards en raison d’un conflit entre Areva et l’électricien finlandais TVO qui a commandé le réacteur. Des incompréhensions avec l’autorité de sûreté finlandaise auraient également enlisé les opérations. Il pourrait finalement être opérationnel en 2018. Les EPR chinois seront donc, sans aucun doute, les premiers à entrer en fonctionnement.

Romain Chicheportiche

Grandes manœuvres dans le nucléaire français

Il y a un an, François Hollande, après l’annonce de la perte record d’Areva sur l’exercice 2014 (4,8 Md € tout de même et 6000 suppressions de poste en conséquence), prophétisait qu’il y aurait une nouvelle stratégie industrielle pour la filière nucléaire française. Une filière qui ne compte pas pour du beurre : 2500 entreprises et 220 000 salariés et dans laquelle l’Etat joue un rôle crucial d’orientation bien sûr mais surtout de financement. Mais la crise est profonde et touche tous les chaînons : de l’extraction de l’uranium à la gestion des déchets, en passant par la sûreté.

En amont, Areva minée par l’uranium

Présente sur presque tous les continents Areva n’en reste pas moins une entreprise très ancrée en France : les deux tiers de ses 45000 salariés y travaillent. Mais la recapitalisation en cours aujourd’hui est l’aboutissement de choix stratégiques et d’investissements hasardeux. Tel que l’affaire Uramin, un rachat de gisements d’uranium en Afrique qui se sont révélés complètement sur-évalués et ont fait perdre 2,6 Md € au groupe tout en exposant au grand public les pratiques douteuses des responsables d’Areva (voir la nouvelle enquête publiée par Mediapart).

Sur un autre plan, les travailleurs locaux d’Areva commencent aussi à se faire connaître, tel ce groupement d’anciens ouvriers des mines au Gabon qui ont exigé le 23 janvier dernier une indemnisation au titre des fortes radiations reçues lors de l’exploitation des mines. (voir cet article du journal gabonais info241). Le tout dans un marché de l’uranium excédentaire depuis la catastrophe de Fukushima en mars 2011.

Areva démantelée, EDF récupère les réacteurs

C’est mercredi 27 janvier que la nouvelle filière française du nucléaire a été décidée officiellement : EDF rachète pour 2,5 Md € la branche réacteurs et services d’Areva (Areva NP) et l’Etat recapitalise Areva à hauteur de 5 MD€. Aussitôt la bourse applaudit, le titre grimpe de plus de 30%. Mais rien n’est encore gagné. Il faut trouver d’autres investisseurs – sinon, l’opération risque d’être recalée par la Commission européenne – les deux pistes principales évoquées pour l’instant sont koweitienne et chinoise.

Enfin, une autre difficulté reste à régler : celle de l’EPR finlandais dont EDF refuse d’assumer la charge. En effet, cet EPR a déjà 9 ans de retard et a coûté 3 fois son prix de départ atteignant les 8 Md€. Fin janvier, les gouvernements français et finlandais ont donné 1 mois à Areva et TVO (l’industriel finlandais) pour régler leur litige financier. EDF a déjà suffisamment à faire avec ses propres projets d’EPR.

EDF peut-il tenir encore ?

En ce mois de janvier, EDF a confirmé 3350 suppressions de postes. Mais cela ne représente qu’une goutte d’eau au vu de l’argent nécessaire pour renflouer le groupe : 37 Md € de dette et des besoins d’investissements faramineux : 55 Md € pour les travaux de maintenance et de mise à niveau des centrales nucléaires d’ici à 2030 (si l’ASN vote pour les prolongations), 16 Md€ pour le projet d’EPR britannique d’Hinkley Point et la demande en augmentation constante pour mettre en place la gestion des déchets. On peut comprendre les craintes des syndicats qui ne veulent plus prendre le risque Outre-Manche. D’autant que l’EPR français de Flamanville est lui aussi menacé de ne jamais voir le jour : les anomalies trouvées sur la cuve pourraient obliger à tout détruire et reconstruire : Impensable !

Le nucléaire scientifique patine aussi

Les EPR, ITER ne sont pas les seuls projets qui prennent l’eau. Le réacteur de recherche du CEA, le RJH (réacteur Jules Horowitz) a aussi plombé les comptes de la DCNS : 100 millions de perte sur 2015 pour le groupe naval. Il faut dire que la facture globale de ce réacteur est passé de 630 M€ à près d’1,4 Md€ entre 2007 et 2015. Quant à la mise en service prévue pour 2016, ce sera plutôt 2022…

Et si la sûreté passait à l’as ?

M.-Pierre-Franck-Chevet-presente-ses-vaeux-a-la-presse-le-20-janvier-2016_large
Pierre-Franck Chevet, président de l’autorité de sûreté nucléaire (ASN)

C’est la plus grande crainte de Pierre-Franck Chevet, président de l’autorité de sûreté nucléaire (ASN). Tout d’abord car les autorités de contrôle et de surveillance que sont l’ASN et l’IRSN estiment de pas avoir les moyens de leur mission : le gouvernement a débloqué 30 postes là où l’ASN en réclame 200. Et devant la charge de travail, les contrôles ne pourront porter que sur les installations en fonctionnement et pas sur les nouvelles. Une situation qui ne serait pas forcément pour déplaire à EDF qui, comme le suggérait Mediapart en juin 2015, aurait mis comme condition du rachat d’Areva un assouplissement des exigences de l’ASN vis-à-vis des anomalies trouvées à Flamanville.

Sans oublier le trou de la gestion des déchets

bureEn début d’année, Ségolène Royal, ministre de l’énergie annonçait le coût estimé de Cigeo, le projet de stockage profond des déchets de moyenne activité à vie longue, à 25 Md€. Plus que l’estimation faite par les industriels  – 20 Md€ – mais beaucoup moins que celle faite par l’Agence nationale des déchets radioactifs (Andra) – presque 33 Md €. Un débat financier qui s’accompagne d’une relance du bien-fondé et de la sécurité de cette solution en raison d’un accident mortel sur le site laboratoire d’enfouissement de Bure actuellement en construction.

Les citoyens, oubliés du nucléaire ?

A l’heure de la démocratie participative, des espaces de discussion au travail, la filière du nucléaire, pour laquelle le contribuable va encore payer (via des hausses de tarifs, d’impôts ou des coupes claires dans d’autres secteurs), reste assez hermétique à la participation du public. Une position que voudrait faire évoluer l’ASN. L’autorité a ainsi ouvert aux citoyens les commentaires sur ces projets de décisions et Pierre-Franck Chevet a clairement évoqué l’idée de faire participer les Français à la décision ou non de poursuivre la durée de vie de certaines installations en 2018.

Sophie Hoguin

Les changements magnétiques solaires de 2011 à 2015

Les forces magnétiques produites par le soleil, invisibles à l’œil nu, déclenchent d’incroyables éruptions solaires dont la puissance est telle qu’elles seraient capables de pulvériser tous nos systèmes électriques.

La compréhension de la structure magnétique du soleil est cruciale pour les scientifiques afin  de comprendre et prévoir ces événements. Les chercheurs utilisent notamment un magnétographe, qui mesure la force et la direction des champs magnétiques.

La vidéo ci-dessous, produite par Goddard Space Flight Center de la NASA, montre les changements du champ magnétique du soleil au cours des quatre dernières années.

Par Iris Trahin