L’entraînement des astronautes en piscine

Que ce soit à bord de la Station spatiale internationale ou lors de futures missions habitées sur la Lune ou sur Mars, les astronautes vivent, évoluent et travaillent dans des conditions drastiquement différentes de celles sur Terre. Afin de les préparer et d’optimiser leurs performances et leur sécurité, l’entraînement des astronautes est classiquement réalisé en piscine afin de reproduire un contexte d’allègement gravitaire proche de l’impesanteur et de favoriser ainsi l’apprentissage moteur dans le cadre des missions extra-véhiculaires. Cependant, cette méthode, pourtant utilisée depuis les premières missions orbitales, n’avait à ce jour fait l’objet d’aucune validation scientifique, qui nécessite au préalable d’étudier les effets de l’exposition subaquatique sur le comportement moteur.

L’objectif de cette étude était de caractériser précisément l’organisation motrice en immersion en la comparant à celle produite sur Terre. Le scaphandre utilisé, spécifiquement développé pour l’entrainement des astronautes en piscine, permet de contrôler la flottabilité de l’ensemble du corps y compris les membres alors qu’avec la tenue de plongée classique la flottabilité neutre n’est appliquée qu’au niveau du centre de masse du corps. Huit plongeurs professionnels ont participé à une expérience de pointage manuel en direction de cibles lumineuses. Les données enregistrées en laboratoire, hors eau, ont été comparées à celles obtenues par les plongeurs immergés, soit en combinaison néoprène, soit en portant un scaphandre submersible.

Les résultats de l’étude montrent que le milieu subaquatique impacte globalement le comportement moteur dans sa dimension spatio-temporelle à travers une modification de la relation vitesse-précision. L’organisation cinématique du mouvement de pointage et la stratégie posturale adoptée sous l’eau en combinaison néoprène restent assez proches de celles rencontrées en environnement normogravitaire (hors eau). En revanche, ces variables sont affectées dès lors que les plongeurs sont équipés du scaphandre, ce qui reflète des propriétés d’organisation motrice communes à celles observées en microgravité réelle. Ces résultats montrent que l’entraînement subaquatique, réalisé en scaphandre submersible, est une piste valide pour optimiser l’entrainement des astronautes. Il s’agit en cela de la première démonstration scientifique de la pertinence de l’entraînement des astronautes en piscine pour simuler sur Terre les conditions d’impesanteur (ou de gravité réduite sur la Lune ou sur Mars) rencontrées lors des missions spatiales.

REFERENCES : Kinematic features of whole-body reaching movements underwater: Neutral buoyancy effects Thomas Macaluso a , Christophe Bourdin a , Franck Buloup a , Marie-Laure Mille a,b, Patrick Sainton a , Fabrice R. Sarlegna a , Virginie Taillebot c , Jean-Louis Vercher a , Peter Weiss c and Lionel Bringoux a a Aix-Marseille Université, CNRS, ISM UMR 7287, 13288, Marseille cedex 09, France b Université de Toulon, 83957, La Garde, France c COMEX S.A., 36 Bvd des Océans, 13009, Marseille, France

Source : cnrs

Xavier Niel exporte son école « 42 » dans la Silicon Valley

L’école « 42 » fait toujours figure d’ovni dans le paysage scolaire français. Cela risque d’être tout autant le cas Outre-Atlantique. L’établissement a prévu de s’installer dans des locaux spacieux de 18 000m2 à Fremont, dans la Silicon Valley californienne. Outre l’équipement informatique disponible 24/7, 300 places d’hébergements seront disponibles sur place (600 envisagées à terme). L’ouverture de novembre 2016 est soutenue par un budget de près de 90 millions d’euros apporté par Xavier Niel, fondateur de «42 » à Paris et entre autre, vice-président du groupe Iliad-Free.

10 000 développeurs en 5 ans

Le modèle de cette deuxième école sera le même que celui adopté pour Paris : recrutement ouvert à tous de 18 à 30 ans, sans conditions de diplôme (l’entrée se fait via une sélection féroce des candidats sur leurs aptitudes à coder/apprendre à coder – et une compétition en plusieurs étapes. L’apprentissage se fait par l’expérience, via un travail en équipe et une entraide entre étudiants, sans enseignants. La formation est certifiante en 3 ans – deux années supplémentaires sont possibles vers la recherche industrielle ou l’entrepreneuriat. Objectif affiché : former 10 000 informaticiens d’ici 5 ans (contre 3000 pour l’école française).

Pallier les failles des systèmes éducatifs

A la création de « 42 » en 2013, Xavier Niel, expliquait que le système français ne permettait pas à de nombreux talents, voire génies, de faire reconnaître leurs capacités car d’une part l’université accessible au plus grand nombre ne propose pas toujours des formations adaptées aux entreprises et d’autre part les écoles privées sont chères et laisse de nombreuses personnes sur le bord de la route. Aux Etats-Unis, la barrière financière est encore plus forte. L’ouverture d’une telle école devrait facilement attirer des candidats. En France, il y avait eu entre 50 000 et 100 000 candidatures pour 1000 places lors du lancement !

Par Sophie Hoguin

Trump président : Quid de l’environnement ?

« Le concept de réchauffement climatique a été créé par et pour les Chinois afin de rendre les usines américaines non-concurrentielles ». Ce sont par ces mots que Donald Trump abordait la question environnementale en 2012. Quatre ans plus tard, presque ou rien n’a changé.

Priorité aux fossiles

Donald Trump a déjà annoncé à maintes reprises que s’il était élu Président, il mettrait fin aux diverses réglementations visant à contraindre industriels et consommateurs en général à adopter des mesures d’efficacité énergétique. Les avantages fiscaux attribués aux énergies renouvelables seraient quant à eux revus. Donald Trump est très proche du lobby pétrolier et considère les énergies fossiles comme une source de richesse et d’emplois aux Etats-Unis. A l’inverse, les énergies renouvelables seraient non concurrentielles et enrichiraient les constructeurs étrangers (notamment chinois).

Autre cible de Donald Trump : les agences fédérales de régulation, à commencer par la fameuse Environmental Protection Agency, considérée par ce dernier comme un frein au développement du tissu économique. Il a promis à ses électeurs de couper nettement leur budget pour réduire leur capacité de nuisance.

Marge réduite

Interrogé sur la COP21, Trump a logiquement montré son désaccord et a annoncé qu’il renégocierait le texte une fois élu. Une affirmation qui pose la question de la capacité d’action de potentiel prochain Président américain. Pour beaucoup, cette menace de renégociation est irréaliste. On ne revient pas sur des traités internationaux de cette envergure. En revanche, le pays pourrait montrer la plus mauvaise volonté du monde à atteindre ses objectifs puisque l’accord n’est pas véritablement contraignant.

Sur le plan intérieur, ses marges de manœuvres seront plus grandes, notamment grâce à la fiscalité. Le charbon, première victime de la transition énergétique américaine, tient une place importante dans ses discours sur la destruction des emplois locaux. Trump a ainsi suggéré qu’il pourrait modifier la réglementation sur la pollution de l’air pour remettre les mineurs au travail. Une proposition dont l’impact réel est plus qu’incertain. En effet, l’abondance de gaz de schiste bon marché sur le territoire rend peu crédible le scénario d’un retour en force du charbon, même si celui-ci bénéficiait d’avantages fiscaux. Les énergies renouvelables (éolien et solaire en tête) sont quant à elles à la porte de la parité réseau.

Déni

Pour se faire une idée de l’intérêt que porte Donald Trump à l’environnement, il suffit de regarder son programme sur son site internet. Pas un mot. Il faut dire que le changement climatique n’est pas vraiment un thème porteur de l’électorat républicain. Ou du moins ne l’était pas. La jeune garde républicaine est moins dogmatique que ses aînés sur cette question et peut-être moins liée au lobby pétrolier. Selon un récent sondage de Yale/George Mason, 56% des américains votant Trump admettaient le changement climatique. Une tendance qui pourrait coûter des voix au candidat républicain s’il persistait dans sa stratégie de déni. En effet, bien que l’environnement ne soit certainement pas le thème majeur de la campagne qui s’annonce (l’économie, le terrorisme et l’immigration devraient monopoliser les débats), il pourrait faire perdre des points précieux au milliardaire. Son adversaire démocrate, Hillary Clinton ne manquera pas de s’appuyer sur ses positions très conservatrices pour montrer qu’il est hors de la réalité, notamment scientifique.

Romain Chicheportiche

Uramin : Lauvergeon mise en examen

Un vendredi 13 mai pour les superstitieux. Alors que François Hollande se trouvait en visite officielle en Centrafrique, pays concerné par le dossier Uramin, Anne Lauvergeon était mise en examen à Paris. Cette société, rachetée à prix d’or par Areva en 2007, s’est avérée être un véritable fiasco industriel. Au point que certains doutent de l’intégrité de certains membres de la direction d’Areva, à commencer par son ancienne présidente, « Atomic Anne ».

Les faits

Areva rachète en juillet 2007 la société canadienne Uramin qui détient des gisements de Centrafrique (Bakouma), de Namibie (Trekkopje) et en Afrique du Sud (Ryst Kuil) pour la coquette somme de 2,5 milliards de dollars. Toute l’opération d’acquisition est menée par un banquier belge, Daniel Wouters, qui aurait été présenté à Areva par Olivier Fric, le mari d’Anne Lauvergeon. Ce dernier aurait également pris part à la transaction et en aurait bénéficié financièrement. C’est pourquoi les juges d’instruction l’ont également mis en examen, pour « blanchiment et délit d’initié ».

Les géologues d’Areva se rendent finalement comptent que le potentiel annoncé de ces mines a été sur-évalué, avant de conclure tout bonnement à leur non-rentabilité pour cause géologique ou en raison du coûts prohibitifs des techniques à mettre en œuvre. Selon nos confrères de Mediapart, une enquête, diligentée en 2010 par Gérald Arbola, numéro deux du groupe, et réalisée par Marc Eichinger, responsable d’une petite société de renseignement, a abouti à la conclusion qu’« Areva pourrait avoir été victime d’une escroquerie lors du rachat d’Uramin ».

Or, loin d’abandonner, la direction du groupe se serait opposée à de nombreuses reprises à déprécier ces actifs pour favoriser une éventuelle entrée d’un partenaire chinois (en vain), et ne pas précipiter le groupe dans une crise largement entamée par les chantiers EPR français et finlandais, tous deux largement hors coûts et délais, et la chute des cours de l’uranium en 2011 suite à l’accident de Fukushima. Or, Anne Lauvergeon est en guerre ouverte avec le pdg d’EDF de l’époque, Henri Proglio, pour le contrôle de la filière. Une opposition qui a conduit pour beaucoup à l’échec nucléaire d’Abou Dhabi la même année.

Guéant mis en cause

Anne Lauvergeon a gardé la même ligne de défense depuis le début des révélations. Elle assume la stratégie industrielle et réfute l’idée que ces mines ne valaient rien. Elle estime être victime d’un coup monté pour l’empêcher devenir le chef de file du nucléaire français et de déstabiliser Areva. Lors de son audition par les juges, elle aurait affirmé avoir pris connaissance d’une note confidentielle évoquant des échanges secrets entre Sébastien de Montessus, le directeur de la branche mines d’Areva de l’époque, et Claude Guéant, secrétaire général de l’Elysée. Et l’ancienne patronne d’Areva d’évoquer un « projet de filialisation de la branche mines d’Areva, puis d’une introduction en Bourse, pour une privatisation » au rabais destinée à des investisseurs qataris…

Par Romain Chicheportiche

Voitures électriques : une nouvelle batterie au lithium atteint 200 000 cycles

C’est totalement par hasard que Mya Le Thai, étudiante en chimie à l’université de Californie d’Irvine (UCI), a découvert une méthode révolutionnaire pour allonger la durée de vie des batteries au lithium. Elle réalisait alors une expérience, destinée à améliorer la résistance de ces batteries, qui sont utilisées par les objets de notre quotidien (smartphones, ordinateurs, tabletttes), et dont la durée de vie oscille entre 5000 et 7000 cycles en moyenne.

UCI chemist Reginald Penner and doctoral student Mya Le Thai, shown, have developed a nanowire-based battery technology that allows lithium ion batteries to be recharged hundreds of thousands of times. Steve Zylius/UCI

Un gel pour “refaire le cycle des centaines de milliers de fois”

Alors que les chercheurs de son université, financés par le Département de l’Énergie américain, planchaient sur l’implantation de nano-fils d’or sur les batteries en lithium pour améliorer leur résistance – en vain, car ces fils, très conducteurs, sont aussi très fragiles et se détériorent trop vite pour allonger durablement les cycles de charge -, Mya Le Thai a “enduit ces nano-fils d’une couche de gel très mince”, explique le président du département de chimie de l’UCI, Reginald Penner. Hasard total, puisque c’est par inadvertance que l’étudiante a en réalité laissé ce gel de plexiglas, qu’elle avait sur les mains suite à une précédente opération d’électrolyse, sur les nanofils d’or.

Suite à cet instant de grâce, Mya Le Thai a alors “découvert qu’en utilisant ce gel (qui protégeait la batterie), elle pouvait refaire le cycle des centaines de milliers de fois sans perdre de capacité”, indique Reginald Penner.

Une batterie qui tient 30 fois plus longtemps

Les chercheurs de l’UCI ont renouvelé l’expérience. Ils ont ainsi entouré des électrodes de nano-fils en or, qu’ils ont placé dans une gaine de dioxyde de manganèse, avant de remplacer le lithium par un gel électrolyte, similaire à du Plexiglas gélatineux. Selon les scientifiques, ces électrodes renforcées ne sont plus sujettes aux fissures rencontrées sur les électrodes classiques : ainsi, le gel “plastifie” l’oxyde de métal, le rendant plus souple, et permettant aux nano-fils de résister davantage.

La batterie obtenue tient près de 30 fois plus longtemps que les batteries au lithium classiques, tenant 200 000 cycles, avec une dégradation de seulement 5 % de ses capacités. Les chercheurs de l’université de Californie effectuent des tests pour tenter de comprendre les causes de cette durée de vie prodigieuse, qu’ils n’arrivent pas encore à expliquer.

Alors qu’une batterie Li-Ion classique atteint difficilement 5000 à 7000 recharges, cette batterie révolutionnaire a supporté 200 000 recharges sur 3 mois. Commercialisée, généralisée, elle pourrait être utilisée dans nos appareils du quotidien, mais aussi dans les voitures électriques, qui réclament plus que jamais des batteries toujours plus résistantes.

Par Fabien Soyez

Agroalimentaire : la peau de tomate transformée en bioplastique

Le problème des bio-plastiques, c’est qu’il faut trouver des gisements qui n’empiètent pas sur les terres agricoles et qui n’entrent pas en compétition avec la production alimentaire. Les recherches s’orientent donc sur la récupération des déchets verts issus de l’agriculture ou des industries agro-alimentaires. En Europe, l’industrie de la tomate produit 200 000 tonnes de déchets solides qui pourraient ainsi être mieux valorisés.

Retour à la case conserve

Sans surprise, en Europe, les deux projets en cours de pré-industrialisation sont menés en Italie et en Espagne, les deux principaux producteurs de l’Union. Très similaires, ils visent tous deux à utiliser la cutine de la peau de tomate pour en faire un bio-plastique. Plus exactement, une laque biologique qui pourrait remplacer celles utilisées actuellement pour recouvrir l’intérieur des boîtes de conserves et qui contiennent généralement du bisphénol A.

Les atouts de la bio-laque

La bio-laque issue de la cutine des peaux de tomates possède des caractéristiques très intéressantes pour l’industrie de l’emballage : non toxique, biodégradable, elle préserve de la déshydratation et elle a la particularité d’adhérer de manière très efficace au métal, sans besoin d’autres composants. Elle peut être appliquée tant à l’extérieur qu’à l’intérieur des boîtes métalliques et surtout elle répond à une problématique sanitaire récente : la migration de substances synthétiques potentiellement toxiques des emballages vers les aliments, comme c’est le cas avec le Bisphénol A. En outre, d’un point de vue environnemental, l’utilisation des sous-produits des industries de la tomate permettrait de limiter les déchets de cette industrie et de rendre les industries européennes de l’emballage métallique plus compétitives.

Les premiers essais industriels

Après plusieurs années de mise au point en laboratoire les process et les formulations sont à peu près établis. Deux projets pilotes sont en cours. L’un en Espagne, conduit par le centre technologique du plastique (Andaltec) et l’institut des sciences des matériaux de Séville (CSIC) qui construisent une usine pilote de production en s’appuyant sur le brevet du CSIC et de l’université de Malaga concernant le process d’extraction de la cutine et sa transformation en plastique. L’autre projet, Biocopac Plus , subventionné dans le cadre des projets Life+ de l’Union est chapeauté par l’Italie. Après la phase de recherche du projet Biocopac, les tests sur des pilotes semi-industriels sont en cours afin de définir des process industriels fiables, économiquement compétitifs et ainsi pouvoir valider toute l’analyse du cycle de vie de cette nouvelle filière.

Par Sophie Hoguin

Micro-algues : toujours dans la course aux biocarburants ?

Au début des années 2010 beaucoup y ont cru. Les micro-algues seraient LA solution pour les biocarburants de 3eme génération. Avec un rendement à l’hectare incomparable par rapport aux plantes terrestres (au moins 5 fois plus que le blé par exemple), il n’y avait pas de doute, ça allait marcher. Oui, mais… c’était sans compter sur la baisse des prix du pétrole et les nombreux défis technologiques qu’il fallait passer pour rendre la filière économiquement viable.

Sélectionner les bonnes souches

On estime qu’il existe entre 200 000 et un million de souches de micro-algues, mais seules 30 000 sont décrites et une dizaine couramment utilisées pour la recherche. A l’instar des cultures terrestres, la sélection est essentielle pour atteindre une productivité maximale et devenir rentable. C’est donc l’un des axes majeurs de la recherche aujourd’hui. Que ce soit en France, sur la plateforme HélioBiotec par exemple ou d’autres centres scientifiques mondiaux, on cherche quelles sont les souches qui se reproduisent le plus vite, synthétisent le plus de biomasse ou comment les booster pour qu’elles le fassent.

selection-de-souches

Valoriser les sous-produits d’autres industries

Pour renforcer sa rentabilité, les pilotes et démonstrateurs semi-industriels de la  filière micro-algues parient sur l’intégration dans des chaînes d’économie circulaire : utiliser les sous-produits, les déchets ou les rejets d’autres industries pour alimenter les micro-algues ou leur environnement de culture. En France, par exemple, le projet Trans’alg, à Libourne porté par la société Fermentalg, doit utiliser les sous-produits de la vinification ou d’autres cultures riches en carbone pour nourrir les algues. Quant au démonstrateur Cimentalgue, porté par Ciments Calcia et Algosource Technologie, à St-Nazaire, il doit utiliser les effluents gazeux d’une cimenterie.

Que d’eau, que d’eau !

L’un des défis technico-économiques le plus important de l’exploitation des micro-algues est celui de l’eau. Car pour extraire efficacement leur production il faut s’en débarrasser. Et cela revient cher. Plusieurs voies de recherche sont actuellement testées : des techniques d’extraction par voie humide (projet BioFat), la liquéfaction hydrothermale (CEA) ou la culture à l’air libre avec très peu d’eau dans des photobioréacteurs. Les premiers résultats probants commencent à voir le jour.

Développer l’aval de la filière

Même si il faudra encore quelques années pour les algocarburants soient utilisés de manière massive, il y a tout lieu de penser qu’une filière industrielle verra vraiment le jour, dès lors que la production présente un avantage environnemental. D’autant que la culture des micro-algues tend à se développer grâce à l’impulsion donnée par d’autres marchés à plus grande valeur ajoutée : cosmétiques, chimie verte, nutrition comme l’illustre la plateforme Algosolis qui met en relation industriels et chercheurs autour de la culture et l’exploitation des micro-algues.

optimisation-intensification-procedes

etudes-optimisation-protocoles-production

Par Sophie Hoguin

Textiles: Econyl, des déchets transformés en nylon

Grâce à l’utilisation de déchets comme matière première, la fabrication du polymère Econyl permet une réduction de 55 % des émissions de CO2, par rapport à un polymère vierge. En effet, le recylage permet de s’affranchir de l’utilisation du process de fabrication du caprolactam, monomère utilisé dans la synthèse du nylon-6 « vierge ». Une fois le monomère obtenu, les étapes de production suivantes restent les mêmes que processus traditionnel. Ainsi, Ecofil permettrait d’économiser environ 7 barils de pétrole par tonne de polymères régénérés produite.

Créer un réseau mondial de collecte de déchets

Pour obtenir la matière nécessaire à la production de son fil Econyl, Aquafil collecte les déchets industriels générés par la production de nylon-6, des produits en fin de vie faits de nylon (tapis, moquettes, filets de pêche…) et les vêtements à base d’Econyl.

L’entreprise a déjà noué plusieurs partenariats dans le monde. Par exemple, elle récupère des tapis usagés aux Etats-Unis grâce au consortium Carpet America Recovery Effort (CARE). Elle y a aussi lancé le premier programme de reprise de bouts de tissus laissés par le processus de fabrication de maillots de bain, avec Speedo USA. Par ailleurs, Aquafil met particulièment l’accent sur la récupération des filets de pêche abandonnés dans la mer. Et ils sont nombreux ! Selon un rapport de Greenpeace, chaque bateau de pêche rejetterait jusqu’à 30 km de filets à chaque voyage. Pour réduire les impacts causés par ces abandons sur la vie marine, Aquafil participe à l’initiative Healthy Seas. Celle-ci a récupéré 109 tonnes de filets de pêche abandonnés près des côtes européennes en 2015. L’entreprise est aussi partenaire de l’initiative Net-Works qui récupère des filets de pêche abandonnés aux Philippines et au Cameroun, en coopération avec les villages de pêcheurs locaux.

Entre 2011 et 2013, l’entreprise a transformé 30 000 tonnes de déchets, et 26 000 tonnes rien qu’en 2014. A terme, Aquafil souhaite élargir son action, en multipliant les partenariats locaux et les filières de récupération de déchets. Pour le moment, l’ensemble des déchets récupérés dans le monde sont acheminés vers sa première usine de fabrication d’Econyl, inaugurée en 2011 à Lubiana, capitale de la Slovénie.

Plusieurs marques de vêtements ont déjà utilisé le fil Econyl dans la confection de leurs produits. Dernière grande nouvelle : fin mars 2016, la marque de jeans Levi’s a annoncé le lancement d’une version de son modèle 522 en Econyl.

Par Matthieu Combe, journaliste scientifique

Des sédiments comme source alternative à l’argile des carrières

Comme toutes les filières qui s’appuient sur l’exploitation des ressources naturelles, l’industrie de la terre cuite planche depuis des années pour réduire son impact environnemental et diminuer le prélèvement des ressources. Le centre technique des matériaux naturels de construction (CTMNC) a ainsi soutenu la thèse de Frédéric Haurine qui montre qu’il est envisageable d’utiliser les argiles qui se déposent dans les cours d’eau associés aux ouvrages hydrauliques tels que les ports, les barrages ou les écluses pour remplacer une partie des argiles extraites des carrières.

Une ressource abondante

La consommation annuelle de matières premières argileuses par l’industrie de la terre cuite française pour la fabrication de tuiles, de briques ou de parements est de l’ordre de 7 Mt/an. Or, on évalue à quelques 40Mt les sédiments qui se déposent chaque année en France, dont 80% liés aux activités humaines. Bien sûr, tous ces sédiments ne conviennent pas une utilisation industrielle. Et comme il n’est pas envisageable de modifier les outils de production, l’objectif était de réussir à quantifier et caractériser les gisements de sédiments utilisables.

Avis favorable pour 25% de la ressource

Pour caractériser rapidement les sites de sédiments potentiellement intéressants pour les industriels de la terre cuite, le chercheur a eu l’idée de développer un cadre minéralogique de référence (CMR) à partir des mélanges de production actuels.  C’est grâce à la comparaison avec ce CMR que les sites potentiels ont pu être identifiés rapidement. Au final, 5Mm3 de sédiments qui remplissent les critères d’utilisation par l’industrie de la terre cuite se déposent chaque année. La consommation ne dépassant pas les 3,5 Mm3/an, cette ressource représente une alternative durable à l’argile des carrières. Même s’il reste encore à tester les différents gisements sur des installations industrielles pour ajuster les mélanges.

Des mélanges permettant des utilisations partielles

En outre, Frédéric Haurine, a aussi montré la possibilité d’utiliser des sédiments a priori non conformes. Par exemple, dans une étude sur le bassin de la Durance, des sédiments ne remplissant pas forcément tous les critères ont été mélangés avec succès avec avec d’autres sédiments, dégraissants (chamotte, sables schisteux), ou aux propriétés complémentaires ou encore en les incorporant à un mélange avec des argiles de carrière. Démontrant ainsi que d’autres sites peuvent être utiles à limiter l’extraction des argiles dans des formations géologiques fossiles.

Par Sophie Hoguin

Revue du web #91 : les vidéos les plus étonnantes de mai 2016

Quand une étoile se fait aspirer par un trou noir

La NASA a diffusé des images montrant les effets d’un trou noir sur une étoile. Pour créer cette vidéo, la NASA s’est basée sur un événement observé en novembre 2014. Attirée par la gravité régnant au centre du trou noir, l’étoile finira par y sombrer entièrement :

 

Au plus près d’une tornade

Un météorologue américain et son équipe ont filmé une tornade prenant forme, dans le Colorado :

 

Déformation d’une balle de golf au ralenti

Dans la longue et exhaustive histoire des vidéos au ralenti, voici la balle de golf lancée à pleine vitesse sur une plaque d’acier :

 

Un clavier wearable pour écrire en toute circonstance

Un nouveau clavier, qui s’enfile comme un gant, permet de taper -sans fil – et sur n’importe quel support avec une efficacité bluffante.

 

La prodigieuse expérience du bouillant de Franklin

La fameuse expérience de Franklin, qui permet de faire bouillir de l’eau en dessous de 100°C !

 

Des routes enfin silencieuses grâce à un revêtement innovant

Un revêtement à base de pneus usagés a été testé avec succès et pourrait peu à peu remplacer l’asphalte.

 

Vidéo scientifique: La réaction chimique parfaite pour les soirées mousse

Vous voulez trouver un moyen simple – et pas trop dangereux – d’impressionner vos amis pendant l’apéro ? En voici une :

 

Avec cette roue, un simple vélo devient électrique

Cette nouvelle roue gyroscopique autonome permet de transformer un simple vélo en vélo électrique, le tout en moins d’une minute !

 

Le record du monde de distance en hoverboard a été pulvérisé

Le Flyboard Air et son pilote ont parcouru plus de 2 kilomètres à près de 60 km/h.

Par Pierre Thouverez

Des mers d’hydrocarbures sur Titan

« Les lacs de Titan nous fascinent, car ils nous renseignent sur un monde où l’eau est remplacée par des hydrocarbures, les roches par de la glace d’eau, le tout dans une atmosphère dense riche en azote », se réjouit Francis Rocard, responsable de la thématique  »Exploration du Système solaire » au CNES (Centre national d’études spatiales). Les chercheurs ont découvert des lacs et au moins trois mers d’hydrocarbures : Kraken, Punga et Ligeia. Cette dernière, Ligeia Mare, est large d’environ 500 kilomètres et profonde de 200 mètres par endroit. Elle est essentiellement composée de méthane (CH4) et non d’éthane (C2H6) comme on le pensait avant l’arrivée de la sonde Cassini.

20 ans après…

Découvert en 1965 par Christian Huygens, Titan a longtemps caché ses secrets. Son épaisse atmosphère empêchait l’observation de sa surface. Jusqu’à ce que l’orbiteur Cassini quitte la Terre le 15 octobre 1997 avec à son bord la sonde Huygens, destinée à être larguée dans l’atmosphère de Titan. Issu d’une coopération franco-américaine, le couple Cassini-Huygens s’est mis en orbite en 2004. Quelques mois après, Cassini a libéré la sonde Huygens, laquelle a étudié pendant plusieurs heures l’atmosphère de Titan avant de se poser à sa surface. La descente et l’atterrissage de Huygens sur Titan ont fourni aux scientifiques de précieuses informations sur l’atmosphère et le sol de ce satellite. Depuis les découvertes se succèdent.

is_esa_cassini_organic_compounds_in_titan_seas_and_lakes_1280 (1)

Lakes_and_seas_on_Titan

is_cassini_titan_atmosphere_v4

Romain Chicheportiche

Signature électronique : le grand « sceau » en juillet

L’harmonisation européenne franchit une nouvelle étape en juillet prochain. Deux ans après son adoption par l’Union Européenne, le règlement eIDAS (identification électronique et services de confiance) rentrera en effet en vigueur le 1er juillet. Elle sera officiellement ainsi reconnue dans toute l’Europe. En France, elle est définie, de façon globale c’est-à-dire, quelle que soit sa façon (manuscrite ou électronique), par le Code civil. Son article 1316-4 précise qu’elle « manifeste le consentement des parties aux obligations qui découlent de cet acte (juridique) » (…) « Lorsqu’elle est électronique, elle consiste en l’usage d’un procédé fiable d’identification, garantissant son lien avec l’acte auquel elle s’attache ».

Sa version numérique renforce la preuve d’un document car elle permet de garantir l’identité du signataire, la non-répudiation par le signataire du document signé et l’intégrité du document signé, c’est-à-dire son absence de modification. Le règlement eIDAS représente une avancée primordiale dans la transition numérique des entreprises et des organismes.

En même temps que l’usage généralisé de la signature électronique et de l’horodatage électronique, « la commission européenne émettra une « Trusted List » regroupant les solutions de signature numérique jugées fiables à travers le continent. Ce catalogue fournira des éléments précieux aux entrepreneurs, qui ne pouvaient jusqu’ici se référer à aucun texte international quant à la légalité de leurs signatures. En pratique, nombre d’entreprises ignoraient comment authentifier leurs signatures », rappelle Pascal Colin, President & VP Sales, DocuSign France.

Philippe Richard

 

Premier test réussi pour Hyperloop !

Petit à petit, Hyperloop prend forme. Le 11 mai, le premier test a été réalisé par Hyperloop One. Concrètement, un traîneau en aluminium s’est déplacé sur des rails à l’air libre avant de percuter un banc de sable destiné à arrêter la machine. Il s’agissait de tester le système de propulsion électromagnétique de la capsule.

Si le test est un succès, il n’a pas permis de dévoiler pleinement les potentiels de vitesse, car la piste était assez courte. Ce premier pas était surtout une manière de montrer qu’Hyperloop était bien en construction. « Ce test était pour montrer à tout le monde que nous sommes réellement en train de construire cela. C’est réel », a justifié Shervin Pishevar, co-fondateur d’Hyperloop One.

Mais Hyperloop voit déjà beaucoup plus loin. L’entreprise est en train de construire une piste d’essai de 8 km où elle mènera des tests grandeur nature sur l’ensemble de ses technologies. Des tubes dans lequels les capsules se déplaceront sont déjà visibles sur le site de test. L’objectif d’Hyperloop est de faire voyager des passagers dans des capsules se déplaçant sur coussins d’air dans des tubes à basse pression. Les vitesses pourraient atteindre près de 1200 km/h.

B-ROLL PACKAGE v3.00_03_01_27.Still001

Hyperloop a été imaginé par Elon Musk en 2012. Préférant se consacrer à d’autres projets, il a proposé ses plans en open source. Deux start-up sont très engagées dans le projet : Hyperloop One et Hyperloop Transport Technologies. Hyperloop One espère transporter des marchandises dès 2019, et des passagers en 2021. L’entreprise a récemment levé 80 millions de dollars et annoncé des partenariats avec plusieurs sociétés dans le monde, dont la SNCF. De son côté, Hyperloop Transport Technologies a récemment révélé la technologie à « lévitation magnétique passive »  qu’elle envisageait d’utiliser. Son PDG, Dirk Ahlborn, a confié courant janvier à Newsweek que son entreprise espérait avoir le premier Hyperloop prêt à transporter des passagers à Quay Valley (Californie) en 2018.

Par Matthieu Combe, journaliste scientifique

Les pétroliers font leur transition

Quelques semaines après l’annonce de son grand plan stratégique « OneTotal », c’est au tour d’Eni et de Shell d’annoncer des mesures pour lutter contre les émissions de gaz à effet de serre. Loin d’oublier leur corps de métier (les hydrocarbures), les compagnies pétrolières tentent de participer à leur manière à la transition énergétique.

Complémentarité

Le nouveau modèle de développement présenté par les Majors se base sur les synergies entre les activités historiques et les énergies renouvelables. Eni mise ainsi sur une offre gaz/photovoltaïque pour réduire drastiquement son empreinte carbone. Pour cela, elle a annoncé la construction d’ici 2019 de plusieurs centrales solaires cumulant 220 MWc en Italie, en Egypte et au Pakistan.

De son côté, Shell se lance dans l’éolien. Le groupe britannique a annoncé la création d’une nouvelle division « New Energies » qui réunira les activités existantes dans l’hydrogène, les biocarburants et l’électricité et s’y ajouteront une section éolienne. L’architecture précise de cette nouvelle division sera annoncée le 7 juin prochain.

Reste à savoir dans quelle mesure ces annonces relèvent davantage du marketing que de la stratégie. L’essentiel des investissements (colossaux) consentis par ces grands groupes restent encore largement dirigés vers les énergies fossiles et les dépenses liées aux Enr sont souvent réalisées sur des sites pétroliers ou gaziers. Pour autant, il ne faut pas sous-estimés la volonté de mutation de ces grandes entreprises, à l’instar de Total qui a récemment annoncé le rachat de Saft.

Romain Chicheportiche

L’Etat propose 100 millions pour Fessenheim

Le gouvernement se serait sans doute bien passé de cette fuite. Nos confrères du Monde ont pu consulter un courrier adressé le 4 mai au pdg d’EDF, Jean-Bernard Lévy, dans lequel la ministre évoque les compensations financières auxquelles pourrait prétendre l’électricien : « En l’état des éléments dont je dispose, le montant de l’indemnité devrait être de l’ordre de 80 à 100 millions d’euros », écrit-elle. Une somme jugée dérisoire par les haut-cadres de l’entreprise.

Bataille de chiffres

La question des indemnités a été soulevée très tôt suite à l’annonce par François Hollande de la fermeture de la centrale de Fessenheim lorsque l’EPR de Flamanville sera opérationnel, soit fin 2018 officiellement. Un rapport parlementaire de septembre 2014 rédigé par les députés Marc Goua (PS) et Hervé Mariton (LR) avait estimé cette indemnité à 4 milliards d’euros. Un chiffre saugrenu selon le gouvernement qui misait plutôt sur une enveloppe de 2 milliards d’euros maximum. EDF peut s’appuyer sur les investissements réalisés sur le site et le feu vert de l’Autorité de sûreté nucléaire (ASN) lors de la dernière visite décennale. De fait, arrêter prématurément les deux réacteurs de la centrale autoriserait l’électricien à demander réparation à l’Etat. Ségolène Royal estime quant à elle que cette fermeture ne serait pas si coûteuse pour EDF qui pâtit des cours bas de l’électricité sur les marchés de gros. A noter que cette négociation intéresse également l’Allemand EnBW et les Suisses Alpiq, Axpo et BKW, qui ont un droit de tirage et un tiers de la centrale.

Jeu de dupe

Il fait peu de doute que le montant de cette première proposition augure une négociation ardue entre les équipes d’EDF et du ministère de l’Energie, et du Budget. Car comme à chaque fois lorsqu’il est question du groupe public, le gouvernement porte la double casquette d’actionnaire majoritaire (85%) et d’Etat stratège. Une dualité qui n’apaise pas les craintes de voir l’électricien fortement nucléarisé (1er exploitant mondial) faire les frais de la politique française de transition énergétique. En effet, si la loi de TE était appliquée, la Cour des Comptes a estimé qu’EDF serait dans l’obligation de fermer entre 17 et 20 réacteurs. D’où l’importance du cas Fessenheim…

Romain Chicheportiche

Quand la pollution au plomb raconte l’histoire antique de Naples

Jusqu’à présent, historiens et archéologues s’interrogeaient sur l’impact de cette éruption volcanique sur l’aqueduc Aqua Augusta, qui alimentait en eau Naples et les cités voisines. De récentes analyses géochimiques ont permis d’établir un lien direct entre le plomb qui composait les canalisations d’eau de l’époque et celui piégé par les sédiments de l’ancien port napolitain. Elles prouvent, sans équivoque, que le réseau hydraulique a effectivement été détruit lors de l’éruption du Vésuve, en 79 après J.-C., et qu’il a fallu une quinzaine d’années pour le remplacer. Ces découvertes font l’objet d’une publication dans la revue PNAS le 16 mai 2016 par le laboratoire Archéorient – environnements et sociétés de l’Orient ancien (CNRS/Université Lumière Lyon 2)1 et le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1), en collaboration avec des experts internationaux2,3.

C’est à l’occasion de la construction d’une nouvelle ligne de métro que des fouilles archéologiques ont été menées dans le port antique de Naples, aujourd’hui enseveli. Les excavations ont permis d’étudier les couches de sédiments qui se sont déposés dans l’ancien port au cours des siècles, sur six mètres d’épaisseur. Les analyses géochimiques de ces dépôts sédimentaires montrent que l’eau du port a été contaminée durant les six premiers siècles de notre ère par du plomb provenant du système d’adduction d’eau de Naples et des cités voisines. Ce plomb, principal composant des canalisations, se dissolvait au contact de l’eau et se répandait dans les différentes fontaines et points d’apport des cités, pour finalement se déverser dans le port. L’étude de la composition isotopique de cet élément, c’est à dire la proportion des différents isotopes4 du plomb contenu dans les sédiments permet de retracer aujourd’hui des événements vieux de deux mille ans.

Les analyses ont principalement révélé deux compositions isotopiques du plomb bien distinctes, avant et après l’éruption du Vésuve en 79. Elles prouvent que le vaste système d’alimentation en eau de la baie de Naples a été détruit lors de l’éruption volcanique et que les réparations ont été effectuées avec un plomb extrait d’un ou plusieurs districts miniers différents. Ce changement brusque du signal du plomb, intervenu une quinzaine d’années après l’éruption volcanique, suggère que les Romains ont réparé l’aqueduc et les canalisations en un temps relativement court.

Cette étude permet également de reconstituer les différentes phases du développement urbain de Naples : du 1er au 5e siècle après J.-C., le plomb est de plus en plus présent dans les sédiments, laissant envisager une expansion du réseau hydraulique ou une intensification de ce réseau dans des secteurs déjà équipés. Dès le début du 5e siècle, par contre, les sédiments sont moins contaminés, révélant que le réseau d’adduction d’eau subit de nouvelles destructions liées aux invasions barbares (prise de l’aqueduc pour assécher la ville), aux nouvelles éruptions du Vésuve en 472 et 512, aux épidémies ou encore à l’effondrement économique et administratif de Naples.

Cette lecture des pollutions métalliques dans les sédiments portuaires anciens, qui permet de retracer l’histoire d’un territoire, pourra être transposée à d’autres civilisations, d’autres aires géographiques. Et à l’heure des débats sur l’Anthropocène, elle pourrait offrir de nouveaux éléments de réflexion sur la dynamique de l’empreinte de l’homme sur l’environnement.

Cap-vesuve
© Yale Center for British Art, Collection Paul Mellon. Vue depuis la baie de Naples de l’éruption du Vésuve de l’an 79, telle qu’imaginée par le peintre William Turner entre 1817 et 1820. D’après une équipe pluridisciplinaire composée de géoarchéologues, d’archéologues et de géochimistes, cette célèbre éruption du Vésuve a détruit le système de distribution d’eau de la baie de Naples. Celui-ci était composé principalement d’un aqueduc en maçonnerie (le plus long du monde romain), prolongé par un dense réseau de tuyaux de plomb. Il fut remplacé par un nouveau système après une quinzaine d’années de travaux.

 

cap-archeo
© Hugo Delile Le site des fouilles archéologiques du port antique de Naples se trouve en face de la place municipale et à quelques mètres sous le niveau marin actuel. A droite : un exemple de coupe stratigraphique échantillonnée dans le cadre de cette étude. Elle est constituée de vases portuaires dont les compositions isotopiques du plomb révèlent l’histoire romaine de la ville.

Notes :

  • 1 Ce laboratoire fait partie de la Maison de l’Orient et de la Méditerranée Jean Pouilloux, une fédération de recherche sur les sociétés anciennes.
  • 2 L’équipe pluridisciplinaire et internationale implique en outre le département d’archéologie de l’université de Southampton, le département de sciences humaines de l’université de Glasgow et le département des sciences de la Terre, de l’environnement et des ressources de l’université de Naples Federico II.
  • 3 Ces travaux ont bénéficié du soutien logistique de la Soprintendenza Speciale per I Beni Archeologici di Napoli e Pompei et d’un soutien financier à travers le programme ANR Jeune Chercheur et le Conseil Européen de la Recherche (programme « Rome’s Mediterranean Ports » – 339123).
  • 4 Un élément chimique peut exister sous différentes formes appelées isotopes, qui diffèrent par la masse de leur noyau.

Références :
A lead isotope perspective on urban development in ancient Naples, Hugo Delile, Duncan Keenan-Jones, Janne Blichert-Toft, Jean-Philippe Goiran, Florent Arnaud-Godet, Paola Romano, Francis Albarède. PNAS, 16 mai 2016. DOI : 10.1073/pnas.1600893113
www.pnas.org/cgi/doi/10.1073/pnas.1600893113

Source : cnrs

Cigéo a le droit à une loi sur la réversibilité

La filière nucléaire l’attendait depuis longtemps, les opposants au projet la redoutaient tout autant. Mardi après-midi, le Sénat a adopté la proposition de loi déposée par les sénateurs meusiens Gérard Longuet (Les Républicains) et Christian NAMY (UDI-UC). Sur 344 votants, 333 sénateurs ont voté pour, 10 contre et 1 s’est abstenu. Seuls les 10 sénateurs du groupe écologiste ont souhaité rejeter ce texte.

Qu’est-ce que la réversibilité pour le Sénat ?

Cette proposition de loi définit la notion de réversibilité et inscrit le principe de la phase industrielle pilote, décidée suite au débat public de 2013. Elle modifie ainsi la loi de programme relative à la gestion durable des matières et déchets radioactifs du 28 juin 2006, et en adapte le calendrier.  Finalement, « la réversibilité est la capacité, pour les générations successives, soit de poursuivre la construction puis l’exploitation des tranches successives d’un stockage, soit de réévaluer les choix définis antérieurement et de faire évoluer les solutions de gestion », retient le projet de loi.

La phase industrielle pilote qui marquera le début de l’exploitation industrielle du site devra permettre de démontrer le caractère réversible et la sûreté du stockage grâce à « un programme d’essais in situ » et des « essais de récupération de colis de déchets ». Les citoyens seront également mis à contribution. L’Agence nationale pour la gestion des déchets radioactifs (Andra) devra élaborer et mettre à jour « tous les cinq ans, en concertation avec l’ensemble des parties prenantes et le public » un plan directeur de l’exploitation.

La demande d’autorisation de Cigéo devrait finalement être instruite en 2018. Si elle est acceptée, une nouvelle loi devra être votée pour entériner l’autorisation. Celle-ci fixera la durée minimale pendant laquelle la réversibilité du stockage devra être assurée. « Cette durée ne peut être inférieure à cent ans », précise le projet de loi actuel.

La loi du 28 juin 2006, codifiée à l’article L.542-10-1 du code de l’environnement, prévoit que le Parlement vote une loi définissant les principes de réversibilité de Cigéo. Conformément à cet article, le vote de la loi aurait dû se faire après le dépôt de la demande de création et après que cette demande ait reçu l’avis favorable de l’Autorité de sûreté nucléaire (ASN). Il semble néanmoins probable qu’elle soit finalement votée avant le dépôt de la demande de création. Pour être définitivement adoptée, la proposition de loi adoptée au Sénat doit désormais être votée à l’Assemblée nationale. Elle n’est cependant par encore inscrite à l’ordre du jour.

Par Matthieu Combe, journaliste scientifique

Les implications de l’Accord de Paris pour l’océan

L’océan tempère le réchauffement global du climat au prix d’une altération profonde de son fonctionnement physique et chimique, de ses écosystèmes et des services qu’ils fournissent à l’humanité (pêche, aquaculture, tourisme littoral, protection côtière, etc.). Les niveaux d’impact sur l’océan d’ici la fin du siècle dépendront fortement de la trajectoire mondiale d’émissions de gaz à effet de serre que l’humanité suivra d’ici là (Figure 1). Pour rappel, lors de la COP21, les pays se sont engagés à limiter l’augmentation de température de la planète à « moins de 2 °C d’ici 2100, voire à 1,5 °C ».

Des experts de l’Oceans 2015 Initiative ont livré hier dans la revue Nature Climate Change les résultats de leur étude, analysant les implications d’un tel engagement du point de vue de l’océan. Cet article traduit l’Accord de Paris en termes de risques d’impact sur l’océan. Il souligne également que la « communauté océan » a un rôle important à jouer dans le processus d’augmentation des ambitions des pays en termes d’atténuation des émissions de gaz à effet de serre sur le long terme. Cela permettrait en retour aux scientifiques d’affiner les scénarios de risques d’impact futurs sur l’océan.

Alexandre Magnan, chercheur « Vulnérabilité et Adaptation » à l’Iddri, auteur principal de l’article, rappelle que « l’Accord de Paris et ses suites représentent une opportunité majeure pour passer de scénarios de risques d’impact « théoriques » à des scénarios « réalistes », c’est-à-dire reflétant mieux la réalité des décisions prises dans le cadre des négociations climatiques. Cela permettra à la science de nourrir les négociations au fil de l’eau, dans l’objectif notamment de maintenir le cap vers des modèles de développement compatibles avec l’ambition de limiter le réchauffement global à moins de 2 °C d’ici la fin du siècle ».

Jean-Pierre Gattuso, directeur de recherche CNRS au Laboratoire d’océanographie de Villefranche (UPMC/CNRS) co-responsable de l’étude, ajoute que « de telles conclusions mettent en avant l’importance de la récente décision du GIEC de produire, d’ici à 2020, deux rapports spéciaux, l’un sur un monde à + 1.5 °C, l’autre sur les océans et la cryosphère (là où l’eau est présente à l’état solide : banquises, neige, glaciers, sols gelés, etc.). Les négociations climatiques ont besoin d’une vision claire des bénéfices à espérer d’efforts d’atténuation très ambitieux, et c’est la responsabilité de la communauté scientifique d’apporter de telles preuves ».

dessin1
Figure 1. Risques d’impact sur l’océan, les organismes et services éco-systémiques marins et côtiers d’ici à 2100, comparés à la période préindustrielle, selon quatre scénarios : atténuation élevée (RCP2.6), atténuation faible (RCP8.5), et atténuation modérée selon deux estimations tirées des « contributions nationales » pour la COP21. RCP2.6 est beaucoup plus favorable à l’océan bien que plusieurs écosystèmes, biens et services restent très vulnérables. Les implications de l’Accord de Paris doublent, au minimum, le niveau de risque d’impact actuel.

Messages-clés

  • (1) D’un risque d’impact modéré à très élevé selon les trajectoires d’émissions de gaz à effet de serre L’océan tempère le réchauffement global du climat au prix d’une altération profonde de son fonctionnement physique et chimique, de ses écosystèmes et des services qu’ils fournissent à l’humanité. Le niveau d’impacts d’ici la fin du siècle dépendra fortement de la trajectoire mondiale d’émissions de gaz à effet de serre que l’humanité suivra d’ici là.
  • (2) En l’état, l’Accord de Paris amène au minimum à un doublement du niveau actuel de risque d’impact sur l’océan Même le scénario à faibles émissions de gaz à effet de serre, qui correspond globalement à l’objectif de + 2 °C en 2100, comporte des risques de dommages majeurs, notamment sur les coraux tropicaux et les bivalves des latitudes moyennes. Les chercheurs estiment qu’il multipliera par 1,4 le niveau de risque d’impact actuel. Des scénarios plus émetteurs de CO2 aggraveraient considérablement la situation, jusqu’à multiplier le risque d’impact actuel par 2,7 dans le cas de la poursuite de la trajectoire actuelle d’émissions. Quant aux scénarios tirés des « contributions nationales » des pays en amont de la COP21, ils multiplient le risque d’impact actuel par 2,2 à 2,5. Il est donc indispensable que les « contributions nationales » en termes d’émissions de gaz à effet de serre soient révisées à la hausse, ce que l’Accord de Paris prévoit au travers d’un cycle de révision tous les 5 ans à partir de 2020.
  • (3) La « communauté océan » a un rôle important à jouer dans le processus des négociations climatiques Jean-Pierre Gattuso précise : « il est extrêmement important que le processus politique de révision des engagements des pays soit alimenté de manière continue par des analyses scientifiques sur les futurs « à éviter » et « à espérer ». La communauté scientifique sur les océans doit poursuive les efforts qu’elle a engagés dans le cadre de la préparation de la COP21 ». Alexandre Magnan rappelle également qu’« au regard de l’étendue des changements attendus, aucun pays n’est à l’abri, ce qui fait de cette question un enjeu mondial, au-delà des classiques divisions Nord/Sud, et engage toutes les composantes de toutes les sociétés ».
  • (4) Développer des scénarios de risques d’impact « plus réalistes » Les estimations d’élévation de la température de la planète réalisées à partir des « contributions nationales » (entre + 2.7 °C et + 3.5 °C) sont imparfaites : dans le cadre de l’exercice COP21, les pays ne se sont en effet projetés qu’à l’horizon temporel 2030. Or, le niveau de concentration en gaz à effet de serre d’ici la fin du siècle dépendra fortement aussi de la période d’après 2030, qui sera en partie liée aux choix d’investissements et d’infrastructures des pays dans le cadre de leur stratégie d’atténuation à 2030. Dès lors, il est important qu’en parallèle de la révision des objectifs 2030, les pays s’engagent, au travers de l’Accord de Paris, à clarifier leurs objectifs à plus long terme et à réfléchir à la manière de les atteindre du point de vue de leurs politiques énergétiques, de transport, d’utilisation des ressources, etc. De telles informations permettront aux scientifiques de développer des estimations plus « réalistes » du réchauffement global et donc des risques d’impact sur l’océan.
  • (5) Un moment opportun Les conclusions de l’article mettent en avant l’importance de la récente décision du GIEC de produire, d’ici à 2020, deux rapports spéciaux, l’un sur un monde à + 1.5 °C, l’autre sur les océans. Les négociations climatiques ont besoin d’une vision claire des bénéfices à espérer d’efforts d’atténuation très ambitieux, et c’est de la responsabilité de la communauté scientifique que d’apporter de telles preuves.

Sources :

  • A.K., Colombier M., Billé R., Joos F., Hoegh-Guldberg O., Pörtner H.-O., Waisman H., Spencer T., Gattuso J.-P., 2016. Implications of the Paris Agreement for the ocean. Nature Climate Change. doi :10.1038/nclimate3038.
  • cnrs

La France sur le point de ratifier l’accord de Paris !

La France avait été le premier pays à signer l’accord de Paris au siège des Nations unies à New York, le 22 avril dernier.  Elle est également bien partie pour être le premier pays industrialisé à le ratifier. Le projet de loi, adopté par l’Assemblée nationale, contient un article unique qui stipule qu’« est autorisée la ratification de l’accord de Paris  ».

Signé par 177 Etats, l’accord de Paris vise à contenir l’augmentation de la température moyenne « bien en-deçà de 2°C et de s’efforcer de limiter cette augmentation à 1,5°C ». Selon les règles fixées par la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), l’accord de Paris n’entrera en vigueur que lorsqu’il sera ratifié par au moins 55 pays représentant 55 % des émissions de gaz à effet de serre mondiales.

A ce jour, l’accord n’est ratifié que par 16 pays, principalement de petits états insulaires. Ségolène Royal veut désormais convaincre l’ensemble des Etats membres de l’Union européenne de ratifier au plus vite l’accord. Elle demande qu’ils fournissent, avant fin juin, « les dates de délibération de tous les conseils des ministres et les dates de ratification dans les Parlements ». De leur côté, la Chine et les Etats-Unis ont annoncé vouloir ratifier l’accord avant la fin de l’année : ils représentent à eux deux près de 38 % des émissions mondiales.

Par Matthieu Combe, journaliste scientifique

Un moniteur aux couleurs embellies par les Quantum Dots

Les Quantum Dots (QD), ou points quantiques en français, font leur apparition dans le secteur de l’affichage informatique. La société taïwanaise MMD a annoncé il y a quelques semaines la commercialisation du moniteur 27 pouces Full HD 276E6ADSS de marque Philips (MMD exploite cette marque depuis un accord conclu en 2009). Selon ce fabricant, il s’agit du premier moniteur informatique au monde à bénéficier de cette technologie. Son prix s’élève à 309 € TTC et il se destine au marché grand public. Quoi qu’il en soit, MMD met en exergue la reproduction des couleurs de qualité «professionnelle».

Quantum dot

En l’occurrence, ce moniteur est capable de restituer 100% de l’espace colorimétrique sRGB, ce qui est devenu classique, et surtout 99% de l’espace Adobe RGB, ce qui l’est moins. Ce dernier, plus étendu, est utilisé par les professionnels de l’image, en particulier quand ils réalisent des travaux destinés à l’impression. Les Quantum Dots créent en effet des couleurs 30% plus saturées que la moyenne, participant à l’enrichissement de la palette de couleurs visibles à l’écran. Leur effet ne se fait pas sentir sur les cristaux liquides de la dalle LCD mais la qualité du rétroéclairage de l’écran.

Des nettoyeurs de lumière

Théorisés dans les laboratoires à partir des années 80, les QD sont des solides semi-conducteurs de structure cristalline qui ne mesurent que quelques nanomètres (soit un milliardième de mètres). A une si petite échelle, ils se comportent comme un atome seul et leurs propriétés physiques et optiques sortent de l’ordinaire. Il en va ainsi de la fluorescence des QD : la lumière incidente est réémise à des longueurs d’onde caractéristiques qui ne dépendent que de la taille du QD.
276E6ADSS_f_2

Spécialiste de cette technologie, la société américaine QD Vision décrit le phénomène en ces termes : «A mesure que la taille du QD se réduit, celui-ci émet des longueurs d’ondes plus énergétiques, ce qui détermine la couleur : rouge, verte ou bleue. Le bleu correspond à l’énergie la plus élevée, donc au QD le plus petit. Le rouge, c’est l’énergie la moins élevée, dont le QD le plus gros. Le vert se trouve quelque part au milieu.» Rappelons que toute couleur, y compris blanche, est une combinaison de ces trois couleurs primaires rouge, verte et bleue.

Ce principe est mis à profit pour «purifier» la lumière blanche diffusé sur l’arrière de la dalle LCD, en provenance du dispositif de rétroéclairage. Typiquement, cette lumière est émise par des LEDs, depuis que celles-ci ont remplacé au début des années 2010 les épais tubes à cathode froide. Mais elle n’est pas neutre car l’artifice utilisé – des LEDs bleues recouvertes de phosphore jaune – est responsable d’un spectre lumineux très disparate : un pic «bleu», centré à 450 nm, côtoie une «colline» jaune (donc un mélange de rouge et de vert) vers 550 nm, de deux tiers moins intense. Des méthodes alternatives sont plus performantes, les LEDs vertes et bleues recouvertes de phosphore rouge par exemple, mais sont plus chères.

Une meilleure efficacité énergétique

Ce moniteur de MMD/Philips renferme pour sa part des LEDs bleues sans phosphore. Les QD sont calibrés de sorte à laisser passer une partie de cette lumière bleue et à convertir l’autre partie en «pics» rouge et vert. Le spectre de la lumière blanche résultante est rééquilibré et les couleurs affichées à l’écran gagnent en saturation. Ce procédé améliore aussi l’efficacité énergétique du moniteur : selon QD Vision, pour obtenir un espace colorimétrique comparable, un moniteur sans QD consomme au moins 50% d’énergie supplémentaire.

Si ce moniteur est un précurseur sur le marché informatique, les QD se répandent dans les téléviseurs à écrans plats haut de gamme depuis deux ans environ. Plusieurs procédés industriels se font concurrence. Celui de QD Vision, nommé Color IQ, est le choix de MMD : une barrette de QD est intercalée entre la barrette de LEDs, situé sur un côté de l’écran, et la dalle LCD. Les sociétés Nanosys et Nanoco plaident quant à elles pour l’ajout d’un film de QD de surface identique à celle de la dalle. QD Vision prétend que sa solution est plus économique. Mais est-elle viable ? C’est la question qui se pose car Nanosys a engagé le mois dernier des poursuites judiciaires contre QD Vision, qu’elle accuse de violer ses brevets.

Frédéric Monflier

PHBOTTLE : du jus devient bouteille !

Le consortium international du projet PHBOTTLE, coordonné par le Centre de technologie AINIA (Espagne), a dévoilé fin avril le premier prototype d’emballage obtenu grâce aux eaux usées de l’industrie des jus de fruits. Concrètement, il s’agit d’une bouteille en PolyHydroxyButyrate (PHB), un polymère biodégradable obtenu ici par fermentation microbienne de la matière organique contenue dans ces eaux usées. Cette matière organique contient jusqu’à 70 % de sucres – glucose, fructose et maltose-, soit 20 g/L.
Par ailleurs, les chercheurs ont incorporé au PHB produit des microcapsules d’antioxydants par le procédé de micro-encapsulation. Ces microcapsules agissent en tant que matériau de paroi et permettent la libération lente d’antioxydants, ce qui retarde l’oxydation du jus et prolonge sa durée de conservation. Ces capsules renforcent aussi la résistance mécanique de l’emballage. « Dans PHBOTTLE, les capsules sont faites en cyclodextrines et l’antioxydant encapsulé est du limonène » précise Ana Valera, coordinatrice du projet au département des nouveaux produits du centre de technologie AINIA. Pour améliorer la rigidité de la bouteille, les chercheurs ont également ajouté des microfibres de cellulose produites à partir de cosses de riz.

Un produit biodégradable vers le « zéro déchet »

Le produit est biodégradable. Les tests ont montré que 60 % de la PHBOTTLE est dégradée au cours d’une période de 9 semaines, selon la norme de compostage et de biodégradabilité des emballages NF EN 13432. Cette bouteille peut également être décomposée dans les usines de compostage, pour produire du compost et du CO2.

Le potentiel de ce nouveau matériau est important : 155 milliards de litres d’eaux usées sont générés par l’industrie des jus de fruits. Et le projet a permis de convertir jusqu’à 30 % des sucres contenus dans l’effluent de l’industrie en PHB. Le prototype a été produit à partir des effluents de Citresa, un producteur de jus espagnol, membre du Groupe Suntory. Il a été utilisé pour empaqueter le jus produit par ce même industriel. A l’avenir, ce procédé pourrait procurer à Citresa une solution innovante, basée sur l’économie circulaire, pour réduire sa production de déchets et tendre vers le « zéro déchet » et le « zéro rejet liquide industriel ».

Une commercialisation prochaine ?

« PHBOTTLE est un prototype obtenu après 4 années de recherche et n’est pas encore disponible à l’échelle industrielle, ou sur le marché. Avant d’être industrialisé, il est nécessaire de résoudre certaines contraintes que nous avons trouvé au cours du développement du projet, comme l’optimisation et le passage à grande échelle de certains procédés, ou encore la réduction des coûts », prévient Ana Valera. Grâce à l’optimisation des procédés de production, les chercheurs estiment que les coûts de la PHBOTTLE et des bouteilles en plastique conventionnelles pourraient prochainement être comparables.
Les premières études suggèrent que la PHBOTTLE pourrait être recyclée comme les autres bouteilles en plastique avec l’infrastructure existante en Europe. Néanmoins, d’autres recherches sont nécessaires pour voir si la matière recyclée répond aux exigences européennes pour les matières plastiques recyclées.
Le PHB obtenu à partir de jus de fruits pourrait aussi être utilisé pour d’autres emballages, non alimentaires, et dans d’autres secteurs industriels tels que les cosmétiques, l’ophtalmologie, la pharmaceutique ou encore l’automobile.

Par Matthieu Combe, journaliste scientifique

Le solaire PV génère-t-il vraiment davantage d’emplois que le nouveau nucléaire EPR ?

« Le soleil n’envoie pas de facture ». Tel est le slogan du prospectiviste américain Jeremy Rifkin, formule propagée par les lobbyistes du solaire dans le monde entier. En toute logique il n’envoie donc pas de bulletins de salaire. Une vérité qui dérange ?

Selon une étude de PricewaterhouseCoopers Advisory pour Areva datant de mai 2011, la filière  nucléaire en France pèse 125 000 emplois directs et 285 000 emplois indirects (y compris les emplois induits par les revenus), soit un total correspondant à 2% de l’emploi total en France. Ceci pour un parc de 63 GW, soit 6,5 emplois par MW installé. Le capital de ce parc électro-nucléaire est déjà amorti, le coût de production actuel du kWh du nucléaire dit « historique » (environ 6 c€/kWh) et les emplois correspondants sont donc principalement liés au volet Opération et Maintenance (O&M).

Dans un rapport datant de 2008 et reposant sur des données encore plus anciennes, le Programme des Nations Unies pour l’Environnement (PNUE) soulignait que « les énergies renouvelables créent davantage d’emplois par dollar investi, par unité de capacité installée et par unité d’électricité générée que les centrales électriques conventionnelles ».

C’était vrai avant 2008, autrement dit durant la pré-histoire des EnR.  Mais dans un rapport de 2013 (http://www.irena.org/rejobs.pdf, page 44) l’Agence Internationale des Energies Renouvelables (IRENA) fait écho d’une étude réalisée par Greenpeace International et l’EPIA (devenue depuis «SolarPower Europe») où la question de l’emploi est traitée avec un angle différent : « Les années récentes ont connu une grande progression de la productivité » écrivent les co-auteurs. « Les estimations initiales de 50 emplois par MW en 2006 ont été revues à la baisse à 43 emplois en 2007, 38 en 2008 et 30 en 2011. »

L’évolution du nombre d’emplois par unité de puissance installée est corrélée au coût de production (LCOE, Levelized Cost Of Electricity) du kWh, ce dernier constitue ainsi un intéressant proxy.  Le LCOE du PV s’étant massivement et spectaculairement effondré entre 2011 et aujourd’hui, on peut alors extrapoler une baisse tout aussi massive du nombre d’emplois par MW. Il est possible que le solaire PV génère aujourd’hui moins de 10 emplois par MW nouvellement installé. Une mise à jour régulière des données est nécessaire pour que le débat énergétique soit rigoureux.

«  Le prix de la techno PV baisse selon la loi de Moore, tandis que  la filière aval (conception, installation, finance) est emploi intensive » estime de son côté Richard Loyen, président d’ENERPLAN, le syndicat des professionnels du solaire. Confirmant ainsi une baisse massive des emplois au niveau de la partie amont de la chaîne de valeur.  Mais même en aval des progrès en matière de réduction de la charge salariale sont réalisés. Par exemple les robots Krinner (voir la vidéo) utilisés lors de la construction de la plus grande centrale solaire d’Europe en Gironde ont permis de réduire la main d’oeuvre, et ainsi d’améliorer la compétitivité. Il est fort probable que des progrès soient également réalisés au niveau de la conception (bureaux d’étude) et du montage financier.

D’après les experts la tendance à la baisse des coûts du PV (ainsi que du stockage batterie associé) va se poursuivre et même atteindre un niveau proche de zéro. La société du coût marginal zéro, selon la formule du prospectiviste américain Jeremy Rifkin, est une société très efficiente, à très haute productivité. « Le prix de l’électricité solaire sera « presque » nul dans une dizaine d’années » estime l’ingénieur André Joffre dans un entretien publié le 9 mai 2016 dans l’édition catalane du quotidien L’Indépendant.

Tony SebaPlusieurs analystes partagent cette vision d’un coût du solaire tendant vers zéro, comme par exemple le professeur de Stanford University Tony Seba (auteur du livre « Clean Disruption of energy and transportation »), l’informaticien et futurologue Ramez Naam auteur du livre The Infinite Resource: The Power of Ideas on a Finite Planet (How Cheap Can Solar Get? Very Cheap Indeed), le directeur de l’ingéniérie chez Google Ray Kurzweil (Solar Will Power the World in 16 Years), le fondateur de Green Power Academy Nadim Chaudhry (The Solar Tsunami: it’s starting in the sun belt and it will spread towards the poles) ou encore Tam Hunt, fondateur de Community Renewable Solutions LLC, auteur du livre « Solar: Why Our Energy Future Is So Bright » et à l’origine du concept de « Solar Singularity ».

L’idéal serait de parvenir à mettre au point des capteurs solaires à durée de vie quasi-infinie et à très faibles besoins en maintenance permettant ainsi d’atteindre le Saint Graal. Une électricité presque gratuite. Et donc presque zéro emploi. A noter dès à présent que le volet O&M du solaire PV ne générait il y a 6 ans qu’environ 0,2 emploi par MW aux USA selon une étude du National Renewable Energy Laboratory (NREL) publiée en 2010 et citée par l’IRENA. Soit beaucoup moins que le nucléaire français. Pas de combustible à extraire et à transformer, pas d’installations complexes à gérer et à surveiller, pas de déchets à traiter. Le solaire PV, une fois le capital amorti, consomme très peu d’heures de travail humain.

Adopter une approche holistique

La quasi-gratuité de l’écosystème reposant sur l’énergie de flux solaire sera bien entendu catastrophique pour l’emploi dans le secteur de l’énergie mais en revanche très positive pour le reste de l’économie. Elle permettra en effet de baisser les coûts de production de l’ensemble des industries (comme par exemple la sidérurgie et l’automobile), les rendant ainsi plus compétitives et donc potentiellement créatrices de nouveaux emplois. Mais aussi de réduire les dépenses des familles pour se chauffer, s’éclairer et se déplacer en véhicule électrique. La facture « carburant » sera alors proche de zéro. L’argent économisé pouvant alors être dépensé ailleurs et ainsi stimuler d’autres secteurs tels que l’industrie textile, la restauration ou le tourisme.

En outre une énergie devenue gratuite correspond à un EROI (taux de retour énergétique) devenu très élevé, ce qui est très positif sur le plan environnemental.  Il convient donc d’appréhender la problématique énergie / emploi de manière holistique, dans une perspective d’intérêt général, et non pas à travers le prisme restreint de l’intérêt particulier de telle ou telle industrie.

« Je n’aime pas les approches « pro-emploi » » a affirmé  début 2016 Michael Liebreich, Chairman de Bloomberg New Energy Finance (BNEF) dans le cadre d’un entretien avec Zachary Zahan, fondateur du site Cleantechnica. Les politiques dont la finalité est de créer de l’emploi dans le secteur de l’énergie, et bien elles créent de l’emploi, mais au final bien moins que les politiques construites dans une perspective d’efficience. On peut créer des emplois consistant à ce que les employés creusent un trou toute la journée dans la terre, puis le rebouchent le soir, puis recommencer le lendemain. Certains fonctionnaires considérés comme « planqués » tombent dans cette catégorie. On ne peut ni nier que cela crée effectivement de l’emploi, ni nier que c’est absurde et au final destructeur pour l’économie d’un pays si ce genre de politiques est généralisée.

 « Le manque de culture économique est très coûteux pour notre nation » explique le prix Nobel d’économie français Jean Tirole dans un entretien publié par le magazine Challenges le 7 décembre 2014. « Beaucoup de nos concitoyens (et les médias avec eux) se focalisent sur le drame (réel !) de victimes identifiables d’un licenciement collectif en oubliant celui d’un nombre bien supérieur de chômeurs, anonymes ceux-là, qui sont victimes de la non-création d’emplois, et donc du système. »

Un manque de culture économique, mais aussi le fruit d’une démagogie électoraliste de certains responsables politiques.  Il est en effet fréquent d’entendre en France des personnalités, comme par exemple Nicolas Sarkozy (Les Républicains) et Emmanuel Macron (Parti Socialiste), mettre en avant un coût selon eux très bas de l’électricité nucléaire, tout en indiquant que c’est une industrie très pourvoyeuse en emplois. Ce n’est pas cohérent. On ne peut pas avoir le beurre et l’argent du beurre.

« J’ai fait un rêve »

La même approche, intellectuellement bancale, est utilisée par certains promoteurs du solaire. C’est par exemple le cas de Gregory Lamotte dans une courte tribune publiée sur le blog Tecsol le 7 mai 2016. D’un côté cet entrepreneur reproche à juste titre aux politiques de ne pas mettre à jour  leurs données sur le coût du solaire PV et rappelle que « les Anglais vont acheter par contrat pendant 35 ans l’énergie Nucléaire de EPR a 120 €/MWh alors que partout en Europe et dans le mode, l’énergie Eolienne et Solaire est achetée 70 €/MWh maximum. » Mais d’un autre côté  le patron de la start-up Comwatt dénonce le dogme selon lequel nucléaire serait bon pour l’emploi : « Autre exemple, quel est l’autre préoccupation centrale des Français ? L’emploi. Une idée aussi bien ancrée nous annonce que le nucléaire, c’est bon pour l’emploi. Une étude de l’OCDE nous indique que pour produire la même quantité d’énergie, le solaire nécessite 6 fois plus de main d’œuvre locale. »

Il n’est pas cohérent d’affirmer que le solaire coûte aujourd’hui presque deux fois moins cher que le nouveau nucléaire et en même temps que ce dernier génère 6 fois moins d’emplois que le premier. Facteur 12. Il y a un hic dans le potage.

« Nos politiques disposent souvent de données anciennes et comme les énergies renouvelables évoluent très vite, nous prenons souvent des décisions à contre sens » constate avec justesse Gregory Lamotte. «  J’ai fait un rêve, qu’il était possible de mettre à jour nos politiques comme on met à jour les applications des téléphones, afin de les aider à prendre les bonnes décisions. »  Alors prenons garde de charger une appli élaborée de façon tout aussi rigoureuse en matière de coût que d’emplois générés.

«  Pourquoi subventionner le nucléaire si c’est pour observer les coûts augmenter à chaque nouvelle génération ? » interroge ce spécialiste en optimisation de l’autoconsommation photovoltaïque. Si l’on veut vraiment créer artificiellement de l’emploi dans le secteur de l’énergie (en asphyxiant le reste de l’économie), subventionner le nucléaire est cohérent.  « Si l’on souhaite privilégier l’emploi des Français, les renouvelables s’imposent » ajoute l’entrepreneur. C’est vrai, car les filières EnR efficientes seront une source de prospérité à l’échelle de l’économie globale, et commencent dès à présent à l’être dans certaines régions du monde, du fait que ce sont des filières qui vont devenir de moins en moins consommatrices en heures de travail. Soit exactement le contraire du contenu de la leçon donnée par Gregory Lamotte.

Un paradoxe apparent à expliquer avec pédagogie

Illustration 4Le 13 janvier 2016 Pascal Tebibel, le directeur de la prospective et des relations institutionnelles du Groupe Colas, a envoyé à GreenPeace International un message mettant en avant la création d’emplois grâce au projet de route solaire Wattway développé par cette filiale du groupe Bouygues. Appelant ainsi implicitement cette grande ONG internationale à soutenir leur innovation au nom de l’emploi. La Ministre de l’écologie Ségolène Royal a également mis en avant le même argument pour promouvoir cette nouvelle filière, faisant totalement l’impasse sur une approche coûts-bénéfices.

Cette route solaire, étant extrêmement  coûteuse, créé en effet davantage d’emplois par unité de puissance installée que le solaire standard au sol. Elle n’en demeure pas moins intrinsèquement inefficiente et donc contre-productive sur les plans écologique, économique et donc social.

Il est essentiel de comprendre ce paradoxe apparent pour prendre les bonnes décisions que Gregory Lamotte appelle de ses vœux : moins d’emplois dans le secteur de l’énergie, et donc une énergie moins coûteuse, cela permet de générer de manière indirecte d’autres emplois ailleurs dans l’économie.

Brasser le bon vent

Voici enfin un second tabou qu’il convient aussi de briser : bien séparer le bon grain de l’ivraie en matière de filières EnR. Toutes les EnR ne sont pas à mettre dans le même panier, certaines filières constituent des aberrations tant sur le plan de l’EROI (et donc au niveau du bilan écologique)  que du coût, les deux étant d’ailleurs liés.

Si l’hydroélectricité, le grand solaire au sol et l’éolien terrestre dans les régions bien ventées sont des filières aujourd’hui vraiment très pertinentes, formant ensembles le trio symbiotique Wind Water Sun prôné par Mark Jacobson de Stanford University, ce n’est ni le cas de la route solaire prônée par Ségolène Royal,  ni de la « SmartFlower » d’EDF, ni du très coûteux hydrolien, ni enfin de l’arbre à vent NewWind  prôné par Arnaud Montebourg.

Illustration 3L’ancien ministre du « redressement productif », par ailleurs très pro-nucléaire,  se fait l’avocat de cette forme de micro-éolien particulièrement coûteuse, depuis la COP21 jusqu’à la conférence intitulée « Slow is powerfull » : rupture technologique et modèle économique disruptif dans l’éolien et l’hydrolien » qu’il donnera le 31 mai 2016 à l’occasion du «  Smart Energy Summit Paris » parrainé par ERDF et RTE (François Brottes).  Au programme de cette conférence dont le titre est manifestement inspiré du concept « Small is beautifull » (1973) de l’économiste Ernt Friedrich Shumacher et dont la formulation marketing vise semble-t-il à séduire les personnes appréciant les approches d’autonomie énergétique et de décentralisation : « Miser sur les écoulements lents comme source de puissance » et « Changer de paradygme (sic) avec des gisements d’énergie diffuse quasi illimités ».

Il ne suffit pas d’afficher des mots et des formules a priori sexy et modernes pour rendre une technologie économiquement et écologiquement pertinente. Comme le rêve Gregory Lamotte, chargeons la bonne appli. Les lois de la physique ne peuvent pas être changées par Arnaud Montebourg, et ceci en dépit de son talent d’orateur et de son charisme : la production électrique d’une éolienne varie à la puissance trois de la vitesse du vent et cette dernière est bien plus faible  au niveau du sol qu’à 100 mètres d’altitude. A fortiori en milieu urbain. En outre l’architecture du très romantique arbre à vent conduit à un ratio énergie produite / matière consommée (métal, câblages) médiocre comparativement aux micro-éoliennes standards, ces dernières étant pourtant déjà bien moins performantes que les grandes éoliennes.

La France, engoncée dans la filière atomique, a déjà perdu énormément de temps en matière de compétitivité EnR, n’aggravons pas ce retard avec de lourdes erreurs d’aiguillage et avec des pseudos-solutions et autres bling-blingueries servant à tenter de camoufler ce retard…Ou plutôt à tenter de freiner (« écoulement lent ») l’émergence des vraies solutions EnR qui font de l’ombre aux rentiers des vaches à lait nucléaires en place et qui veulent rester « source de puissance » le plus longtemps possible.

Le temps, c’est de l’argent.

Olivier Daniélo 

Hinkley Point : EDF dans l’impasse ?

C’est désormais officiel. Dans un communiqué, l’intersyndical d’EDF considère que de nombreux documents et réponses manquent « afin d’être en mesure de formuler un avis éclairé et motivé » sur le projet de construction des deux réacteurs EPR d’Hinkley Point. Les 20 élus du comité central d’entreprise (CCE) d’EDF ont donc voté à l’unanimité ce lundi le lancement d’une expertise externe. Celle-ci portera sur les conséquences économiques et financières du projet, ainsi que sur les aspects sociaux et organisationnels. Elle s’intéressera aussi aux aspects stratégiques, techniques et industriels, sans oublier le volet juridique du projet.

Les experts des deux cabinets mandatés rendront leur rapport courant juin. Le CCE devra alors dévoiler sa position finale au plus tard début juillet. Sachant que les syndicats d’EDF ont à plusieurs reprises demandé un report du projet de deux à trois ans, l’issue est incertaine. Mais la direction peut compter sur le soutien indéfectible du ministre de l’Economie Emmanuel Macron, fervent défenseur du projet. Il a d’ailleurs annoncé en avril dernier qu’EDF ferait part de sa décision finale d’investissement au plus tard en septembre, décision initialement attendue début mai. A savoir : pour le ministre, rien ne pourrait remettre en cause le bien-fondé de cet investissement.

Par ailleurs, le projet a récemment été remis en question par son ancien directeur financier, Thomas Piquemal, qui a démissionné le 1er mars. Il ne pouvait pas soutenir un projet qu’il juge « non faisable » et trop risqué pour les finances de l’entreprise dans les conditions actuelles, caractérisées par un effondrement des prix de marché de l’électricité.

Un projet trop cher pour EDF?

Avec une facture totale estimée à 23 milliards d’euros (contre 16 milliards prévus initialement), EDF devra apporter 66,5 % des investissements, le tiers restant étant supporté par deux électriciens chinois, CGN et CNNC. Le géant français devra donc trouver 15 milliards d’euros, soit peu ou prou, l’équivalent d’une année d’investissements pour EDF. Ce projet se ferait donc au détriment d’une transition énergétique vers des énergies renouvelables, déjà plus compétitives.

Cet investissement est-il réellement risqué ? « Qui parierait 60 %, 70 % de son patrimoine sur une technologie dont on ne sait toujours pas si elle fonctionne alors que cela fait dix ans qu’on essaie de la construire ? » alertait Thomas Piquemal le 2 mai devant les députés. Par ailleurs, l’électricien français affiche déjà une dette colossale. Et cela devrait empirer. Son résultat net est en chute libre, notamment à cause de ses dépréciations d’actifs, de la baisse des prix de marché de l’électricité et de l’augmentation des provisions à faire pour le projet Cigéo. Son résultat est passé de 3,7 milliards d’euros à 1,2 milliards entre 2014 et 2015. Or, il faudra financer les travaux de grand carénage et les futurs démantèlements, dont les coûts provisionnés ont sans doute été sous-évalués. « Quand on a 66 milliards d’euros de dettes, 100 milliards à financer dans les centrales françaises, 20 milliards à rajouter pour la Grande-Bretagne, on peut considérer qu’on est dans une très mauvaise situation », analysait Thierry Gadault, auteur du livre EDF : la bombe à retardement?,  à Europe1, en mars dernier.

Mais les doutes concernant l’investissement à faire ne s’arrêtent pas là. Les experts et les médias britanniques dénoncent un prix d’achat garanti trop élevé du mégawattheure (92,5 livres sur 35 ans, soit 126 euros). Même si ce tarif peut sembler alléchant pour EDF, rien ne garantit la rentabilité du projet sur le long-terme, car le contrat ne prévoit pas d’engagements sur les volumes achetés.

Malgré tout, fin avril, le géant de l’électricité a annoncé un projet d’augmentation de capital de 4 milliards d’euros pour 2017, dont 3 milliards apportés par l’Etat, son actionnaire principal (à hauteur de près de 85 %). Ce renflouement des caisses servira à renforcer ses fonds propres et garantir ses investissements. Mais rien n’est facile en matière de nucléaire ! Greenpeace et l’entreprise britannique d’énergie verte Ecotricity estiment que cette décision s’apparente à une aide d’Etat pour financer l’EPR et les deux entités ont demandé à Bruxelles d’ouvrir une enquête. EDF avance donc plus que jamais dans le flou dans un projet qui, avant même son lancement, pourrait mener à un échec cuisant, comparable à celui annoncé à Flamanville.

Par Matthieu Combe, journaliste scientifique

Truffle 100 : la bonne santé du secteur français du logiciel

Créé par la société de Private Equity Truffle Capital et le cabinet d’études CXP, le Truffle 100 fournit une vision précise de la vitalité d’un secteur, en l’occurrence celui des éditeurs logiciels. Malgré la crise, ce secteur a plusieurs voyants au vert avec des poids lourds comme Dassault systèmes, Sopra Steria et Murex qui représentent le trio de tête.

Le chiffre d’affaires global des 100 éditeurs du palmarès progresse de 9 % en 2015 pour atteindre 12,8 milliards d’euros.

Le bénéfice double à 1186 millions d’euros tandis que l’investissement R&D a augmenté de 15 % (1174 millions d’euros). Côté emploi, les effectifs ont évolué de 3,5 % (environ 107 000 personnes). Résultat, une création de 3540 emplois, dont 1000 en R&D.

Tout n’est pas pour autant parfait. La part des sociétés en décroissance s’est accrue, passant de 1 % en 2014 à 11 % en 2015.

Mais pour Bernard-Louis Roques, Directeur Général et co-fondateur de Truffle Capital, « 2015 est un bon millésime: 9 % de croissance du chiffre d’affaires, doublement des résultats, 15 % d’augmentation des investissements en R&D (recherche et développement), une belle dynamique de création d’emplois qualifiés, un effectif total de 107 000 personnes avec un très faible propension à la délocalisation… Les éditeurs de logiciels français sont exemplaires, tirent l’économie nationale vers le haut, démontrent que l’esprit entrepreneurial, la prise de risque et le pari sur l’innovation sont de vertueuses qualités porteuses de succès et de conquête ».

Cette croissance s’explique notamment par l’intérêt grandissant des entreprises pour le Cloud Computing. Parmi ses différentes déclinaisons, l’Iaas constitue le secteur le plus dynamique en France (+35,5 % pour 700 millions de dollars). Les segments SaaS (+20,9 % attendus) et Paas (+20,7 %) connaissent donc une évolution moins forte, mais ils restent toujours très demandés avec 1 milliard et 200 millions de revenus respectifs. Ces solutions leur permettent d’améliorer le service à la clientèle et de tirer parti des innovations en matière de production.

C’est d’ailleurs pour répondre à ces besoins que 74 % des éditeurs du Top 100 disposent désormais d’une offre SaaS (68 % en 2014). « Dans les domaines plus techniques (l’industrie, les véhicules, la santé, les villes intelligentes, etc.), c’est l’Internet des objets qui émerge (IoT, Internet of things) », précise Laurent Calot, Président du Groupe CXP.

Mais les éditeurs ne doivent pas oublier l’essentiel : « ils doivent s’adapter aux nouveaux usages de leurs clients ainsi qu’aux besoins métiers exprimés par leurs collaborateurs », rappelle Laurent Calot. Or toutes les entreprises sont loin d’avoir terminé (voire même entamé dans certains secteurs d’activité) leur transformation digitale. Les éditeurs doivent donc les accompagner en leur proposant des solutions adaptées et efficaces.

Philippe Richard

Stockage: Total rachète Saft

C’est par une offre publique d’achat volontaire déposée auprès de l’Autorité des marchés financiers (AMF) sur les actions de Saft Groupe, que Total s’apprête à prendre le contrôle du spécialiste français des batteries. Le projet d’offre vise l’ensemble des actions du groupe au prix de 36,50 euros par action, coupon de 0,85 euro par action détaché, soit un prix d’acquisition total de 950 millions d’euros.

« L’acquisition de Saft permettra d’intégrer dans notre portefeuille d’activités des solutions de stockage d’électricité, compléments indispensables à l’essor des énergies renouvelables. Cette opération permettra également à Saft, ses dirigeants et ses employés de bénéficier du soutien du Groupe Total sur le plan scientifique, industriel, commercial et financier. Enfin, elle donnera à Saft les moyens nécessaires pour accélérer avec succès son développement », s’est réjoui Patrick Pouyanné, Président-directeur général de Total. De son côté, Ghislain Lescuyer, Président du Directoire de Saft Groupe, dit être « convaincu que Total apportera à Saft l’expertise et les ressources nécessaires à son développement futur, notamment sur les plans technologique et commercial. Cette opération sera bénéfique pour les clients et pour le personnel de Saft qui rejoint un groupe majeur de l’énergie. »

Logique Total

La Major pétrolière française a le mérite d’être cohérente dans ses choix. Intégrer un acteur de référence du stockage d’électricité (80 MW de batteries vendues entre 2012 et 2015 sur 14 sites de production, 4 100  salariés) est un jalon majeur dans la maîtrise des énergies renouvelables. Par ailleurs, le choix d’une consolidation purement « française » a le mérite de ne pas créer de vagues au niveau politique. Reste la question du prix. Total propose une prime de 38,3% par rapport au cours de clôture du vendredi 6 mai 2016 (26,40 €) et une prime de 41,9% sur la moyenne six mois ce qui peut paraître beaucoup en raison du caractère très concurrentiel de ce secteur avec la montée d’acteurs asiatiques notamment. La compagnie pétrolière bénéficie néanmoins d’un contexte de marché favorable : l’action Saft valait 35 € il y a seulement un an.

Romain Chicheportiche

Airbus Defence and Space, chef de file contre les débris spatiaux

Le projet TeSeR ambitionne de développer les technologies nécessaires pour prévenir la formation de nouveaux débris spatiaux liés aux satellites en orbite autour de la Terre. Aucune réglementation internationale n’oblige aujourd’hui les acteurs du spatial à prévoir la fin de vie de leurs satellites, mais la situation devenant critique, l’ensemble de la communauté essaye désormais de trouver des solutions. Le principal frein restant le surcoût engendré par une désorbitation ou une entrée dans l’atmosphère.

Une solution fiable et à bas coût

Débris spatiaux en orbite - Vue d'artiste
Débris spatiaux en orbite – Vue d’artiste

Le consortium dont Airbus Defence and Space vient de prendre la tête doit justement développer un prototype de module ultra-fiable et à bas coût pour que les satellites en fin de vie, ou les satellites devenus incontrôlables soient désorbités : par une mise en orbite plus haute que l’orbite géostationnaire ou par une descente vers la Terre en vue de sa destruction dans l’atmosphère.

Un développement sur fonds propres

Sur le projet TeSer, Airbus Defence and Space assure donc la gestion du projet, la coordination technique, en plus du développement de ces systèmes innovants de contrôle d’attitude des satellites. Le projet doit être mené sur les fonds propres d’ADS qui a cependant déjà obtenu une convention de subvention de l’Union européenne dans le cadre du programme de recherche Horizon 2020 : 2,8 M€ jusqu’en 2018.

Seule la prévention peut être mise en place

A ce jour, les scientifiques cherchent des solutions pour nettoyer l’espace, mais aucune n’est encore opérationnelle. La prévention reste donc la seule option possible. Dans ce cadre, les principales agences spatiales ont créé, en 1993, une instance, l’IADC (Inter-agency Space Debris Coordination Committe) qui a publié fin  2002 les mesures à appliquer pour éviter la prolifération des débris. De son côté, l’ONU s’est inspiré de ces mesures pour encourager les pays à prendre des dispositions réglementaires dans ce sens. La France a intégrée ces recommandations dans sa loi relative aux opérations spatiales en juin 2008.

Une goutte d’eau dans le problème des déchets spatiaux

Mais si la prévention est inévitable, elle ne représente qu’une goutte d’eau dans le problème des déchets spatiaux. Sur son site internet dédié aux débris spatiaux, le CNES explique qu’en un peu plus de 50 ans d’activité spatiale, on a procédé à plus de 5500 lancements de satellites auxquels viennent s’ajouter d’autres objets comme les étage supérieurs des lanceurs, les moteurs d’appoints, les résidus de sondes etc. Nombre de ces objets sont restés sur leur orbite, se détériorant et se fragmentant sur place, augmentant encore le nombre d’objets susceptibles de provoquer des collisions et des destructions de satellites ou d’infrastructures spatiales encore actifs.

Les estimations récentes évaluent ainsi à 20 000 objets de plus de 10cm, 300 000 entre 1 et 10cm et plusieurs dizaines de millions d’objets entre 0,1 et 1cm orbitant autour de la Terre.

Sophie Hoguin

La France à l’assaut de l’hydrogène

En février 2015, dans le cadre de la Nouvelle France Industrielle, Ségolène Royal, ministre de l’environnement et de l’énergie avait demandé aux Conseils généraux de l’économie et de l’environnement d’étudier les conditions de développement d’une filière hydrogène énergie en France. Le rapport qui vient d’être publié établit 20 recommandations parmi lesquelles le lancement d’un appel à projet pour développer une économie à l’échelle d’un territoire. Objectif : montrer qu’en structurant la filière autour de l’hydrogène pour la mobilité et le stockage de l’énergie, l’utilisation de cette énergie alternative devient rentable.

Construire la filière sur tout un territoire

Les candidats qui doivent monter leur dossier d’ici le 30 septembre 2016 doivent proposer un projet qui intègre toute la chaîne de valeur : de la production à la valorisation en passant bien sûr par la distribution (voir le cahier des charges). Toutes les applications sont envisageables : transport, alimentation électrique, stockage de l’énergie, cogénération, injection dans le réseau de gaz ou tout autre application industrielle. Les candidats sélectionnés auront accès à l’ensemble des financeurs publics qui pourront être concernés via un guichet unique. Tous les types de territoires sont invités à participer : urbains, ruraux, insulaires etc.

Vingt recommandations pour la filière hydrogène

Actuellement, plusieurs initiatives dispersées sont développées en France sur le sujet de l’hydrogène notamment pour des projets de mobilité (flottes captives d’entreprises) ou pour le stockage de l’énergie. Cependant, pour cette filière puisse vraiment devenir visible, ce qui d’après les rédacteurs du rapport devrait être possible dès 2025-2030, il faut soutenir activement la structuration de la filière dès maintenant. Le rapport suggère l’établissement d’une feuille de route précise et la mise en place d’une gouvernance et de financements dédiés. Vingt recommandations sont édictées pour guider les actions à venir. Il s’agit par exemple de veiller au retour d’expérience des démonstrateurs déjà en place et à l’intégration dans les calculs économiques des bénéfices environnementaux, à soutenir les actions de recherche et à favoriser les solutions hydrogènes par le biais d’outils financiers attractifs (voir le rapport et les recommandations).

Sophie Hoguin

Sept leçons apprises en lançant ma start-up

Il y a à peine un an, nous avons quadruplé nos effectifs en à peine quatre semaines, passant de 4 à 8 salariés. Je suis passé du statut de simple étudiant diplômé en analyse financière à celui de PDG d’une – petite – entreprise en forte croissance, en à peine une année.
L’année dernière a été un véritable baptême du feu. Au final, l’essentiel réside dans l’efficacité du management. Il s’agit pour moi d’un avantage compétitif considérable. Quand on veut se frotter à des entreprises qui ont des moyens et des effectifs cent fois plus importants que les nôtres, c’est fondamental.

Voici selon moi les 7 clés pour s’en sortir quand on monte une strat-up :

1- Avoir un partenaire d’affaires ou conseiller qui pense autrement que VOUS

Deux têtes valent mieux qu’une. Mais cela n’est plus forcément vrai si les personnes concernées se ressemblent trop. Prenons un exemple. En cas de prise de décision, trouver un consensus est plus facile et rapide pour deux personnes similaires. Mais cela veut dire que si l’un se trompe, l’autre suivra dans la même voie. Il faut des personnes opposées dans le comportement mais complémentaires.

Quand mon co-fondateur et moi avons décidé de monter une start-up ensemble, nous avons réalisé rapidement que même si nous étions généralement d’accord sur la fin, presque jamais nous ne l’étions sur les moyens pour y arriver.

Avoir quelqu’un comme cela m’a beaucoup aidé dans ma démarche d’entrepreneur. Tellement souvent j’ai été persuadé d’avoir fait les bons choix et tellement souvent il a démontré point par point que mon idée n’était pas la bonne, ce qui s’est ensuite avéré vrai.

2- Dites à vos collaborateurs pourquoi on fait les choses et pas comment

En théorie microéconomique classique vous comptez travail et capital en tant que «facteurs de production». L’économie a tendance à oublier que les humains ne sont pas des «facteurs de production», mais des êtres vivant et respirant avec des besoins, des ambitions et des émotions.

Nous nous sommes rendu compte que le fait de dire aux gens quoi faire et comment le faire n’est pas la bonne solution. Ils finissent par se sentir robotisés et doutent de leur importance au sein du projet commun. En tant que manager, je me suis parfois senti comme un parent face à son enfant triste. J’ai beaucoup culpabilisé.

Nous avons alors pris la décision de faire tout notre possible pour passer du « comment » au « pourquoi ». Je m’explique. Nous avons parlé avec tous les salariés pour leur expliquer le pourquoi de leur tâche. En faisant cela, nous avons réussi à décupler la motivation de nos salariés autour d’un objectif commun où chacun valorise l’importance relative de sa tâche du mieux qu’il peut. Un effet positif de cette stratégie est aussi que l’on passe moins de temps à former des gens qui sont motivés et volontaires pour résoudre les problèmes par eux-mêmes. Ce qui fait gagner un temps précieux.

3- Mettre le focus sur une seule mission

La simplicité est une vertu puissante. Elle aide les gens à prioriser les choses et évite de perdre du temps à réfléchir à quelle tâche accomplir en premier… Après quelques mois d’existence, la société a vu son nombre augmenter petit à petit, et nous nous sommes rendu compte que les gens avaient du mal à travailler ensemble et à communiquer et même à user de leur temps de manière efficace.
Nous avons décidé, tous ensemble, de nous concentrer sur un objectif et un seul. Nous avons organisé un rétro planning avec des points réguliers où chacun exposait ses avancées. Cela a été très efficace, et a même poussé nos salariés à plus collaborer les uns avec les autres pour faire avancer le projet et ses chances de succès.

4- Automatisez les process au maximum

Personne n’aime les tâches répétitives et ennuyeuses. Non seulement cela est néfaste pour le moral des troupes, mais cela induit également chez les collaborateurs l’impression d’un développement professionnel et même personnel insatisfaisant. Pourquoi demander à des humains, qui ont des capacités naturelles de création, d’innovation et de collaboration, de travailler comme des machines ?

Nous avons demandé à nos collaborateurs de s’intéresser aux tâches répétitives qu’ils accomplissent pour évaluer les moyens à mettre en œuvre afin d’automatiser au maximum toutes ces tâches. Tout ceci afin que nos employés puissent mettre en œuvre leur créativité au maximum pour ajouter de la valeur aux projets en cours. Nous avons ainsi réussi à « faire plus avec moins », comme on dit.

5- Réduire au maximum les formalités internes

Tout le monde déteste les formalités dans la vie de tous les jours. Les papiers à remplir pour n’importe quelle demande, même sur internet ces désagréments sont de plus en plus nombreux. Alors pourquoi nous les imposer au travail ? Pourquoi par exemple venir en costume au travail si vous n’avez aucun rendez-vous ? Pourquoi terminer un mail par « bien à toi » alors que la personne destinataire de ce mail est assise à 5 mètres de vous ? Toutes ces petites pertes de temps ne se rattrapent pas elles s’additionnent. Nous avons réduit au maximum l’usage de notre messagerie interne au profit de software de gestion de documents et de partage en temps réels. Nous avons aussi supprimé tout dress code. Nous avons ainsi réduit nos coûts, et les gens sont plus heureux.

6- Donnez la possibilité aux gens d’avoir des données relatives à leurs performances

L’évaluation de la performance est souvent quelque chose de beaucoup trop subjectif. Beaucoup trop de projets prennent des mauvaises directions parce qu’à un moment donné quelqu’un a crié plus fort que tous les autres en disant que ça allait marcher ! Les gens ont besoin de sentir que le mal qu’ils se donnent au travail trouve un écho quelconque soit en termes de notoriété soit de reconnaissance professionnelle.

La compagnie internet que nous sommes a les moyens d’offrir cela à ses salariés. Il est facile de tout mesurer. Tout est partagé sur des dashboards collectifs, et toutes les décisions sont prises à travers l’analyse d’un faisceau de données accessible à tous. Ainsi, quand le responsable d’une idée voit son projet avancer et réussir, il a le sentiment d’avoir augmenté la valeur de l’entreprise pour lui mais aussi pour tous les autres. Et nous ressentons vraiment cette envie collective.

7- Ne soyez pas le goulot d’étranglement

Le sur-management peut être un vrai problème. Problème créé le plus souvent par des managers ayant une « contrôlite aigüe » et une incapacité à faire confiance à leurs équipes. Ajoutez à cela une peur bleue de tout changement, et l’impression de tout savoir mieux faire que les autres, et vous obtenez des décisions prises lentement, avec des informations incomplètes. Et en plus une marginalisation de l’action par rapport au reste des équipes.

La raison pour laquelle nous avons décidé d’employer uniquement des gens que nous trouvions brillants était simple. Nous avons compris qu’à un moment donné nous ne pourrions plus prendre toutes les décisions et qu’il faudrait déléguer.

Et nous avions donc besoin de recruter des gens qui prendraient de bonnes décisions et si possible de meilleures décisions que nous ! Ainsi, pour chaque objectif que nous avons dans l’entreprise, nous créons des équipes constituées par les personnes les plus impactées – en termes d’objectifs personnels – par le projet en question. Cela signifie que chez nous, quiconque peut se retrouver en situation de décision sur un projet à tout moment, sans que ce soit son statut dans l’entreprise qui en décide ainsi.

Par Tushar Agarwal

Source : http://www.managementtoday.co.uk/news/1362979/seven-management-lessons-i-learnt-building

L’anomalie de cuve de l’EPR due à des «falsifications» ?

Le 29 avril 2016, Areva reconnaissait dans un communiqué que l’audit qualité de l’usine de Creusot Forge (Saône-et-Loire), lancé fin 2015, avait permis de « mettre en évidence des anomalies […] dans le suivi des fabrications ». Problème : c’est dans cette usine qu’a été forgée la cuve de l’EPR de Flamanville. Areva fait savoir que des études sont lancées pour caractériser « l’impact éventuel sur la qualité des pièces » et que pour le moment aucune information ne met en cause « l’intégrité mécanique des pièces ». Le résultat de ces études sera rendu public « avant le 31 mai ».

Sans révéler la nature de ces anomalies, Areva assure que « l’audit mené indique que ces anomalies relèvent d’actions du passé » et que « l’organisation et les modes de fonctionnement actuellement en vigueur au Creusot ne permettent plus aujourd’hui ce type d’anomalies ».

Des falsifications possibles, selon les Echos

Ce mardi 3 mai, les Echos ont apporté de nouveaux éléments. Selon une source anonyme citée par le journal, il s’agirait de « falsifications sur des dossiers de fabrication ». Face à ces révélations, Philippe Knoche, le directeur général d’Areva a confié au quotidien économique « Je ne peux pas l’exclure ». « On a des procès-verbaux contradictoires. Soit il y a eu des essais complémentaires qui ne sont pas tracés, et il faut qu’on ait la conviction qu’ils existent. Sinon, il faudra en tirer les conséquences », a-t-il déclaré au quotidien. « Nous avons souhaité communiquer parce que c’est inacceptable mais nous sommes encore en train de chercher. »

Les Echos révèle que « selon l’Autorité de sûreté nucléaire et Areva, environ 400 dossiers de fabrication sont concernés par des « incohérences », sur environ 10.000 dossiers de fabrication audités sur une période remontant à une cinquantaine d’années ». Selon une source, « une grosse moitié des dysfonctionnements concernerait des pièces nucléaires ». Chaque dossier de fabrication porte sur une pièce forgée et comprend des procès-verbaux. Ces derniers présentent les résultats des différents tests pour s’assurer de la conformité de la pièce aux normes existantes. Mais lorsqu’un résultat dépassait faiblement les normes, les compte-rendus auraient été modifiés pour retenir une valeur « moyenne », conforme aux normes. Ce procès-verbal « officiel » était inclus dans le rapport de fin de fabrication, le seul communiqué au client.

Sur la période auditée, le site a connu plusieurs propriétaires. Areva le détient depuis 2006. Est-ce que ces pratiques ont perduré et seraient à l’origine des défauts relevés sur la cuve de l’EPR ? Ce sera à l’enquête de le déterminer. Les pratiques auraient cessé entre 2010 et 2012, selon les Echos. « Ce que l’on sait, c’est aussi qu’il y eu des mises au rebut importantes de pièces à cette époque », précise Bercy, cité par Les Echos. Les pièces les plus défectueuses auraient été jetées et seules les pièces dépassant faiblement les normes auraient fait l’objet de falsifications.

L’Autorité de sûreté nucléaire a donné quinze jours à Areva pour évaluer l’impact de ces « anomalies » sur la sûreté des pièces fournies à ses clients. L’éventualité de ces falsifications est révélée quelques heures après la visite du ministre de l’économie, Emmanuel Macron, lundi sur le site.

Par Matthieu Combe, journaliste scientifique