News Environnement / Sécurité / Energie de mars

La catastrophe de Fukushima occupe l’actualité depuis plus de deux semaines. Le point sur les dernières informations.

Le nuage

Les poussières radioactives s’infiltrent partout dans la nature, quand passe un nuage nucléaire comme celui de Tchernobyl : dans les plantes, dans les rivières et les plans d’eau, dans les animaux. Tous les organismes vivants sont concernés. Roland Desbordes, président de la Commission de recherche et d’information indépendantes sur la radioactivité précise qu’il faut éviter d’ingérer des produits laitiers et des légumes : « Les particules transportées par les nuages radioactifs se fixent prioritairement sur les légumes à larges feuilles comme les salades et les épinards, mais aussi les champignons (les cèpes en particulier) et le thym ». « Vingt-quatre ans après l’accident de Tchernobyl, on mesure toujours la présence de césium 137 dans les zones contaminées. On en trouve également en France en très faible quantité, dans les zones les plus touchées par le nuage radioactif ukrainien, principalement dans l’Est et le Sud-Est », affirme encore Roland Desbordes.

Conséquences directes sur l’environnement au Japon

Selon les dernières informations de l’IRSN sur l’évaluation de la radioactivité dégagée par la centrale de Fukushima Daiichi (Fukushima I) jusqu’au 22 mars 2011, les principaux éléments radioactifs rejetés au cours des différents épisodes de rejet entre le 12 et le 23 mars seraient :

  • des gaz rares (éléments radioactifs chimiquement peu réactifs, restant dans l’atmosphère sans se déposer au sol), notamment le xénon 133 dont la période radioactive est de 5,3 jours ;
  • des éléments volatils, principalement des isotopes radioactifs de l’iode, du césium radioactif, du tellure radioactif. Ces éléments forment de fines particules en suspension dans l’air (aérosols) qui se déposent progressivement sur les surfaces au sol, au fur et à mesure de leur dispersion dans l’air ;

Les résultats de mesure dans l’environnement dont dispose l’IRSN, venant du Japon, confirme la présence principalement :

  • d’iode 131 (période radioactive de 8 jours), d’iode 132 (période radioactive de 2,3 heures) et d’iode 133 (période radioactive de 20,8 heures) ;
  • de tellure 132 (période radioactive de 3,2 jours) dont la décroissance radioactive produit de l’iode 132, ainsi que du tellure 129m (période radioactive de 33,6 jours) associé à du tellure 129 de période plus courte (1,16 heures) ;
  • de césium 137 (période radioactive de 30 ans) et de césium 134 (période de 2,1 ans).

Conséquences des rejets dans l’environnement au Japon

Les éléments radioactifs sous forme de particules se déposent progressivement sur les différentes surfaces au sol, notamment sur les feuilles de plantes cultivées, sur l’herbe des pâtures, sur l’eau stagnante à l’air libre ou l’eau des rivières, sur les milieux urbains…

Les légumes à feuilles (épinards, salades, poireaux…) sont particulièrement sensibles à ces retombées radioactives et sont rapidement contaminés après l’accident. Les résultats des mesures effectuées au Japon, à plus de 100 kilomètres de la centrale de Fukushima, sur cette catégorie de produit le confirment. Ces résultats indiquent que pour l’iode 131 dans les épinards, le niveau maximal admissible au Japon pour la commercialisation et la consommation des denrées (2000 Bq/kg) sont systématiquement dépassés dans ces territoires. Il en est de même pour les césiums radioactifs, mais dans une moindre mesure (niveau maximal admissible au Japon de 500 Bq/kg). Les poireaux, qui offrent une surface foliaire plus faible au contact de l’air ambiant, semblent moins contaminés. La contamination des légumes à feuilles est certainement plus importante en se rapprochant du site de Fukushima, en fonction de l’importance des retombées radioactives.

D’une manière générale, la contamination de ces légumes peut rester importante dans les prochains jours. Au cours des semaines à venir, si de nouveaux rejets importants ne se produisent pas, une nette diminution de la contamination des légumes à feuilles devrait être observée, à cause de la décroissance radioactive des radionucléides à vie courte (iode 131) et de l’effet de la croissance végétale qui dilue la contamination initiale dans la masse de la plante.

AREVA reporte la livraison de combustible MOX au Japon

Autre effet collatéral de la catastrophe de Fukushima : le groupe de technologie nucléaire Areva SA a confirmé vendredi 25 mars que la livraison de combustible nucléaire MOX à des groupes énergétiques japonais qui devait être effectuée dans les jours qui viennent avait été reportée. Areva devait livrer du MOX, un combustible nucléaire produit à partir de plutonium et d’uranium appauvri, aux groupes énergétiques japonais Kensai Electric Power et Chubu Electric Power Co. Inc. (9502.TO) au cours des prochains jours. Un porte-parole d’Areva n’a pas été en mesure de préciser jusqu’à quand était reportée cette livraison. Le groupe écologiste Greenpeace a déclaré dans un communiqué de presse que les deux groupes japonais prévoyaient de repousser cette livraison à 2013, au plus tôt.

Le nucléaire… en Inde

L’Inde veut commercialiser des réacteurs à eau lourde et investit dans des mines d’uranium à l’étranger 

La Nuclear Power Corporation of India Limited est désormais prête a commercialiser des réacteurs à eau lourde pressurisée (PHWR) de capacités allant de 220 MWe à 540 Mwe. Selon Srikumar Banerjee, Directeur de l’Atomic Energy Commission (AEC), ces réacteurs, qui utilisent comme carburant de l’uranium naturel et l’eau lourde en tant que modérateur et liquide de refroidissement, représentent des alternatives intéressantes pour les pays désirants mettre en place des réacteurs de taille petite et moyenne à coût limité.

Le Dr. Banerjee a annoncé que quatre réacteurs à eau lourde pressurisée développés par l’Inde sont actuellement en cours de mise en place. La production électrique totale des 19 réacteurs actuellement mis en place est de 4 560 MW. Selon lui, deux réacteurs d’une puissance de 1000 MWe dans le Tamil Nadu développés avec la Russie sont actuellement en cours de finalisation. Le prototype de réacteur reproducteur rapide de Kalpakkam d’une puissance de 500 Mwe est lui à un stade avancé de construction. Le Dr. Banerjee a aussi annoncé que l’Inde allait renforcer ses capacités d’enrichissement d’uranium déjà bien implantées et mettre en place une structure de retraitement des déchets radioactifs.

Aussi, on a appris que l’Inde prévoit d’acheter des mines d’uranium à l’étranger afin d’alimenter ses réacteurs. Pour se faire, le Ministre à la Science et la Technologie, Prithviraj Chavan prévoit de créer une entreprise sur le modèle de l’ONGC Videsh (International Petroleum Company of India). Selon lui, il faudra encore du temps avant que l’Inde puisse entrer dans la phase 3 de son programme nucléaire imaginé par Homi Bhabha, considéré comme père du programme nucléaire indien. L’Inde ne peut encore utiliser du thorium dans ses réacteurs avant d’avoir des réserves de plutonium suffisantes. L’Inde possède de vastes réserves de thorium qui lui permettront d’assurer sa sécurité énergétique. Le ministre a annoncé la mise au point d’un réacteur a combustible métallique d’un puissance de 1000-MW d’ici 2022. En attendant, elle doit continuer à importer des réacteurs étrangers afin de subvenir à ses besoins en plutonium.

Zoom sur… l’Inde

L’Inde doit s’intéresser aux biocarburants de seconde génération

La production durable de biocarburants et les technologies de production de biocarburants de seconde génération devraient permettre à l’Inde d’atteindre les objectifs de développement écologique qu’elle s’est fixé. Selon le rapport de l’IISc (Indian Institute of Science) , l’Inde doit minimiser les effets indésirables de la production de biocarburants et développer des synergies afin de favoriser la reconquête des terres agricoles dégradées, l’amélioration des conditions de vie en milieu rural et la promotion de l’indépendance énergétique.

Les biocarburants de première génération étaient produits à partir de récoltes de sucre de canne de céréales et de végétaux. Les biocarburants de seconde génération sont eux produits grâce à la biomasse, aux végétaux et aux déchets agricoles. L’Inde importe les trois quarts du pétrole qu’elle consomme, soit environ 56 millions de mètres cubes en 2007. Selon l’IEA (International Energy Agency), d’ici à 2030, l’Inde sera le troisième plus gros importateur au monde avec une consommation estimée à 6 millions de barils par jour.

En 2009, l’Inde a annoncé un plan national pour les biocarburants dont l’objectif est de remplacer 20 % des énergies fossiles consommées par des biocarburants produits à partir de semences non comestibles. Le plan national assure aussi la promotion de la production de biocarburants en favorisant par exemple les opérations de plantation de jatropha dans les zones inadaptées aux pratiques agricoles.

Le centre de R&D Renault Nissan lance un programme de recherche sur les batteries Lithium en Inde

Renault Nissan Technology et le Business Centre India Pvt Ltd ont commencé leur travail de recherche sur les batteries. Le Centre, hébergé à proximité de Chennai au Mahindra World City Industrial Zone, va travailler sur la mise au point de batteries lithium selon les propos de Mr Haruyoshi Kumura, Directeur de la Fondation Scientifique Nissan.

Le centre collabore déjà avec Nissan et Renault dans des domaines variés allant jusqu’à la R&D. Ce centre emploie 1 500 personnes travaillant principalement dans trois domaines, l’ingénierie numérique, l’électronique, et la recherche. Le travail réalisé dans ce centre de R&D est employé dans toutes les filiales mondiales de Renault Nissan. Mr Kumura était à Chennai dans le but de signer deux MoU (accords cadres) avec l’IIT Madras ; l’un destiné à ouvrir la voie à un plan de soutien de la recherche, l’autre concernant la Nissan Foundation Scholar grâce à laquelle des élèves sélectionnés se verront invités à suivre un stage au siège de Nissan Japon.

Le gouvernement indien assure la promotion des véhicules hybrides

Le gouvernement indien va mettre en place un nouvel organisme doté d’un budget de 2 milliards de roupies, soit 33,2 millions d’euros afin d’assurer la promotion des technologies écologiques durables pour les véhicules hybrides et électriques. Le National Electric Mobility Mission tentera d’améliorer le taux de pénétration des véhicules hybrides et électriques sur le marché automobile et deux roues indien, largement dominé par les véhicules à combustible fossile, ce qui permettrait par la même occasion d’améliorer la qualité de l’air des villes indiennes.

Selon Ambuj Sharma secrétaire au Ministre des Industrie Lourdes, de nombreuses alternatives sont déjà disponibles sur le marché indien mais le manque d’infrastructures spécifiques (point de charge) et le surcoût à l’achat des véhicules hybrides nuisent à leur développement en Inde malgré des politiques d’incitation fiscale.

L’industrie des deux roues électriques compte en Inde plus de 36 acteurs avec une capacité de production d’1 million d’unités par an. Toutefois, les ventes annuelle ne s’élèvent pas à plus de 100 000 unités. L’entreprise Mahindra Reva Electric Vehicles, basée à Bangalore, a uniquement vendu quelques centaines d’unités sur le marché indien mais les véhicules hybrides ont un coût d’achat deux fois plus important que les véhicules traditionnels. Toyota et Honda qui ont tenté de diffuser leurs modèles sur le marché indien ont difficilement vendu une centaine d’unités. La mission National Electric Mobility rassemblera des représentants de différents ministères allant des Routes au Ministère à la Science et à la Technologie, afin d’apporter une réponse globale et transversale aux problèmes de développement du marché des véhicules respectueux de l’environnement.

Les piles à combustibles du futur mises au point en Inde

Les piles à combustibles convertissent l’énergie chimique d’une oxydation entre un combustible réducteur et une électrode, en énergie électrique. De nombreuses recherches sont menées sans réelles avancées. La venue d’une délégation anglaise à Chennai dans le but de développer un programme de recherche conjoint a cependant relancé le débat en Inde.

Chennai héberge le Centre for Fuel Cell Technology, centre autonome de R&D du Department of Science and Technology. De nombreux groupes de recherches couvrant divers aspects des technologies liées aux piles à combustibles sont représentés au sein de l’IIT Madras. Jason Green, Directeur de l’UK Energy Programme Engineering and Physical Sciences Research Council (EPSRC) a annoncé, en collaboration avec le DST, un appel à projet à hauteur de 7 millions d’euros. Le marché des générateurs diesel alimentant les antennes relais téléphonique représentent en Inde un marché de 1,4 milliards d’euros par an, l’efficacité énergétique étant une priorité. Murali Arikara, Vice Président exécutif d’ Emerging Markets, Intelligent Energy U.K., a annoncé que quelques installations avaient été mises en place afin d’étudier les potentialités de ce marché.

Selon David Book, chercheur de l’Université de Birmingham, l’Inde, les États-Unis et le Royaume Uni sont les premiers pays, en ce qui concerne le nombre de publications dans le domaine des piles à combustible. Mais l’une des principales difficultés liées au développement à grande échelle de ce type de technologie reste le coût. Une voiture équipée d’une pile à combustible à base d’hydrogène coûterait 10 fois plus qu’une voiture traditionnelle.

Les scientifiques doivent maintenant se concentrer sur l’étude de nouveaux oxydants qui permettraient de développer des piles à combustible à moindre coût.

Sources : Bulletins électroniques, CNRS, LeMonde.fr, Ademe

Une cagoule physio-communicante au service des professions à risques

Deux des alpinistes français qui ont réalisé récemment l’ascension par la face nord de l’Aconcagua qui culmine à 6 962m, en Argentine, étaient équipés d’une cagoule à l’intérieur de laquelle des capteurs communicants mesuraient à la fois les évolutions de leurs fréquences cardiaques, leurs taux d’oxymétrie, la température dans la cagoule et leur température de peau durant l’ascension. Ces données physiologiques étaient transmises en temps réel à Nîmes où elles étaient analysées.

Pour la  cagoule équipée d’un boîtier télémétrique APPI  (Active Protection Personal Instrument ou Instrument personnel de protection active), ce fût le baptême du froid. A partir de 6 000 m d’altitude, les températures sont, en effet,  proches des -30°C et les vents, souvent très violents, rendent le milieu totalement inhospitalier pour l’homme. Toutefois cette aventure sportive et technologique a permis de prouver qu’il devenait possible de suivre à distance, à partir de bureaux situés en France, la physiologie d’alpinistes lors de leur ascension. Mais ce n’est qu’un début puisqu’une deuxième expédition est prévue pour mai 2012, à l’Everest (8 848 mètres).

Cette cagoule physio-communicante mise au point par BodySens, une société née dans Innov’Up, l’incubateur de l’Ecole des Mines d’Alès, si elle a fait ses preuves en milieu extrême, elle a, en fait, été développée pour renforcer la sécurité des professionnels travaillant en milieux confinés ou  à risques (nucléaire, pétrochimie…). Les premiers concernés sont les pompiers exposés quotidiennement à la chaleur, aux flammes, aux fumées toxiques, éboulis… L’un des problèmes fréquemment rencontré par ces professionnels est la détection de situation à risque lors des opérations. Un suivi en temps réel de leur état physiologique permet d’anticiper les problèmes et donc de garantir une meilleure sécurité. Aujourd’hui, c’est possible grâce au module APPI qui permet, en suivant la physiologie de ces professionnels, de prévenir le dépassement des limites d’engagement, de savoir en temps réel si la personne se met en danger et d’intervenir avant que l’accident ne survienne.

Des applications potentielles dans les domaines de la santé et du sport

De même, dans les centres de formation de la sécurité civile ou militaire, les instructeurs qui ont fréquemment des difficultés à faire admettre aux stagiaires que le corps humain a des limites, peuvent mesurer puis montrer aux stagiaires les contraintes physiologiques subies lors des opérations. Cela permet une meilleure prise de conscience de ses propres limites, une éventuelle prévention des accidents lors des exercices et une amélioration des processus opérationnels en fonction des paramètres mesurés.

Dotée de différents capteurs amovibles (mesure de la fréquence cardiaque, du taux d’oxymétrie, de températures, détection de mouvement, localisation par GPS…), d’une batterie et d’une centrale, la cagoule de BodySens transmet par radio (1GHz) les données à une station qui peut être distante de plusieurs centaines de mètres, elle-même reliée à un micro-ordinateur où les paramètres recueillis sont affichés en temps réel. Des alarmes peuvent même être déclenchées.

Cette innovation brevetée connaîtra d’autres applications, dans la santé notamment (télé-monitoring et mesures à distance des constantes physiologiques des personnes isolées) mais pourrait aussi équiper les sportifs et randonneurs car le système APPI peut être intégré à une casquette ou un bandeau..

BodySens qui va produire ces capteurs communicants à l’échelle industrielle, a été fondée fin 2009, après avoir passé 2 ans à l’incubateur de l’Ecole des Mines d’Ales dont l’aide a été déterminante, notamment en matière de prototypage électronique et mécanique ainsi que de soutien logistique.

 

M.C.
 

News Informatique / Electronique / Télécoms de mars

La situation, après le séisme du 11 mars dernier près de la centrale de Fukushima, est toujours incertaine : les réacteurs n° 2 et 3 focalisent l’attention et les inquiétudes ; Les réacteurs 5 et 6 sont sous tension ; des vérifications sont en cours pour les réacteurs 1 et 2 ; le réacteur 4 a été relié ; une alimentation externe assure l’électricité dans la salle de contrôle du réacteur 3.

Ainsi, l’électricité a en partie été rétablie dans la salle de contrôle du réacteur 3 de la centrale, affirmait mardi soir (heure locale) la chaîne de télévision publique NHK. Il s’agit de la première salle de contrôle à être partiellement remise sous tension grâce à une alimentation externe, a précisé par la suite l’agence de presse Jiji. Selon le point matinal de l’Agence de sûreté nucléaire du mardi 22 mars 2011, « les masses d’air très faiblement contaminées, avec des niveaux de l’ordre de 1 000 à 10 000 fois inférieurs à ceux relevés suite à l’accident de Tchernobyl, ont atteint mercredi (23 mars) la France métropolitaine sans aucune conséquence sur la santé des personnes. »

Le rétablissement du réseau électrique de la centrale est un enjeu majeur, puisque c’est le premier pas vers le rétablissement des circuits de refroidissement (en supposant que ces derniers soient en état de marche).

Selon Tepco, les mesures prises le matin du dimanche 27 mars étaient si inquiétantes que l’employé qui en était chargé a pris la fuite sans même une contre-vérification. Il a ainsi déclenché l’évacuation immédiate de ses collègues. Mais l’après-midi même, les opérateurs ont expliqué que si l’eau était bien effectivement contaminée, les niveaux extrêmement hauts annoncés étaient inexacts. “Ce chiffre n’est pas crédible”, a déclaré le porte-parole de Tokyo Electric Power Co, Takashi Kurita, en présentant les excuses de la compagnie d’électricité.

En revanche, l’annonce d’un taux mesuré de “1 000 millisieverts par heure” dans l’eau retrouvée au sous-sol de la salle de la turbine est exact, a assuré Tepco. Le vice-président de Tepco, Sakae Muto, a expliqué que des éléments radioactifs avaient été confondus au cours d’analyses sur les échantillons prélevés dans la nappe, a rapporté l’agence de presse Jiji : “Il s’est produit une confusion entre l’iode 134 et le cobalt 56”. La volte-face de Tepco est intervenue après que la Commission de sûreté nucléaire du Japon, a demandé à l’exploitant de Fukushima de revoir ses calculs.

Fukushima: le Japon décline l’offre française de robots spécialisés

Le 21 mars dernier, les autorités japonaises ont décliné l’offre française d’envoi de robots spécialisés pour intervenir dans la centrale nucléaire accidentée de Fukushima, jugeant ces engins « inadaptés » à la situation, a indiqué lundi l’Autorité de sûreté nucléaire française (ASN). L’AFP a recueilli le témoignage du président de l’ASN, André-Claude Lacoste : « Jusqu’à présent, les demandes japonaises d’aide ont été extrêmement réduites. Par exemple, le Japon n’a pas donné suite à l’offre d’aide française d’envoyer des robots, en disant que les robots étaient inadaptés ».

EDF avait annoncé auparavant l’envoi sur place de robots pilotés à distance capables d’intervenir à la place de l’homme en cas d’accident nucléaire. Ces matériels du Groupement d’Intérêt Économique d’INTervention Robotique sur les Accidents nucléaires (GIE INTRA) sont capables d’évoluer en milieu irradiant, en intérieur comme en extérieur, et de réaliser des travaux publics sur site (pelle mécanique, bulldozer) ou des gestes techniques complexes, comme la récupération de débris, du balisage ou des prélèvements, selon EDF. Mais ce n’est pas tout. Ces robots peuvent également enregistrer des vidéos et les transmettre. Après l’accident nucléaire de Tchernobyl en 1986, la France est le seul pays à « avoir conçu et réalisé la flotte d’engins spécialisés dans les situations extrêmes et à former le personnel capable de les utiliser », affirmait l’électricien français dans un communiqué de presse.

Gros plan sur le Japon

Des robots pour la vidéoconférence

NEC, un des géants mondiaux de l’électronique et des télécommunications, a développé une nouvelle méthode de vidéoconférence utilisant son robot PaPeRo en tant qu’intermédiaire de discussion. Les recherches concernant l’utilisation d’un robot piloté à longue distance sont assez courantes, mais celles spécifiquement destinées à de simples réunions sont plutôt rares.

Les systèmes de vidéoconférence actuels se limitent pour la plupart à une caméra, un microphone et un écran. Néanmoins, NEC a souhaité améliorer ces dispositifs et gommer certains défauts inhérents à leur utilisation. Par exemple, un simple écran ne permet pas de transmettre certains éléments habituellement perceptibles lors d’une réunion physique. Notamment, les attitudes non verbales ainsi que la sensation des participants de se trouver dans le même espace physique que leur interlocuteur sont totalement absentes des visioconférences. L’accent est donc mis principalement sur le contenu de la discussion.

Dans le système développé par NEC, le robot PaPeRo dispose sur sa tête d’une caméra dont l’angle de vue change en fonction des mouvements du robot, comme dans le cas d’un être humain. Le robot fait partie de l’environnement physique d’une réunion : il peut hocher la tête et garder un contact oculaire avec un interlocuteur grâce à son aptitude à différencier les êtres humains. Selon NEC, les expériences réalisées utilisant ce prototype se sont révélées satisfaisantes, les vidéoconférences utilisant ce système étant « plus faciles à suivre » et permettant de dialoguer « plus naturellement ».

Actuellement, l’utilisateur distant peut piloter le robot depuis son ordinateur. Dans le futur, les réseaux mobiles ultra-rapides LTE (Long Term Evolution) permettront à l’utilisateur de commander le robot depuis un téléphone portable, rendant l’utilisation du système possible à n’importe quel endroit. NEC compte d’abord peaufiner les fonctions de vidéoconférence du robot avant de commercialiser le système complet.

Le Japon mise aussi sur les nanotechnologies

Une équipe de chercheurs de l’Université de Nagoya (Japon), en collaboration avec une équipe de chercheurs de l’Université d’Aalto (Finlande), a réussi à fabriquer sur un substrat plastique un circuit imprimé en nanotubes de carbone.

Le développement de circuits imprimés souples suscite un grand intérêt de la part des industriels, notamment pour la fabrication de papier électronique. Plusieurs techniques visant à fabriquer des TFT (transistors à couches minces) souples existent à ce jour. L’une consiste à utiliser des semi-conducteurs en silicium ou en oxyde de zinc, mais les procédés de fabrication sont complexes (traitement thermique, procédé sous vide). L’utilisation de matériaux organiques est également à l’étude mais ces derniers présentent encore une faible mobilité des électrons. Une autre solution très prometteuse est l’emploi de nanotubes de carbone, connus pour leur haute mobilité des électrons.

Jusqu’à présent, les scientifiques pouvaient produire des transistors avec des nanotubes de carbone par une méthode d’enrobage, à partir d’une solution liquide de nanotubes. Il est néanmoins difficile, selon les chercheurs, d’obtenir par cette méthode de fines couches uniformes. De plus, il est difficile de se débarrasser entièrement du solvant.

L’équipe nippo-finlandaise a donc développé un nouveau procédé de fabrication de nanotubes de carbone par dépôt chimique en phase vapeur. Ceux-ci sont ensuites filtrés puis transposés sur le substrat plastique. Cette technique permet d’obtenir des couches uniformes et pures (sans solvant). De plus, elle peut être utilisée dans un procédé roll-to-roll, une méthode rapide et économique d’impression de circuits électriques sur un substrat flexible, qui consiste à déposer un circuit électrique sur un substrat enroulé sous forme de bobine que l’on déroule au fur et à mesure de l’opération.

Les transistors obtenus par cette méthode présentent de meilleures caractéristiques que ceux obtenus par la méthode par enrobage. Ainsi, dans le procédé habituel par enrobage, les nanotubes de carbone sont dispersés par ultrason, ce qui a tendance à réduire leur taille. De plus, la présence du solvant augmente la résistance électrique au niveau des connections entre les nanotubes. La mobilité des électrons dans les TFT obtenus s’en retrouve réduite (1 cm2/V.s). Avec la nouvelle méthode, les nanotubes de carbone, purs, conservent une taille plus longue. Les chercheurs ont ainsi obtenus une mobilité de 35 cm2/V.s. De même, les transistors se caractérisent par un rapport Ion/Ioff  plus élevé (6.10^6) que le rapport des transistors fabriqués en utilisant la méthode précédente (10^4 à 10^5).

La réalité augmentée dans les entreprises japonaises

La société japonaise NS Solutions Corporation et la société américaine Vuzix Corporation ont co-développé une solution de réalité augmentée destinée au travail en entreprise. Le but de cette solution est d’être capable de transmettre des informations sur des procédés de fabrication à un nouvel employé plus efficacement que l’actuel processus de formation. En effet, tout employé doit être formé à son nouveau poste et, compte-tenu du manque à venir de personnel très expérimenté, le remplacement du personnel formateur par des méthodes électroniques d’apprentissage est envisagé.

L’idée de NS Solutions est donc de créer une méthode de formation simple utilisant la réalité augmentée et permettant de guider les nouveaux employés dans leurs nouvelles tâches. Par exemple, un ouvrier pourrait apprendre de lui-même son nouveau métier, directement à son poste de travail, grâce aux indications données par le logiciel de réalité augmentée et sans l’aide d’une autre personne.

NS Solutions a fait appel à Vuzix, un fabricant américain de lunettes vidéos et de réalité augmentée, pour mettre en place son idée. Les lunettes utilisées (nom de code : Raptyr) ont obtenu le Prix de l’Innovation 2011 du CES (Consumers Electronics Show) car malgré leur apparence de simples lunettes de soleil, elles intègrent un projecteur d’images holographiques miniature, capable d’ajouter des images par superposition dans le champ visuel de l’utilisateur. Ces lunettes sont les premières au monde, dans le cadre d’applications de réalité augmentée, à utiliser un système de transmission optique (c’est-à-dire capable de rajouter par superposition des objets graphiques à la vue réelle, en opposition aux systèmes à transmission vidéo, qui bloquent le champ de vision de l’utilisateur et le remplacent par l’utilisation d’un signal vidéo). La luminance de l’image superposée est de 240 cd/m2, ce qui est suffisant pour une utilisation dans une pièce normalement éclairée. Néanmoins, une fonction permettant de bloquer électroniquement une partie de la lumière est également disponible pour une utilisation dans des endroits plus lumineux (par exemple, en lumière naturelle). La résolution des images est de 800 x 600 pixels pour chaque oeil (les images pouvant être combinées pour réaliser des superpositions en 3D).

Il est pour l’instant nécessaire que les lunettes soient connectées à un serveur, ce qui suppose qu’elles soit physiquement reliées (par un câble USB) à un ordinateur situé dans un sac à dos porté par l’utilisateur. Les lunettes intègrent une caméra, et les objets, personnes ou images peuvent être utilisés par les lunettes pour l’ajout de contenu graphique en temps réel. La reconnaissance et le suivi des objets sont réalisés, d’après Nikkei Electronics, par l’utilisation d’un logiciel de la société française Total Immersion, spécialisée dans les applications de réalité augmentée.

Sources : Ademe, CEA, ASN, LeMonde.fr, Bulletins électroniques, Les Echos

Priorité à l’optimisation des processus métiers

L’amélioration et l’automatisation des processus figurent parmi les préoccupations majeures tant des dirigeants que des décideurs métiers et des responsables informatiques. En effet, sur 100 décideurs interrogés sur ce sujet par Markess International, société d’études spécialisée dans l’analyse de la modernisation des entreprises et administrations avec les technologies de l’information, un sur cinq considère que son organisation est engagée au plus haut niveau stratégique dans de tels projets, et la moitié estime qu’il s’agit d’un engagement significatif impliquant des processus clés de leur organisation.

De multiples facteurs incitent à conduire de tels projets : les décideurs en avancent en moyenne entre 7 et 8 (efficacité opérationnelle, productivité, réactivité, traçabilité, satisfaction client…). Il s’agit aussi bien de facteurs internes à leur organisation que de catalyseurs en lien avec les clients ou partenaires externes. Selon le profil des décideurs et le secteur d’activité de leur organisation, certains facteurs ressortent plus que d’autres. Les projets d’amélioration et d’automatisation des processus sont en effet des leviers non seulement pour gagner en agilité opérationnelle et en efficience dans les prises de décision, mais aussi pour mieux maîtriser, voire réduire, les coûts (de traitement d’un dossier, d’une demande, d’un suivi client, de gestion d’événements complexes…).

L’optimisation et l’automatisation des processus métiers avant tout

Selon les décideurs interrogés, ce sont les processus métiers qui sont ciblés en priorité par leurs programmes ou projets d’amélioration et d’automatisation. Près de quatre processus métiers sont cités en moyenne par les décideurs. Au-delà des besoins propres à la DSI en lien avec la recherche d’agilité et la mise en place de nouveaux modèles de développement applicatif et de gestion des ressources, ces projets se concentrent avant tout sur les processus internes, qu’ils soient dédiés à un métier (finance/comptabilité, RH, relation client, vente, achats, production) ou transverses à l’organisation (pilotage, gestion documentaire, collaboration…).

Selon 57 % des décideurs, il existe par ailleurs des liens étroits entre ces différents processus métiers qui peuvent, par conséquent, de moins en moins être gérés en silos, ce qui est pourtant encore le cas de la majorité des organisations. « L’intégration de processus tiers externes reste encore marginale ou est sinon très ciblée et centrée sur des processus précis, dans le cadre de relations client-fournisseur étroites ou s’appuyant sur des systèmes standardisés, tel que l’EDI dans la chaîne logistique par exemple » note Emmanuelle Olivié-Paul, Directrice Associée de Markess International.

Des visions différentes entre dirigeants, décideurs métiers et responsables informatiques

Un autre constat ressort de cette étude : les visions et approches de l’amélioration et de l’automatisation des processus semblent résolument différentes entre :

  • le dirigeant qui a une vision orientée vers la performance, l’amélioration continue et le respect de la conformité. Il donne la priorité aux axes de progrès et aux tableaux de bord. Il a besoin de solutions de pilotage et de mesure de la performance ;
  • le décideur métier qui a une vision opérationnelle. Il donne la priorité à la modélisation et à la méthodologie et fait porter son choix plutôt sur une solution « sur mesure » ;
  • le responsable informatique qui a une vision technique afin de satisfaire ses propres problématiques (automatisation, industrialisation, EAI, SOA, intégration, maintenance…). Il donne la priorité au choix technologique et à l’utilisation d’outils évolutifs.

Des processus en permanente évolution nécessitant des solutions adaptées

Pour 64% des décideurs interrogés, et indépendamment des visions partagées de chacun, les solutions en place ne couvrent que partiellement les besoins liés à l’amélioration et à l’automatisation des processus. Le plus souvent, les décideurs indiquent qu’ils gèrent ces aspects par le biais d’applications spécifiques, de leur PGI/ERP de solutions dédiées de type BPM (Business Process Management) ou liées à la dématérialisation ou encore à la gestion de contenu ou d’information (de type ECM ou EIM). La plupart de ces solutions intègrent la gestion de workflow et des fonctionnalités collaboratives, fortement demandées par les décideurs interrogés. Dans l’ensemble, il ressort une demande de plus en plus forte en solutions répondant à des besoins propres aux métiers.

L’un des enjeux clés aujourd’hui pour les décideurs interrogés est de comprendre aussi comment ces solutions épousent les besoins actuels et à venir de leurs directions fonctionnelles et comment les nouveaux processus vont y être intégrés et gérés. Cette démarche introduit la notion d’amélioration continue des processus, sachant que les systèmes et applications en place n’ont, pour la plupart, pas été prévus pour accueillir ainsi en dynamique et sans développement spécifique complémentaire de nouvelles demandes, ni par ailleurs pour intégrer des processus gérés dans des applications en ligne à la demande de type SaaS (Software as a Service). Il semblerait par ailleurs que les besoins des décideurs évoluent et s’orientent vers des solutions évolutives et flexibles activant, entre autres, des services web.

Des décideurs faisant appel à des offreurs aux profils variés et en quête de ROI

Fort de ce constat, il s’avère que le marché de l’amélioration et de l’automatisation de processus voit intervenir des acteurs spécialisés des processus qui côtoient des offreurs généralistes ou spécialistes métiers (RH, CRM…), aux côtés d’autres prestataires dont les solutions sont dédiées à des domaines plus transverses comme la gestion d’information (ECM, EIM, document management), la dématérialisation, ou encore le pilotage (analytique, reporting…) et le décisionnel.

Du côté des offreurs de solutions, des mouvements se dessinent afin de mieux répondre aux attentes évoquées. Ils sont marqués du sceau du développement de modèles métiers, de la consolidation entre solutions (contenus, dossiers, processus, interactions humaines, middleware…) et de l’essor de suites ou de plates-formes unifiées dédiées à la gestion de processus et de dossiers (notion anglo-saxonne de « case management »). Il faut également prendre en compte le développement du « cloud computing » et d’applications proposées en mode SaaS (Software as a Service) avec les nouveaux enjeux d’intégration et d’interopérabilité qu’elles engendrent.

Quoiqu’il en soit et indépendamment des diverses solutions existantes sur le marché, la réussite des projets d’amélioration et d’automatisation des processus reste avant tout fortement conditionnée à l’implication du top management et aux retours sur investissement (ROIs) générés. C’est justement de tels ROIs que les offreurs de solutions doivent mettre en avant.

 

M.C.

Production d’énergie électrique par sources renouvelables

L’électricité, forme propre de l’énergie par excellence, est aujourd’hui produite, à près de 80 % , grâce à la combustion des carburants fossiles ou de l’uranium 235 (fission nucléaire), ressources épuisables [D 3 900]. Elle contribue ainsi abondamment à la production de déchets nuisibles pour l’environnement. Les ressources énergétiques renouvelables sont pourtant considérables et parfaitement capables, à long terme, de satisfaire la majeure partie de nos besoins. Mais outre l’hydroélectricité, technologie parfaitement mature, les solutions de conversion des ressources renouvelables, que sont le soleil, le vent, la houle, la biomasse, etc., sont encore en phase de décollage industriel et ne représentent qu’une faible part dans le bilan global.

Après de nombreux soubresauts, les contraintes environnementales, le rapprochement de l’échéance d’épuisement des ressources fossiles et fissiles ainsi que les soucis d’indépendance énergétique conduisent depuis les années 1990 à un décollage significatif des filières de production d’électricité d’origine renouvelable, qualifiées de nouvelles, c’est-à-dire hors « grande hydroélectricité ».

Le présent article a pour objectif principal de faire prendre conscience, au lecteur, des évolutions des « filières nouvelles » ainsi que de leur potentiel énergétique et économique. Enfin, il est loin d’être exhaustif, notamment dans les domaines les plus émergents dans lesquels la « nature économique » n’a pas encore opéré de sélection.

LIRE LA SUITE

Développement durable : implications pour l’industrie

Le lecteur doit garder à l’esprit que le développement durable est aujourd’hui une notion en cours de construction. Comme l’explique Olivier Godard : « On peut regretter que le développement durable ne fasse pas l’objet d’une définition rigoureuse, voire scientifique. Le malaise ne peut être nié, mais il faut se garder de le rejeter au profit d’une gestion technocratique. Le développement durable ne s’impose pas comme expression d’une objectivité scientifique ou d’une norme éthique incontestable. Il est d’abord l’affaire d’interprétation et de projets. Il faut accepter le temps de l’hésitation et de la recherche que nécessite la maturation des conceptions ».

Dans une première partie, cet article reprend les idées de chercheurs, pour la plupart économistes, qui ont travaillé dans ce domaine, puis fait l’inventaire des pressions existantes contribuant à amener l’entreprise à s’intéresser au développement durable. Dans une deuxième partie, il explicite, en s’appuyant sur des exemples, les différentes composantes d’une stratégie de développement durable pour une entreprise. Cette approche correspond au point de vue développé par l’APDD, résumée dans 17 fiches thématiques [23], vade mecum donnant à l’entreprise des moyens opérationnels pour mettre en œuvre une stratégie de développement durable.

LIRE LA SUITE

Activités internationales de l’entreprise : la nouvelle donne

Aborder aujourd’hui le nouveau contexte international, revient inévitablement à évoquer les thèmes de la mondialisation et de la globalisation, notions génériques qui se sont affirmées ces dernières années pour rendre compte de l’évolution du système international. Il s’agit de termes de plus en plus employés et sujets à de nombreuses polémiques. La globalisation a souvent une image soit très polémique et négative, soit réductrice et limitée à la simple expansion du « commerce ». Pourtant, le processus de globalisation ne saurait se réduire au libre-échange et englobe une libération des restrictions sur les mouvements des capitaux à une échelle globale. Il s’agit en effet de faciliter la circulation des hommes, des marchandises, des idées, et de prolonger l’accès aux investissements, aux ressources naturelles autrefois domaine exclusif des États. C’est pourquoi la vision globale de ce nouveau contexte donne naissance à de nouveaux risques, à de nouvelles opportunités et à de nouveaux enjeux aussi bien au niveau micro et macro-économique que politique ou social. Les inégalités par exemple sont, aussi bien à l’échelle du globe qu’au niveau individuel et des États, au centre des préoccupations. L’évolution du contexte global les augmente-t-elle ? Faut-il continuer à développer les échanges pour les réduire ? Ou au contraire s’enfoncer dans le repli, le protectionnisme et le « patriotisme économique » ?

Tout comme l’ont été le capital, le travail et les ressources naturelles, les progrès technologiques des télécommunications, des transports sont indiscutablement les moteurs de ce nouveau contexte international en perpétuelle et rapide mutation. Ils sont les moteurs d’une économie fondée sur le savoir. Si l’on souhaite aujourd’hui être un acteur de l’économie globale, il est indispensable de maîtriser tous les aspects liés à la connaissance. Il s’agit en partie de savoir la gérer, la produire, l’acquérir ; et ce, aussi bien pour la petite PME exportatrice, que pour l’État français par exemple qui, par son action ou inaction, influe sur la compétitivité des entreprises françaises et sur la place de la France au plan mondial.

LIRE LA SUITE

« Créer un réseau de jeunes »

Instantanés Techniques : La Fondation Renault fête ses dix ans…

Hélène MAIRESSE : En effet. Nous existons depuis une dizaine d’années. Depuis 2001, nous sommes très centrés sur nos activités d’éducation. Nous avons deux piliers : la mobilité durable et le management multiculturel. Ce sont les deux axes autour desquels nous travaillons pour monter de nouvelles formations et pour attribuer des bourses à environ 70 étudiants par an pour suivre ces programmes.

Parlez-nous des deux programmes mis en place sur le thème « mobilité durable ».

Nous avons accueilli, en septembre dernier, les premiers étudiants du nouveau master « mobilité et Véhicule électrique », lancé en 2010. Nous proposons aussi le master « transport et développement durable », depuis 2004. Nous collaborons avec des écoles d’ingénieurs pour ces formations.
Le fait de travailler avec des réseaux d’écoles permet également à l’entreprise de se questionner continuellement sur ses propres choix stratégiques. On réfléchit, avec les écoles, sur nos besoins relatifs à cette thématique, pour être au plus près des attentes du marché.
Ensuite, l’objectif de ces formations est aussi de créer un réseau de jeunes qui ont des fonctions dans des grandes entreprises internationales. Pour créer ce réseau, il est nécessaire d’établir des liens forts, c’est dans ce sens que nous offrons ces bourses pour permettre aux étudiants qui le souhaitent d’intégrer nos programmes.

Au niveau du recrutement, suivre ces formations peut-il être un plus ?

L’objectif premier n’est pas lié à une éventuelle embauche. Il n’y a aucun engagement réciproque. Nous suivons bien sûr le parcours de nos étudiants avec intérêt, mais comme je vous l’ai dit, les échanges et le tissage de liens forts avec l’enseignement sont notre priorité.

Propos recueillis par Pierre Thouverez.

225 000 emplois pour la filière électrique d’ici 2015 ?

Les entreprises qui évoluent dans les secteurs liés à la production ou à la distribution d’énergie sont très nombreuses, et avec des spectres d’activités larges. Cette filière, mal connue, représente plus de 400 000 emplois. Les défis des entreprises qui constituent cette filière vont être nombreux dans les années qui arrivent.

 

Il ne faut pas oublier que durant de nombreuses années, dans le secteur de l’énergie, les choix de politiques industrielles de la France ont très largement favorisé la filière nucléaire depuis de nombreuses années. Mais ce n’est pas tout. En effet, il est incontestable que la France accuse un retard certain dans le domaine des énergies renouvelables, que ce soit dans la production à proprement dite mais aussi et surtout dans l’innovation et le développement de technologies permettant de les produire. Si la France rattrape partiellement son retard en matière de production d’énergies renouvelables, il n’en est rien dans le domaine des équipements permettant de produire ces énergies.

Alors que la production d’énergies renouvelables en France augmente fortement, les biens d’équipements dans ce secteur doivent être importés. Les filières du solaire photovoltaïque et des pompes à chaleur sont les principaux contributeurs à ce déficit. Le secteur de l’éolien est dominé par des entreprises danoises, allemandes et espagnoles qui subissent une forte concurrence chinoise. Le domaine du solaire est largement dominé par les entreprises allemandes, là encore menacées par les entreprises chinoises. Dans ces secteurs la bataille fait rage pour le leadership et la France ne fait pas partie des compétiteurs. Au niveau du secteur du photovoltaïque, cela est encore pus vrai depuis l’annonce du moratoire, début 2011.Les estimations sur les cinq années à venir, en ce qui concerne la filière, sont plutôt positives. En effet, ce sont 225 000 emplois qui devraient être créés entre 2010 et 2015, dans les domaines d’activités suivants :

  • Conception / études (R&D)

  • Chargé d’affaires / Technico commercial

  • Production / fabrication

  • Essais / tests de qualification

  • Maintenance

Etant donné l’aspect transversal évident des activités qui constituent ce secteur, le Comité de filière a décidé de diviser ce secteur en sept sous-secteurs, pour analyser les problématiques de manière plus cohérente. Voici ces sept sous-secteurs : 

 

 

La filière « Construction électrique, électromagnétique et réseaux » constitue une filière globalement centrée sur les différentes technologies liées à l’électricité, à travers sa production, son transport, sa distribution, son stockage, son utilisation et sa transformation. Les sociétés actuelles, complètement dépendantes de l’électricité, le savent : sécuriser l’approvisionnement en électricité est vital. Il suffit de voir les chaos provoqués par les récents black out survenus aux Etats-Unis pour s’en convaincre.

Aujourd’hui, l’ « énergie électrique » fait bien entendu partie intégrante des réflexions dans le Grenelle de l’environnement en termes de maîtrise de l’énergie et de réduction des émissions de CO2. L’Energie électrique, dans le cadre de la croissance verte, constitue un enjeu majeur du siècle à venir. Un certain nombre de technologies sont mises en avant pour réduire notre dépendance au pétrole et pour s’attaquer aux problèmes liés au CO2. 

Les métiers d’avenir

L’électricien est un métier d’avenir, il s’en trouve renforcé désormais par les nouveaux besoins résultant de la croissance verte. Après, certains secteurs ont des mutations à préparer. Notamment, dans le cas des métiers de la filière « Construction électrique, électromécanique et réseaux », le profil type de l’électricien évolue à travers une sensibilisation aux problèmes de l’Eco-conception et du recyclage, à travers également une initiation à l’économie verte et enfin par la maîtrise des TICs. Cependant, ce nouveau profil d’emploi vert n’a de sens qui si les compétences du cœur de métier restent inchangées, voire renforcées dans certains cas.

Toujours selon le comité de filière, les trois défis majeurs à relever par la filière « Construction électrique, électromécanique et réseaux », déclinée suivant un certain nombre de secteurs activités, sont les suivants :

  • Le soutien à l’émergence de nouveaux métiers ou activités ;

  • L’accompagnement de mutations que devront connaître les métiers de certains secteurs ;

  • L’orientation et la qualification de main d’œuvre vers les secteurs bénéficiant de gisements d’emplois du fait notamment des dispositions du Grenelle de l’environnement. 

Par Pierre THOUVEREZ

 

Sources : developpement-durable.gouv.fr, BCG

Chimie verte, la nouvelle formule magique

Les secteurs des carburants et de la chimie sont emblématiques des enjeux du développement durable. L’un représente une source considérable d’émission de gaz à effet de serre, via notamment leur utilisation dans les transports, et l’autre est émetteur de nombreuses espèces chimiques pouvant entraîner des pollutions. À côté de cela, ces secteurs industriels constituent un vivier considérable en termes d’activité économique et d’emploi. Les produits fabriqués sont universellement utilisés et sont constitutifs d’une grande part des progrès des autres industries, des transports, du bâtiment, de la santé et de l’agriculture.

À travers le développement des biocarburants et le développement d’une nouvelle chimie dite « verte » ou durable, ces secteurs sont en bouleversement. Le Grenelle a fixé comme objectif de passer, entre 2005 et 2015, la part de matières premières renouvelables pour ces industries de 5,3 à 15 %. La directive européenne REACH, succédant à d’autres règlements internationaux a créé un nouveau cadre d’exercice des industries de la chimie. Enfin, la hausse des coûts de l’énergie, la mise en place du marché des crédits d’émission ETS, les contraintes financières et réglementaires sur le traitement des déchets, le besoin de minimiser les impacts externes ont conduit à un regain d’activité au plan des procédés industriels. Un vent nouveau d’innovation s’est levé.

L’enjeu est capital en termes d’innovation, de maintien de filières de production de carburants nationales et de création de produits nouveaux d’une chimie française qui reste la deuxième en Europe et la cinquième mondiale. Une part importante des progrès attendus dans les secteurs des transports et du bâtiment ne seront possibles que si le secteur des carburants et de la chimie arrive à s’ajuster aux nouvelles exigences. Si l’on élargit le regard vers les « clean-tech » dans le monde, on constate un fourmillement de recherches, de créations d’entreprises, de nouveaux concepts qui seront la source des emplois de demain, dans les grands groupes comme dans des start-up.

Un enjeu capital et transversal

400 000 emplois sont reliés, de manière plus ou moins directe, à ces secteurs et à leur évolution : peu de nouveaux métiers, mais des compétences en évolution, un rôle clé de l’innovation, des déficits de main d’oeuvre locaux et des risques sectoriels La prise en compte du développement durable affectera un certain nombre de compétences et de conditions d’exercice de ces compétences : attitudes, prise en compte plus large de l’environnement (amont, aval, parties prenantes, certification) d’un produit ou d’un procédé. Ces aspects transversaux doivent être enseignés à tous les niveaux. De plus, les personnes en formation doivent se trouver dans un milieu de formation lui même exemplaire. Ces secteurs, peu attractifs en raison d’une image dévalorisée, bénéficieraient d’une plus forte mise en avant de leur contribution au développement d’une croissance verte.

Gérer au mieux les évolutions

Les principales évolutions à prévoir :

  • Biogaz : son utilisation comme carburant de véhicule est en expérimentation. En cas de développement du parc de véhicules roulant au gaz, il faudra développer des compétences spécifiques autour de la sécurité/certification. De même, des unités de bio-méthanisation individuelles, dans des exploitations agricoles, pourront se développer. Il faudra veiller à ce que la technicité des artisans installateurs locaux soit suffisante ;

  • Biocarburants : le développement actuel des biocarburants de première génération est limité. Le nombre estimé d’emplois générés, quelques milliers, reste modeste et la compétition avec les utilisations alimentaires limiteront son expansion. Une évolution plus significative concernera les biocarburants de deuxième et de troisième génération ; avec une intensité capitalistique plus faible et plus de main d’oeuvre à l’unité d’oeuvre qu’une raffinerie ; si les biocarburants se substituent aux carburants classiques dans les proportions prévisibles, cela créera des emplois ;

  • Hydrogène : à ce stade, l’utilisation d’hydrogène carburant de piles à combustibles est un enjeu de recherche, mais n’est pas identifié comme déjà porteur d’emplois en dehors des laboratoires à court ou même moyen terme ;

  • Transports : Les transports de carburants ne paraissent pas devoir connaître d’évolutions importantes ;

  • Distribution : si le mix énergétique se diversifie, le schéma de la distribution évoluera. En particulier, l’éventuelle co-existence sur un site de distribution de carburants liquides, gazeux, et d’électricité de puissance peut amener des enjeux de sécurité et déboucher sur un nouveau métier de « gestionnaire de distribution d’énergie » ;

  • Installation et procédés : les métiers de l’engineering seront fortement sollicités par les révisions et intensification de procédés nécessaires à l’évolution des sites européens ;

  • Chimie verte : l’identification de 4 technologies clé en développement : procédés catalytiques, biotechnologies industrielles, chimie analytique, et nanotechnologies.

Les possibilités d’évolution sont réelles, mais il leur sera nécessaire d’inclure largement et mobiliser sur le développement durable, favoriser l’esprit d’innovation et d’entreprise… En effet, une partie significative de la croissance liée à la chimie verte devant se faire par l’innovation et la création d’entreprise, développer des formations mixtes techniques/managériales. Ensuite, il faut maintenir les formations techniques centrées sur des coeurs de métier large (chimie, procédés, conduite d’installation), dont les contenus sont considérés satisfaisants, et ne pas développer de formations « environnementales » trop spécifiques. Enfin, intégrer dans les cursus des modules spécifiques aux notions de chimie verte (principes, analyse de cycle de vie, éco-conception, toxicologie, responsabilité, procédés propres, matières premières naturelles, éthique) qui ne devraient pas dépasser 10 % des enseignements et doivent intégrer des aspects comportementaux d’intégration du développement durable dans les pratiques professionnelles.

Par P.Thouverez

Sources : ECHA, ADEME, Ministère de l’écologie, du développement durable, des transports et du logement

 

Exposition Science et Fiction – Aventures croisées

Le monde de la SF est présenté sous toutes ses formes culturelles et artistiques : littérature, cinéma, bande dessinée, art graphique, jeux vidéos… Extraits de films, objets issus des tournages de séries et de films cultes, affiches de cinéma, planches de BD, manuscrits anciens, galeries de robots et d’extraterrestres, maquettes de vaisseaux, etc., invitent le visiteur à découvrir les thèmes majeurs de la SF tels que l’exploration de l’espace, le voyage dans le temps, les robots, les civilisations futures ou alternatives, les sociétés extraterrestres…

L’exposition propose aussi de s’interroger sur l’influence réciproque de la SF et de la science. Les auteurs de SF ont toujours mêlé avec talent, fiction, spéculations scientifiques, exploration des futurs ou des mondes possibles, en partant des connaissances scientifiques et des technologies de leur époque. Ils nous donnent les clés pour anticiper l’impact des nouvelles technologies sur nos comportements et nos sociétés, et mettent l’accent sur les dérives et les dangers possibles.

Pour rendre compte du dialogue permanent entre science et SF, certaines notions scientifiques et technologies actuelles – exploration de l’espace, exobiologie, nanotechnologies, concept de l’homme augmenté, réalité virtuelle, etc. – sont abordées tout au long de l’exposition au milieu des oeuvres de SF.

Lieu : Cité des Sciences et de l’Industrie, 30 avenue Corentin-Cariou, 75019 Paris

Date : du 21 octobre 2010 au 3 juillet 2011

Site Internet

 

Auteur : C.C.

Nouveaux projets pour le transport de demain

Avec cinq de ses nouveaux projets retenus pour un financement public dans le cadre du 11e appel à projets du Fonds Unique Interministériel, le pôle de compétitivité en R&D Automobile et Transports publics Mov’eo a, à ce jour, labellisé 214 projets de R&D dont 116 ont reçu le soutien des pouvoirs publics à hauteur de 199 millions d’euros.

Avec plus de 300 membres, Mov’eo qui poursuit ainsi sa dynamique de projets collaboratifs autour de ses axes stratégiques (électrification des véhicules, systèmes mécatroniques, systèmes de recharge d’énergie électrique, réduction des émissions polluantes…) accorde une large place aux PME qui sont fortement représentées dans ces cinq projets puisque elles assurent plus de 38 % de l’effort R&D soit 6,9 millions d’euros.

Sur l’ensemble de ces projets qui représentent un budget total de près de 18,4 millions d’euros et une aide demandée de 7,5 millions d’euros, deux sont portés pas des PME et 10 PME sont partenaires.

Un car scolaire innovant 100 % électrique

Les collectivités locales affichent une réelle volonté de « verdir » leur parc de véhicules, notamment les cars scolaires. Or il n’existe sur le marché que des solutions de transports thermiques, avec des impacts forts en termes de nuisances sonores et environnementales.

Le projet Scol’Elec porte sur le développement d’un nouveau type de véhicule, un car scolaire 100 % électrique répondant aux besoins des collectivités locales, aussi bien en France qu’à l’international. Il s’illustrera par la réalisation d’un véhicule démonstrateur, équipé d’un châssis mécanisé d’origine Renault Trucks, d’une carrosserie Carrier et sera entièrement électrifié par une chaîne cinématique dédiée développée par PVI, une PME porteur du projet, en partenariat avec Carrier Carrosserie, Pro Cars, IFP Energies Nouvelles Projet.

Des méthodes de test standardisées

L’électrification des véhicules induisant la maîtrise des niveaux de robustesse des composants, sous-systèmes et systèmes soumis aux phénomènes de surtensions et de sur-courants, le projet SESAMES (Study for Electrical overstress Standardization And Measuring Equipment Set-up) vise à rendre les composants et systèmes plus robustes et fiables dès leur conception ainsi que lors de leur fabrication et de leur utilisation. Il porte sur le développement de méthodes de test standardisées en vue de les faire adopter par les organismes de normalisation internationaux.

Porté par la PME Presto Engineering, en partenariat avec Renault, Valeo, STMicroelectronics, NXP, IRSEEM et LaMips, SESAMES aboutira à un prototype de testeur fonctionnant suivant ces méthodes normalisées, afin de caractériser et de garantir la fiabilité des composants et systèmes considérés. Il va permettre la mise au point d’une technologie de fiabilisation essentielle pour le succès du véhicule électrique de demain. Un de ses enjeux phares est de créer un centre d’excellence en fiabilité électrique en Basse-Normandie qui s’appuiera sur le développement de compétences et de moyens qui en constituent l’objet.

La transmission d’énergie sans contact

Pour supprimer l’aspect fastidieux et incommode du branchement du câble électrique qui constitue un frein pour le développement du véhicule électrique, un moyen de faciliter cette opération est d’utiliser un système de transmission d’énergie sans contact par couplage magnétique entre l’émetteur et le récepteur. C’est l’objet du projet CINELI (Charge INductive ELectrique Interopérable) qui doit proposer un « standard » pour permettre de coupler des émetteurs avec des récepteurs de fournisseurs différents.

Ce projet porté par Renault, en partenariat avec la PME New Tech Concept, Schneider Electric et LGEP, a pour but de développer des méthodes et outils afin que les impacts d’interopérabilité, de rendement et de tolérance soient pris en compte dès les phases de conception des systèmes de transmission de puissance par induction.

Un composant de distribution variable électromagnétique

L’optimisation des performances des moteurs et ce, quelque soit le régime de fonctionnement, est une préoccupation importante des constructeurs pour répondre aux obligations de réduction des émissions de CO2. Pour répondre à cette problématique pour les moteurs essence, la technique dite de « distribution variable » consiste à faire varier le calage, la durée d’ouverture et/ou la levée des soupapes d’admission et d’échappement, essentiellement en fonction du régime, de la charge et de la demande d’accélération.

Le projet e-Lift3 porté par Valéo, en partenariat avec PSA Peugeot-Citroen, PRISME, SATIE, ASTEELFLASH Technologie et 3 trois PME (EMC France, Cedrat et Danielson), porte sur le développement d’un composant de distribution variable électro-magnétique permettant d’adresser l’optimisation des motorisations essence 3/4 cylindres avec un apport coût/prestation non couvert par l’offre actuelle.

Des composants mécaniques en acier inoxydable

Les ruptures technologiques dans l’aéronautique et dans l’automobile nécessitent de remplacer les solutions traditionnelles en acier non inoxydable qui utilisent des traitements polluants par des solutions inoxydables. Le projet MEKINOX vise le développement d’une filière industrielle pour l’utilisation d’aciers inox de nouvelle génération pour des applications vis à billes, roulements, engrenages, axes et pièces de structures sollicités en fatigue.

L’intérêt de ce projet porté par SAGEM Défense et Sécurité, en partenariat avec Aubert & Duval, Safran, SKF, Valeo, Messier Bugatti, EADS, ADR, TRANSROL, Sofiplast (PME), UF1 (PME), André LAURENT(PME), ACM (PME), Quertech Ingenierie (PME), l’Université de Rouen, l’Université de Tours, l’Université Paris-13, Cetim, Supméca et cinq PME (Sofiplast, UF1, André LAURENT, ACM et Quertech Ingenierie), est double :

  • performance économique : diminution des coûts de maintenance, augmentation de la durabilité et de la sécurité ;
  • performance environnementale : suppression des traitements de surfaces polluants comme le cadmiage et le chromage dur. 

Un audit va être réalisé sur le parc nucléaire français

Deux semaines après le terrible tremblement de terre et le tsunami ayant frappé la côte nord-ouest du Japon, ainsi que la catastrophe nucléaire qui s’en est suivi, l’interrogation voire l’inquiétude gagne tant une partie de la classe politique française que les Français eux-mêmes sur l’état des centrales nucléaires françaises. Le premier ministre François Fillon a donc chargé ce vendredi 25 mars l’ASN (Autorité de Sûreté Nucléaire) de mener un audit sur la sûreté du parc nucléaire français, dont les conclusions ne seront fournies que vers la fin de l’année 2011.

Outre l’étude individuelle de chacune des centrales (qui n’est réalisée qu’une fois tous les 10 ans !), l’audit concernera cinq points principaux : « les risques d’inondation, de séisme, de perte des alimentations électriques et de perte du refroidissement ainsi que la gestion opérationnelle des situations accidentelles ». Alors qu’il apparaît impossible d’envisager une sortie du nucléaire en France tant nos besoins et notre production sont énormes et inextricablement liés, cet audit intervient dans un climat résolument hostile vis à vis du nucléaire, le jeu n’en valant pas la chandelle pour une assez grande majorité des Français (70 %.d’après un sondage Ifop).

Rappelons que le parc nucléaire français est constitué de 19 centrales nucléaires en exploitation, totalisant 58 Réacteurs à Eau Pressurisée (REP), dont les plus vieux ont été construits dès 1971, pour une mise en service à partir de 1977. Ces réacteurs, dont l’exploitant n’est autre qu’EDF, couvrent 80 % de la production française d’électricité, ainsi que près de 20 % de la consommation totale d’énergie en France. Il est utile de préciser que l’ASN est une autorité indépendante dont le financement est assuré par l’État, s’appuyant sur les travaux de l’Institut de Radioprotection et de Sûreté Nucléaire (IRSN).

Pour repère, les Réacteurs à Eau Bouillante (REB) 1, 2 et 3 de la centrale de Fukushima Daiichi ont été mis en service entre 1970 et 1974, pour une durée de vie initiale de 40 ans.

M.R.

Vers des systèmes de cryptographie quantique plus sûrs

La cryptographie quantique permet de sécuriser la transmission de données en utilisant des clefs générées et échangées à l’aide de particules quantiques, les photons. Comme la mécanique quantique stipule que toute observation de l’état quantique d’une particule modifie cet état, toute tentative d’interception de la clef par un espion peut en principe être repérée par les utilisateurs. La sécurité des protocoles de cryptographie quantique est donc absolue et garantie par les lois mêmes de la physique. En théorie oui, mais en pratique ?

La sécurité d’un protocole de cryptographie quantique repose sur le fait que les appareils quantiques mesurent bien les bonnes propriétés physiques des photons, celles qui permettent de détecter un espion éventuel. Or, des défauts d’implémentation ou des failles du système peuvent compromettre la sécurité d’un système de cryptographie quantique sans laisser de trace visible aux utilisateurs. De tels défauts d’implémentation (corrigés depuis) ont été exploités l’année dernière par des « hackers quantiques » pour casser complètement les principaux systèmes de cryptographie quantique actuellement commercialisés.

Depuis quelques années, suivant une approche initiée par Jonathan Barrett alors postdoc à l’Université libre de Bruxelles (ULB), les chercheurs s’intéressent à des protocoles de cryptographie quantique dont la sécurité, si elle se base toujours bien sur les lois de la physique quantique, ne repose en revanche sur aucune hypothèse sur le fonctionnement interne des appareils quantiques.

Première preuve complète de sécurité de nouveaux systèmes de cryptographie

Les appareils quantiques sont décrits comme des « boîtes noires » qui reçoivent des données à l’entrée et produisent en réponse des données à la sortie. Pourvu que les deux utilisateurs observent certaines corrélations particulières entre les données produites par leurs boîtes
noires respectives, le caractère secret des clefs générées par les appareils quantiques est garanti indépendamment de toute hypothèse sur leur fonctionnement interne. En principe, les appareils quantiques pourraient même avoir été conçus par l’espion lui-même.

En dehors de son intérêt pratique, qui rend toute tentative d’attaque du système futile, cette approche représente sur un plan plus conceptuel, le niveau ultime de sécurité permis par nos connaissances physiques actuelles. Il restait cependant encore à prouver que cette nouvelle approche était en effet sûre, ceci n’avait été fait jusqu’à présent que pour certaines attaques restreintes. Il fallait aussi montrer que cette nouvelle approche permettait de générer des clefs à un taux raisonnable.

C’est ce qu’ont démontré Stefano Pironio de la Faculté des Sciences de l’ULB et Lluis Masanes et Antonio Acín de l’Institut des Sciences Photoniques à Barcelone qui, dans un article paru le 16 mars dans la revue Nature Communications, établissent la première preuve complète de sécurité de ces nouveaux systèmes de cryptographie pour des taux de génération de clefs comparables à ceux des systèmes actuels. Bien que leur preuve de sécurité repose sur une petite hypothèse sur le fonctionnement des appareils quantiques, qui peut se justifier dans certaines implémentations, leurs résultats démontrent que cette nouvelle approche est en principe possible et représentent une avancée vers des systèmes de cryptographie quantique plus sûrs.
 

Dans le rétroviseur : le glorieux passé du béton high-tech

Dans le monde du béton, ce qui est vieux, voire antique, tient de nouveau le haut du pavé. Construit il y a près de 1 900 ans par les Romains, le Panthéon de Rome est le plus grand monument romain antique ayant aussi bien subi l’épreuve du temps. Sa coupole de 43 m de diamètre reste la plus grande coupole de béton non-armé jamais construite au monde. Sa résistance aux mutilations volontaires et aux nombreux tremblements de terre de la région a focalisé sur le Panthéon l’intérêt des ingénieurs du génie civil du monde entier.

Le secret de cette longévité et de cette résistance tiendrait dans l’utilisation par les ingénieurs de l’époque d’un béton très léger qui aurait pris et se serait durci de l’intérieur. Ce béton, issu d’un procédé dénommé « cure interne du béton » (maintenir au contact du béton frais une humidité favorable à l’hydratation du ciment), donne de meilleurs résultats en terme de force, de résistance aux fissures et de durabilité. « Mais cela ne fait que depuis une dizaine d’années que l’impact du béton résultant de cette « cure » se fait sentir dans les infrastructures du monde entier, tels que les tabliers de ponts, les chaussées, les parkings, les réservoirs d’eau… » comme le souligne le rapport que vient d’être publié par le NIST (National Institute of Standards and Technology), faisant passer la durée de vie d’un tablier de pont de 22 ans (pour du béton standard) et 40 ans (pour du béton high-tech), à 63 ans pour ce béton.

Les qualités de ce béton proviendraient du remplacement d’une partie du sable et des pierres grossières habituellement mélangés au ciment pour élaborer le béton traditionnel, par de légers matériaux absorbants et pré-humidifiés, dispensant leur eau plus lentement et permettant la prise lente et interne. Bien que ce procédé coute 10 à 12 % plus cher, il est rapidement amorti par sa longévité et ses frais d’entretien revus à la baisse.

 

Des cellules photovoltaïques battent des records

Au sein de son centre de recherche Rainer Lemoine basé à Bitterfeld-Wolfen, en Allemagne, Q-Cells, un des leaders mondiaux de l’industrie photovoltaïque, dispose d’une équipe de plus de 200 scientifiques et ingénieurs dont l’objectif est de réduire durablement les coûts de la technologie photovoltaïque afin de la rendre plus compétitive et de favoriser son développement rapide à travers le monde. En misant ainsi sur la R&D, Q-Cells vient de battre, avec plusieurs de ses produits, des records validés par des laboratoires indépendants.

Un rendement de 17,84 % pour des cellules multicristallines

Un record mondial pour le développement d’un module de cellules multicristallines affichant un rendement de 17,84 % (et même 18,45 % en pic) et une puissance de 268 Watts a été confirmé par le laboratoire d’étalonnage de l’ESTI (European Solar Test Installation), une agence européenne indépendante.

Cette performance unique a été obtenue grâce à la réalisation d’un module de 1,492 m2 contenant 60 cellules multi-cristallines de 156 par 156 millimètres issues de la ligne de production de Q-Cells, sur son site de Bitterfeld-Wolfen. Ce résultat sera prochainement utilisé pour la production en série d’une nouvelle génération de module, attendant des rendements qui devraient atteindre 20 % selon PeterWawer, Vice-Président pour la technologie chez Q-Cells.

Une puissance moyenne de 5,8 kWh/kWp/j pour des cellules CIGS

Testé dans le désert australien, à côté d‘Alice Springs, par le centre indépendant DKASC (Desert Knowledge Australia Solar Centre) pendant une période allant d’août 2010 à janvier 2011, un module Q.Smart, de technologie couche mince CIGS (cuivre, indium, gallium et sélénium), a délivré une puissance moyenne de 5,8 kWh/kWp/j dans des conditions climatiques extrêmes. Il s’agit du meilleur résultat obtenu avec cette technologie, les autres modules CIGS de taille équivalente du marché offrant des performances comprise entre 5,1 et 5,3 kWh/kWp/j. Ce module est d’ailleurs, selon Q-Cells, le seul module CIGS du marché à afficher un rendement de 13 %.

Du prototype à la commercialisation

Le prototype QC-05 des modules de technologie cristalline Q.Pro et Q.Base qui a, quant à lui, été testé par le centre DKASC de mars 2010 à janvier 2011, a également obtenu le meilleur résultat, avec une performance moyenne de 5,3 kWh/kWp/j alors que la puissance moyenne des autres modules du marché se situe entre 4,6 et 5,1 kWh/kWp/j.
 

La collaboration étroite entre les services commerciaux, la production et la R&D qui permet à Q-Cells d’industrialiser la production de ses innovations et de les mettre sur le marché en un temps record, se traduira par le lancement en France, courant 2011, d’une nouvelle génération de modules Q.Pro et Q.Smart, à partir des performances obtenues par le prototype QC-05. 

Des éoliennes plus efficientes

Dans le cadre du cycle de conférences « Poster Sessions » de l’EWEA (European Wind Energy Association), principal salon européen consacré à l’énergie éolienne, des ingénieurs de Moog, un des leaders des solutions pour les éoliennes à pas variables, de bagues collectrices et de monitorage de rotor d’éolienne, ont présenté deux monographies techniques sur les thèmes suivants :

  • Un modèle de système de réglages de pales (Pitchsystem) pour une simulation plus réaliste de la charge des pales d’éolienne ;
  • Comment accroître la rentabilité des éoliennes par la mesure de la charge des pales.

Un nouveau modèle de système de réglage de pales

Réalisée conjointement par Steffen Adelt et Tobias Rösmann de Moog Allemagne, la première monographie traite d’un nouveau modèle de système de réglage de pales. Celui-ci tient compte des comportements linéaires et non linéaires, distinction essentielle en raison de la singularité des éoliennes comparé à de nombreux autres types de simulation de charge.

Selon Steffen Adelt, « le système de pas des éoliennes fonctionne comme déclencheur pour contrôler la vitesse du rotor et sert de frein d’arrêt en cas de défaillance. Pour les grandes éoliennes, les algorithmes de réglage sont chargés de réduire les charges de fatigue et utilisent eux aussi le réglage des pales comme déclencheur. Cependant, ces boucles de régulation ne prennent souvent pas en compte le comportement réel de la commande. Dans le nouveau modèle, la simulation de charge finale est plus proche de la réalité et permet ainsi aux fabricants et aux opérateurs de disposer de systèmes plus performants. »

Les auteurs ont également exposé quelques avantages du nouveau système de Moog de réglage de pales. Son logiciel de réglage écrit en langage C++ peut être intégré à divers outils de simulation, Compilé sous forme d’une bibliothèque de liens dynamiques (DLL), il est facile à incorporer aux logiciels de calcul des charges des turbines les plus courants, comme par exemple GH Bladed ou Flex5.

Le contrôle des charges de pales est possible

Pour la seconde monographie préparée par Edward Wilkinson de Moog United Kingdom, en collaboration avec Mark Osborne, Glynn Lloyd, Toby King et Paul Bridges, c’est ce dernier qui, se basant sur des études de cas, a exposé comment le monitorage des charges de pales peut permettre de diagnostiquer rapidement les déperditions d’énergie et ainsi permettre d’accélérer le retour sur investissement. Selon lui, « même la plus perfectionnée des éoliennes ne fonctionne pas toujours de la manière la plus efficace. Des différences au niveau de la fabrication, de l’installation et de la mise en service, ainsi que d’éventuels dégâts intervenus pendant le transport ou pendant la maintenance, peuvent entraîner des pertes d’efficience et des déséquilibres. La plupart des systèmes de monitorage actuellement disponibles détectent les dysfonctionnements et non leurs causes. »

En préambule à sa présentation, Bridges a précisé que « beaucoup d’éoliennes présentent un important balourd des pales et même un déséquilibre entre leur angle d’attaque, au-delà du seuil critique. Jusqu’à présent, il était impossible de mesurer ces charges directement pour diagnostiquer ce type de problème car les éoliennes n’ont pas de capteurs capables de mesurer de manière fiable la part imputable à chaque pale. Pourtant, il est possible de contrôler les charges de pales afin d’optimiser la production d’énergie et de détecter les charges invalidantes avant qu’elles n’endommagent l’éolienne.

 

Décollage du stockage de l’hydrogène sous forme solide

Le groupe Enel, plus grande entreprise d’électricité d’Italie et deuxième en Europe en termes de capacités installées, a récemment commandé à McPhy Energy un système de stockage d’une capacité de 2 kg d’hydrogène sous forme d’hydrure de magnésium. Le réservoir a été conçu suite aux essais réalisés au CEA-Liten de Grenoble sur le réservoir pré-industriel Hymage (au cours de cette évaluation, le réservoir McPhy Energy a été couplé à un électrolyseur et à une pile à combustible).

La solution de McPhy Energy sera intégrée dans une chaine complète de technologies innovantes dont l’éolien, le photovoltaïque, la production et le stockage d’hydrogène. Le réservoir Mc Phy Energy sera installé sur la zone d’expérimentation de Livourne (Italie) et le projet sera supervisé par un groupe de chercheurs du Centre de Recherche d’Enel de Pise.

Moins d’un mois plus tard, c’est Iwatani Corporation, la première société sur le marché de l’hydrogène au Japon, qui a signé un contrat avec McPhy Energy pour la fourniture d’un système de stockage de 4 kg d’hydrogène. McPhy Energy installera un système complet de stockage d’hydrogène industriel sur un site d’Iwatani, au Japon. Le contrat a été signé après que les experts d’Iwatani aient, pendant un an, évalué la technologie de McPhy Energy et visité les installations des laboratoires du CNRS et du CEA en France où les réservoirs de McPhy sont déjà utilisés.

« En fournissant l’hydrogène de manière fiable, sûre et économique, Iwatani fait avancer la quête japonaise d’une réelle économie de l’hydrogène », déclare un responsable du marché hydrogène d’Iwatani. « La technologie de stockage solide de McPhy Energy offre une solution unique aux défis de ce marché. »

Ces deux commandes marquent le véritable développement commercial de la technologie McPhy Energy qui détient des droits exclusifs sur un portefeuille de brevets uniques, qui sont l’aboutissement de plus de 8 années de recherche au CNRS et au CEA, en partenariat avec l’Université Joseph Fourier. Ce procédé, caractérisé par un stockage de l’hydrogène sous forme solide, dans des hydrures de magnésium, qui ne requiert pas de compression, constitue une solution innovante pour un stockage sûr et réversible de l’hydrogène, avec une excellente efficacité énergétique.

Trois méthodes de stockage de l’hydrogène

L’hydrogène ayant une densité d’énergie massique très élevée mais étant un gaz très léger, son stockage et son transport constituent de véritables défis. Le but des technologies de stockage de l’hydrogène est donc de réduire le volume naturellement occupé par l’hydrogène dans son état thermodynamiquement stable dans des conditions ambiantes.

Historiquement, les méthodes de stockage sont basées sur la compression et la liquéfaction (stockage direct), qui sont maintenant des approches établies et d’un bon rendement mais qui impliquent  d’énormes problèmes de sécurité et de coûts associés à la compression et au refroidissement. En pratique, l’hydrogène gazeux doit être comprimé à plusieurs centaines d’atmosphères et stocké dans une cuve ou un réservoir sous pression fait d’acier ou d’un matériau composite. Une opération qui utilise 10 à 25 % du contenu énergétique du gaz. Quant au stockage de l’hydrogène sous forme liquide, il est encore plus onéreux : il nécessite des investissements et des installations lourdes pour sa liquéfaction, sa conservation et sa mise en œuvre sous forme liquide à 20 Kelvin (-253°C).

La troisième alternative, très prometteuse, consiste à stocker l’hydrogène sous forme d’hydrures métalliques, lesquels ont fait l’objet d’études intensives depuis de nombreuses années, offrant un stockage de l’hydrogène sécurisé, réversible avec un excellent rendement énergétique (pas de compression).

La solution : les hydrures métalliques

McPhy a développé des techniques uniques qui résolvent les limites traditionnelles de l’hydrogène sous forme solide. Son procédé, qui offre un rendement énergétique de 97 %, fait appel à des hydrures métalliques, des composés chimiques formés lorsque l’hydrogène réagit avec certains métaux et qui offrent une densité volumique beaucoup plus élevée que le gaz comprimé ou liquide. Ce sont les hydrures de magnésium (MgH2) qui ont été retenus pour le stockage de masse, des additifs et la nano-structuration du MgH2 aidant à accélérer le processus d’hydrogénation et de déshydrogénation du magnésium pendant les cycles d’adsorption/désorption.

Ces hydrures de magnésium qui sont produit sur le site de fabrication actuel de McPhy offrent de nombreux avantages :

  • un stockage totalement réversible : pour une température donnée, si la pression est au-dessus d’un certain niveau (la pression d’équilibre), le métal absorbe l’hydrogène pour former un hydrure métallique. Si la pression est en-dessous de la pression d’équilibre, il y a désorption de l’hydrogène et le métal revient à son état d’origine. La pression d’équilibre varie en proportion directe de la température ;
  • un chargement à la pression de l’électrolyseur (10 bar) ;
  • un déchargement à la pression de la pile à combustible/turbine à gaz H2 (2 bar) ;
  • pas de compression pendant le processus de chargement/déchargement (économies d’énergie, de coûts et de maintenance) ;
  • une grande stabilité au cyclage ;
  • le magnésium est un matériau abondant et bon marché, sans aucun impact sur l’environnement. Du fait de leur non-réactivité avec d’autres matériaux, les hydrures de magnésium n’ont pas à être stockés dans des conteneurs faits de métaux spécialement traités ;
  • le stockage de l’énergie thermique dans un réservoir adiabatique stationnaire. Un matériau à changement de phase (MCP) breveté mis en contact thermique à travers les parois métalliques avec le composite McPhy permet de stocker l’énergie thermique pendant le chargement et de la récupérer pendant le déchargement.

Les marchés de l’hydrogène industriel et des énergies renouvelables

Aujourd’hui, la production industrielle de l’hydrogène provient essentiellement du reformage de gaz naturel (95 % de la production mondiale) et, moins fréquemment, de méthodes de production d’hydrogène à plus forte intensité énergétique telles que l’électrolyse de l’eau. McPhy cible le secteur de l’hydrogène vendu par les fournisseurs de gaz industriels, qui inclut l’hydrogène liquide ou gazeux distribué en bouteilles, par pipelines, camions-citernes ou rail. Sa technologie permet de remplacer ce schéma logistique complexe par une production d’hydrogène sur site, associée à des conteneurs de stockage sous forme solide, permettant aux utilisateurs d’hydrogène industriel de :

  • réduire les risques industriels grâce à un stockage plus sécurisé ;
  • réduire la consommation d’énergie sachant que le stockage de l’hydrogène consomme traditionnellement jusqu’à 33 % de l’énergie contenue dans le gaz ;
  • réduire les émissions de CO2 et l’empreinte écologique (10 t de CO2/t H2).

Autre marché visé, celui des énergies renouvelables. Au cours des trente dernières années, même si les technologies des énergies renouvelables sont devenues matures grâce aux nombreuses expériences qui ont été menées à bien (en particulier dans le domaine de l’énergie solaire et éolienne), leur utilisation en tant que source d’énergie en grandes quantités a depuis longtemps été limitée à quelques centrales électriques actives produisant des quantités limitées d’électricité. Le déploiement de ces technologies suit aujourd’hui une nouvelle tendance avec une croissance impressionnante et une part plus importante de la production d’électricité. Pour ce marché, McPhy permet un stockage de l’énergie en grandes quantités sous forme d’hydrogène, permettant de :

  • réduire l’imprévisibilité et le caractère intermittent de la production des énergies renouvelables ;
  • résoudre le problème de l’écart temporel entre la production (offre) et la consommation (demande).

Les centrales peuvent soit reconvertir l’hydrogène en électricité à l’aide d’une pile à combustible, soit alimenter le marché de l’hydrogène à travers les réseaux de canalisations existants ou des conteneurs de stockage transportables McPhy. 

Mise au point d’une nouvelle lentille pour microscope 3D

Les microscopes 3D ne sont pas exactement une nouveauté. En première ligne viennent par exemple les microscopes 3D à déconvolution, qui utilisent notamment de multiples lentilles simultanément, voire même des appareils photos tournant tout autour de l’objet. Cette toute nouvelle lentille est la première lentille statique générant seule une image en trois dimensions.

Moulée dans une matière thermoplastique commune, le polyméthacrylate de méthyle, à savoir le plexiglas, la lentille prototype, à peine plus grande qu’un ongle, ressemble à s’y méprendre à une pierre précieuse, dont le sommet plat serait entouré de huit facettes asymétriques, dont la base serait plate, et dont les détails (d’une dizaine de nanomètres) ont été réalisés à l’aide d’un diamant de découpe. Ce type de lentilles, appelées lentilles « free-form » (lentille progressive dont la surface est modulée, point par point), n’existait pas encore pour les microscopes.

Le côté « facettes » de la lentille est orientée vers l’observateur, alors que le côté plat est orienté vers l’objet. Chacune des facettes fournit une image vue d’un angle différent, et ces images, une fois capturées et recombinées à l’aide d’un logiciel, composent l’image en 3D de l’objet observé.

Cette lentille s’adapte aux équipements déjà existants, et permet de réaliser une économie matérielle non négligeable. Ses vertus pourront se faire sentir dans le domaine de la microélectronique, ou encore dans celui des appareils médicaux, leur permettant de simplifier leur appareillage nécessaire à l’observation des petits composants qu’ils assemblent.

M.R.

Réussir un projet ECM

Une solution ECM (Enterprise Content Management) ou de gestion de contenu minutieusement choisie et la mobilisation de ressources qualifiées ne garantissent pas le succès de la mise en œuvre d’un projet. En effet, 33 % des déploiements ECM échouent selon les conclusions du rapport « Gartner, Predicts 2010 : Content Management Evolves and Devolves ». Les éléments pouvant conduire à l’échec prennent plusieurs formes : défaut d’adhésion des utilisateurs finaux, gestion inefficace du changement, absence d’une ligne stratégique claire à l’échelle de l’entreprise… Autant de données complémentaires qu’il convient de prendre en compte.

En se focalisant sur les détails de la mise en œuvre, les directeurs de projets ont tendance à occulter l’aspect le plus important du projet : l’adoption par les utilisateurs finaux. Les fournisseurs et les clients de solutions d’ECM connaissent cette technologie mais ils ont tendance à négliger le fait que l’automatisation des processus métier aura un effet négatif sur les collaborateurs si l’on ne prend pas en compte leurs habitudes de travail. Une bonne stratégie de gestion du changement en amont est donc indispensable pour une adaptation réussie. De plus, il faut s’attacher à bien identifier les besoins des utilisateurs finaux.

Par ailleurs, au vu de l’évolution rapide du contexte de l’informatique, avec notamment la gouvernance de l’information et les modèles de cloud computing, les organisations ont besoin d’une stratégie globale bien définie et d’une vision à long terme de leurs projets de gestion de l’information. Les contraintes de temps et de budget jouent également un rôle important dans l’échec des projets d’ECM. En effet, les entreprises sont parfois sujettes à des réglementations complexes et elles ne prennent pas suffisamment en compte l’expérience de leurs pairs. Les chefs de projet tendent à sur-développer et personnaliser leurs applications. Cela se traduit par des déploiements longs, complexes, risqués et coûteux. Les organisations ont tendance à vouloir couvrir un champ fonctionnel très vaste dès le départ, et ce malgré un budget insuffisant ou des ressources humaines inadaptées. A l’inverse, il faut débuter avec un projet limité et le terminer effectivement avant de se lancer sur un autre projet. Cette démarche par pallier permet d’éviter les risques d’échecs dus aux dépassements de budgets.

Pour mener à bien un projet ECM, trois aspects sont à prendre en compte :

  • un focus sur les utilisateurs finaux : l’adoption par l’utilisateur final est la clé d’une mise en œuvre réussie. Les responsables IT et les chefs de projets doivent commencer à regarder de plus près l’impact culturel associé à cette mise en œuvre. L’application des processus radicalement différents et la promotion de l’utilisation des applications que les utilisateurs ne connaissent pas conduiront à des difficultés certaines. L’intuitivité et l’expérience utilisateur sont des critères importants dans le choix de la solution ECM. Plus la solution fournit une interface utilisateur familière, plus la charge de formation sera réduite et mieux elle sera acceptée par les utilisateurs finaux ;
  • la gestion du changement : ne pas anticiper la gestion du changement conduit à l’échec du projet ECM. Il est important que les organisations planifient les opérations à mener pour faire face aux changements induits par le projet ECM. Dans le cadre d’une stratégie de gestion du changement efficace, les organisations doivent impliquer les utilisateurs dès le début, au stade de la planification du projet. Il est souhaitable de faire un plan de communication qui fera état de toutes leurs peurs, des objectifs du projet et des bénéfices au quotidien. Il s’agit d’impliquer le personnel en lui démontrant comment ces changements vont améliorer l’environnement de travail. Des réunions régulières et planifiées avec les intervenants, des sessions d’échanges, des tables rondes sur les usages… sont autant de mesures à intégrer dans une stratégie de gestion du changement réussie ;
  • la gouvernance de l’information : également évoquée par Gartner comme les « outils d’évaluation de contenu », elle est la façon dont une organisation gère et contrôle son information. Parce que le contenu doit être exploitable, classé et structuré, les organisations doivent mettre en place une bonne gouvernance de l’information au sein de leur SI. En parallèle, l’information doit être éliminée d’une manière logique afin de réduire le coût et la difficulté de sa gestion quand elle n’a pas plus de valeur. Décider quelle information doit être conservée et celle qui doit être éliminée est un processus complexe. La gestion des risques, le respect de la réglementation, le contrôle des mails, l’e-discovery… sont autant de raisons pour lesquelles une initiative ECM couronnée de succès repose sur une bonne stratégie de gouvernance de contenu. Les organisations doivent donc mettre en place un ensemble de règles et de procédures qui contrôlent la façon dont leur information sera gérée tout au long de son cycle de vie.

Au delà de ces éléments, d’autres facteurs sont également identifiés comme le choix des bons outils, la mise en œuvre de projets pilotes, la création d’un centre de compétences ECM, le choix d’une stratégie d’entreprise …. Autant de sujets qu’il convient de ne pas perdre de vue.

Ziad Wakim, Vice-Président de Solutions Ever Team 

Quand le bon sens révolutionne le management de projets

Il faut un certain courage, une volonté tenace et une envie d’innover pour remettre en cause les règles établies et en bâtir de nouvelles, basées sur le bon sens et l’envie de trouver des réponses simples à l’apparente complexité des projets. La Chaîne Critique, tout droit venue de la Théorie des Contraintes, répond à cette démarche et devient la pratique de tous ceux qui révolutionnent l’exécution des projets pour mieux respecter leurs challenges de performances, de coûts et de délais.

À travers les trois règles socles de la Chaîne Critique, il apparaît aussi que mettre du bon sens est parfois plus ardu que prévu, surtout lorsque ce même bon sens se heurte à des croyances bien ancrées, à des habitudes parfois documentées au titre de « best practices », ou à des comportements humains naturels mais qui restent de vrais pièges.

Règle 1 : adapter l’encours de projets à la capacité de l’organisation

Imaginez un bouchon sur une autoroute ; il apparaît assez logique que pour résoudre le bouchon et améliorer le flux des voitures, les bretelles d’accès à cette autoroute soient contrôlées : plus il y a de voitures qui rejoignent l’autoroute déjà congestionnée, plus difficile et long sera un retour à la normale. Inversement, s’il est possible de réguler les accès en les adaptant à la « capacité » de l’autoroute à drainer le flux de circulation, il sera alors plus aisé et rapide de résorber le bouchon. Il en est de même des projets : si ces derniers sont lancés sans tenir compte de la capacité des organisations à les exécuter, il est fort possible qu’ils n’avanceront pas comme prévu et le portefeuille de projets va subir de nombreux retards. Ce retard étant vécu comme une fatalité, nombreux sont ceux qui décident alors de commencer leurs projets au plus tôt et donc d’ajouter dès que possible d’autres projets à une machine qui n’arrive déjà pas à faire face…

La Chaîne Critique apporte ici sa première contribution essentielle : adapter l’encours de projets à la capacité de l’organisation à faire ces projets. Cette capacité est en particulier déterminée par une « contrainte », c’est-à-dire parmi tous les contributeurs aux projets, une équipe métier, une compétence, une étape souvent commune à tous les projets qui va rythmer à elle-seule le flux global des projets. Cette première règle pleine de bon sens reste néanmoins compliquée à mettre en pratique, tant il est difficile de résister à « l’envie » de lancer immédiatement de nouveaux projets ; pas simple non plus d’admettre l’existence d’une contrainte et de l’identifier comme telle dans des organisations où la grande majorité des équipes se disent surchargées et où il est de rigueur de tout faire pour charger celles qui ne le seraient pas encore…

Règle 2 : mutualiser toutes les sécurités affectées à chaque tâche

Autre règle de bon sens allant à l’encontre de ce qui se pratique sur le terrain : si l’on veut finir un projet à l’heure, malgré les aléas inévitables, il faut prévoir de la sécurité pour ce projet. Or, on constate que d’une manière quasi systématique, la sécurité n’est pas prévue pour le projet dans son ensemble mais bien plutôt pour chacune des tâches ou étapes le constituant. Ceci découle directement de la demande faite aux acteurs projets de s’engager sur une estimation de délai associée à leurs tâches. S’engager, c’est mettre en jeu sa légitimité, sa compétence, la confiance accordée. Lorsque cela n’est pas fait à la légère, l’estimation, parce qu’elle a valeur d’engagement, doit être la plus fiable possible. Et comment rendre fiable une durée susceptible d’être impactée par l’aléa ? En intégrant autant de sécurité que possible. C’est donc bien au niveau de chacune des tâches qu’une marge est prise, ceci pour garantir que chaque tâche ait une forte probabilité de finir à l’heure. Et pourtant, finir un projet à l’heure n’impose pas que chaque tâche le soit ! D’autant plus que la sécurité prise au niveau de la tâche ne profite pas au projet : soit elle est « consommée » car l’aléa redouté est survenu, soit elle est gaspillée car les comportements humains naturels poussent à ne pas rendre en avance une copie terminée (loi de Parkinson), ou à ne pas commencer tout de suite un sujet pour lequel il existe du temps pour l’imprévu (syndrome de l’étudiant). Ainsi, les sécurités gaspillées sur les tâches n’arrivent jamais à protéger l’ensemble du projet.

La Chaîne Critique apporte donc sa deuxième contribution en phase de planification : il faut mutualiser toutes les sécurités usuellement affectées à chaque tâche pour constituer une protection conséquente, visible et partagée au niveau du projet. Cette protection (appelée « buffer ») est là pour couvrir les aléas, sa gestion au niveau du projet permet d’éviter son gaspillage et incite à commencer à travailler sur les tâches au bon moment et à prévenir dès qu’une tâche est terminée.

Règle 3 : élaborer un indicateur, visible de tous, pour cadencer l’ensemble des tâches

La troisième règle qui structure la Chaîne Critique permet d’optimiser l’exécution des projets : il s’agit ici de mettre de la logique dans l’ordonnancement et les priorités des tâches. Pour cela éviter les ordres et contre-ordres, les priorités du jour contredites par celles du lendemain, les urgences sans arrêt revisitées… Un indicateur objectif et non discutable, visible de tous et pragmatique, permet de cadencer l’ensemble des tâches d’un portefeuille de projet. Cet indicateur fournit l’état d’avancement réel d’un projet en calculant le pourcentage de buffer consommé au regard de l’avancement de la Chaîne Critique (la chaîne la plus longue d’un projet basée sur le lien fonctionnel – chemin critique – et sur la capacité des ressources)  du projet. Ainsi, la « santé » d’un projet et des tâches le constituant devient directement lisible à travers la valeur de l’indicateur. Si un arbitrage est nécessaire dans l’allocation des ressources, il est alors simple et logique d’affecter prioritairement les ressources aux projets les moins « en forme ».

Un autre intérêt indéniable de la Chaîne Critique est de focaliser l’attention du chef de projet sur l’essentiel : l’exécution de la Chaîne Critique. Ce n’est pas en comptabilisant le nombre de tâches effectuées, les heures consommées ou les dépenses engagées qu’il est possible de déterminer l’avancement d’un projet. C’est plutôt en mesurant le chemin parcouru au regard du chemin total (pourcentage d’avancement de la Chaîne Critique au regard de la durée de la Chaîne Critique) que l’on peut jauger le progrès.

Cela revient à dire que pour un voyage Paris-Strasbourg de 450 kilomètres, compter les kilomètres parcourus ne renseigne pas nécessairement de ceux restant à parcourir, encore moins lorsque l’itinéraire effectivement retenu n’est pas le plus direct. Il faut se rendre à l’évidence : les détours, déviations et voies parallèles, même s’ils existent, nécessaires ou imposés, ne réduisent pas le trajet principal.

La mise en place de la Chaîne Critique a permis de réaliser des gains exceptionnels, y compris dans des secteurs très innovants comme ceux de l’électronique : une réduction avérée de 40 % des temps de cycle des projets par exemple autorise l’organisation qui a implémenté la Chaîne Critique à développer plus de projets avec la même capacité. Par ailleurs, la possibilité d’être à l’heure dans ses développements est un facteur clef du « time to market » et représente, au-delà des diminutions des coûts, les retards étant systématiquement liés à des dépassements importants de budgets, une opportunité d’engendrer des revenus plus vite sur des marchés compétitifs.

Isabelle Icord, co-fondatrice et directrice associée de ProCC Conseil et Philip Marris, fondateur et Directeur Général de Marris Consulting

 

    

 

« L’état des piscines contenant les combustibles usés est devenu le point le plus préoccupant »

Techniques de l’ingénieur : Quels types de réacteurs sont concernés par les évènements tragiques au Japon ?

Il s’agit de réacteurs de type BWR (Boiling Water Reactor), soit « à eau bouillante ». En bas de la cuve du réacteur, on injecte de l’eau. Elle remonte le long des gaines des crayons de combustible. Cette eau est échauffée surtout par transfert thermique au contact des crayons et un peu par collision des neutrons qu’elle ralentit. Elle se chauffe donc en même temps qu’elle refroidit les crayons et modère le réacteur. Dans la partie supérieure de la cuve, au-dessus des assemblages de combustible, elle devient gazeuse (ébullition). Cette vapeur sort ensuite du bâtiment de confinement, passe dans les turbines, puis dans un condenseur avant d’être réinjectée sous forme liquide dans la cuve.

Quelle est la différence avec les réacteurs français ?

Un réacteur bouillant fonctionne dans une gamme de températures similaire et à une pression plus basse que celles des réacteurs français. Ceux-ci sont tous des réacteurs de type PWR (Pressurized Water Reactor) soit « à eau pressurisée ». Dans le monde, la filière PWR représente approximativement 60 % des réacteurs en fonctionnement, les BWR presque tout le reste.

La filière PWR se distingue donc de la filière BWR par le fait que l’eau « primaire », c’est-à-dire l’eau qui passe au contact des crayons de combustible, est maintenue sous forte pression et ne devient jamais gazeuse. Par ailleurs, elle ne quitte jamais l’enceinte de confinement du réacteur.

L’eau sortant de la cuve du réacteur, traverse dans une tubulure un dispositif échangeur de chaleur (le générateur de vapeur) placé lui-aussi dans l’enceinte de confinement du réacteur. De l’autre coté de la tubulure passe à contre-courant l’eau d’un circuit dit « secondaire ». Celle-ci s’échauffe puis se vaporise. C’est cette vapeur qui part dans des turbines puis, après condensation au contact d’une source d’eau froide, est renvoyée dans le générateur de vapeur

 » La fusion des réacteurs n’est plus aujourd’hui le point le plus préoccuant, surtout depuis que l’autorité de sûreté japonaise a autorisé l’injection d’eau de mer et qu’on incorpore à celli-ci du Bore, un élément qui étouffe les fissions. » Hubert Flocard

Quel est le danger spécifique de ces réacteurs ?

Il n’est pas fondamentalement différent pour les BWR et les PWR. Le problème n’est pas lié à l’emballement des réacteurs, car une propriété de l’eau fait que plus la température augmente, plus la réactivité du réacteur baisse. Les réacteurs de Fukushima, comme les réacteurs français, sont des réacteurs intrinsèquement stables. Ceci les distingue en particulier du réacteur de Tchernobyl qui lui était instable.

La  phase de fonctionnement la plus sensible des systèmes PWR et BWR, très bien connue des ingénieurs, est au contraire mal perçue par le public. Elle tient à l’évacuation de la chaleur résiduelle lorsque le réacteur vient juste d’être arrêté. Cette phase s’étale ensuite sur plusieurs semaines.

L’évacuation de la chaleur résiduelle nécessite de faire tourner de l’eau pour refroidir les assemblages de combustibles dans la cuve. Ceux-ci sont chauffés par l’intense radioactivité des produits de fission, alors même que les réactions en chaîne sont stoppées. En état de fonctionnement, un réacteur dont la puissance électrique est de 1 gigawatt (GW) – les réacteurs 1, 2, 3 et 4 de Fukushima sont plus petits –  développe une puissance thermique voisine de 3 GW. Lorsqu’on arrête les réactions en chaîne, au bout de peu de temps, la puissance thermique dans la cuve tombe à une dizaine, quinzaine de mégawatts (MW), soit 200 à 300 fois moins. Les dégagements de chaleur restent néanmoins très importants.

En cas d’arrêt en conditions normales ou incidentelle, il n’y a pas de problème particulier. Soit, le réseau électrique externe permet de faire tourner les pompes d’un circuit de refroidissement, soit, si la connexion au réseau électrique est interrompue, on fait appel à des diesels de secours pour alimenter les pompes.

Dans le cas des réacteurs Fukushima 1, 2 et 3 qui étaient en fonctionnement, le tremblement de terre, mais surtout le tsunami, ont rendu ces deux dispositifs de secours indisponibles en même temps. Le refroidissement du cœur du réacteur n’étant plus assuré, température et pression montent. Il faut  relâcher de la vapeur de la cuve vers des bacs de décompression prévus à cet effet. Le niveau de l’eau dans la cuve baisse. Graduellement, les barres de combustible se découvrent alors qu’elles devraient toujours rester immergées sous eau. C’est ce qu’on appelle le « dénoyage ».

Les crayons de combustible se dégradent et laissent sortir des produits de fission dans la cuve. De plus, la pression monte alors dans les bacs de décompression qui ne sont pas prévus pour fonctionner à un tel régime. Au bout d’un certain temps, pour faire baisser cette pression, l’opérateur relâche de la vapeur d’eau mélangée à des gaz (dont de l’hydrogène et des gaz radioactifs) hors du bâtiment de confinement dans le bâtiment réacteur et de façon ultime dans l’atmosphère.

Y’a-t-il un risque que les cœurs de réacteur entrent en fusion ?

Cela dépend de ce qu’on entend par « fusion ». Si la température augmente trop, les enveloppes métalliques des crayons, qui sont généralement faites dans un alliage à base de zirconium, peuvent se fendre. Il se crée ainsi un contact, qui n’a jamais lieu en fonctionnement normal, entre le combustible et l’eau, entrainant des produits de fission, très mobiles.

Quand les barreaux de combustibles sont partiellement hors d’eau et hors refroidissement, leur température interne qui dépasse 1 000°C au centre du crayon, conduit à une dégradation ou une destruction de la gaine métallique qui peut alors fondre. Elle peut aussi s’oxyder par réduction chimique de l’eau à haute température libérant alors de l’hydrogène. Tant que celui-ci reste dans la cuve, où il n’y pas d’oxygène, il n’est pas particulièrement dangereux. Par contre, une fois relâché du bâtiment de confinement vers le bâtiment réacteur où il s’accumule en présence de l’oxygène de l’air, on obtient un mélange explosif. C’est l’explosion de cet hydrogène qui a détruit les bardages des bâtiments de trois réacteurs.

Au sein de la cuve, le terme « fusion » correspond plutôt à une dégradation irréversible des crayons (tout ou partie) et l’accumulation du combustible issu des crayons endommagés au fond de la cuve. C’est le « corium »

Est-il possible que le corium perce la cuve et passe ensuite dans le sol ?

La cuve en acier et le béton sont là pour faire barrage. C’est ce qui est arrivé lors de l’accident de Three Mile Island (1979). La cuve a résisté. Sans être impossible, le scénario dit du « syndrome chinois » n’est donc pas le plus probable.

À mon avis, la fusion des réacteurs n’est plus aujourd’hui le point le plus préoccupant, surtout depuis que l’autorité de sûreté japonaise a autorisé l’injection d’eau de mer et qu’on incorpore à celle-ci du Bore, un élément qui étouffe les fissions.

Quel est le point le plus inquiétant selon vous ?

Ce sont les piscines et les combustibles usés. Même si la puissance ici est encore plus faible que dans les cuves (sur le premier réacteur, on parle de 0,3 MW à évacuer, sur le quatrième, 3 MW), elle est loin d’être négligeable. Sans circulation de refroidissement, elle fera bouillir l’eau. Le danger vient alors de ce que les combustibles usés, qui ne sont pas confinés dans un bâtiment dédié, se retrouvent au contact de l’air après évaporation de l’eau des piscines, puis se dégradent et relâchent des produits radioactifs. Dans la configuration de Fukushima, les piscines sont placées en haut du bâtiment du réacteur. Elles peuvent avoir été endommagées par les explosions hydrogène et ne plus être étanches.

La comparaison avec Tchernobyl est-elle fondée ?

Si l’on base la comparaison sur le scénario de déroulement de l’accident, la réponse est non, car les causes et le déroulement sont totalement différents. Si par contre on se réfère au niveau de pollution radioactive qui pourrait s’ensuivre, dans l’hypothèse la plus pessimiste en particulier au niveau des piscines, il y aurait effectivement similitude.

Comme pour Tchernobyl, cela va donner lieu à une zone de no man’s land…

Bien sûr. Toutefois les questions qui restent sont d’une part son extension et d’autre part sa durée. Ils dépendront des quantités et de la nature des produits relâchés ainsi que de la météorologie. La zone d’interdiction de Tchernobyl a été définie selon le panache radioactif lui-même piloté par la direction et la force des vents. S’il y a des relâchements, ce sera la même chose pour Fukushima. Actuellement, la radioactivité n’est très dangereuse que sur le site de la centrale. Dans tous les cas, il semble que les relâchements consisteront surtout en produits de fission (pas d’uranium ni de plutonium).

La pollution de long terme sera alors définie par la distribution de l’isotope Césium 137 qui a une période radioactive de l’ordre de trente ans. Tous les autres produits de fission comme l’iode 131 ont des périodes radioactives de l’ordre de la  journée. Cela veut dire aussi qu’à nombre de noyaux égaux, leur activité est plus forte. Le danger qu’ils portent est plus bref mais aussi plus fort ; un peu comme une chandelle qui brille beaucoup, s’épuise plus vite. Il faut protéger les populations dès les premiers jours (déplacements, pastilles d’iodes). Le Césium 137 sera moins actif mais restera un problème pour plus longtemps.

 

Propos recueillis par Carole Hamon

 

Déjà publié :

Centrale nucléaire de Fukushima : Le point

Accident nucléaire de Fukushima : Causes et conséquences

Un toit suspendu de 43 000 m2 en polycarbonate

Le championnat de l’UEFA 2012 est le plus grand événement au monde dans le domaine du football, après la Coupe du Monde. Il aura lieu en Pologne et en Ukraine du 8 juin au 1er juillet 2012. « Les stades sont souvent des édifices représentatifs pour une ville ou un pays, et les architectes s’efforcent de créer de nouvelles formes uniques, notamment de gigantesques toits aux courbures de vitrage spectaculaires », déclare Lennard Markestein, directeur marketing mondial Specialty Film & Sheet à SABIC Innovative Plastics. « L’envergure massive de ces toits, leur exposition au vent et aux intempéries, et la tendance globale à l’augmentation des charges climatiques pour les grandes structures nécessitent des matériaux de vitrage légers et adaptés », poursuit-il.

Pour cet événement, la Pologne n’a pas failli à la règle en décidant de couvrir le stade Slaski, à Chorzów, avec un toit suspendu de 43 000 m2. Pour sa capacité de résistance aux vents et aux charges de neige élevées typiques de la région, la nouvelle plaque en polycarbonate alvéolaire Lexan Thermoclear ultra-rigide de SABIC Innovative Plastics a été retenue. Ce matériau à structure en X et à trois parois de 25 millimètres protégera des éléments jusqu’à 55 200 spectateurs du stade Slaski, tout en permettant à la lumière naturelle d’inonder le stade.

Réalisée par Thermoserr Poland, le toit ovale suspendu du stade a utilisé des plaques Lexan Thermoclear d’une largeur de 1 500 millimètres. Malgré sa taille démesurée, le toit est léger et offre ainsi une plus grande liberté de conception (par exemple, le cintrage à froid est possible) et une simplification de l’installation par rapport au verre. « Cette nouvelle plaque Lexan a largement surpassé mes attentes », affirme Aldo Zamuner, Directeur Général de Thermoserr Poland. « Pour ma part, je pense que la plaque Lexan Thermoclear ultra-rigide est inégalée dans l’industrie », ajoute-t-il.

La plaque Lexan Thermoclear ultra-rigide résiste à des pressions en termes de vent et de charge de neige allant jusqu’à 2 200 N/m2, ce qui équivaut à des vitesses de vent de près de 200 km/h. Elle est jusqu’à 250 fois plus résistante que le verre, ce qui réduit le risque de casse due au vent, à la grêle et à d’autres conditions météorologiques extrêmes, ainsi que le vandalisme. La configuration à parois multiples du produit lui confère une excellente isolation thermique. Ces propriétés vitales garantissent que les spectateurs seront abrités des intempéries, tandis que les équipes sur le terrain seront moins soumises aux rafales de vent susceptibles d’interférer sur le jeu.

Résistant au feu conformément à la norme européenne EN 13501-1 relative à la sécurité, la plaque Lexan Thermoclear est dotée d’un revêtement résistant aux ultraviolets (UV) sur les deux faces en vue de protéger les spectateurs des rayonnements solaires et de prévenir également le jaunissement du polycarbonate.  

Géothermie et biomasse : des sources d’énergie pour l’humanité

La Terre nourrit et fournit aussi son énergie. La chaleur du noyau central du globe se diffuse à travers les roches, réchauffe les nappes phréatiques, s’immisce dans les fractures des couches géologiques. Les volcans sont des points d’accès privilégiés pour capter cette chaleur, tout comme les geysers, les fumerolles, les sources chaudes qui sont autant d’exutoires pour cette formidable énergie. Des villes entières s’y réchauffent, des turbines convertissent cette chaleur en électricité, des serres agricoles en profitent pour produire en toute saison.

La Terre est aussi le siège d’une incroyable usine chimique, la plus ancienne du globe avec ses 3,5 milliards d’années : la photosynthèse. Avec la seule énergie du Soleil, les plantes oxydent l’eau et transforment le carbone de l’air en sucres. C’est à partir de cette transformation que se développe la biomasse. Grandes cultures, déchets agricoles, rejets d’élevages sont autant de gisements pouvant être transformés en énergie renouvelable, non émettrice de gaz à effet de serre, pourvoyeuse de produits chimiques non toxiques, de carburant, de chaleur et d’électricité.

Rédigé sous la direction scientifique de Jean-Louis Bal, directeur productions et énergies durables à l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Énergie), l’ouvrage « L’énergie de la Terre » écrit par Loïc Chauveau, publié par l’ADEME et les éditions Le Cherche midi, présente les multiples facettes de ces sources d’énergie renouvelable. Des gisements qui sont loin d’avoir fourni toutes leurs ressources et dont les capacités de production sont immenses, susceptibles de répondre aux besoins d’une humanité forte de 9 milliards d’habitants. L’avenir énergétique est là, sous nos pieds et à la surface des feuilles. L’ADEME, pour sa part, suit de près les progrès technologiques et s’attache à dessiner un potentiel national, en tenant compte de toutes les contraintes. 

Précédé par L’énergie de l’eau (2009), L’énergie du Soleil (2008) et L’énergie du Vent (2007), cet ouvrage est le quatrième d’une série qui traite des énergies renouvelables. 

Dix ans d’avance sur la réglementation pour un bâtiment ultra-basse consommation

Spécialiste de la conception de bâtiments en bois, Steffen Holzbau a, avec Sanichaufer (Luxembourg), et l’entrepreneur GIGA-Automation (Allemagne),  planifié et construit un bâtimentavant-gardiste constitué d’une clinique de physiothérapie et de musculation médicale, et des bureaux du constructeur.

Le bâtiment est conforme à la norme Passivhaus, le standard européen de maison passive, pour l’efficacité énergétique, avec un impact écologique minimum. Les zones cliniques et administratives ont chacune été optimisées pour une consommation d’énergie très basse, grâce à plusieurs types de chauffage et de climatisation. Deux systèmes de ventilation centraux fournissent de l’air stérilisé aux deux zones. Les systèmes de climatisation et de chauffage font appel à des convecteurs spéciaux intégrés aux planchers et débouchant devant les fenêtres.

La ventilation est équipée de systèmes efficaces de recyclage de chaleur et de climatisation adiabatique. Environ 50m2 de panneaux solaires sont présents sur le toit pour la production d’eau chaude et l´appoint au chauffage. En plus du système de chauffage central solaire (140kW) la ventilation et le chauffage de la piscine sont assistés par des chaudières à granulés de bois (100kW).

Les mesures de 65 capteurs analysées en laboratoire

Partenaire certifié de PcVue Solutions, GIGA-Automation qui fournit des systèmes IBMS (Integrated Building Management Systems, ou systèmes intégrés de gestion d’immeubles) en Allemagne et au Luxembourg, a développé, selon un cahier des charges rigoureux, le réseau BACnet, nécessaire au pilotage des équipements de régulation. Il comprend PcVue pour le poste de travail opérateur et le système de contrôle, des modules DDC de SAIA Burgess avec transmission BACnet native, et un système de contrôle Menerga pour la piscine et les équipements de thérapie.

PcVue 9.0 combine les données provenant de ces systèmes et de 65 capteurs situés en divers points de la façade, du toit et de la surface externe du bâtiment, pour mesurer la température et, dans certains cas, l’humidité. Les résultats sont envoyés à un laboratoire pour étudier l’influence des conditions externes sur l’environnement interne, et ainsi permettre d’optimiser la performance énergétique de l’immeuble.

Pour un contrôle complet des zones cliniques et des zones de bureau, le processus d’importation de fichiers EDE de BACnet, renseigne automatiquement la base de données PcVue (2 000 points d’E/S BACnet en tout). Le projet inclut également une programmation horaire BACnet pour le chauffage de la piscine. Les données historiques sont archivées à l’aide de Microsoft SQL Server 2008. Quant au reporting, il est assuré par SQL Server 2008 Reporting Services (SRSS) pour permettre l’échange de données avec des institutions scientifiques, notamment sous forme d’exportation de feuilles de calcul pour l’analyse énergétique.

Le standard Passivhaus, accordé aux logements dont les besoins en chauffage sont inférieurs à 15kWh/m2/an et à 120kWh/m2/an en énergie primaire (chauffage, la ventilation, l’éclairage, l’eau chaude sanitaire, les auxiliaires et les équipements électro-domestiques) devrait inspirer la règlementation technique de la RT2020. Résultat, ce bâtiment et son système de contrôle-commande est en avance de 10 ans sur son temps !

 

Pourquoi la France ne sera pas l’industrie photovoltaïque de demain

En 1946, EDF est nationalisée. L’Assemblée Nationale vote la loi de nationalisation du secteur de l’énergie. Le transport et la distribution de l’électricité deviennent publics.

Dans ce sillage, nombre de sociétés électriques sont devenues de grandes entreprises comme  Merlin Gerin ou Schneider Electric mais aussi de grands groupes de distribution électrique, tels Rexel ou Sonepar. Tous ces groupes sont aujourd’hui des leaders mondiaux de l’électricité. Sans la puissance publique qui a initié ce mouvement, ces groupes n’existeraient pas.

En  1963, EDF produit pour la première fois de l’électricité nucléaire. EDF met en service la centrale de Chinon, qui est la première centrale nucléaire exploitée sur le territoire français par EDF.

Il y a 50 ans, le 1er décembre 1958, plusieurs sociétés des groupes Schneider, Merlin-Guérin et Westinghouse créent Framatome qui nait donc d’un pari technologique (avec 4 personnes). Framatome va progressivement se développer en une société d’ingénierie nucléaire puis en société reconnue  mondialement pour ses réalisations.
Sa première commande date de septembre1961. Se profile alors un réel défi industriel que très peu de personnes croyaient Framatome capable de relever. Framatome et Creusot Loire avaient basé leurs prévisions les plus optimistes sur la construction d’une ou deux centrales par an et s’étaient équipés en conséquence, mais EDF demande en 1973 de quadrupler le nombre de centrales fournies annuellement. Ceci va entrainer un formidable pari.

Une évolution exemplaire à partir d’un pari technologique osé amènera donc un bureau d’ingénierie de taille très modeste à un groupe international renommé. En 35 ans, plus de 70 réacteurs seront mis en service. Framatome passe de 25 personnes en 1969 à 5000 en 1982.
Cette épopée extraordinaire fut le fruit d’un fabuleux effort commun. Les dirigeants d’EDF acceptèrent de déléguer le lotissement de la chaudière à l’industriel devenu partenaire. Enfin, il faut souligner le soutien sans faille des pouvoirs publics.
Citons les propos d’un dirigeant d’EDF qui écrivait : « Il a fallu courir les 24h du Mans en prenant le départ en 2CV pour finir dans la même voiture transformée en Ferrari pendant l’épreuve ». « Il faut méditer l’exemple de Framatome. Aujourd’hui, la gestion se limite au possible, la dimension de la conquête semble avoir disparu. Il y a 20 ans, des hommes se sont concentrés sur un immense effort commun pour rendre possible ce qui était souhaitable. »*

L’avenir n’est plus au nucléaire mais bien aux énergies renouvelables. Nous en sommes exactement au même point qu’en 1946 ou en 1963, sauf qu’il s’agit aujourd’hui des énergies renouvelables. Une filière des énergies renouvelables peut émerger. Elle peut devenir, dans 10 ou 15 ans, une référence mondiale. Mais pour cela, il faut le soutien sans faille des pouvoirs publics. Le pari engagé, il y a 50 ans pour le nucléaire, doit aujourd’hui être engagé pour les énergies renouvelables.

La stratégie des dirigeants d’EDF, aujourd’hui, n’est pas de partager cet effort, ni d’être une locomotive industrielle, mais bien de s’arroger tous les fruits que peuvent porter les énergies renouvelables. En faisant cela, EDF prive la France d’un secteur photovoltaïque de premier ordre.

EDF a choisi de sacrifier des milliers d’emplois d’installateurs photovoltaïques  ainsi que l’industrie naissante pour conserver sa position dominante et par peur de la concurrence. Le gouvernement par ses différents choix cautionne cette stratégie.  La catastrophe du Japon prouve l’aveuglement de nos dirigeants qui misent sur le tout nucléaire, sous-estimant les dangers potentiels, mais bien réels d’une telle stratégie.

Par Francis Hildenbrand

 

* (Source extraite du forum Les Echos)

 

DEJA PUBLIE

 

Photovoltaïque français : l’après moratoire en question

Exemple d’informatisation réussie de la gestion des flux logistique

Pour Eden Park qui commercialise une collection de vêtements homme, femme et enfant haut de gamme ainsi qu’une collection Homeline pour la décoration de la maison, l’ensemble des flux fournisseurs en réception entrepôt représente un volume annuel de 1,4 million de pièces, soit 60 000 colis, et de l’ordre de 15 000 housses pour le suspendu. La réception des marchandises se fait dans deux entrepôts, dont le site externalisé C-Log. De là, partent les expéditions vers les différents points de vente (magasins propres, franchises, multimarques et distributeurs internationaux).

Eden Park souhaitait disposer d’une solution lui permettant de structurer les données, de standardiser l’information et les méthodes de travail, et de centraliser les informations relatives à la gestion des ordres d’achat dans une seule et unique base de données. La Direction recherchait également une solution complémentaire au système d’information ERP, qui génère des gains de productivité en couvrant des besoins avérés et améliore la qualité des processus organisationnels.

Le progiciel de gestion des flux logistiques e-SCM de l’éditeur Belharra, une SSII spécialisée en informatique décisionnelle et dans les développements applicatifs utilisant les nouvelles technologies, a été retenu pour plusieurs raisons :

  • l’adhésion des utilisateurs : dès la présentation de la maquette, les acheteurs ont rapidement adhéré au projet car e-SCM s’est avéré en totale adéquation avec leur métier et leurs processus de travail ;
  • sa facilité d’implémentation et d’intégration dans le système d’information existant d’Eden Park, notamment l’ERP ;
  • sa rapidité de mise en œuvre : 6 mois seulement ont été nécessaires entre la maquette présentée en mai et le démarrage opérationnel en octobre 2010.

Une formation en 5 jours

Le projet a démarré par la conception d’une maquette de la solution, permettant de valider l’adéquation de la solution avec les objectifs et les enjeux du projet. Les données d’une collection ont été injectées dans la maquette qui a été présentée aux utilisateurs en mai 2010 et a obtenu leur aval.

Lors de l’installation, les acheteurs ont suivi une formation de 5 jours pour l’ensemble des fonctionnalités leur permettant de prendre en main rapidement l’e-SCM. A leur tour, ils ont formé les fournisseurs basés dans le monde entier. Ces derniers ont unanimement appréciés l’ergonomie de la solution. Actuellement, une centaine de personnes utilisent actuellement e-SCM dans une douzaine de pays dont  la Chine, la France (siège d’Eden Park), l’Indonésie, Hong Kong, la Lituanie, le Maroc, le Pérou, le Portugal, la Roumanie … Les utilisateurs sont les acheteurs, le service logistique, le service qualité, l’entrepôt et la Direction pour Eden Park, et dans le monde entier : les fournisseurs et les transitaires.

Un premier bilan positif

Six mois après la phase de démarrage, Anne Vallier, Directrice Achat Logistique, fait, ci-dessous, le point sur cette utilisation et les bénéfices retirés.

Depuis le démarrage d’e-SCM en octobre 2010, la solution a été adoptée par l’ensemble des utilisateurs en interne. Parmi les utilisateurs externes, quelques fournisseurs et transitaires ont encore quelques efforts à produire pour abandonner leurs anciennes méthodes de travail au profit d’e-SCM.

La collection complète Printemps/Eté 2011 vient d’être gérée avec l’e-SCM qui permet la centralisation des informations pour tous les acteurs de la chaîne logistique dans une seule et même base de données. Les utilisateurs perdent moins de temps à rechercher des informations qui précédemment étaient dispersées dans plusieurs fichiers, dossiers ou emails. Ils peuvent consulter tout l’historique d’un dossier et disposer ainsi d’une très bonne traçabilité des informations. Ils partagent l’ensemble des dossiers, ce qui permet à chacun d’être rapidement informé et de permuter sur les dossiers en cas d’absence d’un collègue, par exemple.

L’un des apports opérationnels de la solution e-SCM est la normalisation des procédures, ainsi que l’harmonisation des documents et des étiquettes colis.

Un véritable avantage sur la concurrence

Autre avantage : e-SCM étant une solution full web accessible grâce à un simple accès Internet, les utilisateurs peuvent se connecter dans le monde entier et accéder à des données fiables, mises à jour en temps réel. De plus, grâce à l’ergonomie des écrans, la recherche d’informations est facile et très rapide. Quant à la direction d’Eden Park, elle constate des gains opérationnels en organisation, en productivité, et un reporting efficace qui sera amélioré dans la prochaine version grâce aux outils décisionnels qui y seront intégrés.

Anne Vallier qualifie la solution d’opérationnelle, car ses fonctionnalités sont en totale adéquation avec son métier, de professionnelle, car les processus sont bien structurés et normalisés, de conviviale, grâce à l’ergonomie de ses écrans, et de synthétique et complète à la fois.  

Centrale nucléaire de Fukushima : Le point

Le séisme qui s’est produit vendredi dernier a dévasté une grande partie du Nord de l’archipel nippon. Ce tremblement de terre, de magnitude 9, a touché plusieurs centrales nucléaires. Selon les dernières informations disponibles, seule la centrale de Fukushima Daiichi I a subi des dommages graves. Les réacteurs des autres centrales japonaises ont pu être arrêtés ou refroidi de manière à les sécuriser.

Cependant, l’accident de la centrale de Fukushima Daiichi I, lui, prend une ampleur mondiale. Depuis deux jours, les prévisions sont de plus en plus pessimistes. Las autorités françaises évoquaient mercredi un « scénario du pire » avec des conséquences plus importantes que l’accident de Tchernobyl . Ce matin, quatre réacteurs sont toujours hors de contrôle, alors que les secours ont entrepris des manœuvres spectaculaires (largage d’eau par hélicoptère) pour tenter de refroidir les réacteurs. Aussi, la France a dépêché un avion transportant 95 tonnes de bore, élément permettant de ralentir le processus de fusion nucléaire des réacteurs.

Suite au tremblement de terre de vendredi dernier, les responsables de la centrale Fukushima Daiichi I stoppent immédiatement les réacteurs 1, 2, et 3. Mais les systèmes de refroidissement ainsi que les systèmes de secours, censés prendre le relais dans ce cas, ont été endommagés par le séisme et le tsunami. La conséquence directe est que l’énergie résiduelle du combustible n’est plus évacuée : ainsi, la température n’a depuis cessé d’augmenter, et a fait baisser le niveau d’eau, découvrant une partie du combustible. De là, la fusion, pour l’instant partielle, s’est enclenchée.

Dans les jours qui ont suivi, des explosions, dues à l’accumulation d’hydrogène, détruisent les structures externes de plusieurs réacteurs, sans que pour autant les enceintes de confinement ne soient endommagées.

De nouvelles explosions, notamment au niveau des réacteurs 2 et 4, remettent en cause la résistance des enceintes de confinement, surtout celle du réacteur 2, à propos de laquelle les autorités japonaises ont déclaré qu’elle n’était plus étanche.

Les réacteurs exploités dans la centrale de Fukushima Daiichi I sont des réacteurs à eau bouillante (REB). D’autre pays, comme les Etats-Unis, le Japon, l’Allemagne, la Suède, la Russie ou la Suisse utilisent ce type de réacteur. Il s’agit d’un réacteur à neutrons thermiques dans lequel le modérateur est l’eau ordinaire. (En savoir plus sur les réacteurs à eau bouillante).

Le point réacteur par réacteur

L’institut de radioprotection et de sûreté nucléaire (IRSN), publie plusieurs fois par jour des comptes rendus de la situation. Ce matin, les informations sur les réacteurs de la centrale et les piscines de ces réacteurs sont les suivantes :

Réacteur 1

Il semble qu’il n’y ait pas d’ébullition au niveau de la piscine. En ce qui concerne la réacteur, la puissance à évacuer est relativement faible (0,3 MW). Selon l’exploitant, 70% du coeur du réacteur serait endommagé. L’injection d’eau de mer dans la cuve serait maintenue afin d’assurer le refroidissement du coeur qui reste cependant partiellement dénoyé. L’eau contenue dans la cuve se décharge dans l’enceinte de confinement via une soupape. L’enceinte de confinement est maintenue intègre. Des dépressurisations de l’enceinte de confinement sont réalisées. Chaque ouverture entraîne de nouveaux rejets de produits radioactifs dans l’environnement. La partie supérieure du bâtiment réacteur a été soufflée par une explosion. La salle de commande est très irradiante, limitant le temps de présence des intervenants.

Réacteur 2

Selon l’exploitant, 33% du coeur du réacteur serait endommagé. L’injection d’eau de mer dans la cuve est maintenue afin d’assurer le refroidissement du coeur qui est maintenant sous eau. L’enceinte de confinement est endommagée, toutefois il ne semble pas que l’étanchéité soit remise en cause (la pression à l’intérieur du bâtiment étant fluctuante). De ce fait, des dépressurisations de l’enceinte de confinement sont prévues. Chaque ouverture entraînera de nouveaux rejets de produits radioactifs dans l’environnement. La salle de commande est très irradiante, limitant le temps de présence des intervenants. Enfin, la piscine, il semble qu’il n’y ait pas d’ébullition.

Réacteur 3

Selon les calculs de l’IRSN, la piscine est passée en ébullition. Des largages d’eau par hélicoptères ont eu lieu vers 10h00 heure locale (02h00 heure de Paris le 17 mars). Environ 7,5 tonnes d’eau ont été lâchées à chaque passage mais une part importante de l’eau n’a probablement pas atteint sa cible. L’absence de panache de vapeur au-dessus du bâtiment laisse penser que l’opération a été efficace. Cependant, cela ne permet que de retarder très légèrement la dégradation de la situation. L’IRSN suspecte une perte d’étanchéité de la piscine.
Le cœur du réacteur, lui, est partiellement endommagé. L’injection d’eau de mer dans la cuve serait maintenue afin d’assurer le refroidissement du coeur qui reste cependant partiellement dénoyé. La vapeur produite dans la cuve au contact du combustible s’évacue dans l’enceinte de confinement qui semble toujours étanche. Des dépressurisations de l’enceinte de confinement sont réalisées. Chaque ouverture entraîne de nouveaux rejets de produits radioactifs dans l’environnement. La partie supérieure du bâtiment réacteur a été soufflée par une explosion. La salle de commande est très irradiante, limitant le temps de présence des intervenants.

Réacteur 4

La partie supérieure du bâtiment est endommagée. La salle de commande est très irradiante, limitant le temps de présence des intervenants. Comme pour le réacteur 3, la piscine est également passée en ébullition. La puissance à évacuer est élevée, environ 3 MW. Des largages d’eau par hélicoptères étaient prévus vers 10h00 heure locale (02h00 heure de Paris le 17 mars). Il semblerait que le survol par hélicoptère ait permis de constater que cette piscine contenait de l’eau. Ceci aurait conduit à un largage de deux poches supplémentaires d’eau sur la piscine du réacteur n°3. Cette information reste cependant sujette à caution.

Réacteur 5

La température de l’eau de cette piscine augmente lentement. Le niveau d’eau est contrôlé. L’IRSN n’a pas d’information sur la présence de combustible dans le cœur  du réacteur.

Réacteur 6

Cette piscine est refroidie suite à la mise en œuvre  de groupes électrogènes diesels supplémentaires. Le niveau d’eau est contrôlé. Comme pour le réacteur n°5, l’IRSN n’a pas d’information sur la présence de combustible dans le cœur  du réacteur.

Par P.T.

 

Déjà publié :

Accident nucléaire de Fukushima : Causes et conséquences

 

Accident nucléaire de Fukushima : Causes et conséquences

Un séisme de magnitude 9.0 !

Vendredi 11 mars, 14h46 (heure locale), la terre tremble au Japon. La magnitude du séisme, dont l’épicentre se trouve à 130 kilomètres au large de Sendai et à 370 kilomètres de la capitale, est de 9, ce qui en fait un séisme libérant 30 fois plus d’énergie et ayant une amplitude 10 fois supérieure à celle d’un séisme… de magnitude 8. C’est le plus gros séisme jamais enregistré au Japon depuis le début des prises de mesure… Ce tremblement de terre est suivi d’un tsunami dévastateur (une vague allant jusqu’à 10 mètres de haut par endroit), et de son habituelle cohorte de répliques. Des localités entières, pourtant construites aux normes anti-sismiques, sont rayées de la carte, le bilan humain faisant état pour le moment de plus de 5 100 morts, 8 000 disparus et 2 000 blessés, mais il est probable qu’il avoisine ou dépasse les 20 000 victimes… alors même que nous prenons tout juste la mesure d’une « situation » nucléaire préoccupante, en passe de devenir catastrophique. Certains experts évoquant d’ores et déjà les accidents de Tchernobyl et de Three Mile Island à titre de comparaison, alors qu’aucun élément ne permet pour l’instant d’accréditer ces analogies.

Fukushima Daiichi, Fukushima Daini

Les centrales nucléaires de Fukuchima Daiichi et de Fukuchima Daini (distantes l’une de l’autre d’une douzaine de kms) sont deux centrales nucléaires qui se trouvent sur l’île d’Honshu, au bord de l’océan Pacifique. La centrale de Fukushima Daiichi (n°1, en japonais) est constituée de six Réacteurs à Eau Bouillante (REB) construits entre 1970 et 1979, celle de Fukushima Daini (n°2 en japonais) est elle constituée de quatre REBs, vieux d’un peu moins d’une trentaine d’années. Elles sont toutes les deux exploitées par la TEPCO (la Compagnie d’électricité de Tokyo).

Ces deux centrales ont plutôt bien résisté au séisme, et se sont arrêtées automatiquement. Le tsunami qui a suivi, par contre, a gravement endommagé l’alimentation électrique des systèmes de refroidissement ainsi que les systèmes de secours (des générateurs au fuel), censés prendre le relais en cas de panne majeure. Cette impossibilité de refroidir correctement les réacteurs est le point de départ de l’accident nucléaire majeur que nous sommes en train de vivre.

Un réacteur nucléaire à eau bouillante (REB)

A l’intérieur d’un REB, le combustible est sous forme de « crayons » (des tubes de quatre mètres de long, dont la gaine est faite d’un alliage de zirconium, contenant les pastilles d’uranium ou de plutonium). Ces crayons, au nombre de 40 000, sont immergés dans de l’eau, le tout dans une cuve en acier; la chaleur engendrée par la réaction nucléaire à l’intérieur des crayons transforme l’eau en vapeur, qui alimente la turbine générant de l’électricité. Cette vapeur est refroidie et donc transformée en eau, qui est alors réinjectée dans la cuve pour réalimenter la réaction et se retransformer en vapeur. Cette cuve est placée dans une enceinte de confinement en acier et en béton, d’une épaisseur d’un mètre, censée circonscrire et prévenir tout incident. Enfin, pour sécuriser le confinement, la « piscine de suppression » est indispensable car elle récupère la vapeur libérée par le système de refroidissement. Il est à noter qu’au Japon, l’enceinte de confinement se trouve elle-même dans un bâtiment, dit lui aussi de confinement.

Lors de l’arrêt du réacteur, des crayons de contrôle contenant du bore s’intercalent entre les crayons de combustible, afin de stopper la réaction nucléaire. Bien que les contrôles se mettent en place et que la réaction s’arrête, le combustible délivre toujours une énorme quantité de chaleur, chaleur que l’on surveille et que l’on diminue en laissant les crayons dans de l’eau enrichie avec de l’acide borique (le bore étant utilisé comme ralentisseur ou absorbeur de neutrons lents, neutrons qui provoquent la fission des atomes d’uranium ou de plutonium en dégageant de la chaleur, permettant d‘éviter ou de ralentir l‘emballement du réacteur).

Les premiers incidents

A la centrale de Fukushima Daiichi, les systèmes de refroidissement étant pris en défaut, les techniciens décidèrent de rajouter de l’eau de mer, et essayèrent d’évacuer la vapeur produite pour la remplacer au fur et à mesure de son évaporation. Mais l’eau s’évaporant plus vite qu’ils ne purent la remplacer, les crayons s’échauffèrent, d’autant plus vite qu’ils n’étaient plus du tout immergés, donc exposés à l’air de la cuve. Les gaines de zirconium, soumises à une température bien trop élevée, commencèrent à fuire et à réagir avec le combustible et l‘eau, dégageant des gaz radioactifs et de l’hydrogène, augmentant la pression à l’intérieur de la cuve. Pour abaisser la pression et protéger le cœur du réacteur, les techniciens de la centrale n’eurent guère le choix : ils durent dépressuriser en laissant s’échapper des vapeurs radioactives, chargées de césium 137 et d‘iode 131 ainsi que de l’hydrogène très pur. C’est cet hydrogène (rôle de carburant), en contact avec de l’oxygène ambiant (rôle du comburant) et à haute température (comme dans les moteurs de fusée, car la liaison H-H est très faible, et que la molécule d‘eau formée est très stable), qui est responsable de la première explosion, celle qui souffla le toit du bâtiment de confinement du réacteur n°1, le samedi suivant le séisme, et de celle du toit du réacteur n°3 le lundi d‘après.

La fusion du cœur du réacteur, dans tous les esprits

Si on ne parvient pas à abaisser la température à l’intérieur de la cuve, les crayons de combustible se mettent alors à fondre à l’intérieur du réacteur nucléaire, une fois leur température de fusion atteinte, se mêlant à tous les éléments avec lequel il rentre en contact, notamment ceux composant la gaine, formant un magma dont la température est très élevée. En cas de fusion totale du cœur, ce magma (autour de 3000 degrés), appelé « corium », à la très importante puissance résiduelle due aux désintégrations des produits de fission, deviendrait un élément extrêmement radioactif, chaud et dangereux, pouvant traverser à terme la cuve comme l’enceinte de confinement, et ainsi représenter un immense danger en se répandant. Il devient alors impossible de retirer le corium, l’installation ne pouvant être que condamnée par un sarcophage (comme pour la centrale de Three Miles Island, Pennsylvanie, en 1979).
Certains forment l’hypothèse du « syndrome chinois », lorsque le corium se répand dans l’environnement, nom venant de l’idée saugrenue que cette matière en fusion s’enfonçant dans le sol, puisse traverser la croute terrestre « des Etats-Unis jusqu’en Chine ».

La situation dans les réacteurs

Même s’il est vain d’essayer de décrire des évènements qui évoluent d’heure en heure, nous pouvons faire un rapide point sur les réacteurs japonais concernés (16/03/11) :
Sur les quatre réacteurs de la centrale Fukushima Daini, trois ont présenté des problèmes de refroidissement préoccupants, avec des hausses de température significatives, mais les installations seraient intactes.
Sur les six réacteurs de la centrale de Fukushima Daiichi, trois d’entre eux (numéros 4, 5 et 6) étaient en maintenance au moment du séisme, ce qui ne veut pourtant pas dire qu’ils ne contiennent pas de combustible. Les réacteurs 1, 2 et 3, eux, étaient en fonctionnement :
Le réacteur 1, dont la fusion partielle mais avancée du cœur (70 %) a été confirmée, mais dont l’enceinte de confinement serait intacte, malgré l’explosion ayant endommagé le toit du bâtiment.
Le réacteur 3 serait plus ou moins dans la même situation, bien qu’il soit alimenté en « MOX », un mélange d’oxydes de plutonium et d’uranium appauvri, moins stable qu’un combustible classique. Son enceinte de confinement est peut-être endommagée.
La situation du réacteur 2 est plus grave, car l’enceinte de confinement a été endommagée et a perdu son étanchéité lors de deux explosions survenues mardi 15, entrainant des rejets radioactifs dans l’atmosphère.
Le réacteur 4, à l’arrêt, a connu des problèmes avec sa piscine d’entreposage de combustible usé, qui se trouve à l’extérieur du réacteur et non confinée, une partie de ce combustible n’étant plus immergée, les rejets radioactifs entrainant donc une hausse très significative de la radioactivité.
Les réacteurs 5 et 6, à l’arrêt aussi, connaissent « seulement » de légères hausses de températures.

Les situations de ces réacteurs sont différentes, mais l’enjeu est le même pour tous, refroidir le combustible.

Ces graves incidents ont conduit l’Autorité de Sûreté Nucléaire (ASN) à classer cette catastrophe en niveau 6 sur l’échelle INES, comprenant des paliers allant de 0 (aucune importance) à 7 (accident majeur), censés illustrer l’importance des conséquences à l’intérieur du site nucléaire, la dégradation des lignes de défense en profondeur de l’installation, et les conséquences à l’extérieur du site nucléaire.

Une première conséquence évidente : la hausse de la radioactivité

Les fuites, rejets et autres émissions provenant des réacteurs ou des piscines de stockage ont provoqué depuis samedi une hausse conséquente de la radioactivité autour de la centrale, entre autres due à la présence de césium 137 et d’iode 131 radioactifs.
Le césium 137, qui a une demi-vie de 30 ans, c’est-à-dire qu’il faut 30 ans pour que son activité radioactive diminue de moitié, est très toxique, comme l’iode 131, dont la demi-vie est très courte (environ 8 jours, ce qui fait de lui un élément très radioactif).
Cette radioactivité se déplace, sous forme de « panache » radioactif, au gré des vents et de la météo, vers le Pacifique ou vers les terres (hausse de celle-ci à Tokyo, où elle était dix fois supérieure à la normale). On parle ici de panache plutôt que de nuage, pas uniquement pour jouer sur la sémantique, mais parce que les émissions radioactives sont peu denses et continues, contrairement au « nuage » de Tchernobyl car il s’agissait d’émissions massives et très concentrées ,du fait de l’explosion puis de l’incendie.
Bien qu’il faille lire entre les lignes de la communication gouvernementale japonaise et de TEPCO, la radioactivité a beaucoup augmenté (jusqu’à 1500 milliSievert par heure autour de la centrale), mais apparait comme très changeante, soit à cause de la situation très évolutive et non circonscrite des réacteurs, soit en raison d’incohérences dans la communication officielle, tendant à filtrer ou à minimiser certaines informations.

Incidences sur la santé et l’environnement

Le sievert (Sv) mesure l’impact biologique d’une exposition à des radiations, c’est-à-dire la quantité de radiations absorbées par le corps humain. La radioactivité naturelle nous expose à un peu plus de 2mSv par an, une radiographie de la poitrine à 0,02 mSv. A partir d’une dose de 100mSv, on observe une augmentation significative du nombre de cancers. D’après les études sur les liquidateurs de Tchernobyl, de très nombreux décès sont survenus peu après la catastrophe (dans les 30 jours), ainsi qu’un nombre de pathologies et de cancers très supérieur à la moyenne.
Ici, un niveau de 752 mSv par heure a été enregistré à l’entrée principale de la centrale…

Les éléments radioactifs rejetés rendent donc possible de nombreuses mutations dans les cellules irradiées. Parmi ces éléments, l’iode 131, fixé par la thyroïde, provoque de nombreux et graves cancers. En effet la thyroïde synthétise des hormones nécessaires au bon fonctionnement du corps à l’aide de l’iode, provenant de l’alimentation. Il convient alors de saturer la thyroïde d’iode stable, sous forme de pastilles, idéalement une heure avant la possible contamination, ce qui empêche l’iode 131 de se fixer.

La meilleure des préventions une fois le pire arrivé, outre le souvent dérisoire calfeutrage, reste l’évacuation des zones dites sensibles. Les autorités japonaises ont ici évacué les populations civiles, après de multiples tergiversations, dans un rayon de 20 kilomètres autour des centrales Fukushima Daiichi et Daini, ce qui ne semble pas suffisant pour les instances américaines.

Il ne faut toutefois pas oublier les techniciens restés sur place pour tenter d’endiguer la catastrophe, faisant face à une contamination extrêmement élevée, à priori mortelle.

Les particules radioactives présentes dans l’air peuvent contaminer le sol (notamment le césium 137, qui met du temps avant de disparaitre comme vu précédemment) et peuvent ainsi contaminer des êtres vivants par ingestion ou par simple contact. Elles peuvent contaminer l’eau de mer, de manière directe (celle utilisée pour refroidir les réacteurs) ou indirecte.

Coût économique et énergétique

La reconstruction post-tremblement de terre et tsunami va représenter un cout exorbitant, tant les dégâts paraissent gigantesques. Des villes entières à reconstruire, des pans entiers de l’économie à remettre sur pied.
Les populations des larges environs de la centrale risquent de ne plus vouloir revenir chez eux après ce traumatisme, il faudra donc investir pour leur fournir des solutions de logement.
La bourse tokyoïte dévisse, et la BoJ, la banque nationale japonaise, doit injecter des centaines de milliards d’euros pour alimenter le système bancaire et « rassurer les marchés ».

Le gouvernement japonais va en outre devoir assurer la sécurisation des installations nucléaires sur son territoire, et dans la foulée trouver une alternative énergétique au nucléaire, un scepticisme voire de l’hostilité et un refus catégorique d’utiliser cette technologie risquant de voir le jour au Japon dans les prochaines semaines.
Il ne faut pas oublier que le Japon est au troisième rang mondial des producteurs d’électricité nucléaire, avec ses 55 réacteurs nucléaires répartis sur 17 centrales en activité, qui lui permettent de fournir environ 35 % de ses besoins en électricité, ce qui risque d’être énorme à remplacer, s’il s’avère que cette vision est juste.

La peur ou du moins la suspicion gagne en même temps les capitales étrangères, en résonance avec les dramatiques évènements japonais, ce qui, on peut le gager, va réinviter le débat sur le nucléaire sur la place publique, et au premier plan.
En Allemagne, Angela Merkel a déjà suspendu la prolongation d’activité de leurs centrales, et ce pendant 3 mois (à une semaine des élections…).
En Suisse, les nouvelles centrales initialement prévues pour remplacer celles obsolètes risquent de ne pas naitre.
Aux États-Unis, plusieurs élus du Congrès ont demandé une « pause de réflexion », sur la construction de nouvelles centrales (23 sur les 104 réacteurs américains sont similaires à ceux de Fukushima…).
En France, les écologistes demandent un référendum sur le nucléaire, tandis que Nicolas Sarkozy a assuré que la France devrait prendre toute la mesure de l’ « exemple » japonais… Au-delà de l’évolution dramatique des événements au Japon, c’est donc bien toute une filière qui va, dans les semaines à venir, se remettre en cause.

Par M.R.

Déjà publié :

Centrale nucléaire de Fukushima : Le point

Et aussi dans les
ressources documentaires :

Venez recharger votre voiture électrique… chez des inconnus !

L’angoisse de la panne sèche (de courant) arrive en pôle position des angoisses des détenteurs de voitures électriques (EV). Xatori, une start-up basée à Palo Alto, au cœur de la très écologiquement consciente Silicon Valley, se propose de créer un réseau d’utilisateurs actifs de EV, mettant leurs prises domestiques à la disposition des conducteurs qui auraient besoin de recharger leur batterie, ou de ceux qui se trouveraient hors de portée des quelques stations publiques dédiées. Elle a sorti l’application iPhone « Plugshare » (« partage de prise » en anglais) qui permet aux conducteurs et aux propriétaires de « prises » de les localiser ou d’offrir leur électricité.

L’existence de cette application est intimement liée à la possibilité qu’offrent les nouvelles générations de EV de pouvoir se recharger sur des prises secteurs (220V, 16A ou 10A pour la Renault Twizy, dont la charge complète ne devrait pas prendre plus de 3h30), permettant ainsi de transformer tout lieu en une borne électrique de dépannage. L’application n’ est néanmoins pas encore vraiment disponible en Europe, bien que les développeurs y travaillent.

Même si l’intérêt d’adhérer à Plugshare est évident pour les détenteurs de EV, leur donnant accès à la base de données des lieux en permettant la recharge, cette application n’est absolument pas dénuée d’intérêt si vous n’en possédez pas, les concepteurs mettant l’accent sur l’aspect d’appartenance à une communauté éco-sensible, et sur la rencontre enrichissante avec un utilisateur qui pourra vous parler de son véhicule de manière forcément plus désintéressée qu’un revendeur ou qu’un constructeur.

M.R.