Valls: la loi sur la transition énergétique présentée « avant l’été »

« La transition énergétique sera l’une de mes priorités », a affirmé le Premier ministre, qui veut s’appuyer sur « une stratégie bas carbone » pour faire face à « l’enjeu planétaire majeur » du climat.

« L’engagement du président de la République de passer à 50% la part du nucléaire dans la production d’électricité d’ici 2025 sera tenu », a déclaré Manuel Valls lors de sa déclaration de politique générale.

Le Premier ministre a réaffirmé les objectifs de réduction de « 30% de notre consommation d’énergie fossile d’ici 2030 et de 40% de nos émissions de gaz à effet de serre à la même échéance ».

Pour lui, la transition énergétique est « une formidable opportunité économique », qui doit permettre de réduire le déficit commercial, de redonner du pouvoir d’achat grâce aux économies d’énergie et d’encourager « des secteurs extrêmement porteurs en termes d’emplois », comme le bâtiment.

« Le climat est probablement le domaine où le besoin de régulation se fait le plus pressant », a estimé le Premier ministre, en rappelant que Paris accueillera en 2015 la conférence des Nations unies sur le climat.

« Il s’agit là d’un enjeu planétaire majeur, auquel nous répondrons en nous dotant d’une véritable stratégie bas carbone », a-t-il dit.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Ooho : des sphères comestibles pour remplacer les bouteilles d’eau ?

La technique utilisée pour créer cet emballage est connue sous le nom de « sphérification ». Elle est notamment répandue en cuisine moléculaire pour enfermer des liquides dans des sphères gélatineuses. Cela offre un côté esthétique et surprenant : une fine  pellicule gélifiée enferme un cœur liquide.

Ces sphères peuvent prendre plusieurs tailles. Elles ont de nombreux avantages par rapport au plastique : elles sont biodégradables (même comestibles !) et leur production ne coûterait que 2 centimes d’euros par unité. En pratique, cette sphère gélatineuse est constituée d’une double membrane qui enferme le liquide, comme la membrane d’un œuf protège le jaune. Pour boire, il suffit de la percer et de mettre sa bouche sur le trou. En bonus : on peut manger l’intégralité de l’emballage !

La double membrane de Ooho est formée d’alginate de sodium, obtenue par la déminéralisation d’algues brunes, et gélifiant en présence de chlorure de calcium. L’eau est d’abord transformée en glace avant d’être encapsulée, afin de faciliter l’opération.  

Les sphères Oohos peuvent être personnalisées par les entreprises qui peuvent insérer leur logo comestible entre les deux couches de la membrane sans avoir à ajouter de matière adhésive. Même si les embouteilleurs n’adoptent pas à Ooho, les inventeurs espèrent que les gens essayeront de les faire à la maison. « N’importe qui peut les faire dans sa cuisine, en modifiant ou en adaptant la recette », explique Rodrigo García Gonzalez.

La bulle a toutefois ses inconvénients : ce n’est pas très hygiénique de manger un emballage qui a traîné dans son sac et il semblerait que les buveurs en mettent un peu partout…  Comment la transporter sans la salir ou sans qu’elle s’abîme ? Factcoexists.com rappelle toutefois que d’autres entreprises d’emballages comestibles sont parvenues à investir le marché, à l’instar de Wikipearl.

Les concepteurs ont voulu trouver une alternative en remarquant que la plupart des gens boivent de l’eau dans des bouteilles jetables. « La réalité est que de plus en plus, lorsque nous buvons de l’eau nous jetons une bouteille en plastique », note  Rodrigo García Gonzalez. Au final, pourquoi ne pas boire simplement de l’eau du robinet? Une gourde ou une bouteille en verre est-elle si encombrante ?

Par Matthieu Combe, journaliste scientifique

SFR-Numéricable, nouveau leader des télécoms ?

Cela fut rude. Les nerfs ont été mis à rude épreuve. Les adversaires n’ont pas démérité. Mais c’est finalement Numéricable qui l’emporte, laissant Bouygues Télécom rageur. Car la défaite risque de lui couter cher. Désormais, Bouygues va devoir jouer des coudes face à trois concurrents très agressifs et plus gros, à la force de frappe plus importante. Tout d’abord Orange, numéro 1 des marchés des télécoms et opérateur historique, la nouvelle entité SFR-Numéricable qui compte bien capitaliser sur la complémentarité mobile/fibre optique via des offres quadriplay, et enfin Free, dont la stratégie de guerre des prix a siphonné une bonne partie des abonnées de Bouygues, contraint d’ajuster sa propre politique tarifaire et donc de rogner ses marges.

 En 2013, Bouygues était en troisième place en termes de chiffre d’affaires, avec 4,7 millions d’euros. Devant Free avec « seulement » 3,7 millions, mais loin derrière Orange (20 millions) et SFR (10,2 millions).  En intégrant au calcul les clients mobiles titulaires de cartes prépayées, Orange atteint 27 millions de chiffre d’affaires, SFR 21 millions, Bouygues Télécom 11,1 millions et Free 8 millions. En absorbant SFR, Bouygues pouvait prétendre faire jeu égal avec Orange et s’imposer comme nouveau n°1 des télécoms en France. Mais Vivendi en a décidé autrement, et c’est finalement Numéricable qui met un pied dans la téléphonie, anéantissant du même coup  les ambitions de Bouygues Télécoms.

Après cette terrible défaite, rappelons qu’il y a encore quelques semaines Bouygues était grand favori pour rafler SFR, Bouygues Télécom n’entend pas baisser les bras. Tout d’abord, en mauvais perdant, Bouygues Télécom va tout faire pour ralentir et pourrir la mise en place du rachat en abusant de tous les leviers juridiques à sa disposition. En parallèle,  il va profiter de cette période pour capitaliser sur l’indécision des clients SFR à grand renforts d’offres commerciales ayant pour objectif de débaucher un maximum d’abonnés.

Enfin, une association entre les pires ennemis Bouygues et Free devient pertinente. Bouygues avait d’ailleurs prévu, en cas de rachat de SFR,  de céder une partie de ses fréquences à Free pour rassurer l’Autorité de la concurrence. Mais SFR n’étant plus d’actualité, pourquoi ne pas vendre la totalité de la filiale télécom à Free ? Cela englobe le réseau, les fréquences, mais aussi l’ensemble de sa base client ! D’après nos confrères du Parisien, Free proposerait 5 milliards alors que Bouygues en attend 8. Décidément, Bouygues n’a pas fini de négocier !

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

 

Et aussi dans l’actualité :

La plasticité du manteau terrestre enfin expliquée

Une équipe menée par l’Unité matériaux et transformations (CNRS/Université Lille 1/Ecole nationale supérieure de chimie de Lille), vient d’apporter une explication inattendue à cette question. Celle-ci met en jeu des défauts cristallins très mal connus et jusqu’alors jamais pris en compte, appelés « désinclinaisons », situés à l’interface entre les grains minéraux qui composent les roches. En prenant comme cas d’étude l’olivine, les chercheurs sont parvenus pour la première fois à visualiser ces défauts et à modéliser le comportement des joints de grains face à une contrainte mécanique. Ces résultats qui viennent d’être publiés dans Nature dépassent largement le cadre des géosciences : ils apportent un outil nouveau et extrêmement puissant à l’étude de la dynamique des solides et aux sciences des matériaux en général.

La Terre évacue sa chaleur en continu grâce aux mouvements de convection qui animent le manteau terrestre sur lequel reposent les continents. Comprendre cette convection est donc primordial pour l’étude de la tectonique des plaques. Le manteau est constitué de roches solides. Pour que celui-ci puisse s’animer de mouvements de convection, il est nécessaire que la structure cristalline de ses roches puisse se déformer. Ceci constituait jusque-là un paradoxe que la science n’arrivait pas tout à fait à résoudre. En effet, les défauts de la structure des cristaux, appelés dislocations, qui expliquent très bien la plasticité des métaux, n’étaient pas suffisants pour expliquer les déformations que subissent certaines roches du manteau. 

Les chercheurs imaginaient bien que la solution était à chercher au niveau des interfaces des grains minéraux qui composent les roches. Cependant, ils manquaient d’outils conceptuels pour décrire et modéliser le rôle joué par ces parois entre les grains dans la plasticité des roches. Les chercheurs de l’Unité matériaux et transformations (CNRS/Université Lille 1/Ecole nationale supérieure de chimie de Lille) en collaboration avec ceux du laboratoire Géosciences Montpellier (CNRS/Université Montpellier 2) et du Laboratoire d’étude des microstructures et de mécanique des matériaux (CNRS/Université de Lorraine/Arts et Métiers ParisTech/Ecole Nationale d’Ingénieurs de Metz) ont réussi à expliquer ce rôle. En effet, ils ont montré que la structure cristalline des interfaces entre les grains présente des défauts très particuliers appelés « désinclinaisons », défauts qui n’avaient jusqu’à présent jamais été pris en compte. Les chercheurs sont parvenus à les observer pour la première fois sur des échantillons d’olivine (qui constitue jusqu’à 60% du manteau supérieur), grâce à un microscope électronique et un traitement spécial des images. Puis, ils sont allés plus loin : à l’aide d’un modèle mathématique de ces « désinclinaisons », ils ont démontré que celles-ci expliquaient la plasticité de l’olivine. En appliquant des contraintes mécaniques, les « désinclinaisons » permettent aux joints de grains de se déplacer, et donc à l’olivine de se déformer dans n’importe quelle direction. Ainsi, écoulement et rigidité du manteau ne sont plus incompatibles.

Ces travaux vont bien au-delà de l’explication de la plasticité des roches du manteau terrestre. Il s’agit d’une avancée majeure en sciences des matériaux. La prise en compte des « désinclinaisons » devrait fournir aux scientifiques un outil nouveau pour expliquer de nombreux phénomènes liés à la mécanique des solides. Les chercheurs veulent poursuivre leur étude de la structure des joints grains sur d’autres minéraux, mais aussi sur d’autres solides comme des métaux.

Source : CNRS

Et aussi dans les
ressources documentaires :

Et aussi en
formation :

  • Matériaux

Le premier astéroïde découvert entouré d’anneaux

L’astronomie est décidément une science pleine de rebondissements. Alors que l’homme observe le ciel depuis des millénaires, ce n’est qu’aujourd’hui que l’on braque un télescope sur un astéroïde encerclé par des anneaux. Aucun autre astéroïde connu à ce jour n’est doté de tels compagnons.  Cette observation sans précédent a été annoncée par l’European southern observatory (ESO), à l’origine de la découverte. 

C’est le 3 juin 2013 que les chercheurs sud-américains décident de mesurer l’occultation d’une étoile par Chariklo, alors un banal astéroïde de 250km de diamètre. S’appuyant sur un réseau de sept télescopes, ils observent notamment les seules cinq secondes pendant lesquelles Chariklo passe devant l’étoile. C’est alors qu’ils constatent à deux reprises une faible mais notable diminution de la luminosité. Intrigués, les astronomes comprennent qu’un objet non encore identifié existe autour de l’astéroïde. Décryptant les nombreuses mesures, ils découvrent enfin l’identité du responsable. Ou plutôt des responsables, puisqu’il s’agit de deux anneaux de glace et de cailloux. Malgré des largeurs de 3km et 7 km, leur épaisseur est seulement de quelques centaines de mètres.

L’origine de ces anneaux entourant un astéroïde laisse les scientifiques perplexes. Une explication avancée serait qu’un corps étranger aurait pu percuter Chariklo, provoquant l’expulsion d’une grande quantité de débris, ici de la glace et des cailloux, qui se seraient rassemblés sous forme d’anneaux. Ce phénomène se serait d’ailleurs produit sur Terre, les anneaux s’étant finalement agglomérés pour devenir notre Lune.

Les détails de cette surprenante observation sont parus dans Nature. La présence d’anneaux est attendue pour des objets bien plus gros qu’un astéroïde de 250km de diamètre, comme les planètes géantes Jupiter, Saturne ou encore Neptune. Reste à savoir si Chariklo est l’exception qui confirme la règle, ou si d’autre astéroïdes sont eux aussi porteurs d’anneaux.

Par Audrey Loubens, journaliste scientifique

Quatre nouveaux gaz destructeurs d’ozone détectés

Les spécialistes connaissaient sept types de chlorofluorocarbures (CFC) et six hydrochlorofluorocarbures (HCFC) pour leurs effets destructeurs sur la couche d’ozone : les CFC-11, CFC-12, CFC-13, CFC-113, CFC-114, CFC-114a, CFC-115 et les HCFC-21, HCFC-22, HCFC-123, HCFC-124, HCFC-141b, HCFC-142b. Cette nouvelle étude intitulée Newly detected ozone-depleting substances in the atmosphere a permis de détecter et quantifier la présence de quatre nouveaux gaz destructeurs de la couche d’ozone dans des échantillons prélevés en Tasmanie (Australie) et au Groenland. Si l’origine de cette pollution n’a pas encore été déterminée, les auteurs suspectent la production d’insecticides et de solvants pour les composants électroniques.

Les chercheurs ont analysé des échantillons d’air collectés en Tasmanie entre 1978 et 2012, dans une région exempte de sources de pollutions proches. Ils ont également analysé l’air présent dans des carottes de neige prélevées au Groenland. « Les sites utilisés visent à documenter « l’atmosphère de bruit de fond, c’est à dire des zones aussi peu polluées que possible », précise Patricia Martinerie, chercheuse au laboratoire de glaciologie et de géophysique de l’environnement de Grenoble (LGGE) et cosignataire de l’étude.

Le résultat est là : au sud comme au nord, les auteurs ont décelé la présence de trois chlorofluorocarbures (CFC-112, CFC-112a et CFC-113a) et d’un hydrochlorofluorocarbure (HCFC-133a) qui n’avaient jusqu’ici jamais été mesurés. Grâce à des modèles de transport très performants des gaz dans la neige compactée, les chercheurs ont pu montrer que ces nouveaux CFC et HCFC mesurés n’étaient pas présents dans l’atmosphère avant les années 1960, ce qui suggère leur origine anthropique.

Quelles sont les quantités en jeu ?

Selon les auteurs, plus de 74 000 tonnes de ces quatre gaz ont été émis avant 2013. Ces émissions sont faibles par rapport à celle des autres CFC qui s’élevaient à plus d’un million de tonnes chaque année dans les années 1980.  « Les concentrations en CFC-112 et CFC-112a ont commencé à baisser ; les concentrations en CFC-113a et HCFC-133a continuent d’augmenter », explique Patricia Martinerie. 

Puisque ces composés ont une durée de vie assez élevée dans l’atmosphère, ils contribueront à détruire l’ozone stratosphérique pendant encore quelques années. « Une estimation de la durée de vie est faite dans l’étude, avec des fourchettes d’incertitude assez grandes : la meilleure estimation est de 51 ans pour le CFC-112 et le CFC-113a, 44 ans pour le CFC-112a. Une estimation de 4,3 ans existe par ailleurs déjà pour le HCFC-133 », fait savoir Patricia Martinerie. 

Les auteurs estiment que la concentration dans l’atmosphère atteignait 0,48 ppt pour le CFC-113a, 0,44 pt pour le CFC-12, 0,37 ppt pour le HCFC-133a et 0,07 ppt pour le CFC-112a, fin 2012. Pour voir que ces concentrations sont encore relativement faibles, il suffit de les comparer à celles des substances suivies depuis quelques décennies. Ainsi, en 2013, la concentration atmosphérique du CFC-12, par exemple, était d’environ 525 pt, celle du CFC-11 tournait aux alentours de 235 ppt et celle du CFC-113 était proche de 72 ppt selon la National Oceanic and Atmospheric Administration (NOAA).

Les concentrations relevées étant faibles, ces nouvelles émissions ne peuvent-pas, pour le moment, annuler les efforts qui ont été faits en interdisant les anciens CFC utilisés. « Les CFC-112 et CFC-112a ne sont pas très inquiétants car ils suivent la décroissance des autres CFC encadrés par le Protocole de Montréal. Mais les CFC-113a, et particulièrement le HCFC-133a sont les seuls gaz destructeurs d’ozone dont la concentration continue d’augmenter et il faut donc les surveiller leur évolution», précise Patricia Martinerie. Les auteurs suggèrent donc de lancer de nouvelles études pour identifier les sources d’émissions de ces destructeurs d’ozone, afin de pouvoir les réglementer. 

Ils préconisent également de reconsidérer la façon dont les industriels déclarent les gaz chlorés. Pour le moment, les industriels déclarent leurs productions, sans pour autant différencier les isomères (molécules de même formule brute mais d’agencement atomique différent), les intermédiaires de synthèses, les fuites et les émissions traces.

Où en est la réglementation ?

Les CFC étaient largement utilisés dans les années 1980 comme fluides réfrigérants, solvants et dans les aérosols. Mais après la découverte des fameux « trous » dans la couche d’ozone au-dessus des pôles en 1985, leur usage a été progressivement réduit par le protocole de Montréal, entré en vigueur en 1989, et ratifié par 196 pays. Il fallait stopper la destruction de l’ozone  stratosphérique (situé entre 20 et 50 kilomètres d’altitude), sans qui, le rayonnement solaire ultra-violet ne serait plus plus absorbé. Depuis 2010, ils sont totalement interdits, à l’exception de quelques applications bien définies. 

Depuis, ces substances ont été temporairement remplacées par les HCFC, moins stables dans l’atmosphère et se décomposant donc plus rapidement. S’ils détruisent un peu moins la couche d’ozone, leur pouvoir de réchauffement très élevé en fait des gaz à effet de serre redoutables. Ils sont à leur tour progressivement éliminés au profit des hydrofluorocarbures (HFC), où le chlore est remplacé par du fluor.

Les HCFC et HFC détruisent beaucoup moins la couche d’ozone que les CFC, car ils sont en très grande partie détruits dans l’atmosphère avant d’atteindre l’ozone stratosphérique. Ils ont généralement des pouvoirs de réchauffement par molécule importants. Leurs concentrations dans l’atmosphère sont encore relativement faibles, mais en augmentation.

Depuis 1990, les émissions de gaz destructeurs d’ozone ont diminué et plusieurs signes montrent que la couche d’ozone commence à se reconstituer. Toutefois, en raison de la durée de vie de ces gaz dans l’atmosphère (variant de 1 an à 100 ans pour les principaux CFC), les experts ne prévoient pas une reconstitution notable de la couche d’ozone avant le milieu du siècle.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le réchauffement des années 70-90 est-il en partie lié à une oscillation océanique naturelle ?

« De nombreuses études récentes pointent le rôle de l’Oscillation Décennale du Pacifique (PDO) dans la pause du réchauffement » écrit Lisa Goddard, climatologue de l’université Columbia spécialiste des oscillations océaniques et directrice de l’IRI,  l’International Research Institute for Climate and Society. 

La PDO est une oscillation océanique naturelle dont la période moyenne est d’environ six décennies. Pendant environ trois décennies l’effet de la PDO est réchauffant, puis l’inverse le reste du cycle. Le passage d’une phase à l’autre se fait de manière progressive, la transition prend la forme d’un plateau.

Durant les phases PDO échauffantes les épisodes El Niño, qui durent en moyenne 12 à 18 mois, sont deux fois plus fréquents que les épisodes La Niña. C’est l’inverse durant les phases PDO refroidissantes.

D’autres études, ajoute Lisa Goddard, soulignent que l’on a déjà connu dans les années 50 et 60 une pause du même genre que celle que l’on observe aujourd’hui. Il s’agit de publications d’auteurs cherchant à relativiser la durée bientôt bi-décennale du hiatus actuel. Dans les années 50 et 60, tout comme aujourd’hui, la pause correspondait à une phase PDO froide. 

« Il est intéressant de constater que personne n’évoque ouvertement l’autre versant de cette situation : l’accélération du réchauffement climatique » ose écrire la chercheuse. « Les années 1970 jusqu’au milieu des années 1990 ont connu une période positive de la PDO et une accélération du réchauffement. Si vous acceptez qu’une phase négative de la PDO puisse avoir un effet sur le réchauffement, alors une phase positive de la PDO aurait dû avoir un résultat opposé. »

Assainir le débat climatique

Avec ces propos Lisa Goddard fait tomber un tabou. Et elle détoxifie un débat pollué depuis plusieurs années par des affrontements stériles entre extrémistes, climato-exagérateurs d’un côté et les climato-négateurs de l’autre.  Nature Climate Change est un journal mensuel peer-reviewed crée en 2011 par Nature Publishing Group et regroupant des articles scientifiques de haute qualité ayant pour thème le climat.

Si l’on admet que la PDO, en phase refroidissante, est assez puissante pour contrebalancer le forçage échauffant induit par les gaz à effet de serre anthropiques, on peut difficilement nier, sauf à faire preuve de mauvaise foi climato-exagératrice, que la PDO, en phase échauffante, peut exercer un effet du même ordre de puissance mais de signe opposé. 

Et on peut difficilement nier, sauf à faire preuve de mauvaise foi climato-négatrice, que le réchauffement reprendra probablement de plus belle quand la PDO passera de nouveau en phase échauffante d’ici environ deux décennies. Car alors le forçage anthropique et la PDO pousseront tous les deux dans le même sens.

Une question de sensibilité

Si le réchauffement observé dans les années 70-90 est en partie lié (pour moitié ?) à la PDO, cela a d’importantes conséquences. Cela implique que l’estimation de la sensibilité climatique au CO2 a été surestimée par les modèles informatiques qui servent de référence au GIEC, organisme au service des politiques climatiques de l’ONU. 

Contrairement à ce qu’essayent de faire croire les climato-négateurs une sensibilité climatique plus basse ne signifie pas qu’elle est nulle. Mais cela conduit à revoir les prédictions d’amplitude de réchauffement global pour le futur. Les prédictions seraient alors moins inquiétantes qu’avec les modèles informatiques actuels, ce qui ne constitue en aucun cas un blanc-seing pour l’inaction en matière de réduction des gaz à effet de serre. 

Plusieurs équipes scientifiques, notamment norvégiennes, japonaises et américaines estiment que la sensibilité climatique retenue par le GIEC est surévaluée. Pour le professeur Michael Schlesinger, directeur du Climate Research Group du Département des sciences de l’atmosphère de l’Université de l’Illinois, avec une sensibilité climatique plus basse « parvenir à limiter le réchauffement anthropique à 2°C devient possible ». Ceci tout en permettant le développement économique des pays dits « du sud ». 

« Les informations requises pour gérer les risques et les opportunités des futurs changements climatiques, qu’ils soient naturels ou résultent de l’action humaine, doivent reposer sur une science solide » estime Lisa Goddard. « La science part de bonnes observations et d’une bonne synthèse. Mais les choses ne doivent pas d’arrêter là. Elle doit servir aussi à une meilleure compréhension, à un meilleur suivi et à des prédictions qui vont de la variabilité interannuelle aux décennales et de ses manifestations quant à un changement de la moyenne climatique. »

Et le niveau marin ?

La pause du réchauffement climatique ne concerne pas uniquement la température de surface terrestre. « Depuis le début de la décennie 1990 le taux moyen d’élévation du niveau marin a été de 3,1 mm par an. Cependant durant la dernière décennie une baisse de 30% de ce taux a été observé » constatent la scientifique française Anny Cazenave et ses collègues dans un article publié dans Nature Climate Change en février 2014 et intitulé « Le taux de la montée du niveau marin », où les chercheurs tentent de trouver des hypothèses explicatives et soulignent l’importance probable des oscillations océaniques. Alors que le taux d’élévation moyen du niveau marin global était compris entre 3 à 4 mm par an avant 2005 (moyenne glissante sur 5 ans), il est tombé à entre 2 et 3 mm par an depuis 2005.

Le 4ème rapport du GIEC (2007)  indiquait qu’« aucune accélération du niveau de la mer  à long terme n’a été identifiée en utilisant uniquement  les données du XXème siècle ». Et dans l’AR5 publié en 2013 on peut lire qu’« il est probable que le niveau moyen marin global  ait augmenté entre 1920 et 1950 à un taux  identique à celui observé entre 1993 et 2010 ». A l’évidence, le signal anthropique n’est, du moins à ce stade, pas perceptible.

Le boom de la surface de la banquise du pôle sud qui a battu cette année un record est également surprenant. Un bateau russe avec à son bord des écologistes est d’ailleurs resté bloqué par la banquise Antarctique en janvier 2014, c’est-à-dire en plein été austral. Et le déclin de la banquise Arctique (pôle nord) semble s’être affaiblit ces dernières années. 

Des tempêtes causées par l’homme ?

On objectera que l’Europe a connu une série de tempêtes aux lourdes conséquences cet hiver, et que c’est la preuve d’une action néfaste de l’homme sur le climat. Un élu anglais a très sérieusement affirmé que les tempêtes qui ont frappé le Royaume-Uni cet hiver constituent une punition de dieu suite à la décision du gouvernement de légaliser le mariage homosexuel le 17 juillet 2013. Un nouveau Sodome et Gomorrhe ? La terre et dieu se vengent-ils des méchants êtres humains trop jouisseurs ? Il convient de dépasser les schémas mentaux punitifs et d’adopter une approche rationnelle. 

Le 15 février 2014 le journal L’Express a posé la question: ces tempêtes sont-elles causées par l’homme ? « Non, on ne peut pas attribuer pour l’instant tous ces évènements au réchauffement climatique » a répondu Jean Jouzel, vice-président du GIEC. « Je ne suis pas sûr qu’il y ait une explication autre que météorologique. Il y a une variabilité naturelle du climat  » a affirmé avec une grande honnêteté le scientifique, ne cédant pas à la facilité du populisme catastrophiste. « Le réchauffement planétaire annuel est de l’ordre de 0,01 ou 0,02 degré, bien loin des écarts que l’on voit cet hiver en France » a précisé l’expert.  « Même si le réchauffement climatique est inéluctable, il s’est ralenti ces 15 dernières années en termes de températures ».

Mais où est donc passée la fameuse « chaleur manquante » ? 

La question reste entièrement ouverte. Le débat scientifique est loin d’être clos, « the science is not settled ». C’est grâce au scepticisme que les connaissances progressent. Pour Denis Diderot, philosophe des Lumières auteur de la célèbre Encyclopédie, « le scepticisme est le premier pas vers la vérité ». Le scepticisme n’est pas seulement « l’ami de la science », c’est la substantifique moelle du scientifique.  

« Même dans celles de nos théories qui ont été les mieux corroborées, des fautes peuvent se cacher ; et il est du savoir spécifique du scientifique de rechercher de telles fautes. En ce qui concerne ce devoir, une nouvelle théorie alternative peut nous être d’une grande aide » affirmait le philosophe des sciences Karl Popper. « Cela signifie que nous devons être tolérants à l’égard de telles alternatives. Nous devons adopter une attitude tolérante, avant que la théorie dominante ne soit en difficulté ».

Pour Richard Feynman « la Science c’est la croyance dans l’ignorance des experts ». Même les plus grands climatologues du monde ont le droit de se tromper. « Il n’y a aucune autorité qui tienne. Cela vaut également pour les spécialités » estimait Karl Popper.

Le droit au doute

Il est regrettable que certains journalistes travaillant pour de grands médias français essayent de faire croire que le scepticisme est anti-scientifique et s’acharnent contre les scientifiques qui osent remettre en cause les dogmes climatiques en cherchant à les faire passer pour des personnes forcément malhonnêtes, corrompues ou alors farfelues.

« Avec l’idole de la certitude (qui inclut celle de la certitude imparfaite ou probabilité) tombe l’une des défenses de l’obscurantisme, lequel met un obstacle sur la voie du progrès scientifique » soulignait Karl Popper. « Car l’hommage rendu à cette idole non seulement réprime l’audace de nos questions, mais en outre compromet la rigueur et l’honnêteté de nos tests. La conception erronée de la science se révèle dans la soif d’exactitude. Car ce qui fait l’homme de science, ce n’est pas la possession de connaissances, d’irréfutables vérités, mais la quête obstinée et audacieusement critique de la vérité. »

Par Olivier Daniélo

  • En savoir plus :

L’étude « Heat hide and seek » publiée dans Nature Climate Change 

  • Lire aussi :

Limiter le réchauffement à 2°C est possible selon une étude américaine

Y a-t-il accélération ou décélération du niveau des océans ?

Ségolène Royal, le nucléaire, et les énergies renouvelables

Avec la fermeture de la centrale nucléaire de Fessenheim annoncée pour « fin 2016 » l’énergie va être au centre du débat de l’élection présidentielle de 2017. La droite avait trouvé un angle d’attaque stratégique contre le PS : fustiger son alliance avec EELV, un parti que Nicolas Sarkozy a comparé en 2012 à « une forme de secte » car prônant l’idéologie de la décroissance opposée au progrès techno-scientifique, à l’ingénierie.

Le nouveau gouvernement dirigé par Manuel Valls ne comprend pas un seul ministre issu d’EELV. Le refus d’EELV est peut-être, paradoxalement, une opportunité pour un rebond des politiques en faveur des énergies renouvelables en France.

L’écologie de la décroissance mène à l’impasse

EELV est en réalité divisé au sujet de cette doctrine. « On ne fonde pas un parti de la décroissance » avait alerté Daniel Cohn-Bendit en 2009, essayant de faire évoluer les mentalités sur ce thème central. Un point de vue partagé par Corinne Lepage pour qui « la décroissance n’est pas porteuse d’espoir » et qui soutient la « troisième révolution industrielle » prônée par le prospectiviste américain Jeremy Rifkin. « Il faut une croissance des énergies renouvelables ! » hurlait Daniel Cohn-Bendit bien au fait, en tant que citoyen allemand, du développement de ces énergies outre-Rhin. Cette approche positive a valu à ce député européen d’être traité d’« éco-tartuffe » par « Le Journal de la décroissance » de Vincent Cheynet. Daniel Cohn-Bendit a quitté EELV en décembre 2012.

Cécile Duflot a milité ces derniers jours pour empêcher l’entrée de membres d’EELV au nouveau gouvernement de Manuel Valls. Ce dernier est considéré comme trop libéral, trop favorable au développement économique, trop à l’antipode des valeurs de la décroissance. Daniel Cohn-Bendit, écologiste qui se définit lui-même comme « libéral », a déclaré sur RTL le 2 avril que cette position de Cécile Duflot constitue une « faute politique très très grande ».

Le livre « Ras-le-bol des écolos, pour qu’écologie rime avec économie » (Editions Plon, 24 octobre 2013) de Maud Fontenoy préparait la mise en scène pour 2017 : l’UMP favorable à une écologie du progrès, opposée au PS allié aux idéologues de l’écologie du déclin. « Je ne me reconnais pas dans un discours qui prône la décroissance » a déclaré sur France-Info fin 2013 Maud Fontenoy, très présente médiatiquement depuis la parution de ce livre. « Stop aux discours alarmants sur l’écologie ». Pour cette écologiste UMP, « trop longtemps, on a pensé que le développement durable était réservé à la gauche (…) Je suis persuadée que durable peut rimer avec rentable ».

Des propos directement en écho à ceux de Nicolas Sarkozy en 2009 à Aubervilliers : « Quand j’entends nos écologistes parfois dire qu’ils vont faire campagne sur le thème de la décroissance, est-ce qu’ils savent qu’il y a du chômage? Est-ce qu’ils savent qu’il y a de la misère dans le monde? Est-ce qu’ils savent qu’il y a près d’un milliard de gens qui ne mangent pas à leur faim et que la décroissance ça veut dire plus de misère pour tous ces gens-là ? ».
« Que va-t-on dire aux millions de Chinois et d’Indiens qui veulent accéder à nos niveaux de vie ? » renchérit Maud Fontenoy. « D’autant que la croissance permet aussi un meilleur accès aux soins et à l’éducation » estime la navigatrice qui a traversé l’Atlantique à la rame, qui a crée une fondation environnementale et qui est devenue l’ambassadrice de l’UNESCO pour les océans. « C’est aux pays riches de proposer à ceux en développement des solutions pour qu’ils passent directement à une croissance durable et responsable. Avec intelligence ».

L’approche du « découplage » entre PIB et ressources, portée par le Programme des Nations Unies pour l’Environnement (www.unep.org/resourcepanel/decoupling), permet effectivement de concilier économie et environnement. Comme le souligne l’intellectuel suédois Hans Rosling nous avons franchi le « peak child ». Le nombre d’enfants naissant sur terre n’augmentera plus, la population continue d’augmenter uniquement du fait de l’augmentation moyenne de l’espérance de vie dans le monde. Ainsi, étant donné que la « bombe démographique » est désamorcée, que la population mondiale va se stabiliser dans la seconde moitié du XXIème siècle, alors la frugalité prônée par les théoriciens de la décroissance n’est pas une obligation mais une simple option dans le panel des solutions possibles.

L’UMP et le PS cherchent à s’approprier le concept de croissance verte

Ségolène Royal est connue pour s’être opposée à l’écologie de la décroissance qu’elle a elle-même qualifié de « punitive ». Personnalité très médiatique et charismatique, elle s’est par exemple opposée avec vigueur à la « taxe carbone » conçue par Jean-Marc Jancovici, promoteur de la doctrine de la décroissance en France, et soutenue par Nicolas Hulot. «L’écotaxe, ce nouvel impôt que nous annonce le Premier ministre, est un impôt absurde, un impôt injuste, un impôt historiquement décalé dans le temps (…) Un impôt insupportable pour toutes celles et tous ceux qui n’ont pas le choix » avait estimé Ségolène Royal en août 2009 depuis La Rochelle.

Toujours dans cette logique d’opposition à l’écologie punitive, Ségolène Royal a qualifié en novembre 2013 de « révolte citoyenne » le mouvement des Bonnets Rouges en Bretagne. « Moi je préfère des peuples en mouvement à des peuples apathiques et qui se disent on n’a plus rien à faire ni même à revendiquer. La levée des Bretons, il y a quelque chose qui est assez réconfortant ». Les Bonnets Rouges, qui ont organisé en mars 2014 « les Etats Généraux de Bretagne », revendiquent en particulier une « appropriation par les Bretons de la filière énergie et développement des énergies renouvelables », ceci par le biais de la création de coopératives énergétiques locales, en circuit court. Il s’agit pour eux de « ne plus dépendre, pour notre énergie, des grandes entreprises publiques ou privées sur lesquels nous n’avons aucun contrôle. »

Ségolène Royal est favorable à une écologie de la « croissance verte », approche dont fait aussi la promotion la Fondation « Ecologie d’avenir », organisation du Collège de France crée par Claude Allègre, scientifique et homme politique très proche de Nicolas Sarkozy sur les questions environnementales. Ce dernier l’a d’ailleurs salué à plusieurs reprises lors de ses derniers meetings de la présidentielle de 2012. Maud Fontenoy, qui jouit d’une bonne image, a repris le flambeau anti-décroissance de Claude Allègre. L’ancien Ministre de l’éducation et de la recherche, du fait de son tempérament, a vu sa popularité s’éroder. Et il est de plus fatigué par le combat acharné qu’il a mené contre la décroissance. Ségolène Royal préfère elle aussi une écologie qui favorise les nouvelles technologies à la fois propres et économiquement pertinentes à une écologie qui sanctionne les énergies sales et qui par ricochet affecte le porte-monnaie des ménages.

« Je ne suis pas du tout pour la décroissance » a de son côté déclaré en janvier 2014 dans le quotidien Ouest-France le climatologue Jean Jouzel. « Plus qu’une transition, il faut envisager une révolution énergétique ». Pour ce vice-président du GIEC et président du Haut Conseil de la science et de la technologie, « il faut développer les énergies renouvelables ».

« Moins dépendre du pétrole et du tout nucléaire »

Avec la nomination de Ségolène Royal, François Hollande coupe l’herbe sous le pied de la droite en cassant l’axe stratégique qu’elle concoctait. Outre l’effet masque vis-à-vis de l’affaire Gayet-Trierweiler, polémique particulièrement néfaste auprès de l’électorat féminin, le choix de Ségolène Royal à la tête du Ministère de l’Ecologie permettra au PS de se présenter comme porteur de la « social-écologie » et non pas de l’idéologie de la décroissance punitive et destructrice d’emplois.

Dans son discours suite à la débandade du PS aux élections municipales, François Hollande a annoncé une « exigence de la transition énergétique pour préparer la France de demain à être moins dépendante du pétrole comme du tout nucléaire ». L’expression « tout-nucléaire » n’est pas neutre.

Les défenseurs des centrales thermiques fossiles et fissiles, très présents dans les médias depuis plusieurs mois dans le cadre d’une grande campagne visant à décrédibiliser les énergies renouvelables, ont à présent des raisons de s’inquiéter. Il semble en effet que François Hollande ait décidé d’agir en faveur des EnR, ceci afin de ne pas être exposé à la sanction des électeurs lors des élections futures. Les français sont globalement très favorables au développement des EnR, et les électeurs de sensibilité écologiste pourraient lui reprocher de ne pas avoir tenu ses promesses. Il a en effet promis, lors d’un débat l’opposant à Martine Aubry lors des primaires du PS, de réduire la part du nucléaire de 75% aujourd’hui à 50% en 2025.

La France accueille de plus en 2015 la grande conférence mondiale de l’ONU sur le climat (COP 19), ce qui pousse le président à vouloir offrir une bonne image du pays en matière d’énergies d’avenir. Ségolène Royal a déjà été ministre de l’écologie en 1992 et 1993, c’est-à-dire à l’époque du sommet de la terre de Rio.

En 2011 Ségolène Royal a déclaré que la France devrait se fixer comme objectif de « devenir la première puissance écologique d’Europe dans le domaine des énergies renouvelables ». La présidente de la région Poitou-Charentes tient à présent les rênes de la future loi sur la transition énergétique qui va être votée cette année. Avec la place du nucléaire et le développement des énergies renouvelables en première ligne, le débat entre les promoteurs des énergies vraiment durables et les inconditionnels amoureux de l’atome promet d’être agité dans les mois à venir.

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

Le coup d’envoi du Mondial de football devrait être lancé par un adolescent paralysé

Une fois n’est pas coutume, c’est un jeune Brésilien paralysé des membres inférieurs qui devrait donner le coup d’envoi de la Coupe du monde lors du match d’ouverture Croatie / Brésil. Appareillé d’un exosquelette – des pieds à la taille – l’adolescent se lèvera de son fauteuil pour frapper le ballon, si la FIFA le confirme. Une séquence symbolique jamais vue auparavant qui en surprendra certainement plus d’un. 

On associe souvent le squelette externe au domaine militaire. Par sa capacité à augmenter les capacités physiques naturelles, cette structure mécanique est considérée comme un moyen d’obtenir des soldats surhumains. Or la recherche médicale est elle aussi sur le coup et l’exosquelette comme il est présenté ici se montre sous un soleil neuf. Car doté d’un casque d’électrodes mesurant l’activité électrique des neurones (technologie non-intrusive), l’adolescent sera en mesure de contrôler ses mouvements par la pensée. En outre, il sera muni d’un stabilisateur gyroscopique ainsi qu’un système de retour de force afin d’alléger la marche. On ne peut imaginer le sentiment ressenti au fait de pouvoir marcher à nouveau. 

Le projet s’appelle d’ailleurs « Walk Again ». Il s’agit d’une collaboration internationale visant à rendre la mobilité à ceux qui l’ont perdu pour diverses raisons:  accident, vieillesse… Les acteurs de ce projet à but non lucratif sont nombreux, il compte dans ses rangs: the Duke University Center for Neuroengineering, The Technical University of Munich, the Swiss Federal Institute of Technology in Lausanne, the Edmond and Lily Safra International Institute of Neuroscience of Natal in Brazil, The University of California, Davis, The University of Kentucky, and Regis Kopper of The Duke immersive Virtual Environment. 

L’étendard et porte-parole du projet, Miguel Nicolelis, chercheur en neurosciences et Brésilien de 52 ans estime qu’« avec suffisament de volonté politique et d’investissement, nous pouvons rendre les fauteuils roulants obsolètes ». Il est certain que le potentiel robotique / neurosciences est impressionnant et ses perspectives prometteuses. 

Sans compter l’aspect commercial. Les personnes atteintes de paraplégie (paralysie des membres sous la moelle épinière), myopathie (dégénérescence du tissu musculaire), tétraplégie (paralysie des quatre membres)… où simplement âgées sont nombreuses. Elles représentent un marché important: jusqu’à 1 000 milliards d’euros!

Par Sébastien Tribot
     

Et aussi dans les
ressources documentaiires

Missions sur Mars: les risques pour la santé dépassent les critères de la Nasa (experts)

« Ce genre de mission exposerait probablement les membres d’équipage à des niveaux de risques connus allant au-delà de ceux autorisés par les critères actuels en matière de santé, ainsi qu’à une série de risques encore mal définis, incertains, voire imprévisibles », souligne le rapport de l’Institute of Medicine (IOM).

Par conséquent, toute mission à long terme ou dans l’espace lointain, à l’horizon des prochaines décennies, nécessitera un certain degré d’examen éthique, ajoute le document.

A l’heure actuelle, les astronautes sont envoyés dans l’espace en orbite terrestre basse, où ils peuvent passer entre trois à six mois à la fois, à bord de la Station spatiale internationale. Mais une expédition vers Mars pourrait prendre jusqu’à 18 mois.

La Nasa a assuré vouloir envoyer des personnes sur la Planète rouge d’ici les années 2030 et travaille actuellement à la construction d’un lanceur et d’un engin spatial à cet effet.

Les risques pour la santé de missions courtes dans l’espace peuvent comprendre des nausées, un état de faiblesse généralisé, une vision troublée, tandis que les risques de missions à long terme peuvent aller jusqu’à des cancers radio-induits ou la perte de masse osseuse.

Etant donné ces risques incertains et mal connus, la Nasa a demandé à l’IOM de mettre en place un cadre éthique pour guider les décisions à venir dans le domaine des vols spatiaux habités.

Les membres du comité d’experts ont refusé de créer une série de critères de santé à part et spécifiques aux missions vers Mars. A la place, le groupe a conclu que la seule option était d’accorder des exceptions aux critères de santé actuels.

Mais l’IOM a mis en garde sur le fait que la Nasa devrait malgré tout, dans tous les cas, déterminer si ce genre d’exceptions restent éthiquement acceptables.

« Toute exception devrait être rare et n’avoir lieu qu’en cas de circonstances particulières », souligne l’IOM, citant par exemple la nécessité que les astronautes puissent décider par eux-mêmes d’y participer ou non, ou le besoin de choisir des missions bénéfiques pour la société en général.

Le comité recommande aussi à la Nasa d’assurer une couverture santé à vie pour ses astronautes.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Quel âge a la Lune? Des planétologues ont demandé à la Terre

Le système solaire s’est formé il y a 4,56 milliards d’années. Selon le modèle aujourd’hui couramment admis, la Lune est née lorsque la Terre, elle-même à peine formée, a subi une collision massive avec une autre planète de la taille de Mars. Les débris éjectés par la collision se sont ré-accumulés pour former la Lune. l’impact a aussi provoqué le démarrage du dernier acte de la formation du noyau de la Terre.

Plusieurs dates ont été précédemment proposées pour cet événement, à partir des mesures d’isotopes radioactifs: certains suggèrent qu’il a pu survenir autour de 30 millions d’années seulement après la naissance du Système solaire, d’autres le situent plus tard, 50 voire 100 millions d’années après la naissance du Système solaire.

Une équipe de planétologues français, allemands et américains, menée par Seth Jacobson et Alessandro Morbidelli, de l’Observatoire de la Côte d’Azur (Nice, France), a utilisé une autre méthode pour tenter de déterminer l’âge de la Lune, basée sur des simulations numériques et la composition chimique du manteau de la Terre.

Les planétologues ont découvert « une relation entre le temps auquel la collision formant la Lune s’est produite et la quantité de matériau que la Terre a acquise après cette collision géante », explique l’Observatoire dans un communiqué.

Cette relation est « une véritable horloge pour dater l’événement conduisant à la formation de la Lune », ajoute-t-il.

Cette nouvelle horloge date la Lune à 95 millions d’années (+ ou – 32 millions d’années) après le début du Système solaire, excluant l’hypothèse d’une formation précoce.

Elle confirme aussi que la Terre est « la planète qui a mis le plus longtemps pour se former dans notre Système solaire », a souligné Alessandro Morbidelli dans un échange de mails avec l’AFP.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le renouvellement du parc français de réacteurs nucléaires

Il serait difficile de renouveler le parc existant en reproduisant à l’identique, avec un décalage dans le temps, le rythme de construction des réacteurs de génération II,  car il faudrait construire jusqu’à 5 EPR par an.

On fait ici la supposition que tous les REP actuels pourraient avoir une durée de vie de 60 ans. Ceci suppose, bien entendu, que l’ASN accepterait une telle prolongation, à l’image des autorités de sûreté américaines. On compare deux scénarios de renouvellement, le premier s’étalant sur 40 ans (cas A), le deuxième sur 20 ans (cas B). Les rythmes de mise en service des EPR des deux scénarios sont illustrés sur la Figure 1. 

Dans le premier cas les pertes de revenus d’exploitation sont beaucoup plus importantes, par contre, le deuxième cas nécessite qu’EDF recoure de manière importante à l’emprunt. Les pertes d’exploitation sont dues au fait que les coûts annoncés de production des EPR sont supérieurs à ceux constatés pour les REP actuels.

La Cour des Comptes a donné une fourchette de 70 à 90  Euros pour le coût du MWh qui sera produit par l’EPR de Flamanville. Toutefois, on peut espérer que les coûts et les délais de construction des EPR évolueront dans un bon sens, comme cela semble le cas des EPR chinois construits dans les délais et les coûts originels.  Un coût du MWh de 60 €/MWh semble raisonnable. La Cour des Comptes a estimé le coût complet de production du parc actuel à 49 €/MWh. La différence entre les deux estimations serait donc de 11 €/MWh.

Il s’agit là d’une valeur minimale : en effet  le calcul par la Cour des Comptes du coût du parc actuel de 49 €/MWh est fait sur la base d’une durée de vie des réacteurs de 40 ans. Si cette durée de vie est portée à 60 ans comme le recommande la Cour elle-même, ce coût devrait diminuer. On peut estimer cette diminution aux alentours de 4 €/MWh [1]. En ce qui concerne le coût de production de l’EPR on peut envisager une valeur haute de 65 €/MWh.

 

 

Finalement, la perte d’exploitation due à un renouvellement accéléré du parc pourrait se situer entre 11 et 20 €/MWh

La perte d’exploitation dans le cas du scénario A est estimée à  2740 TWh, celle du scénario B de  508 TWh.  La perte d’exploitation du scénario A par rapport au scénario B serait donc de 2232 TWh valorisés entre 24 et 45 G€. 

Le renouvellement complet du parc  existant avec des EPR nécessite un investissement de l’ordre de 195 milliards d’euros [2], soit une moyenne de 5 milliards par an dans le cas A et de 10 milliards par an dans le cas B avec, dans ce deuxième cas, des pointes sensiblement plus élevées. Malgré un résultat brut d’exploitation relativement important (9 milliards en 2011) EDF risque d’éprouver de sérieuses difficultés à lever les fonds nécessaires (fonds propres et emprunts), particulièrement dans le cas B. Difficultés qui risquent de se traduire par un coût de l’argent nettement plus élevé dans le cas B que dans le cas A. Une différence de taux de 3%, pour des emprunts sur 20 ans,  paraît de l’ordre du possible et conduirait à une surcharge financière de 48 G€.

 

Le Tableau 1 récapitule ces évaluations de différence de coût total entre les deux scénarios :

Tab.1 : Récapitulatif des incidences financières possibles des deux scénarios de renouvellement du parc

La solution la moins onéreuse pourrait correspondre à  un renouvellement au rythme d’environ un EPR par an. Ce rythme lent  favoriserait, d’ailleurs, l’optimisation des commandes à l’industrie et serait plus sûr dans le cas ou l’ASN refuserait certains prolongements.

Fig.1 : Cadence de mise en service des EPR dans l’hypothèse d’un renouvellement du parc en 40 ans (cas A) et en 20 ans (cas B). Ces mises en service sont déterminées pour minimiser les pertes d’exploitation et respecter une durée de vie maximale des réacteurs de 60 ans

Par Hervé Nifenecker, Ingénieur et docteur ès sciences et Président fondateur du collectif  Sauvons le Climat, qu’il a créé en 2004.

  • [1] Si on ne tient pas compte de la rémunération du capital nécessaire pour restituer les capacités initiales de financement en fin de vie du parc, le coût de fonctionnement et de prolongation du parc serait, selon la Cour, de l’ordre de 38 €/MWh. La rémunération du capital sur 40 ans correspondrait donc à 11 €/MWh. Si la durée de vie des réacteurs est portée à 60 ans la rémunération du capital serait de l’ordre de 7 €/MWh., soit un coût total du MWh de 45 €/MWh
  • [2] Nous retenons un coût de l’EPR de 5 G€, alors que le coût initial donné par EDF était de 3,5 G€, que l’EPR de Flamanville coûtera 8,5 G€ et que celui des EPR chinois devrait être conforme aux prévisions initiales. 

Les batteries au lithium ont-elles incendié le vol MH370 ?

Les familles n’en finissent pas d’être éprouvées. Cela fait bientôt deux semaines qu’elles attendent de savoir ce qui est arrivé à leurs proches, les passagers du vol MH370 à destination de Pékin. Lundi 24 mars, les autorités malaysiennes officialisent le crash de l’avion au large de l’Australie et la mort des 239 passagers. Cette annonce repose sur une conclusion formulée par le bureau d’enquête britannique, alors qu’aucun débris n’a encore été récupéré. 

Alors que le déroulé des dernières heures de vol commence à prendre forme, les raisons de l’accident demeurent mystérieuses. Parmi les différents scénarii et notamment celui d’un détournement raté, celui d’un dégagement de fumée dû à l’inflammation de produits dangereux présents en soute reste plausible.  Le directeur de la Malaysia Airlines a reconnu que l’avion transportait des batteries lithium-ions : « Nous transportions de petites batteries lithium-ion (…) approuvées par l’Organisation internationale de l’aviation civile en tant que produits dangereux ». Batteries qui n’auraient jamais dû se trouver à bord, si la compagnie avait respecté les règles internationales en vigueur (consultables sur le site d’Air France), leur transport ne pouvant s’effectuer qu’en fret, dans des vols sans passager. D’ailleurs, le directeur de la compagnie malaisienne avait dans un premier temps déclaré qu’il n’y avait que des fruits en soute. 

Maintenant que la présence de matières dangereuses est connue, certains experts émettent l’hypothèse qu’elles seraient à l’origine du drame. Ces batteries sont très inflammables et auraient pu déclencher un incendie. Celui-ci se serait propagé, coupant les différents instruments comme le transpondeur. La fumée dégagée aurait pu intoxiquer les pilotes et les passagers, ce qui pourrait expliquer la brusque montée en altitude de l’appareil observée moins d’une heure après la disparition de l’avion des écrans de contrôle aérien. Devenu incontrôlable, l’avion continue sur sa trajectoire jusqu’à la panne sèche, et s’abîme en mer. 

Des batteries Lithium-ion ont déjà causé des accidents aériens. Plus particulièrement, depuis plus d’un an,  les Boeing 787 Dreamliner  ont été à plusieurs reprises victimes d’une surchauffe de leurs propres batteries. La polémique ne date donc pas d’hier, et la dangerosité des batteries lithium-ion dans les transports aériens est bien connue. 

Par Audrey Loubens, journaliste scientifique

Passer au 100% renouvelable aux USA est possible (The Solution Project)

Il y a pléthore de rapports scientifiques qui démontrent  par A + B que passer à 100% d’énergies renouvelables est possible, pour tous les types d’usage de l’énergie : transport, chauffage, applications électriques etc.  Même si la réalité sur le terrain est plus difficile que ne le suggèrent ces documents, en particulier dans certains pays attachés aux anciennes formes de production d’énergie, ils sont néanmoins très utiles pour se projeter vers ce qui est techniquement et économiquement possible.

Et aussi pour assainir les débats dans le domaine énergétique, a fortiori dans les pays qui se sont fixés d’ambitieux objectifs en matière de réduction de la part des centrales thermiques traductionnelles. Comme par exemple en France, où le président s’est engagé à réduire la part du nucléaire de 75% aujourd’hui à 50% en 2025.

The Solution Project, basé sur une littérature scientifique publiée dans des revues peer review, est une initiative qui s’inscrit dans cette perspective. Lancée depuis la Californie,  soutenue par des scientifiques et par des spécialistes des questions économiques, le projet associe également des personnalités du monde artistique, comme par exemple Justin Winters de la Fondation Leonardo Di Caprio ou encore l’acteur Mark Ruffalo. Ils sont susceptibles de sensibiliser le grand de public à ces enjeux.

Wind Water Sun 

 The Solution Project est basé sur une synergie entre les énergies du vent, de l’eau et du soleil. L’approche WWS, « Wind Water Sun », permet de tirer profit de la complémentarité naturelle de l’éolien et du solaire, ainsi que de la flexibilité offerte par les technologies énergétiques reposant sur l’eau, en premier lieu l’hydroélectricité et la géothermie.

L’initiateur de cette dynamique est Marc Jacobson, directeur scientifique à l’Université Stanford, spécialiste des énergies d’avenir et des évaluations environnementales et sanitaires multicritères des différentes filières énergétiques. Il estime qu’aux USA toutes « les nouvelles centrales électrique autorisées devraient être renouvelables. » Et que si chaque nouvelle voiture vendue aujourd’hui était électrique alors dans 15 ans l’intégralité du parc automobile américaine serait électrique.

L’étude WWS montre que  le passage du mix énergétique américain actuel à un mix WWS 100% renouvelable permettrait de réduire de 37,3% la demande énergétique, sans réduction du niveau de confort. Ce système énergétique est bien plus efficace que l’actuel, notamment du fait du rendement bien plus élevé des voitures électriques comparativement à leur équivalent thermique. 

Le site internet de l’initiative – http://thesolutionsproject.org – montre de manière pédagogique, pour chacun des 50 états américains, comment passer au 100% renouvelable. Pour la Californie, par exemple, le mix énergétique est composé de 55% de solaire et de 35% d’éolien. Le reste étant assuré par les autres ENR, dont l’hydroélectricité et la géothermie. Le plan prévoit de miser principalement sur les grandes centrales solaires au sol et les installations commerciales, ceci parce qu’elles sont plus économiques que les petites installations PV sur toitures individuelles.

Un coût inférieur à celui des systèmes à base d’énergies fossiles

Les projections de coûts WWS pour 2030 sont de 70 dollars par MWh, contre 120 à 160 dollars pour les centrales thermiques classiques, et ceci sans tenir compte des externalités, dont le prix du carbone. C’est donc possible technique et économiquement. Les responsables du projet appellent les politiques américains à mettre en place un cadre permettant sa réalisation.

Selon l’une des études scientifiques dont fait écho The Solution Project, la quantité d’énergie fossile utilisée pour l’extraction minière de l’uranium et son raffinage est aux USA 25 fois supérieure à l’énergie utilisée pour l’obtention des éoliennes, par unité d’énergie électrique délivrée. Le potentiel du solaire, de l’éolien et des autres énergies renouvelables étant largement suffisant pour répondre à l’intégralité des besoins énergétiques américains, le nucléaire, dont le bilan environnemental et sanitaire multicritère fait partie des plus médiocres parmi toutes les filières énergétiques aujourd’hui disponibles, est considéré comme une option non nécessaire.

Des éoliennes maritimes qui protègent les littoraux contre les tempêtes

Pour Mark Jacobson, les parcs éoliens en mer offrent un intérêt encore peu connu : celui de réduire les dégâts causés par les tempêtes sur les écosystèmes littoraux. Le chercheur vient de publier le 26 févier 2014 un papier sur le sujet dans la revue de référence Nature Climate Change. Les éoliennes freinent en effet le vent et cassent la houle. Au lieu d’installer des épis, des digues et autres enrochements pour protéger les dunes et les secteurs vulnérables aux inondations,  ces installations éco-énergétiques feraient d’une pierre deux coups. 

 The Solution Project a notamment été présenté en février 2014 à l’occasion du meeting annuel de l’AAAS, l’American Association for the Advancement of Science. 

Par Olivier Daniélo

En savoir plus :
> L’étude Taming hurricanes with arrays of offshore wind turbines
> Le site de “The Solution Project”

Projection du mix énergétique de la planète entre 2010 et 2040, vue par Exxon Mobil

Ces mouvements d’hommes, ces livraisons de matières premières, leur transformation en produits intermédiaires ou finis qui seront à leur tour délivrés dans le monde entier, vont naturellement entraîner une augmentation des consommations énergétiques de la planète. La progression des échanges commerciaux, accompagnant la croissance des  niveaux de vie, va se répercuter sur les consommations énergétiques globales.

La demande de pétrole devrait donc poursuivre sa progression de 0,7% par an. Cette ressource demeurant la principale ressource énergétique, affirme EXXON (figure.1).

Fig.1 : Evolution du mix énergétique de la planète entre 2010 et 2040 vue par EXXON MOBIL (l’unité est le Quadrillon de BTU ou million de  milliards de BTU qui vaut 25,2 millions de TEP)

Dans cette étude, il apparaît que c’est le Gaz Naturel, abondant, de moins en moins onéreux, qui apporterait la principale contribution à la croissance des besoins énergétiques de la planète.

Par contre la contribution globale du charbon resterait stable en valeur absolue après être passée par un maximum autour de 2025, hypothèse cohérente avec l’accroissement prévu d’une contribution de l’énergie de l’atome, principalement en Asie et au Moyen-Orient. Ces prévisions sont à-peu-près en phase avec celles des Japonais de l’IEEJ qui cependant prévoient encore une croissance des consommations de charbon (jusquen 2035) en particulier en Asie et une moindre croissance de l’atome et des énergies renouvelables.

Tout cela, même si la comparaison directe des énergies ne tient pas compte des rendements d’utilisation et donne une image déformée des utilisations finales d’énergie en défaveur de l’éolien et du solaire photovoltaïque, ne prédit pas un monde suralimenté par des énergies renouvelables décentralisées et en réseau, imaginé et vulgarisé par certains.

La synergie ou l’analogie hypothétique entre Internet et les nouvelles sources d’énergies renouvelables a ses limites, elles sont fixées par l’intermittence des productions, par la non existence de moyens de stockages économiques de l’énergie électrique et par la cherté des réseaux électriques de forte puissance qu’il faudrait mettre en place pour transporter cette énergie localisée, parfois sur des milliers de kilomètres, comme aux Etats-Unis, des lieux de production venteux du Middle-West ou ensoleillés de Californie ou du Nouveau Mexique vers les grands centres de consommation de la Cote Est.

Le maillage des territoires par les centrales électriques conventionnelles à flamme ou atomiques est une qualité des réseaux existants trop souvent sous-estimée.

Cette marginalisation actuelle et projetée des ressources intermittentes d’énergie électrique est intrinsèque à leur inaptitude à maintenir un réseau électrique opérationnel 365 jours par an.

Dans le cas de notre pays, certains imaginent des stations de pompage en supposant le réseau électrique national isolé, alors que l’espace pertinent est celui de l’ouest de l’Europe décrit par l’ENTSO qui va de la Finlande au Portugal et de Chypre à l’Islande (voir la figure.2).

Ces auteurs oublient également de chiffrer le surdimensionnement de la puissance éolienne ou photovoltaïque qui serait nécessaire pour assurer à la fois les fournitures quotidiennes ainsi que  la recharge par pompage dans un temps limité (quelques dizaines d’heures) de ces accumulateurs d’énergie qui ne seraient efficaces, après une longue période de disette, que lorsqu’ils auraient été au moins partiellement rechargés.

Fig.2 : Carte des gestionnaires de réseau de ENTSO-E

Avant de lancer un projet de développement, sous peine de se retrouver le bec dans l’eau en cours de route, il faut bien identifier les obstacles techniques majeurs et s’assurer de la faisabilité économique et technique des solutions imaginées.

Aujourd’hui, alimenter un réseau électrique, à plus de 20 à 30% en moyenne, avec des énergies renouvelables intermittentes n’est pas faisable sur le long terme sans mise en place d’un rationnement intempestif et onéreux des utilisateurs industriels, commerciaux et privés (trompeusement appelé « smart grid », la force du marketing réside dans les termes utilisés) ou sans l’apport d’énergie de secours provenant de grands pays voisins, comme c’est le cas pour le Danemark. 

Rappelons, comme argument complémentaire, le refus, au mois d’Octobre dernier, de l’Agence fédérale de régulation de l’électricité allemande de répondre favorablement aux demandes de fermetures de centrales thermiques devenues non rentables pour les opérateurs, mais pourtant indispensables au maintien par tout temps de l’équilibre du réseau.

Un réseau allemand qui en 2012 a été alimenté en moyenne à hauteur de seulement 8,6% par ses éoliennes, chichement de 4,5% par ses nombreux panneaux solaires et largement à 59,8% par des centrales à flammes qui ont brûlé pour près des trois quarts du lignite ou du charbon nous dit l’ENTSO.

Vouloir une énergie propre est un objectif louable, savoir le faire en assurant la continuité et la qualité du service, dans des coûts raisonnables, en respectant les lois de la concurrence et les deniers des citoyens payeurs est beaucoup plus complexe. Le débat n’est que là et n’a rien de philosophique.

Le possible, issu de nos imaginations, n’est pas toujours faisable. Oublier cette évidence c’est se mettre à la merci des idéologies de tous poils.

 

La plaque électrique ouest-européenne déservie à ce jour aux trois quarts par les énergies fossiles et l’atome, devra pour essayer de conserver des activités industrielles et des économies compétitives au sein des pays qu’elle dessert, être alimentée majoritairement, durant de longues décennies,  par l’énergie de l’atome et des centrales à flamme qui brûleront massivement comme aujourd’hui du lignite allemand, du gaz russe puis américain et du charbon américain.

Entre temps les énergies renouvelables, de moins en moins subventionnées par des Etats et des consommateurs appauvris, mais favorisées par la montée des prix de vente du MWh électrique, progresseront toujours, par exemple à l’aide de l’utilisation de l’énergie des courants marins.

Prévoir une révolution énergétique, sujet très à la mode, me semble largement relever aujourd’hui d’une vision utopique du monde à venir. Les peuples n’ont plus peur de l’enfer annoncé par certains, et surtout pas de celui relevant du climat.

 par Raymond Bonnaterre

Revue du web #58 : les vidéos étonnantes de la semaine

Cette semaine dans la revue du Web : 

  • Arduboy, la carte de visite la plus cool du monde ; 
  • Cubestormer 3 : résoudre un Rubik’s Cube en 3,25 secondes ; 
  • Hypnotique : une machine à plier le fil de fer en action ; 
  • Observons l’extrémité d’une allumette brûler, en slow motion ; 
  • Le gadget (inutile?) de la semaine : deux robots dansent de manière très suggestive lors de l’édition 2014 du CeBIT ; 
  • Bonus : un clavier constitué presque exclusivement de briques Lego.

Arduboy, la carte de visite la plus cool du monde

Le but premier d’une carte de visite, c’est habituellement de faire bonne impression tout en permettant le partage des coordonnées personnelles de son détenteur. Débutons cette cinquante-huitième Revue du Web avec la crème de la crème de la carte de visite qui, non contente de faire bonne impression, en met franchement plein les yeux. Car Kevin Bates l’a bien compris : l’ère du papier est décidément révolue, en particulier lorsqu’il s’agit de faire la démonstration de ses points forts dans l’univers sans merci des développeurs.

S’appuyant sur un circuit imprimé Arduino, un écran OLED, un petit haut-parleur piézoélectrique et sur des touches capacitives, le jeune designer américain est parvenu à installer le mythique Tetris sur sa carte de visite, jeu auquel chaque contact potentiel de Kevin Bates peut s’adonner – s’il le souhaite – pendant près de neuf heures, grâce à une pile bouton elle-aussi embarquée dans le précieux joujou. Bates devrait lancer une campagne Kickstarter dans les semaines qui viennent, afin de rendre accessible une version en kit pour une trentaine de dollars, ou la carte préalablement montée pour cinquante dollars. Joli coup en tout cas que cette carte de visite qui rendrait le héros d’American Psycho, Patrick Bateman, fou de jalousie…

Cubestormer 3 : résoudre un Rubik’s Cube en 3,25 secondes

A peine aurez-vous eu le temps de parcourir le titre et cette phrase que Cubestormer 3, le nouveau bébé des Anglais Mike Dobson et David Gilday, aura déjà réussi à résoudre un Rubik’s Cube. Présenté lors du Big Bang Fair de cette année, à Birmingham, au Royaume-Uni, le robot malin a établi un nouveau record en 3,253 secondes, immédiatement homologué par le Guinness des records, descendant en dessous de la barre des cinq secondes et battant le temps déjà impressionnant de son prédécesseur et petit-frère, Cubestormer 2.

Cubestormer 3 manie les petits cubes avec tant de dextérité et de vélocité qu’il en devient tout bonnement impossible de suivre le cheminement et l’algorithme de résolution en action. Construit à l’aide d’éléments « Lego Mindstorms NXT » pilotés par le processeur ARM octocore d’un Samsung Galaxy S4, il faut pas moins de quatre mains robotiques ainsi que huit séquenceurs Lego pour lui permettre de venir à bout de sa mission. Petit détail qui a son importance : Cubestormer doit au préalable scanner chacune des faces du célèbre casse-tête cubique pour ensuite pouvoir le résoudre sur les chapeaux de roues.

Hypnotique : une machine à plier le fil de fer en action

Au premier abord, une machine à plier du fil métallique n’a rien de particulièrement excitant. Que nenni ! Les Américains de Automated Industrial Machinery (AIM Inc) ont développé un engin capable de créer des structures bidimensionnelles complexes, avec tant de brio et de fluidité que le processus en devient tout simplement… hypnotique. Facile à programmer, le gros bébé – baptisé AFE-2D6 – est présenté comme le plus rapide du monde et s’articule autour de deux modules : le « feeder » qui gère le débit et l’alimentation en fil de fer, et le « bender », module qui s’occupe d’imprimer les formes choisies.

La réussite du bender tient dans un seul élément polyvalent, une petite fiche – le « pin » – qui prend deux valeurs au choix : fixe (« hard pin ») qui crée des pliures nettes, des angles, ou permet l’enroulement (« roller pin »), créant de beaux arrondis. La position de la petite fiche par rapport au feeder est alors responsable des formes obtenues. Une petite guillotine, placée à la sortie du feeder, permet d’effectuer des coupures nettes une fois la pièce achevée.

Brûler l’extrémité d’une allumette, en slow motion : 

L’idée n’a rien de bien innovant, mais ce n’est pas souvent que l’on peut profiter de jolies images de l’extrémité d’une allumette qui brûle, en slow-motion. Filmée en macro à 4000 images par seconde à l’aide d’une caméra Phantom Miro 4, tous les détails – du crépitement aux volutes de fumée – sont absolument saisissants.

Le fonctionnement des allumettes actuelles, dites allumettes « de sécurité » ou encore « suédoises » est relativement simple, et se base sur l’interaction entre les éléments du grattoir et ceux de la tête de l’allumette. Le grattoir est composé de poudre de verre et de phosphore rouge, un allotrope amorphe du phosphore, thermodynamiquement stable dans les conditions normales de température et de pression. L’extrémité de l’allumette est composée de sulfure d’antimoine, de dioxyde de manganèse et de chlorate de potassium. Le frottement de l’extrémité avec le grattoir crée de la chaleur qui transforme le phosphore rouge en phosphore blanc, un allotrope nettement plus inflammable que son jumeau rouge. La combinaison du phosphore blanc et d’un comburant, le chlorate de potassium, donne alors naissance à une flamme.

Le gadget (inutile?) de la semaine : deux robots dansent de manière très suggestive

Un robot aux platines, deux robots autour d’une barre, et une gène immense qui nous gagne : le gadget (inutile?) de cette semaine explore les limites de l’érotisme lors de l’édition 2014 du CeBIT, le plus grand salon pour les technologies de l’information au monde, qui se tient chaque année à Hanovre, en Allemagne. Pour divertir aussi bien les professionnels que le chaland, le développeur de logiciel teuton Tobit Software a décidé d’installer une estrade pour mettre en valeur un petit spectacle quelque peu… gratiné.

Sur scène, deux créatures robotiques et lascives dansent de manière très suggestive autour d’une barre de pole dance, sur les beats savants dispensés par un Disc Jockey animatronique. L’accent est mis sur les mouvements de bassin, pour le moins ravageurs, qui ont sans aucun doute eu un franc succès. Sans se démonter, un cadre de Tobit Software s’explique : « C’était une idée de notre boss. […] Nous les avons un peu changées, pour les rendre plus intéressantes, en leur donnant plus de couleurs […] et plus de poitrine. Tout ce dont un homme peut avoir besoin pour jouer ».

Une autre vidéo est disponible également ici

Bonus : un clavier constitué presque exclusivement de briques Lego

Pour conclure notre cinquante-huitième Revue du Web, penchons-nous un instant sur le clavier remarquable conçu par un internaute éclairé, Jason Allemann, constitué pour la plus grande partie de… briques Lego. Totalement fonctionnel – jusqu’aux indicateurs lumineux de la touche de verrouillage des majuscules et de verrouillage du pavé numérique – ce clavier ressemble quelque peu à une gageure. Le principal défi à relever fut de parvenir à maintenir chaque touche au-dessus de la membrane sensitive, tout en lui accordant un peu de liberté sur un axe vertical pour atteindre le ressort de rappel, défi relevé haut la main à l’aide d’une structure composée d’essieux sortant tout droit d’une boite de Lego Technic.

Par Rahman Moonzur

Des microbes seraient responsables de la plus grande extinction terrestre (étude)

Ce nouveau scénario, qui s’appuie sur l’analyse d’une abondance de fossiles, indique que des micro-organismes appelés méthanosarcina se sont soudainement multipliés de façon explosive dans les océans, produisant de gigantesques quantités de méthane.

Ce gaz, qui s’est retrouvé dans l’atmosphère, a modifié le climat et la chimie des océans, soulignent ces experts dont la théorie va venir alimenter la controverse sur le sujet.

Si des éruptions volcaniques ne sont pas totalement exclues pour expliquer cette extinction, l’une des cinq connues dans le passé de la Terre, elles jouent dans ce scénario un rôle accessoire, précisent ces chercheurs du MIT (Massachusetts Institute of Technology), dont les travaux sont publiés lundi dans la dernière livraison des Comptes rendus de l’Académie américaine des sciences (PNAS).

Les nouveaux indices suggèrent, selon ces scientifiques, que l’explosion de la population de ces microbes s’expliquerait par une nouvelle aptitude à utiliser une source riche en carbone organique grâce à l’influx d’un nutriment, le nickel, provenant de ces éruptions volcaniques.

Ces scientifiques étayent leur scénario sur trois séries d’indices séparées. Tout d’abord, des preuves géochimiques témoignent d’un accroissement exponentiel du dioxyde de carbone (CO2) dans les océans à cette même période de l’extinction de la fin de l’ère Permienne.

Ensuite, ils se réfèrent à des indices génétiques montrant un changement biologique de ces microbes, les méthanosarcina, à cette même époque, leur permettant de devenir des producteurs majeurs de méthane à partir de l’accumulation de CO2 dans les océans.

Enfin, une analyse des couches sédimentaires montre un accroissement soudain du nickel exactement à la même période.

Les dépôts de carbone montrent que quelque chose a produit une augmentation importante et soudaine de gaz contenant du carbone –du dioxyde de carbone et du méthane– produits au moment de la grande extinction.

Certains chercheurs ont suggéré que ces gaz carboniques provenaient de volcans ayant formé les trapps de Sibérie, une vaste formation de lave basaltique produite par les plus grandes éruptions volcaniques dans les annales géologiques de la Terre.

Mais les chercheurs du MIT ont démontré que ces éruptions n’étaient pas suffisantes pour produire tout le carbone mesuré dans les sédiments. De plus, « une injection rapide de CO2 provenant de volcans aurait été suivie d’une diminution graduelle », explique l’un des chercheurs, Gregory Fournier. « Or ce fut l’inverse, avec un accroissement rapide et continu qui laisse penser à une explosion de microbes producteurs de méthane ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

USA: 21 expressions faciales désormais reconnaissables par les ordinateurs (étude)

Cette équipe de chercheurs de l’Université de l’Etat de l’Ohio, dans le nord des Etats-Unis, a conçu une méthode pour permettre à des ordinateurs de détecter trois fois plus d’expressions faciales qu’ils ne le font jusqu’à présent.

« Nous sommes allés au-delà des expressions faciales utilisées pour de simples émotions comme +heureux+ ou +triste+. Nous avons trouvé une grande homogénéité dans la façon dont les gens bougent leurs muscles faciaux pour exprimer 21 catégories d’émotions », explique Aleix Martinez, chercheur en sciences cognitives.

« C’est tout simplement renversant. Cela veut dire que ces 21 émotions sont exprimées de la même façon par presque tout le monde, du moins dans notre culture », souligne-t-il.

Cette étude, parue dans les Comptes rendus de l’Académie nationale des sciences, pourrait permettre d’aider au diagnostic et au traitement de désordres mentaux, tels que l’autisme ou le syndrome de stress post-traumatique.

Jusqu’à présent, les chercheurs avaient limité leurs études à la reconnaissance de six émotions élémentaires: joie, tristesse, peur, colère, surprise et dégoût.

Ces chercheurs de l’Université de l’Ohio ont pu étendre ce spectre d’émotions reconnaissables après avoir photographié les expressions de 230 volontaires à des signaux verbaux comme « vous venez juste d’apprendre de bonnes nouvelles inattendues » ou « vous sentez une très mauvaise odeur ».

L’analyse méticuleuse des 5.000 images qui en ont résulté a permis de détecter des variations dans les principaux mouvements connus des muscles faciaux, dont ceux du coin des lèvres ou de la partie externe du sourcil.

Les scientifiques ont étudié les données au moyen du Facial Action Coding System (FACS), un outil standard dans le domaine de l’analyse du langage corporel, pour dégager des similitudes et des différences dans les expressions. Ils ont ainsi été en mesure d’identifier 21 émotions — les six de base, plus des « combinaisons d’émotions ».

Par exemple, « heureusement surpris » était la réponse d’une personne recevant une bonne nouvelle inattendue. Dans ce cas-là, les chercheurs ont identifié les expressions pour la joie (le mouvement des joues en un sourire) et la surprise (élargissement des yeux et ouverture de la bouche).

Dans 93% des cas, les participants ont reflété l’émotion « heureusement surpris » par un mélange de ces deux réactions.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le Japon a installé 4580 MW de photovoltaïque en huit mois

La part des nouvelles centrales au sol et des installations sur bâtiments commerciaux est de 3632 MW et constitue donc l’essentiel des nouvelles capacités. Les 20% restants (953 MW) ont été installés au niveau des maisons individuelles. 

La puissance PV cumulée japonaise atteint à présent 11858 MW. Fin novembre 2013 la puissance cumulée de l’hydroélectricité était de 9605 MW, celle de l’éolien de 2672 GW, celle de la biomasse de 2418 MW et celle de la géothermie de 501 MW. 

Le solaire PV est donc à présent la première des énergies renouvelables nippones, et celle qui se déploie le plus vite. L’introduction par le gouvernement en juillet 2012 d’un dispositif encourageant le solaire PV a donc eu des résultats très positifs concluent les auteurs du rapport du METI. 

De grandes  entreprises sont entrées sur le marché solaire japonais, installant rapidement de grandes centrales au sol. Et la dynamique n’est pas prête de s’arrêter. En effet 53 grands projets de centrales étaient en cours en janvier 2014, d’au moins 20 MW chacune,  selon Izumi Kaizuka de RTS Corporation dont les propos ont été rapportés par PV Magazine. 

Selon les experts de la Deutsche Bank le Japon va installer entre 6000 et 7000 MW de solaire PV durant la seule année 2014. En termes de production électrique, c’est donc au total l’équivalent d’environ deux centrales nucléaires EPR qui a été installé durant les deux années 2013 et 2014 au pays du soleil levant. Soit environ un EPR par an. Et plus de 7 centrales nucléaires EPR en termes de puissance installée.  Le chantier solaire japonais est bien plus rapide que celui du réacteur EPR de Flamanville en France. 

Le coût de production (LCOE) du kWh solaire PV est aujourd’hui compris entre 8 et 14 centimes selon l’Institut Fraunhofer. EDF demande au Royaume-Uni un tarif d’achat de 10,9 centimes le kWh pour ses projets de centrales nucléaires.

Par Olivier Daniélo

La façon la plus sûre de ne pas réussir c’est de ne rien essayer

Du côté du management, les comportements d’évitement contribuent à alourdir l’inertie des entreprises en allongeant considérablement les temps de prise de décision.

L’évitement est le pire ennemi du développement personnel. Aussi, ce sera toujours payant de chercher à ramener ce comportement à un niveau acceptable pour favoriser le progrès des hommes et des organisations.

Procrastiner, faire « comme-si », mentir, éluder, se dérober, etc. représentent diverses instances du comportement d’évitement. L’évitement c’est la fuite. C’est une stratégie de la non-confrontation. A ce titre le comportement d’évitement est nécessairement le produit d’une décision de son auteur. C’est une décision qui à pour but de le garder de tout contact, de toute opportunité d’échange avec les autres. Faute de meilleures alternatives, l’évitement permet de retarder le moment de l’engagement vers l’action… Lorsqu’il est un peu trop systématique, ce réflexe coûte souvent très cher aux hommes ainsi qu’aux organisations qui n’ont pas pris soin d’entraîner leurs collaborateurs à la communication constructive.

Cette stratégie de la fuite est la plupart du temps utilisée dans l’urgence, lorsqu’un sujet est appelé à affirmer son intégrité et qu’il ne juge pas opportun de le faire dans l’instant.

En effet, l’attitude qui consiste à affirmer son intégrité fait naître des risques de confrontations qui sont parfois lourds de conséquences.

Pour choisir la bonne stratégie, en situation de communication difficile, l’équation à gérer est donc la suivante : « Est-ce que l’enjeu – ou la défense de mon intégrité – est suffisamment important pour que je m’expose aux conséquences d’une confrontation ? ».

La réponse est affaire de dosage, de pragmatisme et surtout de connaissance et d’estime de soi.

Assoir son intégrité c’est se réaliser, prouver qu’on existe, tenir sa place, être responsable, renforcer la confiance, résoudre les problèmes avant qu’ils ne deviennent trop importants… Mais cette stratégie n’est pas toujours adaptée notamment lorsqu’une confrontation pourrait nous faire courir le risque d’une perte d’intégrité. Reconnaissons que cette dernière situation est plutôt rare.

  • Comment réduire la fréquence de vos comportements d’évitement ?
  1. Échangez avec un ami ou un coach pour identifier ce qui vous menace vraiment en cas de confrontation
  2. Prenez le temps d’identifier ce que vous ressentez et de faire la différence entre observation et interprétation
  3. Recherchez l’efficacité dans vos relations interpersonnelles et vos communications constructives (en quoi cet échange nous sera-t-il utile ?)
  4. Anticipez, faites les premiers pas vers les autres, amorcez la conversation. N’attendez pas que la situation s’aggrave
  5. Faites confiance à votre capacité d’ajustement créateur face à d’éventuelles situations difficiles
  6. Exprimez ce que vous ressentez exprimez vos Sentiments, Opinions et Idées (S.O.I.) Parlez de votre expérience de la situation à la première personne du singulier (commencez vos phrases par « je »)

Par Dino Ragazzo

Leadership : une affaire de coeur

Le leadership n’a rien à voir avec l’autorité ou le pouvoir dans l’entreprise, ni avec la célébrité ou la richesse. Cela n’a rien à voir avec le fait que vous soyez bien né. Ce n’est pas non plus être un P.D.G, un président, un général ou un premier ministre. Et ça n’est surtout pas quelque attribut d’un quelconque héro. Le leadership découle de la qualité de vos relations, de votre crédibilité et de vos actes… Le leadership n’est pas un gène dont seuls quelques rares privilégiés seraient dotés à leur naissance. La vérité, c’est que le leadership est un ensemble observable de compétences et d’acquis que chacun d’entre nous peut développer ».

 Développer son leadership, c’est donc avant tout une démarche de développement personnel. C’est une démarche de développement de ses compétences relationnelles et de sa capacité à entrer en contact avec les autres.

Pour citer Kouzes et Posner une dernière fois : « le leadership ne procède pas de la tête. Le leadership, c’est une affaire de cœur »

Développer un leadership éclairé

Des recherches menées par le Dr Robert A. Cooke de l’Université de Chicago ont montré que deux facteurs essentiels déterminent l’efficacité d’un leader sur la performance d’une organisation : ses stratégies de leadership et la qualité de son impact sur les autres. Comme Damasio l’a montré (Chapitre 3 : Pas de raison sans émotions voir page 27 livre « Manager d’élite »), une bonne stratégie ne procède pas que de la tête. Elle se conçoit avec son intuition et avec ses émotions. Une bonne stratégie est donc également une affaire de cœur.

 Impact constructif et impact défensif

Que ce soit intentionnel ou non intentionnel, de manière directe ou indirecte, un leader influence son environnement et inspire les comportements des gens autour de lui. Par exemple, s’il est souvent suspicieux et arrogant, il y a de fortes chances pour qu’il inspire en retour des attitudes suspicieuses et agressives de la part son environnement le plus proche.

La qualité de notre impact sur les autres peut être de deux natures opposées : constructive ou défensive. Un impact constructif incite les gens à penser et à se comporter de façon coopérative orientée résultats. Le leader laisse à ses collaborateurs l’initiative de la réalisation des tâches dont ils sont responsables, pourvu qu’ils fournissent les résultats attendus. Cette influence favorise le développement individuel et collectif de la performance.

Un impact défensif induit des modes de pensée et des comportements passifs ou agressifs ayant pour finalité la protection des statuts et des positions des collaborateurs.

Il a été montré que les comportements constructifs donnent de meilleurs résultats sur la performance que les comportements défensifs. Cette vérité n’est pas aussi triviale qu’il y paraît. En effet, de très nombreux managers se comportent de manière agressive et autoritaire envers leurs collaborateurs, entraînant en retour les comportements défensifs des collaborateurs. Ces managers semblent ignorer l’évidence ci-dessus, ainsi que ses conséquences.

Par Dino Ragazzo

Pour rester fiables : ré-étalonnez-vous

Parce qu’il éloigne considérablement tout risque d’arbitraire, ce mode d’observation par analogie à une référence fiable, favorise la confiance dans les transactions entre les humains qui peuvent ainsi « commercer » avec équité. La balance, qui est probablement l’ancêtre des instruments de mesure, est d’ailleurs une allégorie fréquemment utilisée pour représenter la justice.

A l’instar du bourgeois gentilhomme de Molière qui pratiquait la prose sans le savoir, nous pratiquons en permanence cet exercice de phénoménologie.  En effet, l’être humain est un instrument de mesure. Pour communiquer, ou pour élaborer la multitude de décisions que nous prenons chaque jour, nous n’arrêtons pas, d’évaluer, d’apprécier, de doser, de compter, de calibrer, de toiser, de jauger, de sonder, d’estimer, de juger, etc… La mesure sert à doser toute rétroaction. Sans mesure, il est impossible d’évaluer précisément l’impact d’une action, la réalisation d’un objectif, l’étendue d’un phénomène.

Cette capacité à donner une forme consistante à toutes sortes de manifestations provenant du monde extérieur (ou intérieur) contribue à la formation de notre conscience. En matière de comportements humains, le cycle de l’expérience de l’approche Gestalt O.D. est l’étalon par lequel nous décrivons la manière avec laquelle nous traitons l’information que nous recevons pour lui donner une forme significative satisfaisante. Le cycle de l’expérience décrit ce processus de mesure dans ses phases « information » et « awareness » [1] ; l’instrument c’est nous (après quelques entraînements quand même !).

Mesurer est une compétence indispensable à la survie de l’espèce humaine

Pour conserver leurs vertus de justesse, sensibilité, et fidélité, nous vérifions régulièrement, nos appareils de mesures. Puisque nous sommes nous-mêmes de véritables instruments de mesures, nous devrions donc régulièrement nous appliquer à nous-mêmes ce sage principe « d’étalonnage ». En effet qu’est-ce qui vous permet de crédibiliser vos observations, sentiments, décisions, appréciations, estimations, impressions, approximations, etc. si ce n’est un étalonnage régulier de votre « organisme » [2] ?

Savez vous dans quelle mesure vos façons de penser ou vos façons d’agir se distinguent ou se diluent dans le moule de la bien-pensance ? Comprenez-vous les raisons pour lesquelles vos propositions ne sont pas prises au sérieux ou qu’elles semblent mettre mal à l’aise ? Avez-vous une idée des schémas de pensées que vous devriez-revisiter pour améliorer vos talents de négociateur ou votre capacité à mobiliser les autres ? Comment répondre précisément à ces questions sans vous ré-étalonner ?

Thomas Lesaint est un brillant expert. Il trouve toujours une solution à tous les problèmes techniques qui lui sont soumis. Thomas communique avec une rationalitéThomas Lesaint et une logique remarquables, faisant preuve d’une intelligence « au dessus de la moyenne ». Compte tenu de son savoir faire, Thomas brigue une promotion vers des responsabilités managériales. La DRH n’est pas favorable à cette promotion car « bien qu’un bon QI soit nécessaire à la réussite de la fonction managériale, Thomas n’a pas suffisamment développé son Intelligence Emotionnelle (QE) [3] pour réussir dans cette nouvelle responsabilité. Le risque est trop grand pour Thomas Lesaint et pour l’entreprise ». Thomas est très en colère et se sent humilié par cet avis défavorable. Il menace de quitter l’entreprise. Pensez-vous que la réaction de Thomas Lesaint est juste, fidèle et fondée ?

Gnôthi Seauton, « connais-toi toi-même »

Cet adage, attribué à Socrate, assigne à l’homme le devoir de prendre conscience de sa propre mesure. C’est en effet en devenant capable de distinguer ce que l’on sait et ce qu’on ne sait pas que nous développons nos compétences et notre crédibilité.

Un réétalonnage permettrait à Thomas Lesaint d’apparenter sa réaction à celle d’un « enfant rebelle ». Sa réaction « épidermique » confirme la pertinence de l’avis de la DRH.

Le LSI© (Inventaire des Styles de Vie [4]) est un modèle intéressant pour vous aider à vous ré-étalonner. Il vous permet de comparer vos façons de percevoir le monde à celle de milliers d’autres personnes tout autour du globe. C’est un étalon de mesure des comportements individuels. En se l’appliquant à soi-même, cet inventaire fournit une appréciation impartiale de l’écart entre notre façon de percevoir les phénomènes et la réalité. Les 12 styles mesurés par le LSI© sont organisés en trois orientations générales décrites sur le CIRCUMPLEX © (voir ci-dessous).

  • L’orientation Passive/Défensive qui inclut les styles de pensée d’approbation, de dépendance, de conventionnalisme et d’évitement ;
  • L’orientation Agressive/Défensive qui inclut les styles de pensée d’opposition, de pouvoir, de compétition, et de perfectionnisme ;
  • L’orientation constructive qui inclut les styles de pensée d’accomplissement, de réalisation de soi, de valorisation humaniste, et de sociabilité.

Les recherches ont prouvé que les styles mesurés par le LSI© sont liés à un certain nombre d’indicateurs d’efficacité et de succès, parmi lesquels : l’efficacité managériale, le leadership, l’efficacité en matière de résolution de problèmes, la qualité des relations interpersonnelles, le niveau de rémunération, le niveau de responsabilités, la santé individuelle et le bien-être.

Seuls ceux qui résistent à la réalité préfèrent rester en « boucle ouverte ». Devant leur difficulté à accepter ce qui est, nombreux sont ceux qui prétendent qu’il n’est pas nécessaire, sinon impossible, voire nuisible de tout mesurer. Ils n’expriment rien d’autre que leur aversion à reconnaître une réalité qui finira inéluctablement par s’imposer à eux avec son cortège de dommages collatéraux.

Par Dino Ragazzo

[1] Voir le livre « manager d’élite » p 43.

[2] Étymologiquement, un organisme est un ensemble d’organes qui constituent un être vivant dans sa totalité, sans faire de séparation entre le psychique et le biologique, entre la conscience et le corps.Emprunté au latin « organum », un organe a désigné successivement un instrument, puis la voix, puis la personne, puis le corps humain (l’instrument de la personne), mais aussi la partie d’un corps vivant remplissant une fonction déterminée.

[3] Capacité à se mettre à la place des autres, à entrer en empathie, self contrôle, confiance en soi, capacité à accepter l’influence des autres, Leadership, pédagogie, gestion des conflits, etc…

[4] LSI© est une marque de Human Synergistics International. EXPERIENCE n’est pas un agent de Human Synergistics. Les produits et services spécifiques de EXPERIENCE qui s’appuient sur des produits de Human Synergistics n’engagent que EXPERIENCE.

Quelle combinaison pour les hommes qui iront sur Mars ?

Alors que les postulants se bousculent pour gagner le droit d’aller coloniser Mars grâce au projet Mars One, les scientifiques s’activent pour mettre au point du matériel adapté. Une équipe autrichienne a récemment présenté un projet de combinaison spatiale réalisé justement pour travailler en atmosphère martienne. Cette combinaison baptisée Aouda.X en hommage à un personnage du Tour du monde en 80 jours de Jules Verne,  repose sur l’assemblage de 10 000 composants pesant au total 45 kg. On comprend qu’il faille plus de trois heures pour l’enfiler… Mais une fois dans sa combinaison, l’astronaute sera bien à l’abri et pourra se déplacer à la surface de Mars sans craindre les rayonnements cosmiques, les rafales de vents ou  le froid, la température moyenne étant de -63°C.  L’Aouda.X est équipée de réserves d’air bien sûr, mais aussi d’électricité, de nourriture, de boissons, bref, de quoi tenir un siège ! L’astronaute pourra aussi compter sur les outils de communication, des commandes vocales  et gestuelles lui donnant en plus la maîtrise d’un rover si besoin.

Le Forum Spatial Autrichien (OeWF) avait testé son prototype en 2006 sur les rives du Rio Tinto, une rivière andalouse du sud de l’Espagne. Une deuxième série de tests a été réalisée en 2013 au Maroc. L’astronaute Daniel Schildhammer avait endossé la combinaison pour des simulations incluant le délai des transmissions. En effet, il faut 10 mn pour que la transmission parvienne sur Mars, et autant pour que la réponse soit reçue. Cette attente laisse peu de place à la spontanéité et impose une gestion de la communication bien spécifique.

Découvrez cette combinaison en images :

Par Audrey Loubens, journaliste scientifique

Reportage vidéo : un astronaute français bientôt dans l’espace

 

Source : universcience.tv

Réalisation : Ya+K productions

Production : CNES

Reach/CLP : toute l’actualité de mars 2014 2/2

Guide d’élaboration des fiches de données de sécurité

L’ECHA a mis à jour, en décembre 2013, le guide d’élaboration des fiches de données de sécurité. Ce guide a été publié en version française en février.

Déclarants membres – est-ce que votre substance est affectée par une vérification de conformité ?

17/03/2014

L’ECHA envoie des lettres d’information aux membres de soumissions conjointes pour lesquels le déclarant principal ou tout autre membre a reçu un projet de décision sur la vérification de conformité concernant l’identité de la substance. L’objectif est de faire en sorte que tous les membres soit au courant du processus en cours, ce qui peut éventuellement avoir un impact sur l’identification de la substance convenu dans le forum d’échange d’informations sur les substances (SIEF).

Une nouvelle proposition de classification et d’étiquetage harmonisé

18/03/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance (Triflumizole (ISO); (1E)-N-[4-chloro-2-(trifluoromethyl)phenyl]-1-(1Himidazol-1-yl)-2-propoxyethanimine). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 2 mai2014.

Deux nouvelles propositions de restriction

19/03/2014

L’ECHA a lancé une proposition de restriction pour le cadmium et ses composés (dans certaines peintures) et le Chrysotile.

Les commentaires sont à soumettre avant le 19 septembre 2014.

http://echa.europa.eu/restrictions-under-consideration

Méthodes d’essai pour déterminer les propriétés physico-chimiques des substances potentiellement dangereuses

19/03/2014

Par un règlement du 25/01/2014 et publié le 19/03/2014, la Commission européenne modifie, aux fins de son adaptation au progrès technique, le règlement du 30 mai 2008 fixant les méthodes d’essai pour déterminer les propriétés physico-chimiques ainsi que la toxicité et l’écotoxicité des substances potentiellement dangereuses.

Renforcement de la classification du bisphénol A

20/03/2014

Le comité d’évaluation des risques (RAC) a adopté un avis visant à renforcer la classification et l’étiquetage harmonisés (CLH) du Bisphénol A (BPA) en passant de toxique pour la reproduction de catégorie 2 à la catégorie 1B (toxique pour la reproduction) en ce qui concerne les effets néfastes sur la fonction sexuelle et la fertilité. Cet avis fait suite à une proposition de l’autorité compétente française.

Les nouvelles fonctionnalités incluses dans la base de données de diffusion de l’ECHA

20/03/2014

La base de données des substances enregistrées a été mise à jour avec des informations sur 634 nouveaux dossiers. A partir du 20/03/2014, l’ECHA indiquera également si un enregistrement est actif ou non et la date de la première publication de chaque dossier.

Le RAC adopte 16 avis de classification et d’étiquetage harmonisé

21/03/2014

Lors de sa 28e réunion du 11 au 14 Mars, le comité d’évaluation des risques (RAC) a adopté 16 avis pour la classification et l’étiquetage (CLH) harmonisée.

Nouvelle consultation pour éviter les tests sur les animaux

21/03/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 24 propositions sont concernées. Les informations relatives aux substances sont à soumettre pour le 5 mai 2014.

Plus d’information sur : http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Adoption d’opinions sur une proposition de restriction et des demandes d’autorisation

24/03/2014

Le Comité d’Evaluation des Risques (RAC) et le Comité d’Analyse Socio Economique (SEAC) ont adopté une opinion sur une proposition de restriction du plomb dans les articles de consommation. Ils ont également adopté plusieurs avant-projets d’opinions sur des demandes d’autorisation concernant des phtalates (DBP et DEHP).

Modification de l’annexe XVII du règlement REACH (Restriction)

25/03/2014

Le règlement (UE) n  301/2014 de la Commission du 25 mars 2014 modifie l’annexe XVII du règlement (CE) n°1907/2006 du Parlement européen et du Conseil concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi que les restrictions applicables à ces substances (REACH), en ce qui concerne les cuirs contenant des composés du chrome (en contact avec la peau).

Les articles contenant des parties en cuirs susceptibles d’entrer en contact avec la peau et contenant du chrome dans des « concentrations égales ou supérieures à 3 mg/kg (0,0003 % en poids) de poids sec total de cette partie en cuir » sont ainsi exclus du marché européen.

Une nouvelle proposition de classification et d’étiquetage harmonisé

25/03/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance (diisobutyl phthalate). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 9 mai 2014.

Evaluation des substances

26/03/2014

Le plan d’action continu communautaire (CoRAP) pour 2014-2016 a été publié sur le site Internet de l’ECHA. La mise à jour contient 120 substances qui seront examinées par 21 États membres dans le cadre du processus d’évaluation des substances de REACH. La liste CoRAP comprend maintenant 53 substances nouvellement sélectionnées et 67 substances de la mise à jour publiée l’an dernier.

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

News informatique : mars 2014

Portiques de contrôle d’identité automatiques

Dans le cadre de l’édition 2014 du CeBIT, la Bundesdruckerei (Imprimerie fédérale), organisme public chargé d’imprimer les billets de banque et les papiers officiels, a présenté ses projets et solutions de gestion de l’identité à l’aide des outils numériques. L’offre s’adresse en premier lieu au secteur public. L’institution propose ainsi des solutions de gestion d’accès aux bâtiments, de paiement sécurisé sur mobile ainsi que des portiques de contrôle d’identité automatisés.

Exploitant les données stockées sur le passeport biométrique, un consortium dirigé par la Bundesdruckerei a développé un système automatisé de contrôle d’identité aux frontières. Ce système, décrit comme plus fiable qu’un contrôle manuel par un agent, s’adapte au flux de passagers dans les aéroports. Le passager place premièrement sa pièce d’identité dans un système vérifiant l’originalité du document. Il entre ensuite dans un sas où une photo est prise, puis comparée à celle stockée sur la puce du passeport. Si aucune irrégularité n’est constatée, le passager peut quitter le sas. Sinon, le contrôlé sera poursuivi manuellement. L’opération nécessiterait environ 18 secondes.

Le consortium a remporté un appel d’offres lancé par le Ministère fédéral allemand de l’intérieur, pour la fourniture de systèmes automatisés de contrôle aux frontières dans les aéroports allemands. D’ici la fin de l’année 2014, les partenaires du consortium Secunet Security Networks et la Bundesdruckerei équiperont les aéroports allemands les plus fréquentés : Francfort, Munich, Düsseldorf et Hambourg.

Source : bulletins-electroniques.com

Le Japon veut certifier les utilisateurs de Big Data pour limiter les problèmes de protection de la vie privée

Le gouvernement japonais prévoit de certifier les compagnies utilisant les Big Data, comme les informations sur les consommations courantes, afin de limiter les problèmes de protection de la vie privée.

Selon certaines estimations, le marché domestique des services accédant à des informations personnelles pourrait atteindre les 1700 milliards de Yen (12 milliards d’euros). Les magasins de proximité et autres commerçants conservent l’historique des achats de leurs clients et utilisent ces informations pour faire de la publicité et développer de nouveaux produits.

Les entreprises accélèrent également la vente de Big Data. Les fabricants automobiles par exemple, traitent les données collectées par les équipements embarqués dans les voitures comme la position ou la vitesse. Ils vendent ensuite ces informations aux gouvernements locaux ou à d’autres entreprises. Cependant, les consommateurs ont du mal à comprendre comment les données sur leurs activités sont collectées et analysées. Certains ont manifesté leur mécontentement suite à l’utilisation des données de leurs cartes de transport Suica, vendues par East Japan Railway. Bien qu’étant un marché prometteur, les Big Data font encore peur aux grandes entreprises qui craignent d’essuyer des plaintes de la part de leurs clients.

Le METI (Ministère de l’Economie, du commerce extérieur et de l’industrie du Japon) espère démarrer le cadre de certification avant la fin de l’année 2014 pour parvenir aux problèmes mentionnés. Les compagnies candidates seront étudiées pour déterminer si elles collectent correctement les données et si elles mettent bien en place des mesures empêchant les fuites de ces données. Les certifications permettront aussi aux compagnies de simplifier leurs conditions de services qui sont parfois très complexes lorsque les données personnelles des clients sont utilisées et/ou revendues.

Le gouvernement considère également une révision de la législation qui permettrait aux entreprises de vendre des informations sur leurs clients sans leur consentement, tant que ces données ne permettent pas de les identifier individuellement.

Source : bulletins-electroniques.com

De l’analyse de Tweets pour prédire les fluctuations de la bourse

La compagnie NTT Data a développé un indice de mouvements boursiers basé sur l’analyse quotidienne des tweets postés au Japon. L’objectif de NTT Data est de vendre cette solution aux investisseurs professionnels pour effectuer des prédictions des mouvements de marchés.

D’autres entreprises effectuent déjà de l’analyse des blogs et de Twitter pour mesurer et rapporter l’attitude des investisseurs qu’ils suivent. De son côté, NTT Data annonce que son nouveau « Twitter Sentiment Index » est le premier à calculer les mouvements des marchés en analysant quotidiennement tous les tweets postés en japonais. L’algorithme scanne les dizaines de millions de tweets postés chaque jour pour en extraire les messages mentionnant les compagnies importantes et analyser leurs contenus afin de produire une donnée numérique représentant le sentiment du jour de la twittosphère à propos des marchés. Cette opération aide à prévoir les fluctuations des marchés, selon NTT Data.

Après avoir testé cet algorithme sur les tweets japonais des 3 dernières années, NTT Data a trouvé une corrélation avec le principal indice boursier de la bourse de Tokyo : le Nikkei. Ce nouvel indice du sentiment de la twittosphère sera mis à disposition des institutions financières et d’investissement sur une base quotidienne ou hebdomadaire par abonnement au mois. Après 6 mois, NTT Data a pour projet de travailler avec ses utilisateurs au développement d’algorithmes plus précis pour prédire les prix des actions.

En mettant à disposition cet indice et en offrant des services de systèmes de prédiction sur mesure, la compagnie espère développer cette activité susceptible de lui rapporter 10 milliards de Yen (70 millions d’euros) après 3 ans.

Source : bulletins-electroniques.com

News environnement : mars 2014

La Phytochip, une biopuce à ADN pour détecter les micro-algues toxiques

Co-financé par le programme Systerra de l’Agence Nationale de la Recherche (ANR), COMANCHE s’achèvera en juillet prochain. Lancé en 2011, ce projet qui associe des équipes de l’Ifremer, du CNRS et de plusieurs universités françaises (Université de Bretagne Occidentale de Brest, Université de caen Basse-Normandie, Université Pierre et Marie Curie), est le premier en matière de recherche pluridisciplinaire entièrement dédié à la coquille Saint-Jacques Pecten maximus, une espèce très recherchée des gastronomes, mais également très étudiée par la communauté scientifique. COMANCHE a vocation à améliorer les connaissances sur la dynamique des populations de coquilles Saint-Jacques à travers cette approche pluri-thématique allant de l’écologie fondamentale à l’économie des filières.

C’est dans le cadre de ce projet que le Laboratoire de Détection, Capteurs et Mesures du Centre Ifremer de Bretagne, a développé la Phytochip, une biopuce à ADN capable de détecter les micro-algues toxiques dans l’eau de mer. Rappelons que ces dernières ont un impact important sur l’activité de pêche puisque leur prolifération peut entraîner des fermetures de zones pendant parfois plusieurs semaines, la coquille Saint-Jacques se nourrissant en effet d’une trentaine d’espèces d’algues, dont certaines peuvent produire des toxines qui la rendent impropre à la consommation pour l’homme. Aussi est-il capital de pouvoir détecter très rapidement la présence dans l’eau de ces micro-algues. Or avec la Phytochip, le résultat est obtenu en moins de 4 heures. Qui plus est, cette méthode est robuste et peu coûteuse.

Source : bulletins-electroniques.com

Et aussi dans les
ressources documentaires :

Pourquoi les batteries lithium-ion vieillissent-elles ?

Des chercheurs du Centre Helmholtz de recherche sur les matériaux et l’énergie (HZB) de Berlin se sont intéressés à la question du vieillissement des batteries lithium-ion. Ils ont pour cela étudié des cathodes de batteries de nouvelle génération, et ont utilisé les équipements BESSY II, l’anneau de stockage d’électrons du HZB, et DORIS, l’accélérateur de particules du Centre synchrotron DESY à Hambourg.

La cause principale du vieillissement viendrait du fait que les processus électrochimiques de charge causent des cisaillements dans la cathode, dont sont particulièrement responsables les atomes d’oxygène. Au cours de la décharge, ces cisaillements ne disparaissent pas complètement, ce qui fait qu’au cours des nombreux cycles de la vie de la batterie, une dégradation des performances apparaît.

Jatinkumar Rana, chercheur au HZB, explique le contexte de la recherche : « Les batteries lithium-ion sont essentielles pour les appareils électroniques et, désormais, également pour l’automobile ». Avec ses collègues et en collaboration avec un groupe de l’Université de Münster (Rhénanie du Nord-Westphalie), ils ont étudié les cathodes de nouvelle génération, de formule (x)Li2MnO3*(1-x)LiMO2. Ces cathodes vont être plus efficaces que les cathodes actuelles. De plus, « elles contiennent moins de terres rares ou d’éléments toxiques », comme l’explique M. Rana.

Cependant, la nouvelle cathode a les mêmes défauts de vieillissement qu’une cathode classique. Le rôle du groupe Li2MnO3 lors des processus électrochimiques est incertain. « C’est pourquoi nous avons étudié les effets de la charge et de la décharge au niveau de la structure atomique. », précise M. Rana. Des échantillons de cathode ont été analysés par spectrométrie d’absorption des rayons X, lors du premier et du trente-troisième cycle de charge/décharge. Ces essais ont été réalisés avec le BESSY II et le DORIS. Les chercheurs ont donc pu analyser ce qu’il se passait lors de la charge : des cisaillements apparaissent dans la couche d’oxygène, ce qui, à terme, modifie l’arrangement cristallin de départ. Cette expérience permet donc de vérifier une hypothèse discutée depuis longtemps.

Source : bulletins-electroniques.com

Et aussi dans les
ressources documentaires :

Un « supergrid » à l’étude pour transporter l’électricité de l’Afrique vers l’Europe

La plus grande centrale solaire d’Afrique du Nord est en train d’être construite à Ouarzazate (Maroc). Dès 2016, de l’électricité d’origine solaire doit y être produite pour un demi-million de personnes. De tels projets pourraient à l’avenir fournir également de l’électricité à l’Europe. Pour transporter l’électricité d’un continent à l’autre, un raccordement fiable au réseau est néanmoins nécessaire. L’Institut Fraunhofer pour les systèmes énergétiques solaires (ISE) de Fribourg-en-Brisgau (Bade-Wurtemberg) mène des recherches en collaboration avec d’autres instituts Fraunhofer sur différents aspects d’un tel « Supergrid » : modélisation d’un système d’énergie approprié, solutions technologiques pour le stockage d’électricité ainsi que pour les réseaux de production et de distribution à courant continu.

Des solutions techniques détaillées pour la modélisation d’un système énergétique approprié ont été dévoilées par les scientifiques de l’Institut Fraunhofer ISE. Tout d’abord, l’interaction des parcs renouvelables et des centrales électriques conventionnelles a été représentée à l’aide d’une modélisation systémique du secteur électrique en Afrique du Nord et dans le sud de l’Europe. Dans un second temps, à l’aide d’un modèle d’optimisation de système énergétique (RESlion), des emplacements pour de nouvelles centrales ont été recherchés en tenant compte de tous les systèmes de production et de stockage existants, ainsi que de l’infrastructure réseau. D’après cette étude, les installations photovoltaïques, installées près des centres de consommation, sont favorisées en Afrique du Nord, même si un rayonnement solaire plus faible est pris en compte. Les centrales thermiques solaires (CSP) sont, elles, principalement installées quand une grande capacité de stockage thermique est nécessaire pour garantir la stabilité du réseau. « Il est important que nous obtenions de l’électricité de façon prévisible à partir de sources renouvelables. L’électricité d’Afrique du Nord pourrait par exemple combler les lacunes dans la production d’électricité européenne à partir de sources renouvelables. Equilibrer la demande et la production d’électricité d’un lieu à un autre, c’est là l’un des principes directeurs du « Supergrid », explique Werner Platzer, directeur du département des centrales solaires thermiques à l’Institut Fraunhofer ISE et coordinateur du projet « Supergrid ».

Contrairement à d’autres centrales basées sur les énergies renouvelables, les centrales thermiques solaires peuvent fournir de l’électricité de façon réglable. Cela se fait par stockage thermique, ce qui consiste à stocker temporairement la chaleur en cas de surproduction, et à la convertir en cas de besoin en électricité à l’aide d’une turbine à vapeur. A l’ISE, différents concepts d’intégration et d’optimisation du stockage thermique sont étudiés et évalués dans les modélisations. Pour cela, l’outil logiciel « ColSim-CSP » développé par l’ISE est employé. Les modèles de centrales diffèrent non seulement sur un plan optique (miroir de Fresnel, cylindre parabolique ou tour), mais également en termes de fluide caloporteur utilisé. Pour les centrales à évaporation directe, où le fluide caloporteur utilisé est l’eau, un dispositif innovant de stockage de chaleur latente avec un échangeur de chaleur en volute est, entre autres, étudié. Avec cette technologie, la capacité de stockage n’est plus proportionnelle à la surface de transfert de chaleur, car le sel utilisé en tant que support de stockage est extrait lors de la solidification et de la fonte. D’autres concepts visent à utiliser des sels à la fois comme support de stockage et comme milieu caloporteur. Le dispositif de stockage peut alors être composé de deux réservoirs distincts, ou d’un seul réservoir de briques creuses afin d’économiser des matériaux de construction, dans lesquels des sels fondus chauds et froids sont disposés en couches. Un prototype est expérimenté afin d’évaluer le potentiel d’un tel stockage en couches. L’interaction corrosive des sels chauds avec différents aciers est notamment analysée.

Par ailleurs, le transport de l’électricité dans le « Supergrid » possède un potentiel d’optimisation. Les grandes centrales renouvelables ou les groupements régionaux de centrales sont souvent dispersés sur de grandes surfaces, et de nombreux convertisseurs électroniques de puissance sont répartis dans l’ensemble du réseau. Dans un tel système, il est souhaitable que chaque centrale n’injecte pas directement l’électricité dans le réseau et que les convertisseurs soient utilisés aussi efficacement que possible. En effet, avec chaque interface entre producteur, réseau et consommateur augmentent les pertes de transmission d’énergie et le coût de l’ensemble du réseau. Par conséquent, la solution choisie consiste à regrouper d’abord l’électricité de plusieurs centrales dans un réseau à courant continu local en moyenne tension, et à la stocker en batteries le cas échéant. Ensuite, l’électricité est injectée au niveau d’un emplacement central dans un réseau à haute tension pour être transportée. L’électronique de puissance joue un rôle important dans de telles interfaces. L’ISE développe donc un démonstrateur de convertisseur de courant continu compact et très efficace. Grâce à l’utilisation de semi-conducteurs en carbure de silicium (SiC), les scientifiques ont pu réaliser un système d’électronique de puissance d’une tension de blocage de 10 kV et à faibles énergies de commutation, permettant une connexion directe avec le réseau de distribution à moyenne tension.

Source : bulletins-electroniques.com

EDF signe une série d’accords avec ses partenaires chinois dans le nucléaire

Dans le nucléaire, l’accord de partenariat global signé avec General Nuclear Corporation (CGN) renouvelle le précédent, qui date de 2010, et prévoit que les deux groupes « poursuivent leur coopération sur l’ensemble de leurs domaines de compétence », comme l’exploitation, la maintenance, l’ingénierie et la recherche et développement, a précisé EDF dans un communiqué.

Les deux groupes, qui exploitent les deux plus grands parcs nucléaires au monde, ont également signé un protocole « pour favoriser la coopération industrielle entre EDF et ses partenaires chinois sur le marché nucléaire britannique ».

EDF, allié aux groupes publics chinois CGN et CNNC, avait officialisé en octobre 2013 un accord portant sur la construction de deux réacteurs nucléaires à eau pressurisée (EPR) du groupe français Areva au Royaume-Uni, un investissement chiffré à 16 milliards de livres (environ 19 milliards d’euros).

EDF a également conclu un accord de coopération dans le nucléaire avec CNNC.

Dans l’énergie thermique, EDF et China Datang Corporation (CDT) ont réaffirmé leur « volonté d’identifier des projets communs de production d’électricité », en Chine et à l’international. Un accord en ce sens avait déjà été signé en avril 2013.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Découverte d’un nouveau type de virus géant âgé de plus de 30 000 ans

Un nouveau type de virus géant, baptisé « Pithovirus », a été découvert dans le sol gelé de l’extrême Nord-Est sibérien par des chercheurs du laboratoire « Information génomique et structurale » (CNRS/AMU), associés à des équipes du laboratoire Biologie à grande échelle (CEA/Inserm/Université Joseph Fourier), du Génoscope (CEA/CNRS) et de l’Académie des sciences de Russie.

Ces travaux portent ainsi à trois le nombre de familles distinctes de virus géants. Ils sont publiés sur le site des PNAS la semaine du 3 mars 2014.

Avec la famille des Megaviridae (représentée notamment par Mimivirus découvert en 2003) et celle des Pandoraviridae1, les chercheurs pensaient avoir répertorié la diversité des virus géants (seuls virus visibles en microscopie optique du fait d’un diamètre supérieur à 0,5 micron). Ces virus, qui infectent les amibes du genre Acanthamoeba, renferment un très grand nombre de gènes par rapport aux virus courants (les virus comme ceux de la grippe ou du SIDA contiennent une dizaine de gènes). La taille de leur génome est comparable ou dépasse celle du génome de nombreuses bactéries.

En étudiant un échantillon de sol gelé en provenance de l’extrême Nord-Est sibérien (région autonome de Chukotka), les chercheurs ont eu la surprise d’y découvrir un nouveau virus géant âgé de plus de 30 000 ans (contemporain de l’extinction de l’homme de Néanderthal), qu’ils ont appelé « Pithovirus sibericum ». Sa forme en amphore, tel Pandoravirus, a d’abord conduit les scientifiques à penser qu’il s’agissait d’un nouveau membre, certes très ancien, de cette famille. Mais l’analyse génomique de Pithovirus a démontré qu’il n’en était rien : Pithovirus et Pandoravirus n’ont aucune parenté génétique. Le génome de Pithovirus, même s’il reste grand pour un virus, contient beaucoup moins de gènes (environ 500) que celui des Pandoravirus (qui peut atteindre 2 500 gènes). Les chercheurs ont également analysé la composition en protéines (le protéome) de la particule de Pithovirus (longue de 1,5 micron pour 0,5 micron de diamètre). Ils se sont alors aperçus que sur les centaines de protéines qui la constituent, elle n’en partageait qu’une ou deux avec la particule de Pandoravirus.

Une autre différence primordiale entre les deux virus concerne leur mécanisme de réplication à l’intérieur des cellules d’amibe. Alors que les Pandoravirus requièrent la participation de nombreuses fonctions du noyau cellulaire de l’amibe pour se répliquer, l’essentiel de la multiplication des Pithovirus se déroule dans le cytoplasme (en dehors du noyau) de la cellule infectée, rappelant en cela le comportement des grands virus à ADN, comme ceux de la famille des Megaviridae. Paradoxalement, malgré un génome plus petit que celui des Pandoravirus, Pithovirus aurait moins besoin de la machinerie cellulaire de l’amibe pour se propager. Le degré d’autonomie des virus géants par rapport à leur cellule hôte n’apparaît donc pas corrélé avec la taille de leur génome, qui elle-même n’est pas liée à la taille de la particule qui les transporte.

L’analyse approfondie de Pithovirus révèle qu’il n’a quasiment aucun point commun avec les virus géants précédemment caractérisés. Il inaugure donc une nouvelle famille de virus, portant à trois le nombre de familles de virus géants connus à ce jour. Cette découverte, venant rapidement après celle des Pandoravirus, suggère aussi que la diversité des virus en forme d’amphore est peut-être aussi grande que celle des virus dits « icosaédriques »2, qui sont parmi les plus répandus à ce jour. Elle souligne combien notre connaissance de la biodiversité microscopique reste partielle dès que l’on explore de nouveaux environnements. 

Enfin, cette étude montre que des virus peuvent survivre dans le pergélisol (couche de sol gelé en permanence des régions arctiques) sur des périodes quasiment géologiques, c’est-à-dire sur plus de 30 000 ans (correspondant au Pléistocène supérieur). Cette démonstration a des implications importantes sur les risques de santé publique liés à l’exploitation des ressources minières et énergétique des régions circumpolaires que le réchauffement climatique rend de plus en plus envisageable. La résurgence de virus considérés aujourd’hui comme éradiqués, tel celui de la variole dont le processus de réplication est similaire à celui des Pithovirus, n’est désormais plus du domaine de la science-fiction. La probabilité d’un tel scénario devrait être estimée de manière réaliste. Le laboratoire « Information génomique et structurale » s’y attèle d’ores et déjà à travers une étude métagénomique du permafrost qui bénéficie du soutien de l’infrastructure nationale France-Génomique (Investissement d’avenir).

Source : CNRS 

Et aussi dans les
ressources documentaires :

Comment faire ce que vous devez faire lorsque vous n’avez pas envie de le faire

Le cas où la mobilisation vers l’action est particulièrement difficile est celui que nous abordons ici et auquel vous avez certainement été confronté(e) au cours de votre vie professionnelle. Il s’agit de situations où votre engagement ne semble pas librement consentit mais – en quelque sorte – contraint par une exigence (morale, éthique, influence, raison, pouvoir etc…).

Dans ce qui suit, nous supposerons que les alternatives suivantes ne sont pas disponibles :

  • Vous ne réalisez pas la tâche (Éliminer) ;
  • Vous la faites faire par quelqu’un d’autre (Muter) ;
  • Vous la re-re-re planifiez (Procrastiner).

Il ne vous reste donc aucune autre alternative que celle de réaliser quand même cette « abominable » tâche. Alors pourquoi attendre davantage ? Les 3 propositions suivantes pourront vous aider à avancer vers l’action. Elles visent à augmenter le niveau d’énergie du « je veux » dont vous avez besoin pour vous mobiliser maintenant.

1- ÉNUMÉREZ au moins DEUX AVANTAGES dont vous bénéficierez lorsque la tâche sera réalisée

Satisfaction, soulagement, délivrance, sécurité, sérénité, etc… ?

Les médicaments ont souvent un goût désagréable. C’est pour cette raison que nous n’avons pas envie de les avaler. Ce qui nous conduit à le faire quand même, c’est la liste des avantages dont nous allons bénéficier lorsque nous aurons quand même avalé la mauvaise potion. Cela vous rappelle quelque chose ? Alors pas de temps à perdre. Puisque vous devez réaliser cette p… de tâche ; qu’adviendra-t-il d’agréable pour vous lorsqu’elle sera réalisée ? Impossible de ne pas trouver au moins deux réponses à cette question.

2- DÉCOUPEZ la tâche en trois petites parcelles ET RÉALISEZ la première parcelle dans la journée

Répéter cette étape chaque jour et autant de fois que nécessaire avec le restant de la tâche. En général, il ne vous faudrait pas plus de 3 jours pour en venir à bout.

Obligez-vous à réduire au maximum le délai de réalisation de la première parcelle. Idéalement, la réaliser immédiatement.

  • Exemple : Je dois remettre le rapport que Franck m’a demandé

Les 3 petites parcelles :

  • je récupère les données ;
  • je construis le plan du rapport ;
  • je rédige le rapport.

Il est 11h00 ; je planifie la réalisation de la première parcelle maintenant (ou au plus tard à partir de 14h00).

3- Ne restez pas seul(e)

  • Discutez avec un collègue, un ami, un membre de votre famille… des raisons qui vous empêchent de passer à l’action ;
  • Demandez-lui de vous écouter sans vous interrompre ;
  • A la fin de votre explication demandez-lui de reformuler le plus fidèlement possible ce qu’il ou elle a compris. Ne l’interrompez pas ; écoutez le (la) jusqu’au bout ;
  • Envisagez ensemble – en mode brainstorming – plusieurs solutions ou alternatives au problème qui a été formulé clairement.

Exemples de reformulations (et de pistes de brainstorming)

Je comprends que tu repousses constamment la date de réalisation de cette tâche parce que :

  • Tu as peur de ne pas y arriver  (rechercher des alternatives par rapport à cette peur) ;
  • Tu ne te sens pas assez compétent (rechercher des alternatives à cette angoisse d’incompétence) ;
  • Tu n’as pas envie de faire ce qui t’est demandé (rechercher des alternatives par rapport à ma résistance) ;
  • Le sujet est difficile (rechercher des alternatives pour simplifier le sujet) ;
  • Le sujet est ennuyeux (rechercher des alternatives pour égayer le sujet) ;
  • Le travail est rébarbatif (rechercher des alternatives pour rendre le sujet agréable) ;
  • Tu n’entrevois pas la valeur ajoutée de ce travail (Énumérer les Valeurs Ajoutées qui ont du sens pour vous)…

Que vous le vouliez ou non, aucune de vos actions ne peuvent être réalisées sans que vous l’ayez décidé. Il est impossible – au bout du compte – que vous réalisiez une action « à l’insu de votre plein gré »… puisque c’est vous qui investissez votre énergie pour accomplir le résultat. Personne d’autre que vous ne donne l’ordre à vos muscles de taper sur ce clavier pour rédiger ce rapport.

Il y a donc fatalement un moment ou vous fabriquez suffisamment de « JE VEUX » pour vous atteler à cette tâche si contrariante. Faites-nous part de votre expérience des 3 conseils ci-dessus et bon courage !

Par Dino Ragazzo

Et aussi en formation :