Les bioraffineries ont-elles un avenir ?

Faut-il miser sur le bioraffinage ? Alors que le marché des produits biosourcés devrait doubler dans 5 ans (d’après un rapport du LMI) et que le marché mondial des bioraffineries se prépare à afficher une croissance insolente de 8.93% par an jusqu’à 2018, on pourrait croire que tous les voyants sont au vert. Pourtant, les bioraffineries peinent à imposer leurs produits face à leurs homologues issus de la pétrochimie. En cause, une réalité économique impitoyable. « Même le procédé le plus « vert » possible ou biosourcé échouera à détrôner son équivalent pétrosourcé s’il n’est pas compétitif au niveau du prix » résume Franck DUMEIGNIL, Directeur de l’unité de catalyse et de chimie du solide de l’université de Lille 1 et  coordinateur du projet européen EuroBioRef.  Seuls les biosourcés à haute valeur ajoutée pourront espérer s’affranchir de cette contrainte. 

En Europe, aux freins de nature économique vient s’ajouter la réglementation REACH qui impose de faire certifier toute nouvelle molécule. Les frais afférents aux divers tests requis sont rarement supportables par une PME. Mais la chimie verte peut compter sur un contexte favorable. Le besoin de remplacer des produits issus de la pétrochimie par des produits biosourcés aux mêmes propriétés est réel. Les directives européennes visent d’ailleurs à incorporer 10% de biocarburant d’ici à 2020 et l’industrie chimique française s’est engagée à utiliser 15% de matière première d’origine végétale dès 2017. Il serait possible de remplacer un tiers des hydrocarbures fossiles en transformant la biomasse. C’est là que l’arrivée de la filière lignocellulosique est déterminante. Alors que la bioraffinerie de 1ère génération était en concurrence directe avec l’alimentation humaine et animale, celle de 2ème génération propose de convertir la lignocellulose, composée de lignine, d’hémicellulose et de cellulose.

« Autre difficulté, si les  technologies existent, les sortir de l’intimité du laboratoire coûte extrêmement cher. La réalisation d’un démonstrateur nécessite le soutien d’un industriel solide car le risque est réel, et les aides publiques manquent » déplore-t-il. Les bioraffineries sont d’ailleurs plus nombreuses en Amérique du nord, aidées par des politiques de soutien. En 2010, l’Europe accepte de financer à hauteur de 23.5 millions le projet European multilevel integrated biorefinery design for sustainable biomass processing (EuroBioRef) dont le but est d’élaborer une nouvelle raffinerie intégrant l’ensemble des processus de transformation de la biomasse. Terminé en 2014, ce projet incluant 29 partenaires européens a permis de déposer 21 brevets. Les résultats ont permis d’optimiser les biotechnologies pour produire des molécules plateformes à partir de glycérol et d’hydrolysats de biomasse. Une usine pilote est sortie de terre en Norvège, capable de traiter 50kg de matière lignocellulosique sèche chaque heure.

L’un des principaux obstacles techniques que doit surmonter le bioraffinage réside dans la séparation. Culturellement, les différents utilisateurs préfèrent travailler avec un composé unique, aux propriétés bien définies plutôt qu’avec des mélanges. Or, par définition la biomasse est une matière première hétérogène, puisque variable en fonction des saisons, de la météo, de la sorte de plante…Néanmoins, concernant la production de biocarburants, le projet BioTfuel illustre bien l’évolution des mentalités. Ce projet de production de biocarburants de 2ème génération par la voie thermochimique a pour objectif de développer une chaîne de procédés dédiée à la production de biogazole et de biokérosène disponibles sur le marché dès 2020. Pour y arriver, BioTfuel mise sur le cotraitement, c’est-à-dire le traitement d’une large gamme de ressources, biomasse et fossile en même temps. Le produit final est donc un mélange de carburant d’origine fossile et de biocarburant, dont la teneur sera variable. Cette flexibilité permet à la fois d’améliorer le rendement et d’abaisser les couts de production. La technologie de gazéification appliquée aux matières fossiles devra être adaptée à  l’injection de biomasse. Total, associé à ce projet, s’est aussi engagé dans Futurol, afin de développer un procédé de production d’éthanol par voie biologique à partir de différentes biomasses. Cette fois, les sucres sont extraits de la biomasse puis fermentés pour se transformer en éthanol. L’installation pilote est basée à Pomacle-Bazancourt. A terme, l’usine pourrait produire 500L d’éthanol chaque jour.

De son côté, l’INRA a développé un nouveau procédé de fractionnement de la biomasse ligno-cellulosique. Celle-ci étant particulièrement variée, la phase de prétraitement est souvent coûteuse, bien qu’elle soit un préalable essentiel aux étapes suivantes que sont l’hydrolyse enzymatique pour la production de sucres et la fermentation transformant les sucres  en bio-éthanol. Les chercheurs de l’Inra proposent de réaliser tout d’abord une étape de broyage ultrafin, suivie d’une étape de séparation électrostatique. De la paille a ainsi pu être fractionnée en plusieurs parties enrichies en cellulose et en lignine-hémicellulose. Cette approche par voie sèche sans traitement chimique ni effluent a fait l’objet d’un brevet et s’applique au bois, aux sous-produits agricoles ou encore aux cultures ligno-cellulosiques.

Autre axe d’innovation, la catalyse hybride, censée combiner les atouts des catalyses chimiques et enzymatiques. REALCAT, plateforme intégrée appliquée au criblage haut débit de catalyseurs pour les bioraffineries hébergée à Centrale Lille, est dédiée au développement de catalyseurs pour les bioraffineries.  « Les molécules issues de la biomasse sont plus réactives que celles issues de la pétrochimie. Loin d’être un avantage, ce comportement nécessite une attention particulière lors du process pour éviter qu’il ne s’emballe. » indique Franck Dumeignil.

Si aujourd’hui les produits issus du bioraffinages ne sont pas compétitifs avec leurs homologues pétrosourcés, le besoin d’indépendance vis-à-vis du pétrole motive des investissements qui pourraient bien changer rapidement la donne.

Par Audrey Loubens

Trois banques françaises ne détruiront pas la Grande Barrière de corail

Par courrier, BNP Paribas, Crédit Agricole et la Société Générale se sont engagés auprès de l’association Les Amis de la Terre à ne pas participer au financement des projets de mines de charbon situés dans le bassin de Galilée en Australie, ni à celui des infrastructures associées : extension des ports, voies ferrées…. Ces banques vont ainsi plus loin dans leur engagement que celui pris par 8 autres banques internationales – Deustche Bank, HSBC, RBS, Barclays, Citi, Morgan Stanley, JP Morgan Chase et Goldman Sachs – portant uniquement sur l’extension du port d’Abbot Point. Cette extension en vue d’exporter du charbon, menace notamment la Grande Barrière de corail.

Selon les ONG, les projets devraient être soutenus par au moins une ou deux grandes banques internationales pour se concrétiser. Or, avec les engagements des banques françaises, 11 des 25 banques qui financent le plus le secteur du charbon au niveau mondial se sont désormais engagées à ne pas les financer. « Chaque engagement de banque à rester éloignée de ces projets réduit un peu plus les chances de ces projets d’être menés à terme », se réjouit Lucie Pinson des Amis de la Terre. « Leautres banques ne devraient pas s’y risquer, alors que les banques majeurs n’y vont pas », prévient-elle.

Face à cette première victoire, les Amis de la Terre appellent les banques à s’engager d’ici décembre 2015 à cesser totalement leurs financements dans le secteur du charbon. « La COP21 est une fenêtre d’opportunité pour inciter les banques à s’engager », relève Lucie Pinson. Le mois de mai, avec les assemblées générales des Grandes Banques françaises, notamment BNP Paribas (13 mai), la Société Générale (19 mai) et le Crédit Agricole (20 mai) sera un moment de mobilisation important pour l’association.

Une première victoire à renforcer

« C’est la première fois que les banques s’engagent à ne pas financer les projets de toute une région en raison de leurs impacts environnementaux et climatiques. Cependant, la bataille pour le climat ne s’arrête pas là et leurs engagements sont loin de suffire à inverser la hausse de 218 % des financements des banques françaises au secteur du charbon entre 2005 et 2013 », prévient Lucie Pinson .

Mais pour limiter la hausse des émissions en dessous du seuil de 2°C, il faut aller beaucoup plus loin. A l’origine de 94 % des 30 milliards d’euros de financements français au secteur du charbon entre 2005 et avril 2014, BNP Paribas, le Crédit Agricole et la Société Générale font de la France le 4ème plus gros financeur de ce secteur,derrière la Chine, les Etats-Unis et le Royaume-Uni.  « Il faut passer la vitesse supérieure. D’autres projets charbonniers pourraient voir le jour grâce aux banques françaises. Or, 88 % des réserves totales de charbon au monde doivent rester dans le sol si nous voulons pouvoir rester en dessous-du seuil de 2 °C et il est donc urgent que les banques françaises s’engagent dès cette année à mettre un terme à leurs financements au secteur du charbon » poursuit Lucie Pinson. Les Amis de la Terre ont donc créé le site internet dédié jechangedebanque.eu, afin que tout client puisse leur demander l’arrêt des financements dans le secteur du charbon.

Les trois grandes banques françaises communiquent de plus en plus sur leurs engagements contre le réchauffement climatique, mais comptent parmi les 25 premiers financeurs du secteur du charbon au niveau international. BNP Paribas et la Société Générale sont même les 5ème et 7ème banques à financer les mines de charbon en Australie.

La Grande Barrière de Corail menacée

Un rapport commandé par le WWF notait début février que la Grande Barrière de corail étaitmenacée par l’extension éventuelle des ports existant. Celle-ci s’accompagnerait du dragage d’environ 51 millions de mètres cube de fond océanique, pour creuser et entretenir des bassins, des chenaux…Ces sols sont rejetés plus loin, détruisant potentiellement les fonds marins et leurs écosystèmes« Une grande partie pourrait finir dans les eaux protégées de la Grande Barrière de corail où elle risque de former des bancs de sédiments qui pourront dériver sur près de 80 km et causer de lourds dégâts. Le dragage ainsi que les boues qu’il génère peuvent étouffer les coraux et compromettre la survie d’espèces menacées comme les tortues marines », prévient le WWF.

Ce vaste bassin charbonnier constitue la deuxième plus grande zone de développement possible des énergies fossiles au monde, après la Chine. S’il entre en exploitation, il émettra 705 millions de tonnes de CO2 par an, presque autant que l’Allemagne, le sixième émetteur mondial de dioxyde de carbone. L’Australie souhaite doubler la capacité d’exportation de charbon de l’Etat du Queensland. Pour augmenter la capacité en charbon des ports de la région, de 267 millions de tonnes à 637 millions de tonnes par an, le pays souhaite entreprendre des travaux d’extension de ses ports. Lesimpacts environnementaux liés dans la zone du récif a poussé nombre de banques importantes à se retirer de leur financement. 

Par Matthieu Combe, journaliste scientifique

 

Et aussi dans les
ressources documentaires :

La chimie click révolutionne la biologie

Toutefois, toutes les molécules ne peuvent pas être clippées à n’importe quelle autre. La réaction met en jeu un alcyne et un groupement à base d’azote. Depuis une dizaine d’années, la chimie click fait l’objet de nombreuses recherches. Si certaines visent principalement à maîtriser la réaction, beaucoup portent sur des nanoparticules d’or qui sont très utilisées dans le secteur médical. Le couplage entre des azotures et des alcynes fait partie des réactions chimiques dites bio-orthogonales, des réactions biocompatibles et d’une grande sélectivité. Voici 7 exemples d’applications de la chimie click.

Le CEA prépare des motifs chimiques

Les chercheurs du CEA-Ibitec-S ont développé une nouvelle application de la chimie click. Pour assembler deux éléments, les chimistes dotent l’un d’entre eux d’un groupement hétérocyclique doublement chargé, aussi appelé sydnone, et le second d’un groupement alcyne. En présence d’un catalyseur, souvent du cuivre, ces deux motifs permettent de clipper les éléments l’un à l’autre. Les scientifiques ont découvert cette réaction suite à une analyse à base de criblage à haut débit de milliers de combinaisons possibles. Cette réaction peut se produire dans du sang humain par exemple, et donc s’appliquer à la chimie médicinale aussi bien qu’aux biotechnologies.

Des nanoparticules d’or liquides-cristallines

Dans sa thèse soutenue en 2012, Sylvain Mischler de l’université de Neuchâtel explique comment la chimie click peut servir à synthétiser des nanoparticules d’or. Pour y parvenir des dendrons liquides-cristallins sont greffées aux nanoparticules d’or par cycloaddition 1,3-dipolaire. La réaction est catalysée par du cuivre. Cette approche permet de greffer aux particules d’or des dendrons acétyléniques de première et deuxième génération, mais aussi des structures dendritiques contenant des fullerènes comme le méthanofullérodendron.

Assemblage et désassemblage de systèmes prodrogue

En 2011, l’ANR accepte de financer la mise au point d’un nouveau système de systèmes nanoparticulaires poreux capable de libérer de façon contrôlée un principe actif. Ce dernier est encapsulé et relâché par ouverture de nanovalves quand il est éclairé. Pour y arriver, les chercheurs misent sur la chimie click pour lier la drogue à une molécule porteuse puis la libérer rapidement sous l’effet de la lumière UV. D’où le nom de click-unclick.

Assemblage de nanoparticules magnétiques sur des surfaces fonctionnalisées

Autre thèse, autre financement ANR. Delphine Toulemon de l’Institut de physique et chimie des matériaux de Strasbourg a réussi à clipper des nanoparticules magnétiques sur des surfaces fonctionnalisées par des molécules organiques. L’utilisation de radiations microondes permet d’accélérer la réaction tandis que le contrôle de la réaction click par électrochimie optimise la préparation de films multicouches de nanoparticules.

Fixer des nanoparticules d’or sur un substrat

Des scientifiques polonais ont utilisé la chimie click pour fixer des nanopartiucles d’or sur un substrat de carbone vitreux. Ce faisant, les nanoparticules se retrouvent liées au substrat via des liaisons covalentes, plus robustes que les liaisons faibles existantes lorsque les nanoparticules sont simplement déposées. Les chercheurs de l’Institut de chimie physique de l’académie polonaise des sciences (Varsovie) ont réussit en ajoutant des acyles aux nanoparticules d’or et des azotures au substrat. La réaction utilise une catalyse électrochimique, ce qui optimise le temps de réaction par rapport à une catalyse chimique. Cette méthode pourrait servir à fabriquer des détecteurs de conservateurs par exemple. Les scientifiques polonais assurent pouvoir travailler avec d’autres types de substrats.

Synthèse d’agents bimodaux

Au Laboratoire de synthèse et physicochimie de molécules d’intérêts biologique à Toulouse, les scientifiques ont élaboré des complexes hétérobimétalliques pouvant servir pour l’imagerie bimodale. Grâce à la chimie click, ils ont notamment greffé une pince iminodiacétate tridente sur un complexe Re(I)-pyridine-triazote pyta bidente utilisable comme sonde bimodale fluorescente.

Et si on se passait du cuivre ?

Alors que la chimie click a tout pour séduire le monde du vivant, elle présente un point faible : sa cinétique est extrêmement faible, d’où le recours fréquent à un catalyseur, le cuivre. Sauf qu’un excès de cuivre peut présenter une certaine toxicité cellulaire. Pour s’en affranchir, les scientifiques du Laboratoire de marquage au carbone 14 du CEA ont eu l’idée d’intégrer le cuivre directement à l’un des deux éléments à clipper. Les chercheurs ont développé un réactif comprenant à la fois la fonction azoture et un complexant de cuivre. Plus besoin de rajouter le catalyseur tout en conservant une bonne cinétique en réalisant les réactions en quelques secondes.

Par Audrey Loubens

L’ingénieur geek #5 : le Solar Bike

Le vélo à assistance électrique a le vent en poupe. Alors forcément, les inventeurs débordent d’idées pour trouver la solution la plus innovante. Nous vous avions déjà présenté le kit DDS de la start-up canadienne DayMak qui permet de transformer tout vélo en un vélo électrique carburant au soleil. Avec ce kit, l’autonomie est de 10 km. Mais avec le Solar Bike, conçu par le danois Jesper Frausig, l’autonomie grimpe jusqu’à 70 km, soit la fourchette haute d’autonomie d’un vélo électrique classique !

Là encore, finies les recharges sur secteur ou sur borne, le vélo est entièrement alimenté par l’énergie solaire. Les panneaux photovoltaïques, situées sur les 2 roues, permettent de recharger la batterie. Si l’ensoleillement est au rendez-vous lors de votre déplacement, vous pourrez même obtenir de 2 à 25 km d’autonomie supplémentaire, la batterie continuant à se charger. 

La vitesse moyenne de ce vélo est de 25 km/h, mais peut atteindre une vitesse de pointe de 50 km/h. Son prix n’a pas encore été communiqué, pas plus que sa date de commercialisation. Il faudra donc attendre encore un petit peu pour déhambuler dans les rues avec…

Découvrir le Solar Bike dans les rues de Copenhague

Et aussi dans l’actualité :

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

RWE redoute une sortie de l’Allemagne du charbon, objet d’un intense débat

« Si les plans du ministère de l’Economie sont mis en oeuvre comme prévu, cela va conduire à des changements structurels considérables », a prévenu lors de l’assemblée générale des actionnaires de RWE à Essen (ouest) le patron du numéro deux allemand de l’énergie, Peter Terium.

Il a prédit « une sortie désordonnée du charbon », qui coûterait « des dizaines de milliers d’emplois » directement et indirectement liés à la filière charbon et poserait une hypothèque sur la sécurité d’approvisionnement, alors que le pays doit déjà d’ici 2022 fermer toutes ses centrales nucléaires.

Berlin veut pénaliser la production d’électricité au charbon, afin que le pays puisse atteindre ses objectifs de réduction de CO2, à savoir une baisse de 40% d’ici 2020 par rapport à 1990.

Selon le plan d’action du gouvernement, la production d’électricité doit arriver à une réduction de 22 millions de tonnes de CO2 d’ici 2020 en sus des efforts déjà consentis. Le ministère de l’Economie et de l’Energie, tenu par le social-démocrate Sigmar Gabriel, veut faire reposer le gros de la contribution de la branche électricité sur les centrales à charbon, qui représentent quelque 40% du courant brut produit en Allemagne.

Son projet suscite une véritable levée de boucliers chez les producteurs, soutenus par le syndicat de la chimie et de l’énergie IG BCE. Les plans du gouvernement conduiraient à la fermeture des centrales au charbon les plus âgées, à savoir 10% du parc selon le gouvernement, jusqu’à 40% selon RWE.

Selon IG BCE, c’est par ricochet toute la filière qui est menacée. L’Allemagne exploite du lignite, et la pression est forte sur Berlin pour préserver les emplois dans ce secteur.

Parmi les conservateurs de la chancelière Angela Merkel, qui gouvernent avec les sociaux-démocrates, beaucoup sont critiques des projets du ministère de l’Economie.

Samedi quelque 10.000 salariés de l’énergie sont attendus devant la chancellerie à Berlin pour protester contre les projets du gouvernement. Le même jour les nombreux opposants au charbon, parmi eux d’influentes associations écologistes comme Greenpeace ou Bund, ont appelé à une manifestation contre l’utilisation de cette énergie polluante. Une chaîne humaine de 7,5 kilomètres est prévue à Garzweiler, dans l’ouest de l’Allemagne, gigantesque mine à ciel ouvert exploitée par RWE.

Pour le groupe, l’un des plus gros pollueurs européens avec son gros parc de centrales au charbon, la concrétisation des plans de M. Gabriel serait un nouveau coup dur. Comme ses concurrents, il est déjà très mis à mal par le recul des prix de gros du courant et la concurrence des renouvelables subventionnés, et M. Terium a prévenu les actionnaires jeudi que les choses n’allaient pas s’améliorer très vite.

Le groupe public suédois Vattenfall pour sa part a mis en vente ses actifs allemands dans le charbon, suscitant l’inquiétude sur l’emploi dans la région qui les abrite en ex-RDA.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Acidité des océans, vers une extinction massive des espèces ?

Cela est déjà arrivé. L’extinction massive des espèces qui s’est produite il y a 252 millions années, a vu disparaître de la surface de la Terre plus de 90% des espèces animales marines et 66% des espèces terrestres en 60 000 ans. Il s’agit de la plus grande extinction massive ayant affecté la Terre. En cause ? Selon cette nouvelle étude parue dans Science, d’énormes éruptions volcaniques, qui en émettant des quantités importantes de CO2 ont provoqué une acification fatale des océans par dissolution du CO2 atmosphérique. Une autre étude parue dans Science en 2012 révélait déjà que les quantités de CO2 émises par ces volcans avaient aussi entraîné une hausse importante des températures : la température au sol était comprise entre 50°C et 60°C, tandis qu’à la surface des océans équatoriaux, elle avoisinait les 40°C.

Dans un communiqué, Matthew Clarkson, auteur principal de cette nouvelle étude prévient « C’est une découverte préoccupante, étant donné que nous pouvons déjà voir une augmentation de l’acidité des océans aujourd’hui, résultant des émissions anthropiques de carbone ». Selon le dernier rapport du GIEC, l’océan a en effet absorbé environ 30% du dioxyde de carbone anthropogénique émis depuis 250 ans, provoquant l’acidification des océans à un niveau probablement au plus fort depuis des millions d’années. Nous serions donc sur une pente dangereuse. Cette évolution a déjà des conséquences sur la faune marine, notamment sur les coquillages et les coraux. L’acidification actuelle pourrait donc présager d’une nouvelle extinction massive des espèces à venir. Les lecteurs les plus affutés pourront remarquer que celle-ci a par ailleurs probablement déjà commencé pour d’autres raisons : surpêche, réduction d’habitats, braconnage, etc.

Comprendre l’acidification passée pour prévoir les conséquences à venir

Pour faire cette découverte, Clarkson et ses collègues ont étudié des roches aux Émirats arabes unis, englouties dans l’océan il y a des centaines de millions d’années. Ils y ont découvert que les océans se sont acidifiés assez rapidement en termes géologiques – au cours de quelques milliers d’années. Cela a suffi pour détruitre les chaînes alimentaires et provoquer l’effondrement de la plupart de la vie dans l’océan.

La vie aura mis 5 millions d’années pour se reconstruire et voir apparaître les ancêtres des dinosaures. Leurs descendants seront anéantis dans une autre catastrophe près de 200 millions d’années plus tard. 

Par Matthieu Combe, journaliste scientifique

GDF Suez va se rebaptiser « Engie » (presse)

Gérard Mestrallet, le PDG du groupe industriel, « va annoncer vendredi le nouveau nom en interne » et « dévoilera publiquement la nouvelle appellation ce mardi, lors de l’assemblée générale du groupe », a précisé l’hebdomadaire sur son site internet.

Contactée par l’AFP, l’enreprise n’a pas souhaité s’exprimer.

Cependant, le groupe a convoqué les médias à une conférence de presse vendredi à midi, « pour une annonce importante sur la marque », selon le texte de l’invitation reçue par l’AFP.

Ce changement de nom, s’il est confirmé, interviendrait alors que l’énergéticien a présenté début avril un projet de réorganisation du groupe, axé davantage sur les territoires que sur les métiers, dans le but d' »accélérer son développement » en étant plus réactif et en se rapprochant de ses clients.

Cette nouvelle organisation devrait être effective « début 2016 », selon le groupe.

GDF Suez prévoit notamment de créer dix entités chapeautant tous les métiers du groupe dans une zone géographique donnée, en lieu et place de l’ancienne organisation par branches.

Cette nouvelle organisation s’inscrit dans un contexte de bouleversement du marché de l’énergie en Europe ces dernières années, avec une consommation d’électricité et de gaz atone, voire en baisse.

La réorganisation pourrait affecter « 6.000 salariés » du fait de la mutualisation ou de la fusion d’activités, estiment les syndicats.

GDF Suez, né de la fusion en juillet 2008 entre l’ex-monopole public Gaz de France et Suez, est un des plus grands producteurs et fournisseurs mondiaux d’électricité et de gaz, avec plus de 150.000 salariés et un chiffre d’affaires de 74,7 milliards d’euros l’an dernier. L’Etat détient actuellement 33,29% de son capital.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Energies Renouvelables en France. Un ex-directeur de centrale nucléaire et un expert de l’Agence Internationale de l’Energie livrent leurs analyses

Retraité d’EDF, Alain Marcadé a cosigné fin 2014 un courrier destiné aux députés et sénateurs de la région Rhône-Alpes dénonçant le projet de loi de programmation énergétique pour la croissance verte porté par Ségolène Royal. « L’éolien apporte une petite réponse mais il ne remplacera jamais le nucléaire » affirme-t-il. Ceci en fort contraste avec les résultats de l’étude Ademe qui montre par A + B que 63% d’éolien est possible en France. L’Ecosse a produit en 2014 le tiers de son électricité à partir du vent, et la moitié à partir des renouvelables, éolien compris.

Alain Marcadé poste régulièrement des commentaires sur le site actu des Techniques de l’ingénieur, comme par exemple ici où il affirme qu’éolien et PV ne fonctionnent « que seulement 20% du temps en moyenne », ce qui est faux. Un employé du CEA (Commissariat à l’Energie Atomique) est venu à la rescousse d’Alain Marcardé, estimant qu’oser corriger les propos de cet ancien d’EDF constitue « un monument de suffisance » et ajoutant qu’un journaliste n’a pas le droit de qualifier d’exorbitant ou d’astronomique le coût de l’EPR de Flamanville. Techniques de l’ingénieur a alors décidé de consacrer le 28 avril 2014 un article entier pour corriger les propos erronés d’Alain Marcadé.

Alain Marcadé estime à présent que « Rémy Prud’homme (professeur émérite de Paris XII qui commente une étude qu’il a avoué ne pas avoir pas lue ndlr) a parfaitement raison de dire qu’on ne « sait » pas stocker l’électricité en grande quantité. Et Monsieur Multon (Professeur des universités à l’ENS Cachan et agrégé en génie électrique ndlr) nous prend pour des imbéciles en brandissant les STEP : les 5000 MW de puissance installée correspondent à de la …puissance et pas à de l’énergie ! Dit autrement, cette puissance permet de « passer » des pointes de consommation de quelques heures par an, mais certainement pas de compenser de manière continue les milliers d’heures par an où vent et soleil sont insuffisants pour répondre aux besoins. Enfin il est illusoire de vouloir augmenter significativement cette puissance, les sites potentiels étant quasiment tous saturés. ».

Techniques de l’ingénieur a répondu point par point à Alain Marcadé (voir les commentaires qui suivent l’article) mais nous avons souhaité approfondir encore davantage la réflexion. Contacté par Techniques de l’ingénieur, Cédric Philibert, analyste senior à l’Agence Internationale de l’Energie, membre du Comité scientifique de l’étude Ademe, et auteur du rapport de référence « Solar Energy perspectives » a répondu à nos questions.

Cédric Philibert

Techniques de l’ingénieur : Les propos d’Alain Marcadé sont-ils exacts concernant le stockage hydraulique gravitaire ?

  • Cédric Philibert : Ce type de réaction repose sur des idées préconçues sur les STEP, très répandues mais erronées. Les erreurs d’Alain Marcadé sur le stockage et les STEP vont bien au-delà de se tromper d’interlocuteur… D’abord, les 5 GW de STEP françaises ne servent pas « quelques heures par an ». Si le volume de stockage est en effet de « quelques heures », soit de 15 à 50 GWh par GW selon les STEP, elles peuvent être remplies et vidées plusieurs fois par semaine. Leur potentiel total n’est donc pas limité par le volume de stockage mais par leur puissance et leur efficacité d’environ 75%, c’est-à-dire qu’elles peuvent fonctionner en turbines pendant environ 10 heures par jour si on les fait fonctionner en pompe pendant 14 heures. Leur volume permet donc le stockage quotidien, et pour certaines hebdomadaire, de l’électricité, entre les pointes de production variable et les pointes de demande.

Techniques de l’ingénieurSi les STEP sont parfaitement adaptées à l’échelle journalière et hebdomadaire, permettent-elles d’envisager un stockage inter-saisonnier ?

  • Cédric Philibert : Non, les STEP ne permettent pas d’envisager un stockage inter-saisonnier. C’est donc principalement sur la diversité vent soleil qu’il faut jouer pour répondre aux variations saisonnières de la production renouvelable et de la demande (c’est précisément l’objet de l’étude, où il est démontré que passer au 100% renouvelable est possible tant d’un point de vue technique qu’économique, ndlr).

Techniques de l’ingénieurAlain Marcadet estime qu’« il est illusoire de vouloir augmenter cette puissance, les sites potentiels étant tous saturés ».

  • Cédric Philibert : Il y a deux erreurs dans cette seule phrase. Il y a d’abord là une confusion… entre puissance et énergie ! Sur un site donné, d’un volume donné déterminé par la taille du plus petit des deux réservoirs, on peut toujours augmenter la puissance, mais on risque de réduire le nombre d’heures de disponibilité. Mais si les STEP doivent fonctionner deux fois par jours, c’est envisageable.   Autre confusion, plus importante : la confusion entre hydroélectricité et STEP, qui amène à dire que les sites potentiels sont saturés. C’est vrai pour l’hydraulique, cela ne l’est pas pour les STEP, dont l’emprise au sol est beaucoup plus petite. Il ne s’agit pas d’accumuler des semaines ou des mois de précipitations. A preuve, cette étude de JRC (disponible ici ndlr) qui montre l’énorme potentiel – en volume cette fois – des STEP en France, comparé à l’existant. Un potentiel de 4 TWh, si on prend un volume de 100 GWh par GW de STEP cela veut dire une puissance de 40 GW. C’est d’ailleurs ce que nous disent les professionnels de l’hydroélectricité, tant chez EDF que chez GDF : « on pourra couvrir les besoins, dès lors qu’on aura un modèle d’affaires qui rémunère le stockage ». Et ceci sans parler des STEP littorales de François Lempérière (solution qui suscite un fort intérêt, notamment au Chili, ndlr).

[Fin de l’interview]

Les Pays-bas (NorNed) et le Danemark sont dès à présent reliés par câble HVDC sous-marin au réservoir hydroélectrique scandinave (norvégien en particulier). L’Allemagne et la Grande-Bretagne vont l’être. La France peut l’être aussi si nécessaire, mais il existe d’autres options disponibles, comme le montre l’étude Ademe.

Selon Steinar Bysveen, directeur général de Statkraft, le plus grand producteur européen d’énergies renouvelables et la première compagnie d´électricité en Norvège : « La Norvège dispose d’une abondante ressource hydroélectrique, avec 50% de la capacité européenne en réservoirs. L’hydro norvégien a fourni le back up nécessaire aux investissements éoliens au Danemark. Le même concept peut être utilisé en Allemagne, au Royaume-Uni et dans le reste de l’Europe. Passer à de hauts niveaux d’éolien dans ces pays requiert un système d’appoint. Nous pouvons le fournir grâce au pompage. Aujourd’hui, le niveau maximum d’hydroélectricité que nous pouvons délivrer est limité par le volume des précipitations pluvieuses ou neigeuses. Mais si nous pouvons pomper, alors nous pourrons délivrer tout ce que nous voulons. »

Pendant que les Français discutent, entre janvier et mars 2015 (3 mois) la Chine a ajouté autant de panneaux solaires que la France en un quart de siècle. En France le premier panneau solaire a été connecté au réseau électrique d’EDF en 1992, installé par l’association HESPUL sur une maison située à proximité du très contesté réacteur nucléaire Superphénix.

Les nouveaux panneaux chinois du premier trimestre 2015 produiront une quantité d’électricité équivalente à celle délivrée par un réacteur nucléaire…Que la France construit depuis 15 ans et qui entrera en service, au mieux, dans 3 ans. Soit un total de 18 ans. Presque un cinquième de siècle.

La mort chaude

Après-coup, Alain Marcadé écrit: « Je viens de me procurer le rapport de l’ADEME, je vais donc l’analyser pour argumenter au plus près de son contenu. D’ores et déjà, deux aspects me choquent : – la promotion qu’un média comme le vôtre fait à un document qui n’est pas abouti, de l’aveu même de leurs auteurs ». Ce qui est en réalité choquant, c’est que deux personnes, Rémy Prud’homme et Alain Marcadé, se soient permises de commenter un rapport qu’elles n’avaient même pas lu.

Alain Marcadé ajoute: « et le fait que vous répondez en méconnaissant des ordres de grandeur, caractéristique première pourtant du raisonnement d’un ingénieur : les rejets thermiques des centrales nucléaires (ou fossiles d’ailleurs) correspondent à des énergies infinitésimales par rapport à celles en jeu dans le réchauffement climatique ! ». Savoir lire, que l’on soit ou pas ingénieur, est utile dans un débat: il n’est absolument pas question de réchauffement climatique global mais de pollution thermique de l’eau et de l’air, à l’échelle locale. Il s’agit d’un problème très sérieux. « En effet, le réchauffement des lacs, des cours d’eau provoqué par le rejet des eaux de refroidissement des activités industrielles et des centrales électriques nucléaires peut grandement impacter les environnements aquatiques et leur biodiversité » (Suite ici). Dès 1974 Cédric Philibert alertait sur cette menace, dans un article intitulé « la mort chaude« .

Pour Alain Marcadé « le fait d’afficher de telles certitudes à des dirigeants imprégnés d’idéologie Verte ne peut que les conduire à « mettre la charrue avant les bœufs » et prendre des décisions sur des bases risquées qui pourraient plonger encore plus profondément notre pays dans la crise ». Face à la bérézina technique et financière de l’EPR ce commentaire politique est pour le moins osé. Le géant français EDF, lui, face aux déboires de l’EPR et à la chute impressionnante des coûts du solaro-éolien, semble entamer un changement de paradigme. EDF EN ouvre une filiale au Chili pour y construire de grandes centrales solaires. Le nouveau PDG du fleuron Français, Jean-Bernard Lévy, vient de publier le 21 avril dans Les Echos une tribune visionnaire où énergies renouvelables décentralisées, outils de stockage et smart-grids sont à l’honneur.

Mais sans doute que le PDG d’EDF, lui aussi, tout comme la silicon valley, est peu à peu « imprégné d’idéologie verte ».

Propos recueillis par Olivier Daniélo

En savoir plus :

Et aussi dans les
ressources documentaires :

La Chine peut produire 85% de son électricité avec les renouvelables dès 2050 (Etude gouvernementale)

L’Allemagne, première puissance économique et industrielle de l’Europe, a été le premier pays à publier, dès 2011, une étude scientifique approfondie démontrant par A+B que passer au 100% renouvelable est possible. Les USA (National Renewable Energy Laboratory) ont également publié une étude majeure en 2012 démontrant que la première puissance économique mondiale peut passer à 90% d’électricité EnR dès 2050. Le mois dernier une équipe d’universitaires a également publié une étude montrant que le Canada peut passer au 100% renouvelable.

En France, c’est grâce à la rédaction du journal indépendant Médiapart que l’étude « Vers une électricité 100% renouvelable en France » a pu, dès le 8 avril 2015, être rendue accessible aux Françaises et aux Français, c’est-à-dire à celles et ceux qui l’ont financée.

C’est à présent le tour du gouvernement chinois de publier une étude démontrant que la Chine peut passer à une électricité 85% renouvelable dès 2050 (dont 60 points de solaro-éolien). Le document indique également que 60% de l’énergie finale chinoise (y compris transports) pourra être d’origine renouvelable à cet horizon. « C’est faisable tant sur le plan technique qu’économique » expliquent les co-auteurs. Entre janvier et mars 2015 (3 mois) la Chine a ajouté autant de panneaux solaires que la France en un quart de siècle. Selon l’Agence Internationale de l’Energie la Chine va installer entre 2015 et 2020 une puissance solaire et éolienne de 180 GW, soit autant que le reste du monde depuis 40 ans. Le WWF vient de publier parallèlement une étude montrant que l’Australie peut passer au 100% renouvelables.

Une majorité d’experts estime que passer à 70% d’électricité d’origine renouvelables d’ici 15 ans est tout à fait possible. Selon l’Agence Internationale de l’Energie intégrer de hauts niveaux de solaro-éolien n’est pas un problème.

A l’échelle du monde entier Stanford University a publié des études d’importance majeure montrant que passer à un mix énergétique mondial 100% Wind Water Sun à horizon 2030 (y compris chaleur et transports) s’accompagnera de facto d’importantes économies d’énergie compte-tenu de l’efficacité intrinsèque de la Solar Electron Economy. L’une des clés de l’efficacité énergétique est l’électro-mobilité.

Les énergies de flux durables ont le potentiel de libérer l’humanité des énergies sales et épuisables

Le Journal de l’environnement (Valéry Laramée de Tannenberg ) pose le 21 avril 2015 une question intéressante : « Et si les énergies renouvelables pouvaient vraiment sauver le monde? ». La réponse théorique est OUI, tant sur le plan technique qu’économique. Les obstacles sont purement politiques.

En France, le géant  EDF, face aux déboires de l’EPR et à la chute impressionnante des coûts du solaro-éolien, semble entamer un changement de paradigme. EDF EN ouvre une filiale au Chili pour y construire de grandes centrales solaires. Le nouveau PDG du fleuron Français, Jean-Bernard Lévy vient de publier le 21 avril dans Les Echos une tribune visionnaire :

« La culture de l’innovation est consubstantielle à EDF. Cette culture nous a permis depuis sept décennies de nous imposer comme référence mondiale dans le modèle des productions et des réseaux hiérarchisés. Il nous revient désormais de capitaliser sur cet ADN pour aller encore plus loin et exceller également dans le nouveau modèle énergétique combinant production décentralisée et « smart grids » d’une part, réseau national d’autre part. C’est ainsi que l’on répondra aux évolutions majeures qui dictent notre quotidien et notre futur proche : foisonnement des applications numériques dans les bâtiments, les transports et les réseaux d’énergie, baisse des coûts d’investissement dans les énergies renouvelables et volatilité des matières premières induisant des « mix » énergétiques en évolution rapide ».

Allez la France !

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

La sonde Subglacior permettra de sélectionner les meilleurs sites pour forer la glace

La paléoclimatologie l’attend de pied ferme. La sonde Subglacior sera la première à pouvoir analyser la glace en temps réel pendant le forage. Equipée d’un spectromètre laser infra-rouge intégré au carottier, la sonde mesure la quantité de deutérium et de méthane présents dans la glace. Suffisant pour la dater et savoir si elle est assez ancienne pour intéresser la recherche. Les scientifiques n’ont d’yeux que pour la glace très vieille, âgée de plus de 800 000 ans. Certains rêvent même d’étudier de la glace vieille d’1.5 millions d’années pour en savoir plus sur les variations climatiques de l’époque et les modifications que cela a pu provoquer sur l’environnement. On sait qu’à cette âge, un changement climatique brutal a eu lieu, avec un régime de glaciation fréquents puisque qu’avec une période de 40 000 années. Les informations contenues dans la glace de cette période permettraient d’alimenter les modèles actuels et d’anticiper les conséquences du réchauffement climatique. Sauf que les sites hébergeant les glaces les plus anciennes sont rares, et les techniques actuelles se font à l’aveugle,  restent lentes et coûteuses. Grâce à la sonde Subglacior, les scientifiques sauront tout de suite si le site contient la glace tant convoitée, et pourront réaliser les carottages en moins de 3 mois… contre plusieurs années avec les outils existants ! 

L’efficacité de la sonde Subglacior repose sur la technologie innovante OFCEAS (Optical Feedback cavity Enhanced Absorption Spectroscopy) mis au point par le Laboratoire interdisciplinaire de physique de Grenoble. La sonde mesure 15m de long pour 12 cm de diamètre. La tête de forage chauffe la glace qui est ensuite vaporisée afin de pouvoir être analysée via le spectromètre. C’est ainsi que l’âge de la glace est connue en temps réel. 

Déjà testée dans l’eau, en Méditerranée, Subglacior va être à nouveau évaluée à Concordia où ses mesures seront confrontées à celles du forage Epica pour validation. Ce n’est qu’ensuite que Subglacior sera considérée opérationnelle et envoyée en missions 50 km plus loin sur un site recelant potentiellement de la glace très ancienne. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Comment transformer un cerveau de femme en cerveau d’homme ?

Les chercheurs de l’Université du Maryland ont réussi à doter une femelle rat d’un cerveau de mâle. Leurs travaux publiés sur Nature.com expliquent comment l’injection de l’enzyme ADN méthyltransférase (DNMTs) dans l’aire préoptique d’un rat, une zone du cerveau faisant partie de l’hypothalamus, permet de passer d’un cerveau femelle à un cerveau mâle.

Le cerveau d’un rat femelle et d’un rat mâle sont très différents. Ce dimorphisme est dû à la différence d’exposition du cerveau aux hormones mâles pendant le développement. On sait déjà que des rats mâles ayant été très peu exposés aux androgènes auront, une fois adultes, un comportement similaire aux rats femelles. Plus particulièrement, si on leur donne des hormones femelles, ils deviennent sexuellement réceptifs. Dans le cas de l’étude menée par Margaret McCarthy, l’injection de DNMTs sur des rats femelles a modifié leur aire préoptique pour la rendre comme celle d’un cerveau mâle, soit 5 fois plus grosse.

Cette modification cérébrale post-natale a permis d’analyser le processus de masculinisation. Les chercheurs ont ainsi découvert que des microglies, des cellules du cerveau servant à la défense immunitaire du système nerveux, jouent un rôle majeur en produisant de la prostaglandine.

Grâce à cette expérience, les scientifiques disposent d’une méthode pour modifier le sexe du cerveau des rats après leur naissance et non in utero, créant des rats sexuellement femelles mais avec un cerveau mâle.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un tribunal autorise le redémarrage de deux réacteurs dans le sud-ouest du Japon

Cette décision concerne les deux premières tranches atomiques du Japon susceptibles d’être relancées après avoir obtenu le certificat de sûreté technique de l’Autorité de régulation nucléaire, ainsi que le feu vert des élus locaux.

Si les plans de la compagnie exploitante, Kyushu Electric Power, se déroulent comme prévu, Sendai 1 et 2 – situés dans la préfecture de Kagoshima – pourraient être remis en exploitation dès cet été.

Actuellement, plus aucun des 48 réacteurs de l’archipel ne fonctionne (sans compter les six saccagés par l’accident de Fukushima en mars 2011).

La semaine dernière, un tribunal différent avait bloqué le redémarrage de deux autres unités, Takahama 3 et 4, au motif que les mesures parasismiques paraissaient insuffisantes.

« La décision concernant Takahama n’avait pas a priori de raison d’influencer celle de Sendai puisqu’il s’agit de juges différents censés instruire de façon indépendante », a souligné un expert du secteur préférant rester anonyme.

Dans le cas de Sendai, le tribunal a estimé « rationnels » les critères de sûreté sur lesquels s’est appuyée l’autorité nucléaire pour délivrer son certificat de conformité aux nouvelles normes.

Durcies après l’accident de Fukushima, elles prennent en théorie mieux en compte le risque de catastrophe naturelle et de situation critique subséquente.

Le jugement rendu mercredi pour Sendai va à coup sûr mettre en colère les organisations écologiques comme Greenpeace, mais faire plaisir au gouvernement pro-nucléaire du conservateur Shinzo Abe.

Le chef du gouvernement plaide depuis deux ans pour que « tous les réacteurs jugés sûrs par l’autorité nucléaires soient relancés », arguant que l’économie nippone a besoin de cette énergie.

Reste que les procédures traînent en longueur: pour l’heure seulement Sendai 1 et 2 et Takahama 3 et 4 ont reçu l’imprimatur du régulateur, et l’approbation des potentats locaux ne vaut que pour les deux premiers.

En outre, sur les 48 unités du pays, au moins cinq vont être démantelées, ce qui réduit d’autant le potentiel.

Si bien que, dans l’hypothèse d’une levée du blocage de la relance de Takahama 3 et 4, seuls quatre réacteurs seraient en mesure d’être remis en service d’ici à la fin d’année, la probabilité la plus élevée se limitant à deux, ceux de Sendai.

Néanmoins, l’Agence japonaise de l’Energie a estimé la semaine passée que même si tous les réacteurs nucléaires du Japon restaient à l’arrêt, il y aurait assez d’électricité pour passer l’été, période de pic à cause de l’usage intensif des climatiseurs.

D’après les calculs des autorités et sur la base des informations fournies par les compagnies, une marge de 3% à 12,1% entre la capacité de production et l’électricité effectivement consommée devrait exister en fonction des compagnies même au moment des pics. Le minimum requis est 3%.

Le Japon fait en effet tourner à plein régime ses centrales thermiques qui fournissent quelque 90% de son électricité, une proportion qui, selon le gouvernement, est la cause de la difficulté de réduire les émissions de gaz à effet de serre.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La traversée du Pacifique sera « un défi humain », prévient un pilote de Solar Impulse 2

L’appareil révolutionnaire a accompli mardi la sixième étape de son tour du monde, avec un vol de 17 heures en provenance de la mégapole de Chongqing, dans le sud-ouest de la Chine.

L’avion solaire doit rester une dizaine de jours à Nankin, le temps d’un check-up complet, avant d’affronter le Pacifique: cette prochaine étape durera cinq à six jours consécutifs de vol pour un seul pilote, chargé de rallier l’archipel américain d’Hawaï.

« On va faire face à un véritable défi humain », a reconnu M. Borschberg, depuis la Suisse où il se trouve actuellement en convalescence.

« La tentative de traverser le Pacifique constituera le grand défi du projet (de tour du monde) tout entier », a-t-il ajouté.

« Est-ce que nous pouvons imaginer un pilote durable? », à l’image de l’énergie solaire qui fait avancer l’avion, a enfin plaisanté M. Borschberg.

C’est lui qui assurera ce périple de 8.500 km. Son compatriote Bertrand Picard était pour sa part aux manettes pour l’étape entre Chongqing et Nankin.

« Enfin, nous y sommes parvenus, Solar Impulse est arrivé jusqu’ici! », s’est exclamé M Picard mercredi, lors d’une conférence de presse organisée dans l’ancienne capitale impériale.

L’avion, à l’envergure impressionnante de 72 mètres, ne devait initialement faire qu’une brève escale à Chongqing. Il y est finalement resté trois semaines, cloué au sol par des conditions météorologiques défavorables.

« André sera prêt d’ici à deux semaines pour sauter dans le cockpit et traverser le Pacifique jusqu’à Hawaï », a ajouté Bertrand Picard.

Deuxième pilote de l’avion solaire, André Borschberg a dû retourner temporairement en Suisse pour effectuer un contrôle médical en raison de migraines, mais sera de retour en Chine d’ici vendredi, selon un porte-parole de Solar Impulse.

L’intéressé a pour sa part précisé mercredi avoir également souffert d’un zona, ayant entraîné de douloureuses irritations de la peau.

Doté d’ailes tapissées de plus de 17.000 cellules photovoltaïques, Solar Impulse 2 est parti le 9 mars d’Abou Dhabi (Emirats arabes unis). Il a fait escale au sultanat d’Oman, en Inde, en Birmanie, puis en Chine.

Au total, l’appareil parcourra 35.000 kilomètres, à une vitesse relativement modeste (entre 50 et 100 km/h). Cette circonvolution, à 8.500 mètres d’altitude au maximum, était prévue au départ pour durer cinq mois, dont 25 jours de vol effectif.

Par Bill SAVADOVE

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le manager français vu par ses collègues étrangers

Perfectionniste

« Les managers français sont appréciés pour leur habileté dans le maniement des concepts et l’analyse en profondeur de problèmes complexes, constate Yasmina Jaïdi, co-auteur de la recherche encore en cours et maître de conférences à l’université Panthéon-Assas. Ils examinent un problème sous tous les angles, car ils ne veulent pas prendre trop de risques. C’est aussi une preuve de leur engagement et de leur perfectionnisme. Ils veulent bien faire. »

Accessible

Les managers français s’avèrent « très accessibles, humains et particulièrement à l’aise dans la relation individuelle, note la chercheuse, mais pas très tournés vers le collectif. »

Chauvin

Cocorico ! Les managers français restent les ambassadeurs du savoir-vivre à la française. « Avec les Français, tout s’arrête pour le déjeuner, peu importe ce qui peut arriver. Jamais tu ne verras un manager français avec une lunch-box ! », s’exclame l’un d’entre eux. « Ils sont très attachés à ce qui fait la culture française, explique Yasmina Jaïd, et les repas longs en font parties. Mais il se passe plein de choses lors de ces repas, ce qui échappe totalement aux managers allemands ou anglais, pour qui c’est surtout une perte de temps ! »

Individualistes

Malheureusement, les cadres français n’ont pas que des qualités. « Certains managers français ont tendance à mettre en avant leur propre carrière au lieu de penser collectif », déplore un manager norvégien.

Petit chef

Autre défaut : les managers français sont perçus comme autocratiques. « L’accessibilité du manager français atteint des limites lorsqu’il s’agit de trancher et de décider, illustre Yasmina Jaïdi. Dans ce cas, les cartes restent dans ses mains. Ils sont ouverts à la discussion mais c’est eux qui décident et ont le dernier. »

Elitiste

Les diplômes comptent, aujourd’hui encore, plus que la performance effective du manager français dans son évolution de carrière, même s’il s’avère de plus en plus attentif à la performance de ses équipes pour les évaluer. « Les étrangers ne comprennent pas toujours qu’on parle encore de l’école qu’on a fait alors qu’on a 20 ans d’expérience », ajoute Yasmina Jaïdi.

Informel

Dans les entreprises françaises, « beaucoup de choses se passent encore en dehors des salles de réunion. Les décisions sont prises à la machine à café ou dans les couloirs, de façon très informelle, constate Yasmina Jaïdi. Avec les managers français, certaines décisions sont prises dans des endroits inattendus, ce n’est pas aussi structuré que dans d’autre pays. »

Pour aller plus loin : une cartographie des différences entre les cultures de management. 

Et une vidéo : 

Par Elodie Buzaud

Source : cadremploi.fr
premier site emploi privé pour les cadres et les dirigeants en France

L’ESA s’associe à la NASA pour crasher un vaisseau contre un astéroïde

La NASA s’intéresse de près aux astéroïdes. Après avoir travaillé à améliorer son logiciel de détection allant jusqu’à solliciter l’aide d’informaticiens amateurs, voilà qu’elle s’associe à l’ESA (Agence Spatiale Européenne) pour savoir s’il est crédible de dévier un astéroïde en le percutant avec un vaisseau spatial. Ensemble, les deux agences s’engagent dans la mission AIDA (Asteroid impact & deflection assesment).

Le projet se déroulera en deux temps. Tout d’abord, l’ESA va lancer le satellite AIM (Asteroid impact mission) dès la fin de l’année 2020. Son rôle sera celui de l’observateur. Placé dans l’environnement de l’astéroïde Didymos, le satellite européen mesurera différents paramètres avant et après la collision. Les données recueillies permettront d’étudier le comportement de l’astéroïde percuté à grande échelle et aidera les scientifiques à calibrer les appareils pour des expériences en laboratoire.

AIM bénéficiera de deux années pour observer et cartographier Didymos. Cet astéroïde binaire est composé d’une masse de 800m de diamètre autour de laquelle gravite un objet céleste de taille plus modeste avec 170m de diamètre. C’est lui que la NASA et l’ESA visent. En 2022, la NASA enverra DART (Double asteroid redirection test) en mission suicide. Ce vaisseau américain ira s’écraser contre Didymos lorsque celui-ci s’approchera à 11 millions de km de la Terre. DART percutera Didymos avec une vitesse de 6km/s. Les scientifiques espèrent réussir à modifier la vélocité orbitale de 1%, une variation qui pourrait se révéler suffisante pour dévier un astéroïde menaçant de s’écraser sur la Terre.

En effet, si Didymos n’est pas un danger pour la planète bleue puisque sa trajectoire ne le dirige pas sur nous, d’autres astéroïdes de taille équivalente ou plus importante pourraient un jour croiser la trajectoire terrestre. Un scénario catastrophe dont souhaite se prémunir la NASA et l’ESA. Ce test grandeur nature est le premier à s’intéresser à la possibilité de dévier un astéroïde de sa trajectoire en le frappant avec une cible. Un moyen de défense qui pourrait peut-être se révéler salvateur dans le futur.

Par Audrey Loubens

 

IMSI Catcher : ces “valises espionnes” peuvent écouter vos appels

Le nouveau texte de loi relatif au renseignement a déjà fait couler beaucoup d’encre. Face à la menace terroriste, le gouvernement prévoit de généraliser la surveillance des communications, et pour cela, d’utiliser en masse des outils capable de les capter.

Parmi ces outils, l’IMSI Catcher. Déjà très utilisé par les services de renseignement et les polices de nombreux pays du monde, des USA au Bengladesh, pour surveiller des suspects, ce type d’appareil devrait être légalisé en France – actuellement, il s’agit d’une pratique interdite.

Un intercepteur d’appels

Mais qu’est-ce qu’un IMSI Catcher ? Pour faire simple, il s’agit d’un émetteur mobile, souvent dissimulé dans une valise, qui se fait passer pour une antenne-relais téléphonique. Les mobiles alentour s’y connectent, au lieu de se connecter à une antenne “officielle”, mais les utilisateurs ne s’en rendent pas compte, car la communication est ensuite “renvoyée” vers de vraies stations de base.

Une fois connecté à cette fausse antenne-relais, le téléphone transmet à l’appareil (qui coûte, peu ou prou, 375 000 euros) ses identifiants d’abonnés, contenus dans la carte SIM – dont son IMSI (International Mobile Subscriber Identity), un numéro d’identification unique, qui permet d’identifier l’utilisateur sur un réseau de téléphonie. Cette méthode était à l’origine utilisée par des pirates informatiques, mais depuis plusieurs années, les agences de renseignement l’ont reprise pour localiser une cible (par triangulation entre trois appareils similaires), capter ses données ainsi que ses communications (SMS, appels) et écouter ces dernières.

Un filet dans la mer

Pour être efficace, l’IMSI Catcher doit être mobile : son utilisateur doit ainsi, en pratique, se déplacer avec, notamment dans une malette, autour du lieu où les cibles visées sont supposées se trouver. Il s’agit, en fait d’une sorte de “filet” jeté à la mer, attrapant de nombreux poissons – ceux l’ayant lancé espérant attraper les plus gros spécimen. Problème : quid, comme le dénonce la Quadrature du Net, des données personnelles de personnes n’ayant “rien à se reprocher”, et captées par l’IMSI Catcher, dans sa quête de suspects ?

Utilisé aux Etats-Unis par le FBI, via un boitier appellé le “Stingray”, dissimulé dans une camionnette, et en Grande-Bretagne par la Metropolitan Police, ce système “clandestin” permet aux policiers de capter tous les codes IMSI situés dans des zones ciblées, pouvant aller jusqu’à 500 mètres carré.

Ainsi, en 2010, pendant les émeutes de Londres, la police de la capitale britannique a utilisé des IMSI Catchers pour suivre, à leur insu, les mouvements de suspects en temps réel, écouter les conversations des manifestants, et même éteindre les mobiles à distance en effectuant des attaques de type DDOS – technique officiellement utilisée pour empêcher le déclenchement d’une bombe via un mobile. A noter qu’à Kiev aussi, en janvier 2014, pendant les émeutes ukrainiennes, la police aurait discrètement capté les codes IMSI des manifestants, disposant ainsi d’une liste nominative de personnes à surveiller dorénavant de près.

Une faille exploitée et permise par la 2G

A Sciences et Avenir, Ranga Krishnan, spécialiste des technologies mobiles à l’EFF (Electronic Frontier Foundation), ONG de protection des libertés numériques, indique que l’IMSI Catcher exploite une faille de sécurité grâce à la 2G (norme GSM). “Les téléphones 3G peuvent savoir à quelle antenne ils sont connectés, ce qui n’est pas le cas avec la 2G. Or, quelle que soit leur génération, tous les téléphones basculent en 2G si la seule antenne disponible à proximité utilise cette technologie ancienne », explique l’expert.

Rassurez-vous, la future loi de renseignement prévoit tout de même un certain cadre pour l’utilisation de ces appareils : les espions devront ainsi obtenir l’aval d’une “commission de contrôle” avant de pouvoir “pister” des suspects – et vous, peut-être, dans le lot.

A la chasse aux IMSI Catchers

Il reste possible de détecter ces intercepteurs d’appels GSM. Car bien que discrets, des outils permettent de détecter des “anomalies” dans les communications. SnoopSnitch, développée par le spécialiste en sécurité Karsten Nohl, est une application Android qui surveille les moments où votre téléphone “négocie” avec une antenne-relais inconnue, ou possédant un faible cryptage. D’autres applications, comme AIMSICD (Android IMSI Catcher Detector) inspectent la force du signal réseau et vérifient si cette force est cohérente avec l’éloignement des antennes-relais connues à proximité.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Le pétrole monte en Asie

Le prix du baril de « light sweet crude » (WTI) pour livraison en mai, contrat de référence jusqu’à mardi, prenait 78 cents, à 56,52 dollars tandis que le baril de Brent pour livraison en juin augmentait de 77 cents, à 64,22 dollars.

La Chine a annoncé dimanche une réduction du ratio de réserves obligatoires des banques dans le but d’injecter plus de liquidités dans le système et soutenir une croissance en perte de vitesse dans la deuxième économie mondiale.

Cette annonce « est perçue comme une véritable mesure de soutien » à l’économie et « les opérateurs pétroliers y réagissent fortement », relevait Michael McCarthy de CMC Markets à Sydney, interrogé par Bloomberg. « La réduction du nombre de puits (de forage aux Etats-Unis et un recul modéré de la production aux Etats-Unis contribuent également » à la tendance, selon lui.

Après six mois de fermetures de puits, la production américaine commence à refluer et l’annonce la semaine dernière d’une baisse minime de la production, de 20.000 barils par jour, avait suffi à provoquer une envolée des cours du WTI de presque 6%, qui s’était maintenue jeudi. Le nombre de puits de forage en activité aux Etats-Unis est le plus faible depuis novembre 2010.

Au total, les cours de l’or noir, qui ont perdu plus de 50% de leur valeur depuis juin 2014, ont rebondi de 30% depuis leur niveau plancher de mars.

La reprise est néanmoins freinée par la hausse continue des réserves de brut aux Etats-Unis, le refus de l’Organisation des pays exportateurs de pétrole (Opep) de réduire sinon stabiliser sa production, et la perspective d’un afflux de pétrole iranien en cas d’accord avec les grandes puissances sur son programme nucléaire.

L’Opep a indiqué que le mois dernier, sa production avait augmenté de 810.000 barils par jour (bj) pour atteindre 30,79 mbj en moyenne, dépassant à nouveau les quotas du cartel.

Et le cartel « est peu susceptible de baisser sa production à court terme » du moins pas avant sa réunion de juin à Vienne, notait David Lennox de Fat Prophets.

Même aux Etats-Unis, selon l’Institut américain du pétrole (API), la production américaine a atteint en mars 9,32 mbj, le niveau le plus haut depuis 42 ans, en augmentation de 13% sur un an.

Le « light sweet crude » avait terminé la semaine dernière en baisse de 97 cents, à 55,74 dollars sur le New York Mercantile Exchange (Nymex). A Londres, le Brent avait fini en baisse de 53 cents, s’établissant à 63,45 dollars sur l’Intercontinental Exchange (ICE).

bur-gab/mf

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une ville au beau milieu de l’océan prévue à l’horizon 2030

Alors que l’on peut voir presque quotidiennement fleurir l’internet de nouvelles photos et données concernant l’Univers que nous transmettent bien volontiers la Nasa et autres organismes se consacrant à l’observation de l’espace, il n’en va pas de même pour tout ce qui touche les océans; ces vastes territoires finalement assez méconnus et sous-exploités.

C’est une des raisons pour laquelle ce projet de « coloniser » un espace maritime est si atypique. Ça et les chiffres hallucinants associés à Ocean Spiral, cette potentielle « ville bulle » futuriste bâtie sur et sous la mer. Car l’ambition de Shimizu Corporation est hors normes.

Si elle voit le jour, cette sorte d’Atlantide, accueillera quelques 4 000 résidents permanents et 1 000 visiteurs dans une sphère transparente de 500 mètres de diamètre située à la surface de la mer, mais qui pourra, au besoin, descendre s’abriter sous l’eau. Pour se protéger des catastrophes naturelles, par exemple, telles que les tremblements de terre ou les tsunamis. Pour ce faire, elle pourra coulisser le long de la structure qui la soutient, une espèce de spirale, jusqu’à 4 000 mètres de profondeur.

À l’intérieur du globe, on retrouvera des logements (hôtels, appartements…), des commerces, des bureaux et le nécessaire pour répondre aux besoins de ces occupants (centres sportifs, cinéma…). Une petite ville quoi!

La production d’électricité pourrait en partie être assurée par une usine établie dans le fond de l’océan, vraisemblablement au pied de la structure, capable de transformer le dioxyde de carbone en méthane grâce aux micro-organismes appelés méthanogènes. Les ingénieurs comptent également utiliser l’énergie thermique des mers (ETM) produite par la différence de température entre le fond de la mer et la surface.

Les plans seraient déjà conçus. Les ingénieurs de Shimizu travailleraient dessus conjointement avec l’Université de Tokyo et l’Agence Japonaise pour les Sciences et Technologies Maritimes (JAMSTEC) entre autres depuis deux ans. Les prévisions tableraient sur une mise en chantier à l’horizon 2030; au moment où la technologie devrait être au niveau pour relever ce défi. La construction est ensuite censée durer cinq ans.

Ocean Spiral coûterait la bagatelle de 20 milliards d’euros. Ce qui, même pour Shimizu, l’un des plus grands acteurs du BTP japonais et mondial, reste une très grosse somme à mettre sur la table.

Par Sébastien Tribot 

Japon : une hôtesse androïde dans un grand magasin

Conçue par Toshiba, cette nouvelle créature humanoïde vêtue d’un kimono traditionnel est censée à terme pouvoir remplacer une hôtesse d’accueil derrière un comptoir de la prestigieuse enseigne Mitsukoshi dans le quartier de Nihonbashi à Tokyo.

« Mon nom est ChihiraAico », dit-elle en hochant la tête et clignant des yeux.

« Je vais vous chanter une chanson » ou bien « une foire au yukata (kimono d’été) se tient actuellement à l’étage des vêtements », sont quelques-unes des phrases qu’elle énonce au chaland interloqué.

Après une première présentation l’an passé lors d’un salon technologique au Japon, cette énième humanoïde nippone a fait une apparition en janvier aux États-Unis, mais c’est la première fois qu’elle se montre à des clients d’un magasin.

« Nous ambitionnons de développer un robot qui puisse progressivement prendre le rôle d’un être humain », a expliqué Hitoshi Tokuda, un des responsables de Toshiba.

« L’installer chez Mitsukoshi, qui représente le nec plus ultra de l’hospitalité japonaise, est une excellente occasion de voir quel rôle notre humanoïde pourrait jouer dans un tel environnement », a-t-il ajouté.

En la matière, ChihiraAico a encore beaucoup à apprendre, car en l’état elle ne sait pas entretenir une conversation avec un humain.

oh-kap/jh

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les maires demandent des aides pour le «zéro pesticides» en 2017

Le projet de loi relatif à la transition énergétique pour la croissance verte sera examiné en deuxième lecture en séance plénière à l’Assemblée nationale à partir du 19 mai. Tel que présent actuellement dans le texte, l’article 18bis prévoit de renforcer la loi Labbé n° 2014-110 du 6 février 2014. La loi Labbé prévoyait l’interdiction des produits phytosanitaires fin 2020 pour « l’entretien des espaces verts, des forêts ou des promenades accessibles ou ouverts au public et relevant de leur domaine public ou privé». L’article 18bis élargit cette interdiction aux voiries et avance l’interdiction de fin 2020 au 31 décembre 2016. 

« L’adaptation à l’extension du champ d’application de la loi Labbé à la voirie, ainsi que la célérité de son application nécessitent des budgets d’investissement à la fois en matériel et en formation que n’auront pas le temps de faire les communes en moins d’un an ! », estime l’association des Eco Maires. Guy Geoffroy, Président de l’association, se félicite néanmoins des mesures d’encadrement des usages des produits phytosanitaires prises pour les personnes publiques, « nécessaire au regard des risques pour la santé à la fois des usagers mais aussi des professionnels ».

Pour prouver ses craintes, l’association a fait réaliser à Harris Interactive une enquête téléphonique du 30 mars au 7 avril 2015 auprès d’un échantillon de 404 élus représentatif des maires de communes françaises. S’ils sont 79 % à considèrer l’objectif « zéro pesticide » comme une mesure nécessaire, 80 % craignent les contraintes supplémentaires qu’il va apporter, notamment en termes financiers. Plus la commune est petite, plus les craintes sont importantes. Ainsi, 57 % des maires de communes de moins de 1 000 habitants estiment qu’atteindre zéro pesticides coûtera trop cher à la commune, en raison du financement important des équipements nécessaires pour y parvenir. 

En résumé, l’association est pour cette interdiction, mais demande des aides pour qu’elle ne soit pas une charge insurmontable pour les collectivités. Elle interpelle donc le ministère de l’Ecologie pour qu’il lance un appels à projet afin d’équiper les plus petites communes de matériels performants. « Des solutions basées sur des aides et des incitations seront nécessaires pour permettre une transition, de façon à ce qu’en 2020 toutes les communes de France, quelle que soit leur taille, aient pu réellement mettre en place les dispositions nouvelles d’interdiction de recours aux produits phytosanitaires », prévient-elle.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les biocarburants de première génération limités ?

L’Europe veut avancer sur la question des biocarburants de première génération, car la question traîne depuis de nombreuses années. La commission de l’environnement a voté l’accord conclu par les législateurs « prévoyant de plafonner la production de biocarburants traditionnels et d’accélérer le passage à d’autres sources, comme certains types de déchets, des résidus et de nouvelles sources comme les algues», fait savoir le Parlement européen dans un communiqué. 

La Commission européenne avait proposé en octobre 2012 de réduire cette part à 5 % en 2020. Le compromis approuvé le 14 avril prévoit que les biocarburants de première génération « ne devraient pas dépasser 7% de la consommation énergétique finale dans les transports d’ici 2020 ». Le texte de l’accord sera soumis à un vote en plénière lors de la session plénière du 27 au 30 avril à Strasbourg. Les États membres devront adopter la législation d’ici 2017.

Prendre à bras le corps la question du CIAS

La question du changement indirect de l’affectation des sols (CIAS) agite les débats depuis longtemps. Car le recours aux terres agricoles pour produire des cultures de biocarburants a des conséquences indirectes : il réduit la superficie disponible pour les cultures vivrières et augmente la pression pour mettre en culture de nouvelles terres, par exemple par déforestation ou mise en culture de prairies. Ce changement d’affectation des sols provoque de nouvelles émissions de gaz à effet de serre, ce qui peut annuler en partie ou complètement les effets bénéfiques de l’utilisation de biocarburants. La Commission veut donc savoir à quel point le CIAS affecte la réduction des émissions de gaz à effet de serre liés à l’utilisation de biocarburants par rapport aux combustibles fossiles. 

La Commission européenne demande aux fournisseurs de carburant d’étudier et de rapporter « aux pays de l’UE et à la Commission du niveau estimé des émissions causées par la libération de plus de terres pour produire les cultures vivrières nécessaires au moment où les terres sont passées à la production de biocarburants», précise le Parlement. La Commission estimera alors les émissions liées au CIAS. « Plus tard, la Commission devrait aviser le Parlement européen et le Conseil, en se basant sur les meilleures données scientifiques disponibles, à propos de la possibilité d’inclure des facteurs d’émission CIAS parmi les critères de durabilité existants », ajoute le communiqué. 

Si la directive est votée, les Etats membres auront 18 mois pour fixer un objectif national de développement des biocarburants avancés pour 2020. « Le projet législatif prévoit un objectif indicatif de 0,5 % pour la part d’énergie devant être produite à partir de biocarburants avancés comme un pourcentage de l’énergie provenant de sources renouvelables dans toutes les formes de transport d’ici 2020 », prévient le communiqué. Mais les Etats pourront fixer un objectif inférieur « pour certains motifs, tel qu’un potentiel limité pour la production, des contraintes techniques ou climatiques, ou l’existence de politiques nationales qui consacrent déjà un financement adapté à des mesures d’incitation en vue de renforcer l’efficacité énergétique et le transport électrique». Certains pays misent en effet déjà sur la mobilité électrique, d’autres sur le bioGNV ou l’hydrogène obtenu à partir de l’électrolyse de l’eau, pour atteindre ces objectifs. 

Les biocarburants de première génération sont obtenus par transformation de cultures produites sur des terres agricoles. L’Europe veut depuis longtemps limiter leur part dans les objectifs de développement des énergies renouvelables dans les transports d’ici 2020. Dès 2008, le Parlement a demandé à ce que le facteur de changement d’affectation des sols (CIAS) soit pris en compte dans la politique des biocarburants de l’UE. Depuis, ces biocarburants ont reçu jusqu’à 10 milliards d’euros par an de subventions publiques.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Anomalie de cuve : l’avenir de l’EPR menacé ?

Les calottes du couvercle et du fond de cuve de l’EPR de Flamanville ont été fabriquées par Creusot Forge, filiale du groupe Areva. Areva vient de déclarer à l’ASN une anomalie de fabrication portant sur ces pièces. « Ces zones présentent des anomalies d’homogénéité et on a des zones de faible résistance mécanique intrasèque des matériaux, assez nettement plus faibles que la référence qui est dans la réglementation», explique Pierre-Franck Chevet, Président de l’ASN. La réglementation fait référence à une valeur de résilience – la capacité d’un matériau à résister à un choc mécanique et à la propagation de fissures – de 60 Joules (J). Les valeurs mesurées par Areva sont situées entre 36 J et 64 J, pour une moyenne de 52 J. Cela est dû à une teneur en carbone de l’acier plus éleée que prévue (0,30% pour une valeur visée de 0,22%).

« Le jugement que l’on porte sur cette anomalie, c’est que c’est une anomalie sérieuse, voire très sérieuse, qui, en plus, intervient sur un composant crucial en termes de sûreté, prévient Pierre-Franck Chevet. La cuve, qui pèse 425 tonnes et mesure 11 mètres contient en effet le coeur du réacteur et sert de deuxième barrière de confinement aux éléments radioactifs.« Areva va faire des propositions d’essais sur des matériaux similaires pour essayer de démontrer qu’éventuellement ça peut passer », prévient le Président de l’ASN.

La réglementation prévoit une échappatoire

Si la réglementation relative aux équipements sous pression nucléaires impose que les propriétés du matériau soient supérieures à des valeurs minimales définies par décret, un fabricant peut choisir de ne pas respecter ces valeurs minimales, s’il justifie de la mise en oeuvre de dispositions permettant d’obtenir un niveau de sécurité global équivalent. Areva entame donc des tests complémentaires pour démontrer que le matériau de la cuve peut se déformer sans se rompre et résister à la propagation d’une fissure sous contrainte mécanique. L’entreprise devra définir précisément la localisation de la zone concernée, ainsi que ses propriétés mécaniques et transmettre son dossier d’essais à l’ASN. L’ASN instruira ce dossier, avec l’IRSN et le Groupe permanent d’experts dédié aux équipements sous pression nucléaires. Ces résultats sont attentus pour le mois d’octoobre, selon le ministère de l’écologie. 

Les tests ne pouvant pas se faire directement sur la cuve du réacteur de l’EPR de Flamanville, des essais destructifs complémentaires de traction et de résilience vont être réalisés sur la calotte supérieure d’une cuve similaire réalisée dans les mêmes ateliers de Creusot Forge, selon le même procédé. Les experts devront donc être convaincus de la reproductibilité du procédé de fabrication de Creusot Forge et s’assurer qu’il n’y a pas de risque de fissuration. Le Président de l’ASN reste très prudent. « [La résilience] est un indicateur de qualité de matériau. Effectivement, il n’est pas atteint. Mais ce n’est pas parce que l’on n’atteint pas ce critère qui est parfait, que c’est inacceptable. Je ne dis pas non plus que c’est acceptable», indique-t-il. Car la qualité d’un matériau est définie par bien d’autres critères. Les essais complémentaires devront dire si cela est acceptable ou non.

Un enjeu énorme pour Areva

Si le dossier d’Areva n’est pas accepté par l’ASN, il lui faudra remplacer la cuve. Les travaux étant déjà assez avancés – les boucles primaires et un des générateurs de vapeur de l’EPR de Flamanville ont déjà été soudés à la cuve -, cela lui sera très coûteux et difficile à réaliser, voire peut-être impossible. Cette éventualité est inquiétante pour Areva et EDF, étant donné la situation financière actuelle très difficile d’Areva, et les surcoûts déjà observés sur ce prototype.

Mais les perspectives négatives ne s’arrêtent pas là. Si les essais complémentaires ne convainquent pas l’ASN, les deux autres EPR en construction à Taishan en Chine, seraient menacés, car certaines calottes de leurs cuves ont aussi été forgées par Creusot Forge, selon un procédé similaire. Ce n’est pas le cas de celui d’Olkiluoto en Finlande, la cuve provenant d’un autre fournisseur japonais.

EDF a transmis à l’ASN l’autorisation de mise en service de l’EPR de Flamanville il y a quelques semaines. Le dossier de près de 40 000 pages sera instruit par ses experts. Outre le dossier en question, l’autorisation de mise en service ou non, d’ici 2017 au plus tôt, sera soumise aux résultats des tests portant sur la cuve. 

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Climat ou business, un choix qui rend les entreprises schizophrènes

Elles disent être engagées pour la lutte contre le changement climatique, et le répètent à longueur de publicité et de rapports annuels. Mais dans le même temps, de nombreuses entreprises européennes unissent leurs forces au sein de structures de lobbying dont les visées sur le changement climatique s’avèrent opposées.

Le Policy Studies Institute, de l’université de Westminster, s’est penché sur ce paradoxe, au travers d’un rapport publié le 30 mars.

Il ressort que 77 % des 500 plus grosses sociétés dans le monde sont membres de lobbys intéressés par le changement climatique. Au sein de ces groupes d’intérêt, les industries gourmandes en énergie, les lobbys des énergies fossiles ainsi que Business Europe, le Medef européen, tentent d’affaiblir le marché européen du carbone, mais aussi les mesures d’efficacité énergétique ou le soutien aux énergies renouvelables.

Ainsi, Business Europe a tenté de s’opposer aux projets de ranimation du marché du carbone ou backloading, comme le montre ce communiqué, plaidant pour une refonte plus profonde et donc plus longue du système.

Parmi les entreprises prises entre deux chaises, on retrouve aussi BASF ou Solvay : les deux entreprises de chimie membres du groupement défendant les intérêts de la chimie, le CEFIC sont tiraillés entre plusieurs impératifs. Avoir accès à une énergie moins chère est crucial pour ces industries très gourmandes en énergie ; la chimie penche milite donc pour l’exploitation du gaz de schiste. Les groupes de chimie se disent par ailleurs de fervents acteurs de la lutte contre le changement climatique.

Dans une réponse à la Commission sur ses propositions de paquet climat, CEFIC proposait ainsi une approche « réaliste » à la question du changement climatique, dont l’ambition soit conditionnée au partage de l’effort avec les autres économies occidentales.

Solvay et BASF sont par ailleurs membres du World Business Council for Sustainable Development, une organisation destinée à encourage les initiatives pour l’environnement.

Contactés par EurActiv, ni Business Europe ni Cefic n’ont répondu sur ce sujet.

Des modes d’influence bien huilés

L’institut s’est aussi penché sur les modes d’influence des lobbyistes. Selon le rapport, un « lobbying efficace peut représenter l’impact le plus important qu’une société aura sur le climat », en positif ou en négatif. Ainsi en 2013, l’industrie chimique avait réuni ses PDG pour rencontrer le commissaire européen au climat, et lui expliquer que l’objectif de réduction des émissions de CO2 de – 30 % d’ici 2030 accélérerait la désindustrialisation du continent. Des termes qui ont été repris par Gunther Oettinger, qui était à l’époque commissaire à l’énergie, quelques jours plus tard.

Les groupes d’intérêt ont aussi recours à leurs membres qu’ils mandatent pour rencontrer les eurodéputés en local, ce qui influence leur position. Même si tous les eurodéputés n’ont pas le même poids sur les questions climatiques. Selon un lobbyiste cité dans le rapport, seulement un dixième des eurodéputés connaît vraiment les enjeux, et sur ce lot seuls un tiers ont une réelle influence.

Des conflits d’intérêts plus ou moins gérés

Plusieurs sociétés, sensibles aux paradoxes de leurs soutiens, se sont récemment retirées d’organisations peu motivées par l’environnement. A l’automne, Microsoft, Google, Yahoo puis Facebook se sont retirés de l’American Legislative Exchange Council (ALEC), qui est ouvertement opposé aux énergies renouvelables. De même, Unilever a quitté BASF en aout 2014, en raison de son positionnement sur les questions environnementales.

Responsabilité des politiques

Ce conflit d’intérêt perpétuel ne s’arrête pas aux portes des entreprises. La nouvelle Commission européenne est elle-même en proie aux mêmes paradoxes dans son projet d’Union de l’Energie.

Un programme censé concilier trois objectifs : réduction des émissions de CO2, compétitivité des entreprises et sécurité d’approvisionnement. Trois projets a priori contradictoires. Le premier plaide pour le recours aux énergies renouvelables, le second pour le charbon, et le troisième pour des investissements massifs dans des gazoducs. Le malaise des entreprises par rapport au climat reflète aussi le manque de hiérarchie dans les priorités politiques de l’UE entre ces trois contraintes.

Source : Euractiv

Les Cnil européennes se penchent sur les pratiques de Facebook

Facebook et sa politique de confidentialité sont sur la sellette. « Il y a une action collective concertée entre cinq autorités européennes, la France, la Belgique, l’Allemagne les Pays-Bas et l’Espagne qui vont coordonner des actions nationales […] sous la responsabilité des Pays-Bas », a expliqué Isabelle Falque-Pierrotin, la présidente de la Cnil au cours de la présentation du bilan annuel de l’autorité de protection des données.

« Le périmètre d’action de chacune n’est pas forcément le même », a-t-elle précisé, « mais pour la plupart c’est la privacy policy [la politique de confidentialité, NDLR] de Facebook qui est au cœur des débats. »

Les autorités de protection des données pourraient notamment d’intéresser au croisement des données entre plusieurs applications, comme Instagram ou Whatsapp.

Le processus qui « vient de commencer » s’inspirera de celui déjà mené à l’encontre de Google, a précisé Mme Falque-Pierrotin.

« Ce processus a marché et a montré que quand l’Europe parle d’une voie unique […] elle a une capacité de négociations avec les grands acteurs mondiaux », a-t-elle souligné.

Après plusieurs sanctions prononcées par des autorités européennes de protection des données contre Google, le géant américain a décidé de fusionner en 2012 les règles de confidentialité applicables à une soixantaine de ses services.

Sur Facebook, « la conclusion que nous en avons tirée c’est qu’il était absolument nécessaire d’avoir un groupe de travail commun et d’échanger ensemble des informations », a souligné Isabelle Falque-Pierrotin.

La responsable n’a pas souhaité commenter l’accusation d’abus de position dominante dans la recherche sur internet prononcée mercredi à l’encontre de Google par la Commission européenne.

Cependant, elle a noté que « la nouvelle politique de privacy de Google qui permet une combinaison extrêmement forte et transversale de données entre tous les services de Google alimente une rente informationnelle de cette société exceptionnelle ». « Ce n’est pas nécessairement un abus de position dominante, mais on voit bien que les pratiques en matière de privacy permettent de constituer un gisement de données d’une qualité tout à fait remarquable », a-t-elle observé.

Source : EurActiv France avec l’AFP

Et aussi dans les
ressources documentaires :

La photo de la semaine #6

Vous avez été nombreux à trouver la réponse à la photo de la semaine #5 qui représentait… Une couche mince d’un semi-conducteur capable de capter l’énergie solaire pour la transformer (Photo de Eberhardt Josué, Friedrich Kernahan, and Enrique Rodríguez Cañas, Wellcome Images).

Bravo donc à Arnaud.Q, Frédéric.M et Bertrand.R !

Place donc à la photo de la semaine #6 ! Cette semaine, à vous de découvrir ce qui se cache sur cette image.

Bonne chance !

Un indice : la photo a été prise d’un satellite.

  • Mais qu’est-ce donc ?

photo de la semaine

Publiez vos propositions dans la zone « commentaires » ci-dessous.

  • La réponse sera donnée la semaine prochaine dans l’article La photo de la semaine #7

Les robots, danger ou opportunité ?

La polémique est née dans la Silicon Valley où de grandes entreprises telles que Google et Facebook investissent énormément dans des projets liés à l’intelligence artificielle (IA). Google a notamment embauché Ray Kurzweil, un grand entrepreneur connu pour ses visions très positivistes et optimistes de l’IA. « Il défend une vision extrêmement positiviste et assez utopique de l’IA qui irait jusqu’à nous libérer de la chair et nous promet une immortalité », nous prévient Jean-Claude Heudin, Directeur de l’Institut de l’Internet du Multimédia et auteur du livre « Les 3 Lois de la Robotique, faut-il avoir peut des robots ?».

En réaction à cette vision optimiste, des personnalités telles que Stephen Hawking, puis Elon Musk et Bill Gates se sont récemment fait l’échos d’une contre-utopie, beaucoup plus pessimiste. L’IA toute puissante pourrait supplanter l’Homme, voire même faire disparaître l’humanité. Le grand public est particulièrement réceptif à ces craintes, suite aux films de science-fiction tels que Terminator, Matrix ou encore Transcendance.

Ces scénarios sont-ils réalistes ?

« Les gens qui s’expriment aujourd’hui sur le sujet ne sont pas des professionnels de l’IA », commente Jean-Claude Heudin. Lorsque l’on parle aux chercheurs dans le domaine, on se rend compte qu’on est très loin de créer une IA qui se révolterait. « On est capable d’avoir des IA qui sont extrêmement performantes et quelquefois plus performantes qu’un humain sur un point précis, mais on est incapable d’avoir une intelligence artificielle généraliste, douée de volonté, encore moins de conscience et qui serait capable d’apprendre par elle-même», affirme Jean-Claude Heudin. « On ne sait même pas si un jour on y arrivera », prévient-il. Le cerveau est en effet un substrat organique incroyablement complexe, alors que les programmes et architectures utilisés en robotique restent relativement simples.

Le robot ne ressent rien et n’a pas de conscience au sens humain du terme, on ne peut tout que lui permettre de simuler des émotions. « La conscience primaire, c’est avoir conscience de son corps dans l’environnement. Comparativement, les robots ont très peu de capteurs internes, donc ils n’ont pas la structure de base qui leur permettrait ne serait-ce que d’avoir un « embryon de conscience de leur corps » dans l’environnement », assure l’expert en intelligence artificielle.

Les prévisions de Ray Kurzweil reposent sur des théories discutables. « Derrière, il y a les transhumanistes et la théorie de la singularité technologique qui refleurit – théorie selon laquelle l’accroissement exponentionelle  du progrès technique accoucherait d’une IA toute puissante », prévient Jean-Claude Heudin. Ces raisonnements ne prennent pas en compte l’épuisement des ressources et  reposent notamment sur l’extrapolation de la loi de Moore.

Quelle place pour les robots dans la société?

Pour Jean-Claude Heudin, des questions beaucoup plus importantes se posent. « Le débat de la place de la robotique dans la société est un vrai débat », estime-t-il. Il semble nécessaire de redéfinir les tâches qui peuvent être réalisées par des robots et celles qui doivent rester humaines. Il faut remettre l’homme au centre des stratégies de robotisation.« Il ne faut pas utiliser le robot pour remplacer l’homme, mais l’utiliser  pour aider l’homme, améliorer ses conditions de travail », défend-il. La stratégie à construire devrait être de s’assurer que la robotisation crée plus d’emplois qu’elle n’en détruira. 

Un autre débat de société devrait être posé de façon beaucoup plus ouverte. L’armée américaine étudie actuellement la possibilité de créer des machines qui auraient une capacité autonome de combat. Mais un robot peut-il tuer un humain  sur la base d’un simple algorithme ? Sur quelles valeurs se baserait cet algorithme pour décider de tuer ? Cela pose des questions éthiques et de société. La première loi de la robotique imaginée par Isaac Asimov dans les années 1950 selon laquelle « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger », semble du coup déjà obsolète. Ce débat dépasse celui des robots militaires. La voiture autonome pose des dilemnes similaires : l’algoritme devra-t-il favoriser la vie du conducteur ou celle d’un piéton en cas d’accident mortel inévitable ?

Par Matthieu Combe, journaliste scientifique

Un capteur pour donner la faculté aux humains de détecter les champs magnétiques

La faculté de ressentir les champs magnétiques (connue sous le nom de « magnétoréception ») est présente chez certaines bactéries, insectes et même des vertébrés comme certains oiseaux, tortues ou requins pour l’orientation ou la navigation, mais pas chez l’humain de manière naturelle (a priori).

Cet appareil, extrêmement robuste malgré ses dimensions (2 micro-m d’épaisseur et une masse surfacique de 3 g/m2 grâce à son support polymérique ultrafin, pourrait permettre aux humains de posséder la faculté de perception du magnétisme. Il s’agit d’un système de capteurs magnétiques flexibles pouvant être facilement porté sur la peau par un individu. Cela pourrait avoir une application pour des interactions homme-machine sans contact ou pour des implants médicaux, ou encore pour les appareils électronique sur la peau. Quand un champ magnétique est perçu, des lumières émises par des LEDs permettent de quantifier l’intensité du champ.

Ce travail est le fruit des recherches de Denys Makarov et de son équipe de l’Institut Leibniz pour la recherche sur l’état solide et les matériaux à Dresde et de l’Université Technique de Chemnitz en Allemagne, ainsi que des équipes de l’Université de Tokyo (prof. T. Someya, Dr M. Kaltenbrunner) et de l’Université d’Osaka (prof. T. Sekitani) au Japon.

Pour en savoir plus :

Source : www.bulletins-electroniques.com

Energies renouvelables en France: « l’énorme erreur » d’Atlantico.fr

Le « rapport final » de l’étude « vers une électricité 100% renouvelable en France » coordonnée par la start-up spécialisée Artelys (fondée notamment par des anciens de la R&D d’EDF et au rayonnement international) en partenariat avec Energie demain et Mines Paristech pour le compte de l’Ademe (une agence d’état) est disponible à cette adresse :

L’article d’Atlantico.fr, dans sa version d’origine, s’est répandu de manière virale sur internet, colporté sans aucune analyse par ceux (y compris des ingénieurs) qui n’aiment pas les énergies de flux durables et qui préfèrent les énergies de stock, par définition non durables. Cet article a ainsi généré une pollution massive du débat énergétique, d’où la présente mise au point dans une perspective de salubrité publique.

Des coûts commentés à l’aveuglette

Première version de l’article, Rémy Prud’Homme, professeur (émérite) à l’université Paris XII (Paris-Est Créteil) : « Tout d’abord, il y a des erreurs sur les chiffres des prix qui sont donnés dans ce rapport. Le rapport parle d’un prix actuel à 91€ par MegaWatt heure or le prix du nucléaire auquel EDF est obligé de vendre à GDF est d’environ 41€ ! Ce chiffre de 91€ ne rime pas à grande chose, le rapport doit calculer ce que serait le prix du nucléaire dans des centrales à construire ! Le deuxième point noir du rapport : le prix du solaire et de l’éolien serait de 117€ du MegaWattHeure. Or le prix actuel d’achat de GDF du solaire ou de l’éolien est d’environ 200€ en moyenne selon la commission de régulation de l’énergie. Le prix de l’éolien maritime est même au dessus de 200€, le solaire est actuellement payé à 300€ en moyenne. Même si dans le futur on imagine que les prix vont baisser, on ne peut pas être certain. (…) Enfin, le rapport fait complètement l’impasse de l’adéquation temporelle de l’offre et de la demande. (…) »

Des propos qui ont fait réagir le scientifique Sylvain Quoilin, membre d’un JRC (Joint Research Center) de la Commission européenne et spécialiste des systèmes électriques à base d’énergies renouvelables : « C’est faux ! » s’indigne l’expert. « Le modèle est horaire et optimise le système ainsi que ses variations ». Fort heureusement d’autres journalistes, comme par exemple Pierre Le Hir (Le Monde) ont réalisé un compte-rendu honnête et d’excellente qualité de l’étude.

Contactée par Techniques de l’ingénieur la rédaction d’Atlantico.fr a reconnue qu’elle n’était pas compétente en la matière et qu’il fallait qu’elle en parle avec Rémy Prud’homme. Contacté par nos soins, Rémy Prud’homme, la personne interviewée, a déclaré : « Je n’avais pas encore lu l’étude, je ne savais pas comment me la procurer, je n’avais que des extraits d’articles de presse à ma disposition, et Atlantico m’a demandé de répondre à des questions pour une interview. J’ai accepté mais Atlantico aurait dû vérifier ce que j’affirmais avant de valider. Ce n’est pas sérieux de leur part ». Rémy Prud’homme a ensuite reconnu s’être lourdement trompé et ne pas avoir compris ce à quoi correspondait le coût de 91 €/MWh : « Je ne peux pas faire autrement que reconnaître m’être trompé, il n’y a pas d’autre attitude à avoir » a-t-il eu l’honnêteté d’admettre. Il suffisait en effet de lire l’étude pour comprendre qu’il s’agit du coût de l’électricité hors taxe en France, c’est-à-dire non seulement la fourniture (production) mais aussi l’acheminement (transport et distribution de l’électricité), ainsi que la part EnR de la CSPE. Atlantico décide alors de corriger l’article en remplaçant intégralement le premier paragraphe de l’article.

Une approche systémique mal comprise

Seconde version de l’article, Rémy Prud’Homme : « L’erreur – ou la confusion – principale porte sur la notion de coût du nucléaire. ​Les auteurs comparent le coût de l’électricité renouvelable future avec le coût du nucléaire futur. La comparaison aurait du sens dans un pays sans parc de production. Mais la France a un parc, qui se trouve être nucléaire, et qui est en état de marche, même s’il a besoin d’entretien; Et ce parc, largement amorti, produit de l’électricité à bon compte. La preuve en est qu’EDF a obligation d’en vendre une partie, à un prix fixé par les pouvoirs publics, qui est inférieur à 45 €/MWh. »

Techniques de l’ingénieur recontacte alors la rédaction d’Atlantico.fr pour leur indiquer que c’est encore faux. 91 €/MWh c’est coût Actuel, et non pas futur, de l’électricité hors-taxe en France. A noter que le coût de l’électricité française va monter d’environ +5% par an entre 2015 et 2020 selon des études de la CRE et du Sénat. 119 €/MWh c’est le coût d’un système 100% EnR complet en 2050, y compris réseau et stockage. A noter également une baisse de 14% du coût si l’on prend un taux d’actualisation de 2% au lieu de 5,25% comme expliqué dans le rapport pages 72 et 73. La comparaison porte donc sur un coût 100% EnR dans le futur avec le coût actuel de l’électricité afin d’évaluer l’ampleur de la variation. Elle est de 30%. Un comparatif est également effectué dans l’étude avec des mix 40%, 80%, 95% EnR. A aucun moment le coût de l’électricité EnR future n’est comparé à celui du nucléaire futur. Seuls les systèmes complets (y compris réseau et stockage) sont comparés, approche systémique, et c’est tout l’intérêt de l’étude. La rédaction d’Atlantico.fr répond alors : « Après une lecture attentive du rapport, il s’agit effectivement d’une erreur de notre part. Nous corrigeons. Merci de nous l’avoir signalée. » Une seconde correction est alors effectuée.

On n’arrête pas le progrès

Troisième version de l’article, Rémy Prud’homme: « Notons qu’en 2014, selon la très officielle CRE (Commission de Régulation de l’Energie), le prix moyen d’achat aux producteurs est de 91 € pour l’éolien terrestre, de 217 € pour l’éolien en mer, et de 418 € ​pour le photovoltaïque. Merci pour eux. Ces prix vont baisser, mais jusqu’où, c’est ce que personne ne sait exactement. Or le prix actuel d’achat de GDF du solaire ou de l’éolien est d’environ 200€ en moyenne selon la commission de régulation de l’énergie. Le prix de l’éolien maritime est même au dessus de 200€, le solaire est actuellement payé à 300€ en moyenne. »

Patatras, encore biaisé ! Les valeurs indiquées intègrent l’ensemble des tarifs du passé. En effet un parc solaire installé il y a 10 ans (à une époque où le solaire coûtait vraiment très cher, environ 6 fois plus qu’aujourd’hui) continue de peser aujourd’hui sur le prix de l’électricité (durée du contrat: 20 ans). Il est important de comprendre que ces chiffres sont vraiment complètement hors sujet quand on s’intéresse aux coûts des technologies actuelles et futures. Comme le souligne l’institut Fraunhofer, une référence mondiale en matière d’énergies de flux durables : « En 2013 les tarifs d’achat moyens pour l’électricité photovoltaïque étaient d’environ 32 centimes d’€/kWh (en Allemagne ndlr). Cette valeur moyenne inclut les taux de rémunération élevés des installations anciennes. Elle est cependant inappropriée, non pertinente pour déterminer l’expansion future du solaire »… (Source, page 11). Le titre donné à l’article d’Atlantico.fr prétend qu’il y a une « énorme erreur de raisonnement » dans l’étude Mines / Artelys. Or, l’énorme erreur de raisonnement n’est pas dans le rapport mais dans le commentaire qui en est fait par Rémy Prud’homme. Le fait que la rédaction d’Atlantico.fr accepte de corriger partiellement relève néanmoins d’un état d’esprit louable.

Près de Bordeaux un contrat solaire PV (300 MW) a été signé à 105 €/MWh. Et si les taxes douanières pénalisant les panneaux chinois étaient supprimées on serait même à moins de 100€/MWh selon le patron de Neoen. Une valeur confirmée par un expert de l’Agence Internationale de l’Energie (Lire à ce sujet ce dossier des Techniques de l’ingénieur). De plus Bordeaux n’est pas le site le plus ensoleillé de France. Près de Toulon on peut produire aujourd’hui du solaire PV encore meilleur marché. A Dubaï un contrat a été signé il y a quelques semaines à 51 €/MWh ! Moins que l’électricité à base de gaz et de fioul dans cet émirat. Un véritable tremblement de Terre à l’échelle mondiale. C’est cela la réalité. Agiter des chiffres intégrant des données du passé embrouille les esprits. C’est stérile, pas constructif, pas rigoureux pour un sou et encore pire, intrinsèquement malhonnête.

Rémy prud’homme ajoute : « Il est dit (dans le rapport ndlr) qu’on aura des moyens de stockage considérables, mais aujourd’hui on ne sait pas stocker de l’électricité en grande quantité. »

L’étude montre exactement le contraire. « Nous savons bien entendu stocker l’énergie électrique » rappelle Bernard Multon, professeur des universités à l’Ecole Normale Supérieure Cachan, antenne de Bretagne, et agrégé en génie électrique. Il existe même pléthore de solutions. Comme le souligne le polytechnicien et hydraulicien François Lempérière il y a dès à présent 140.000 MW de STEP (stockage hydraulique gravitaire) dans le monde (dont 5000 MW en France). « Affirmer que l’on ne sait pas stocker est tout simplement idiot » confirme l’expert.

On sait également stocker l’énergie électrique sous forme d’air comprimé mais aussi avec des batteries et des supercondensateurs ou encore des volants d’inertie sans parler de l’électrolyse de l’eau. Le 30 avril 2015 le PDG de Tesla Motors et fondateur de SolarCity, Elon Musk, va précisément annoncer une offre commerciale solaire PV + stockage, une annonce très attendue au pays de Benjamin Franklin. Affirmer que l’on ne sait pas stocker relève d’une idée préconçue fallacieuse.

Atlantico, face à l’exigence de rigueur intellectuelle de la part de Techniques de l’ingénieur, a fini par changer le titre de son article. Il est devenu : « Rapport de l’Ademe sur les énergies renouvelables : les obstacles à un mix électrique 100% renouvelable ». En progrès. Mais peut mieux faire…La mention « mauvais calculs » reste en exergue de l’article, en lettres rouges. A moins que cela soit pour prévenir le lecteur à propos du contenu de l’interview ? Pour le Vice-président de l’Assemblée Nationale et Député de Paris, Denis Baupin, les propos de Rémy Prud’homme relèvent du « comique troupier« .

En Allemagne, au Danemark, en Scandinavie, en péninsule ibérique, ou encore à San Diego et à Vancouver, les citoyennes et citoyens savent toutes et tous que passer au 100% renouvelable est possible. C’est pour une immense majorité d’entre eux une évidence. L’objectif du gouvernement danois est clair : 100% d’EnR en 2050. 80% en Allemagne. 100% à San Diego et à Vancouver. En France, se fixer un objectif de 100% de renouvelable est souvent perçu comme absolument impensable, quelque chose qui relèverait presque de l’extrémisme, du totalitarisme idéologique. Sur LCI une journaliste a déclaré à propos de l’étude commandée par l’Ademe : « cela parait incroyable », avec un air très perturbé. Le paysage mental d’une bonne partie des Français n’est pas du tout préparé. A leur décharge France 2 (JT de David Pujadas) affirmait il y a quelque temps qu’il faudrait couvrir toute l’Europe de panneaux solaires pour répondre à la demande électrique française. Un problème de culture scientifique et technique en matière d’écotechnologies énergétiques se pose dans notre pays.

Aux USA, même le très conservateur Tea Party fait à présent la promotion du solaire photovoltaïque. A l’occasion du Bloomberg New Energy Finance Summit qui s’est déroulé à New-York au même moment que le fameux colloque de l’Ademe sur l’électricité renouvelable, Debbee Dooley, l’une des co-fondatrices du mouvement, a déclaré : « nous pouvons aujourd’hui produire l’électricité solaire à 6,5 cents le kWh, ce qui est en dessous de la moyenne nationale ». Elle a aussi insisté sur le fait que l’énergie solaire décentralisée était très pertinente sur le plan de la sécurité (un thème de prédilection du Tea Party). « Notre système électrique centralisé est bien trop vulnérable aux attaques terroristes » a-t-elle martelé. La panique provoquée par les drônes survolant les centrales nucléaires en France abonde dans son sens.

Il serait peut-être temps qu’Atlantico mette à jour sa ligne éditoriale en matière énergétique. Le solaro-éolien connaît un boom phénoménal outre-Atlantique. Outre Atlantico, pour le directeur de l’ingéniérie du géant américain Google, Ray Kurzweil, le monde peut passer au 100% énergies solaires d’ici 20 ans.

Comme le souligne un rapport UBS dont Peter Diamandis, fondateur d’Xprize, a fait écho dans une tribune intitulée « Solar Energy Revolution : A Massive Opportunity », « les grandes centrales électriques actuelles seront les dinosaures du système électrique de demain : trop grosses, pas assez flexibles, même pas pertinentes pour assurer le back-up à long terme ».

Errare humanum est, perseverare diabolicum.

Par Olivier Daniélo

Réinventer la mémoire de nos ordinateurs en s’inspirant du cerveau

Aujourd’hui, il existe deux grandes catégories de mémoire informatique, dispositif essentiel à nos ordinateurs pour stocker l’information ou la restituer. Les mémoires volatiles sont capables de traiter un grand nombre de données dans un temps très court mais elles sont dépendantes d’une alimentation électrique continue pour conserver les informations qu’elles ont enregistrées. À l’inverse, les mémoires non-volatiles, comme les clés USB ou les CD, ne sont pas dépendantes d’une source électrique mais sont beaucoup moins rapides. Une alternative est en cours d’élaboration : les mémoires magnétiques (ST-MRAM), qui combinent rapidité de traitement et indépendance énergétique, les données n’étant pas stockées sous forme d’une charge électrique mais d’une orientation magnétique.

L’un des problèmes majeurs de cette nouvelle technologie est le coût énergétique élevé de sa programmation. En effet, pour programmer les jonctions tunnel magnétiques (MTJ), nanocomposants de base de ces mémoires, on applique une tension électrique à leurs bornes. Si la mise sous tension n’est pas assez longue, la programmation peut être incorrecte, avec un degré de hasard qui dépend de la durée de l’impulsion de programmation. On parle alors de programmation probabiliste. 

Dans le cadre d’un usage plus conventionnel de la mémoire, pour lequel on souhaite une programmation qui exclut, au contraire, tout hasard, la mise sous tension des MTJ doit être prolongée, pour s’assurer avec un niveau de confiance suffisant de leur bonne programmation. Cette stratégie de programmation entraîne, de facto, une consommation énergétique importante.

Les chercheurs ont montré que la programmation probabiliste des MTJ peut devenir un avantage. Ils ont, en effet, imaginé une utilisation des MTJ comme « synapses » (connexions) d’un système dont le fonctionnement est inspiré du cerveau humain, c’est-à-dire consommant très peu d’énergie tout en ayant une très grande capacité de traitement de données. Une programmation probabiliste est alors une façon pour le système d’apprendre, après plusieurs répétitions, sa fonction. Comme pour les synapses du cerveau humain, plus les MTJ sont sollicitées, plus l’information a de chances d’être enregistrée. Les simulations numériques réalisées par les chercheurs montrent qu’un tel système peut résoudre efficacement, c’est-à-dire rapidement et en consommant peu d’énergie, des tâches cognitives comme les analyses d’images ou de vidéos, contrairement aux systèmes de mémoires actuelles. 

Les chercheurs peuvent désormais relever un nouveau défi, en construisant un premier prototype de ce système de mémoire informatique, neuro-inspiré.

Leurs travaux sont publiés en ligne dans la revue IEEE Transaction on Biomedical Circuits and Systems le 15 avril 2015.

Source : CNRS

Et aussi dans les
ressources documentaires :

Des organismes se nourrissaient déjà d’azote il y a plus de 3.2 milliards d’année

« Imaginer que ce processus est à ce point ancien, et se perpétue à l’identique depuis 3.2 milliards d’années, c’est fascinant » s’enthousiasme Eva Stüeken, auteur de l’étude sur l’ancienneté de la vie sur terre.

En effet, d’après les travaux parus dans Nature, des roches prélevées en Afrique du sud et au nord ouest de l’Australie vieilles de 2.75 à 3.2 milliards d’années contiennent de l’azote. Or, la présence d’une telle substance chimique témoigne de l’existence du processus de fixation de l’azote. Il s’agit pour un organisme de capter l’azote présent dans son environnement pour produire des substances protéiques. Ceci est comparable à la photosynthèse, utilisée par des organismes pour fabriquer des substances glucidiques à partir du CO2.

La présence d’azote ne peut être synonyme que d’une seule chose : la présence de formes de vie ! Pourtant, à cette époque fort fort lointaine, la planète était plutôt de nature hostile, à tel point que la communauté scientifique estime que la vie serait apparue bien plus tard, sans pour autant savoir bien quand. Toutefois, des analyses génétiques estimaient l’origine du processus de fixation de l’azote entre -1.5 et -2.2 milliards d’années. La découverte de l’équipe des chercheurs de l’université de Johannesburg vient donc bousculer ces idées reçues et témoigne de la présence d’une forme de vie bien antérieure.

D’après l’analyse des roches, l’azote auraient été utilisé par une enzyme à base de molybdène, une substance chimique aujourd’hui particulièrement abondante sur Terre grâce à la présence d’oxygène mais dont la présence dans des temps si anciens que l’atmosphère était dénuée d’oxygène reste inexpliquée.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :