Les véhicules hybrides rechargeables de Toyota et EDF bientôt à Strasbourg

Toyota et EDF font un pas de plus dans leur projet commun de tests routiers de véhicules hybrides rechargeables (VHR) en France. Initié en septembre 2007 dans l’Hexagone, puis étendu en septembre 2008 au Royaume-Uni via EDF Energy (la filiale d’EDF outre-Manche), ce partenariat change d’envergure. Le constructeur automobile japonais, fabricant de la Prius, et le groupe électrique français ont annoncé, mercredi 18 mars 2009, qu’ils proposeraient en location, dès la fin de l’année dans la ville de Strasbourg, des véhicules hybrides rechargeables nouvelle génération. Encore au stade du prototype, peu d’informations circulent sur ces nouvelles voitures. Toyota livre pourtant quelques indices. Contrairement aux VHR fabriqués actuellement par le constructeur, ces nouveaux véhicules ne seront plus équipés de batteries Nickel Metal Hydride (NiMH), mais de batteries Lithium-ion. De même, si comme les précédentes, le moteur électrique de ces voitures peut être rechargé pendant la conduite et en se connectant au réseau électrique domestique ou sur une borne de charge publique, elles utiliseront un système novateur de charge. Développé par EDF, il permet d’assurer la sécurité de l’alimentation, la communication entre la prise et le véhicule, l’identification du véhicule et la facturation de l’énergie. Cette offre destinée avant tout aux entreprises et aux partenaires institutionnels de la région de Strasbourg poursuit plusieurs objectifs. Pour Toyota, il s’agit d’accélérer l’étude de la technologie et des performances des VHR, programme qu’il poursuit par ailleurs aux Etats-Unis, en collaboration avec le milieu universitaire, et au Japon. Pour EDF, il s’agit de tester différentes solutions opérationnelles d’infrastructure de charge. Enfin, il s’agit pour les deux partenaires, de mieux comprendre les comportements des consommateurs dans la perspective d’un déploiement plus large de ce type de véhicule. Un laboratoire grandeur nature en quelque sorte qui a reçu le soutien financier du fonds démonstrateur de recherche géré par l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie).

Allemagne : un parc éolien offshore de 1.000 MW pour 2015

A titre de comparaison, la puissance nominale de ce parc se rapprochera de celle d’un réacteur nucléaire à la différence qu’un réacteur nucléaire fonctionne 90% du temps à plein régime contre 35 % pour une éolienne en mer.D’après un communiqué de RWE, le contrat s’élève à environ 2 milliards d’euros, soit « l’un des plus importants de l’histoire de l’énergie éolienne ». Les 30 premières éoliennes doivent être délivrées en 2011 puis progressivement entre 2012 et 2015. La plupart seront destinées au parc éolien de « Innogy Nordsee 1 » qui verra le jour à 40 kilomètres des côtes.Environ 150 à 180 éoliennes, d’une puissance nominale de 5 et 6 MW, seront implantées à une profondeur comprise entre 26 et 34 mètres. « Avec une puissance installée de près de 1.000 MW, le parc éolien sera statistiquement capable de répondre aux besoins de 780.000 foyers » précise Matthias Schubert, directeur technique de REpower Systems.Equipées d’un rotor de 126 mètres de diamètre, ces éoliennes font partie des systèmes les plus puissants au monde, ajoute le communiqué. Elles sont équipées de 3 pales d’une longueur de 61,5 mètres.Source : environnement-info

De nouvelles techniques liées à la protection de l’environnement

Plusieurs outils d’analyse de l’état des territoires forestiers sont aujourd’hui testés en Espagne par des équipes de recherche.Le premier est le Light Detection and Rangig (LIDAR), un radar mis au point par la multinationale norvégienne Blom. Blom est une entreprise pionnière en matière d’inventaires forestiers. Elle utilise cette nouvelle technologie depuis le début des années 90 et c’est en 2003 qu’elle commence à s’exporter. L’Espagne est le principal pays du sud profitant de son expertise.Il s’agit d’une méthode de télédétection qui va permettre l’analyse des propriétés d’un laser renvoyé vers son émetteur [1]. Concrètement, le radar envoie depuis un avion des impulsions laser (jusqu’à 150.000 par seconde) en direction des objets sources d’étude, impulsions qui sont ensuite renvoyées puis détectées grâce à un GPS. La région de Castille et Léon a récemment fait appel aux services de Blom afin d’obtenir l’information nécessaire à la gestion durable de ses forêts de pins. Le LIDAR donne un panorama complet des caractéristiques et des besoins de la végétation, comme le souligne Diego Causante, ingénieur forestier : « Avec LIDAR nous sommes capables de mesurer absolument tout : la hauteur et la densité de chaque arbre. Son âge et son diamètre, ce qui nous permet de savoir la quantité de CO2 qu’il pourra fixer tout au long de sa croissance. Il suffit d’appliquer un programme informatique dans lequel on introduit l’espèce et nous obtenons le volume de CO2 absorbé par chaque masse forestière. » D’autres communautés autonomes, à l’image de l’Andalousie, ont d’ores et déjà misé sur cette technologie afin de moderniser la gestion de leurs territoires.Le deuxième instrument innovant est à mettre au crédit d’une équipe de chercheurs de l’Université Polytechnique de Catalogne. Ces experts ont mis au point une méthodologie d’évaluation des impacts environnementaux liés à la construction de bâtiments, permettant ainsi dès la phase de planification du projet, de prévoir l’intégration de procédés d’amélioration environnementale ou l’application de mesures préventives. Cette nouvelle méthodologie présente l’avantage d’évaluer les impacts de manière objective en se basant sur les informations contenues dans les documents des projets. Les chercheurs ont de cette façon classifié les indices environnementaux en 9 catégories : émissions atmosphériques, production de résidus, déchets, sol, ressources consommées, impacts locaux, impacts liés au transport, effets sur la diversité biologique, situations d’urgence. Ces neuf catégories ont ensuite été sous-divisées, les chercheurs identifiant au total 37 impacts environnementaux, associant à chacun d’entre eux un « indicateur environnemental ». A titre d’exemple, la catégorie « émissions atmosphériques » comprend la concentration de gaz à effet de serre et l’émission de composés organiques volatils [2].L’efficacité de ce nouvel instrument a été prouvée par sa mise en pratique lors de quatre projets de construction de nouveaux édifices. Les résultats sont largement encourageants, le coordinateur du Group of Construction Research and Innovation de l’Université Polytechnique de Catalogne arguant qu’il s’agit « d’un stimulant pour ces entreprises du secteur de la construction souhaitant adopter un système de gestion environnementale. »Enfin, les chercheurs de l’Université Polytechnique de Madrid apportent eux aussi leur contribution. Ils se sont concentrés sur l’observation de la superficie de notre planète à l’aide de satellites. Ce suivi est justifié par la constante menace d’incendies qui pèse sur les écosystèmes forestiers, particulièrement dans les pays méditerranéens. Les informations transmises par les satellites fournissent de nombreuses données de grand intérêt pour le contrôle de ces incendies. Il est possible de connaître la composition du sol, sa température, les types de végétation, la température de l’atmosphère ou encore le taux d’humidité.Les administrations ainsi que tous les acteurs impliqués dans la défense des territoires forestiers pourront dorénavant disposer d’outils non seulement pour lutter contre les incendies, mais aussi pour l’actualisation des inventaires forestiers dans un but de conservation des espaces naturels.

Notes

[1] http://fr.wikipedia.org[2] Composés constitués de carbone et d’hydrogène se trouvant sous forme gazeuse dans l’atmosphère.Par Francois Sylvestre de Sacy, rédacteur du bulletin électronique de l’ambassade de France en Espagne.Origine : BE Espagne numéro 79 (24/02/2009) – Ambassade de France en Espagne / ADIT

On rechargera bientôt son iPod en s’habillant

Dr. Zhong Lin Wang, vous dirigez le Centre sur les nanosciences et les nanotechnologies de la Georgia Tech. Vos recherches portent sur l’application de l’effet piézoélectrique (qui consiste à produire de l’électricité via une action mécanique) aux nanotechnologies. Pouvez-vous nous en dire plus sur la nano piézoélectricité ?

Il s’agit de fabriquer de nouveaux composants électroniques fondés sur les propriétés couplées de la piézoélectricité et des semi conducteurs. En utilisant le potentiel piézoélectrique produit dans un nanofil de ZnO lorsqu’il est tendu, il est possible de construire de nouveaux types de transistors, diodes, interrupteurs et capteurs.

Quelles sont les sources potentielles d’énergie ?

De même que pour l’énergie mécanique, les ondes sonores, les ultrasons, les mouvements du corps, les vibrations, le vent léger, les courants atmosphériques…

Vous évoquez même la possibilité de tisser ces capteurs sur des T-shirts…

Ce type de générateurs est conditionné avec des polymères flexibles. On peut les tisser sous les vêtements, comme des pièces de tissu. On peut ainsi envisager de recharger son iPod en enfilant un T-shirt.

À l’heure actuelle, les nano générateurs ne produisent pas assez d’énergie pour avoir des applications pratiques. Quels progrès avez-vous fait ?

Le processus principal est d’élever la tension de sortie et l’énergie. Une fois ces objectifs atteints, nous pourrons passer aux applications. Nous prévoyons d’élever la tension de sortie à 0,5 V pour pouvoir stocker les charges. Si nous parvenons à obtenir une production de l’ordre du milli au micro-Watt, de nombreux petits appareils pourront être alimentés. C’est notamment le cas des micromachines ou Mems (Micro-Electro-Mechanical Systems). Dans cinq à dix ans, ils devraient ainsi servir à alimenter des biocapteurs, Mems et petits composants électroniques.Zhong Lin Wang dirige le Centre sur les nanosciences et les nanotechnologies de la Georgia Tech aux Etats-Unis. Ses recherches sur les capteurs nanométriques viennent d’être élues par le magazine américain Technology Review parmi les 10 technologies émergentes en 2009.

Stockage de l’électricité d’origine solaire : attention aux faux espoirs

Un article sur une nouvelle batterie liquide dans le magazine Technology Review du MIT m’a remis en tête une hypothèse que j’avais énoncée quelques temps auparavant concernant la synergie entre les énergies renouvelables et des batteries plus performantes. De la même façon, l’auteur de l’article suggère qu’avec des batteries plus grosses et moins chères, on pourrait fournir en permanence de l’électricité grâce à l’énergie solaire. Pourtant, alors que cette nouvelle batterie faite d’une combinaison de métaux et de sels fondus paraît futée, je ne suis pas sûr que cela ait un sens de l’utiliser pour stocker de l’électricité solaire ainsi que l’envisage l’auteur.Mon propos ne porte pas ici sur les panneaux solaires installés sur les toits des maisons. Le stockage ne s’y prête pas dans la plupart des cas, à moins d’être isolé ou de mettre un point d’honneur à être indépendant du réseau. Le « Net metering », un système de comptage qui permet de vendre le surplus d’électricité produite au réseau et de lui en acheter quand le soleil ne brille pas, offre typiquement une meilleure solution que les batteries pour les propriétaires, qui se servent en pratique du réseau comme d’un moyen de stockage. Je suis davantage intéressé par les installations solaires de grande envergure qui poussent ici et là. Ces dernières concurrencent directement les turbines à gaz à cycle simple et les centrales électriques standards. Ces projets solaires coûtent environ 6.000 dollars par kilowatt (kW) installé, une moyenne calculée sur plusieurs projets récents (lire l’article) suite à une recherche rapide sur Internet (lire l’article). Même avec un crédit d’impôt de 30% (lire le document de la SEIA) sur l’investissement solaire et une localisation ensoleillée comme la Floride, les coûts de production sont amortis de près de 0,25 dollar par kilowatt-heure (kWh) pour un taux d’intérêt de 6 % sur 20 ans. Cela pourrait être acceptable au plus fort de la demande, les après-midi de grande chaleur, mais en période creuse, le modèle ne tient pas la comparaison avec les coûts énergétiques d’autres technologies telles que les turbines à gaz et les éoliennes, sans parler des centrales à charbon ou nucléaires.

Le prix au kWh n’est pas le seul obstacle que l’énergie solaire doit surmonter pour être compétitive en permanence, même en considérant un faible coût de stockage, ce qui est loin d’être le cas aujourd’hui. L’investissement nécessaire à la production de suffisamment d’énergie pour fournir le marché 24h sur 24, 7 jours sur 7, est beaucoup plus important que pour les autres technologies en raison des facteurs de capacité du solaire – la fraction de temps pendant laquelle ces capacités sont disponibles et fonctionnent à pleine puissance – qui en moyenne sont inférieur à 20%.

Dans l’exemple de la Floride cité ci-dessus, une installation solaire recevrait en moyenne un taux d’ensoleillement de 4 à 4,5 heures de grand soleil par jour (voir la carte) Cela équivaut à un facteur de capacité compris entre 17 et 19%.Remplacer une centrale à charbon de 500 MW avec un facteur de capacité de 80% nécessiterait une centrale solaire de 2.200 MW avec une capacité de stockage en rapport. Ainsi, à 6.000 dollars /kW, une centrale solaire capable de générer autant de kWhs qu’une centrale à charbon à 1,5 milliard de dollars coûterait 13,2 milliards de dollars, sans compter le coût de distribution de l’énergie à la demande et pas uniquement lorsque le soleil brille. (Cela implique aussi un très fort coût par tonne pour les émissions de CO2 évitées.)Si on considère la technologie solaire actuelle, l’idée même de stocker une grande quantité d’énergie solaire ne paraît ni réaliste, ni nécessaire. Le stockage à grande échelle et à bas prix (batteries, air comprimé, pompe à eau,…) des énergies renouvelables, à la carte, a plus de sens quand on parle de l’énergie éolienne dont la production à faible coût chevauche par ailleurs beaucoup moins les courbes quotidiennes et saisonnières de la demande, que de l’énergie solaire. Le solaire requière peu ou pas de stockage autrement que pour compenser les effets des nuages ou pour prolonger ou anticiper d’une heure ou deux les pics naturels de production. La technologie solaire thermique qui stocke l’énergie sous forme de chaleur plutôt que d’électricité semble alors la plus évidente. Aussi, les constructeurs de nouvelles batteries ne devraient pas placer leurs espoirs dans la croissance du marché de stockage de l’énergie solaire.

Geoffrey Styles est gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il rédige également le blog : Energy Outlook.

Prix et qualité de l’eau : quels outils de gestion d’une ressource vitale ?

Ressource essentielle pour l’être humain, l’eau est perçue de plus en plus comme un bien limité à la qualité menacée. La précédente loi sur l’eau et les milieux aquatiques est certes une avancée, mais le cadre réglementaire mérite d’être encore amélioré. Plusieurs sujets importants se doivent d’être approfondis afin d’apporter une cohérence sur l’utilisation, le prix et les efforts mis en place pour améliorer la qualité de l’eau. Le débat sera structuré autour des questions suivantes :

  • Quel prix de l’eau en France ?
  • Quid du tarif social de l’eau ?
  • Faut-il instaurer des incitations tarifaires à une utilisation parcimonieuse de l’eau ?
  • Comment responsabiliser les consommateurs ?
  • Quelles pistes pour optimiser la gestion des réseaux ?
  • Quelles incitations pour les collectivités à moderniser leur réseau ?
  • Projet de loi Grenelle – pesticides, nitrates, phosphates : quels efforts restent à accomplir pour améliorer la qualité de l’eau ?
  • Quelles nouveautés en faveur de l’eau ?
Ces troisièmes rencontres parlementaires sur l’eau sont organisée par messieurs André Flajolet, député du Pas-de-Calais, ancien rapporteur du projet de loi sur l’eau et président du Conseil national de l’eau, et Bruno Sido, sénateur de la Haute-Marne, président du Groupe d’études sur l’Eau et ancien rapporteur du projet de loi sur l’eau. Cette manifestation se déroule sous le haut patronage de Bernard Accoyer, Président de l’Assemblée nationale et avec la participation de Jean-Louis Borloo, Ministre de l’Écologie, de l’Énergie, du Développement durable et de l’Aménagement du territoire et de Chantal Jouanno, Secrétaire d’État chargée de l’Écologie.

Date et lieu
Mardi 24 mars 2009 à la Maison de la Chimie, 28, rue Saint-Dominique, Paris VIIe

Informations
Corine Bona Ekambi, tél : 01 44 91 58 71 – fax : 01 44 91 58 51 – e-mail : [email protected]Télécharger le programme et le coupon d¹inscription, cliquez ici.Les demandes d’inscription sont à retourner impérativement au plus tard le jeudi 19 mars 2009. Compte tenu du nombre limité de places disponibles, ne seront prises en compte que les 200 premières réponses parvenues dans les délais.

Le « serpent de mer électrique » progresse malgré les obstacles

Prof. António Sarmento, vous dirigez le Centre de l’énergie des vagues (Wave Center Energy) à Lisbonne, un domaine dans lequel le Portugal a une longueur d’avance sur d’autres pays européens. Quel est le potentiel du Portugal en la matière ?
António Sarmento : Nous estimons que l’énergie de la houle pourrait fournir jusqu’à 5.000 Megawatts et 20 % de notre consommation électrique, à condition que tout se passe bien, que l’énergie se révèle bon marché, sûre et que l’impact sur l’environnement soit minime. Tout ceci reste encore à prouver. C’est d’une certaine façon un scénario optimiste basé sur les estimations par kilomètre de côte portugaise exploitable dans l’avenir. Ce potentiel est très élevé. Toutefois, si l’impact sur l’environnement apparaissait élevé, le coût de l’énergie augmenterait de même. Tout cela est donc très difficile à prévoir aujourd’hui. 5.000 Megawatts pourrait être la limite maximum.

La première ferme à vagues commerciale a ouvert en septembre 2008 au large de la côte ouest du Portugal. Trois Pelamis y sont installés. De quoi s’agit-il ?
Le Pelamis porte le surnom de « serpent de mer électrique ». Il s’agit d’un engin flottant composé de quatre cylindres horizontaux raccordés par trois articulations. Ces dernières pompent de l’huile à haute pression par des moteurs hydrauliques au travers d’accumulateurs, suivant les mouvements des vagues auxquels elles sont soumises. Ces moteurs hydrauliques entraînent des générateurs électriques pour produire de l’énergie, transmise à terre par des câbles sous-marins.

Cette ferme à vagues a ouvert il y a six mois. Aujourd’hui, pouvez-vous dire qu’elle répond à vos attentes ?
Je ne peux pas dire cela car cette technologie rencontre un certain nombre de problèmes. Les trois machines ne se trouvent en ce moment pas au large mais sur un chantier, en attente d’être réparées. Il ne semble pas que ce soit grave mais Pelamis Wave Power, qui les produit, a jugé préférable, par mesure de sécurité, de les retirer pour l’hiver. Pour ce que j’en sais, elles ne fonctionnent pas en ce moment. Il se peut aussi qu’elles ne produisent pas autant d’énergie que prévu. Il s’agit d’une technologie complexe, installée pour la première fois en mer. Nous devons accepter le fait que des difficultés surgissent dans la première phase de développement comme ce fut le cas pour la centrale houlomotrice sur l’île de Pico. Nous progressons, en essuyant de temps à autres des revers. J’ai toute confiance dans le fait que le Pelamis sera bientôt réparé et redéployé.

Pour finir, quel sera le prochain projet à être mis en oeuvre au Portugal ?
Je ne m’attends pas à voir ouvrir de nouvelles fermes à vagues dans les deux prochaines années. Je pense que les difficultés actuelles vont retarder le déploiement de futures fermes Pelamis. Cela n’engage bien sûr que moi. Toutefois, trois ou quatre nouvelles technologies vont être prochainement testées au Portugal à l’état de prototype.En savoir plusAntónio Sarmento est chercheur au Département de construction mécanique de l’Institut Technique Supérieur de Lisbonne. Il est actif depuis plus de 30 ans dans le domaine de l’énergie de la houle et dirige le Centre de l’énergie des vagues depuis sa fondation en 2003. Il est également membre du Conseil d’administration de l’Association européenne des énergies marines depuis 2006 et de l’ISOPE (International Society of Offshore and Polar Engineering) depuis Juillet 2007.

Le nucléaire fait son grand retour

Au cours des précédentes décennies, les pays européens ont fermé des réacteurs nucléaires, ce qui les a obligés à se tourner vers d’autres sources d’énergie comme le gaz russe. Pendant la crise, la Bulgarie a commencé à faire pression pour un retour au nucléaire tandis que l’opinion allemande, inquiète de son approvisionnement en gaz, a déjà fait marche arrière en changeant sa position sur la suppression progressive du nucléaire.

L’Italie a décidé elle aussi que cette attitude était la plus prudente et après une interdiction de 20 ans, la France aide l’Italie à renouer avec le nucléaire. (lire l’article sur CSMonitor.com)

Voici ce que relate le CSMonitor.com : « Vingt ans après avoir interdit de nouvelles centrales nucléaires, l’Italie se tourne vers la France pour relancer son programme. Le 24 février, le Premier ministre italien Silvio Berlusconi a signé un accord de coopération avec le Président Nicolas Sarkozy pour la construction de quatre centrales nucléaires en Italie. Ce pays avait fermé ses quatre centrales nucléaires à la suite d’un référendum national en 1987 alors que la fusion du réacteur russe à Tchernobyl avait entraîné une vague de peur et de protestations. Aujourd’hui, elle rejoint un nombre croissant de pays européens incluant l’Allemagne, la Slovaquie et la Bulgarie qui, préoccupés des émissions de CO2 et de la fiabilité de l’approvisionnement énergétique en provenance de Russie, se tournent à nouveau vers l’énergie nucléaire ».

Ceci était inévitable, même sans la crise du gaz, car la situation n’est pas à long-terme favorable à l’Europe. Il est inévitable que le Royaume-Uni se tourne à nouveau avec force vers le nucléaire (à moins que ses citoyens ne meurent de froid au fur et à mesure que les ressources en énergie fossile s’épuisent), de même que les Etats-Unis développent massivement le nucléaire dans les décennies à venir.

Les lecteurs fidèles savent que je suis vivement favorable au développement des énergies renouvelables, mais l’électricité renouvelable n’en est qu’à ses balbutiements. L’électricité produite par les énergies renouvelables (moins l’hydraulique) compte pour moins de 3% de la production totale d’électricité américaine, et même la prévision d’une croissance agressive ne changerait pas radicalement la donne. Pourquoi ? La production totale d’électricité renouvelable en 2007 a atteint son plus haut niveau de tous les temps avec une production de 105,3 millions de megawatt-heure. La croissance en 2006 a été impressionnante : presque 10 millions de megawatt-heure. (Les données pour 2008 ne sont pas encore complètes mais la croissance semble être de l’ordre de 10 millions de megawatt-heure de plus qu’en 2007). Cependant, la hausse moyenne de la demande en électricité sur les 10 dernières années est de 66 millions de megawatt-heure. À ce rythme, la production d’électricité renouvelable pourrait quadrupler dans les 5 prochaines années et presque couvrir la hausse de la demande.

Si nous voulons sérieusement tourner la page du charbon, nous allons devoir développer l’énergie nucléaire. Il nous faudrait développer les énergies renouvelables six fois plus vite qu’au rythme actuel pour suivre simplement la hausse de la demande. Supplanter le charbon est hors de question, à moins que la demande ne soit réduite. Je ne suis en aucun cas opposé au nucléaire. Certes, des questions environnementales ne sont pas encore complètement résolues, mais la même chose est valable pour n’importe quelle source d’énergie.Je sais toutefois une chose sur la nature humaine. Lorsque l’énergie devient suffisamment chère comme ce fut le cas pour le gaz l’été dernier, les préoccupations environnementales s’effacent devant les préoccupations économiques. Il suffit de voir la popularité de la campagne « Forer, ici et maintenant » (‘drill here, drill now’). C’est l’un des sujets sur lesquels John McCain a marqué des points pendant la campagne présidentielle. Si le gaz coûte 1,50 dollars le gallon, les gens s’inquiètent de l’impact des forages sur l’environnement. À 4 dollars le gallon, ils sont prêts à vous laisser forer dans leur jardin.La même chose sera vraie du nucléaire. L’opposition sera inversement proportionnelle au coût de l’électricité.

Robert Rapier est directeur ingénierie chez Accsys Technologies PLC et anime le blog R-Squared Energy Blog

L’Alaska : nouvel eldorado des énergies renouvelables ?

Au delà du potentiel de ressources fossiles inexploitées (gaz, pétrole…) dont on a dit à peu près tout ce qu’il y avait à dire, l’Alaska possède des gisements considérables d’énergies éoliennes (sur terre aussi bien qu’en mer) et hydrauliques (avec des fleuves et rivières inexploités). Mais, ce qui nous intéresse en priorité ici, ce sont les énergies de la mer (vagues, courants et marées) disponibles en Alaska à la mesure de ce que peuvent fournir l’Océan Arctique qui le borde au Nord (Mer de Chukchi et Mer de Beaufort), la Mer de Béring qui le borde à l’Est et l’Océan Pacifique (Golfe de l’Alaska) qui le borde au Sud.
 
Un environnement maritime suffisant pour que beaucoup pensent que l’Alaska puisse rapidement devenir un chef de file national dans la production d’énergies alternatives et notamment d’origine marine. Bien que l’Alaska soit le deuxième plus grand Etat producteur de pétrole dans le pays (après le Texas), ses citoyens ont eu récemment à payer des factures d’électricité très élevées, le pétrole n’étant plus aussi facilement disponible pour la production d’électricité que par le passé. La situation a changé très rapidement et la crise financière planétaire n’y est pas étrangère. Il n’est pas si éloigné en effet le temps où les habitants de l’Alaska ne cachaient pas leur scepticisme vis à vis des énergies renouvelables, le discours pour le moins radical de leur gouverneure, Sarah Palin, aidant. Mais il s’est avéré que le présent donne tort à ce discours et que de nombreuses voix s’élèvent pour faire remarquer que la production d’énergies renouvelables pourrait s’avérer beaucoup moins chère que l’extraction de pétrole.

Déjà, dans cet Etat mal relié au réseau national, où l’usage de l’électricité produite individuellement est très répandu, les consommateurs ont pu constater par eux-mêmes que l’électricité produite grâce aux éoliennes domestiques coûtait moins cher que celle produite avec des groupes électrogènes fonctionnant au fuel. Autre facteur plaidant pour l’usage des sources alternatives d’énergie dans cet Etat, le fait que la majeure partie du pétrole extrait d’Alaska ne lui soit pas destiné. Enfin il semblerait aussi que les habitants de ce continent glacé aient des raisons de ne pas être complètement insensibles à l’impact du réchauffement planétaire sur leur région, qui comme toutes celles proches des pôles, est en première ligne.

Le gouvernement de l’Etat ne s’y est pas trompé. Il vient de dégager 300 millions de dollars sur les 5 années à venir en subventions destinées aux services publics, producteurs d’électricité indépendants ou autorités locales qui produiront de l’énergie propre. Montant considérable si on le rapporte au nombre d’habitants que compte cet Etat, l’un des moins peuplés des Etats-Unis avec seulement 670.000 habitants (à peine la population d’un quartier de New York !) bien que ce soit l’un des plus grands en superficie. « Hier le pétrole était bon marché et pratique. Aujourd’hui, il est tout juste pratique » a déclaré Steve Haagenson, nommé l’année dernière comme Coordonnateur pour les énergies dans la région.

L’Alaska qui assure déjà aujourd’hui 24% de son électricité à partir de sources renouvelables (beaucoup aimeraient pouvoir en dire autant !) a décidé, le mois dernier par la bouche de sa gouverneure que l’objectif sera de produire 50 % de son électricité à partir de sources renouvelables d’ici 2025. Bien consciente que la brusque chute des prix du pétrole actuelle n’est qu’une illusion d’optique, Sarah Palin a déclaré : « Je ne voudrais pas que les habitants d’Alaska tirent un sentiment de sécurité de la faiblesse des prix du pétrole actuel car il faut qu’ils sachent que ces prix bas ne vont pas durer. »

C’est la Kotzebue Electric Association (Association pour l’électricité de la communauté de Kotzebue) qui a été la première à démontrer l’utilité de l’emploi des éoliennes en Alaska et ce dès 1997, dans le nord-ouest de l’Etat. Neuf autres communautés rurales l’ont suivie depuis lors et plus d’une douzaine de projets sont en préparation.

Parmi les premiers à comprendre tout l’intérêt qu’il y avait à capitaliser sur les renouvelables en Alaska, le petit équipementier éolien Northern Power Systems, a mené une étude en collaboration avec l’Alaska Energy Authority, une société publique dont l’objectif principal est de réduire les coûts de la production d’électricité en Alaska, étude de laquelle il ressort que plus de 100 villages en Alaska serait éligibles à l’éolien. Northern Power Systems qui avait initialement conçu sa turbine de 100 kW pour équiper le petit marché du pôle Sud, a opéré un virage à 360 degrés – si l’on peut dire dans ce cas là – pour se diriger vers le pôle Nord où la compagnie travaille désormais à la livraison de turbines pour 8 villages de l’Alaska, dont la petite communauté de Toksook Bay, et projette d’équiper dans un avenir proche 45 autres villages ou communautés.

Mais l’éolien terrestre n’est pas la seule énergie qui va être développée en Alaska. Ce sera même, étant donné la nature difficile du terrain, la moins évidente à développer. Selon Roger Bédard de l’Electric Power Research Institute, qui s’est confié à Alternative News, plus de la moitié des ressources énergétiques de l’Alaska seront tirées de l’océan, l’énergie des vagues et des courants représentant plus de 90% (ce qui sous entend 10% d’éolien offshore).

Comme prémonitoire, la devise de cet Etat surnommé aussi The Last Frontier, est « North to the Future » (Le Nord pour et vers le Futur).

Prémonitoire certes mais pas seulement vraie pour les Américains, les régions polaires en général étant bel et bien devenues l’enjeu énergétique majeur de ce siècle. Les grandes manoeuvres dans ce sens ont déjà commencé. L’Europe devrait y avoir sa place…

Par Francis Rousseau auteur du site Les énergies de la mer

Eleanor, une voiture solaire futuriste mais performante

Ce véhicule à trois roues, à la suspension particulièrement basse, est recouvert de 6 m² de panneaux solaires monocristallins qui peuvent produire 1.200 watts d’électricité.Si le soleil brille, elle roule toute une journée à 90 km/h. En complément, elle est équipée de batteries lithium-ion de 6 kWh. Quand celles-ci sont totalement chargées, Eleonor peut parcourir près de 400 kilomètres à près de 90 km/h même sans soleil, selon les calculs du MIT. Elle peut atteindre plus de 140 km/h en vitesse de pointe, une belle performance pour une voiture solaire. Elle est truffée de capteurs qui permettent de suivre en temps réel ses performances électriques.Cette voiture doit participer à la dixième édition du «World solar challenge»en octobre prochain, la course la plus prestigieuse pour les véhicules solaires, de 7 jours et 3.000 kilomètres à travers l’Australie. Lors de la précédente édition, c’est une équipe d’étudiants de l’université de technologie Delft, aux Pays-Bas, qui avait gagné avec la Nuon, qui en vitesse de pointe avait grimpé jusqu’à près de 160 km/h, un record.

Photo / Chris Pentacoff, MIT Solar Electric Vehicle Team
D’autres rallyes sont organisés dans le monde pour les voitures solaires, comme le «North American Solar Challenge», entre les Etats-Unis et le Canada.Par Laurence Benhamou auteur du site Green Univers

Le secteur électronique marque le pas en janvier

Le nouvel indice de la production industrielle en France publié par l’Insee vient de tomber, affichant des chiffres quelque peu moroses. Au mois de janvier 2009, la production de l’ensemble de l’industrie a diminué de 3,1% entre décembre 2008 et janvier 2009 et de 10,9% sur une année glissante. Tous les secteurs ne sont toutefois pas touchés de la même manière. Outre la cokéfaction et le raffinage qui recule de 15% sur un mois, la situation s’est également particulièrement dégradée pour le segment des équipements électriques et électroniques, autres machines. Entre décembre 2008 et janvier 2009, celui-ci accuse une baisse de 6,7% de sa production.

Indices de la production industrielleCVS-CJO, base et référence 100 en 2005NA : A 10, (A 17) Evolution sur1 an (1) Evolution sur 1 trimestre (2) Décembre/novembre Janvier/Décembre
BE : industrie  – 10,9 %  – 7,5 %  -1,5 %  – 3,1 %
C3) Equipement électriques et électroniques;fabrication de machines  – 10,5 %  – 6,2 %  + 0,7 % – 6,7 %
(CI) Produits informatiques et électroniques  NC  – 5,3 %  + 0,3 %  – 6,4 %
(CJ) Equipements électroniques  NC  – 7,4 %  + 1,2 %  – 6,2 %
(CK) Machines et équipements  NC  – 6,2 %  + 0,8 %  – 7,4 %
Source : Insee, indice de la production industrielle. (1) Trois derniers mois / trois mêmes derniers mois de l’année précédente. (2) Trois derniers mois rapportés aux trois mois précédents
Ce fléchissement concerne toutes les branches : le plus important est enregistré par le segment des machines et équipement (nomenclature Insee CK) puisqu’il affiche une baisse de 7,4% sur un mois, suivi par les produits informatiques et électroniques (C1) dont la production recule de 6,4% et enfin, les équipements électriques (CJ) qui résistent à peine mieux avec une baisse de 6,2% sur un mois.Une morosité que confirme la Ficime, la fédération des entreprises internationales de mécanique et d’électronique. Les deux tiers des entreprises adhérentes tablaient fin janvier sur une baisse des prises de commandes. Plus particulièrement touché, le secteur de l’électronique grand public dont la moitié des entreprises anticipe une baisse de leurs effectifs en 2009 contre seulement un tiers des entreprises du secteur professionnel.  La rédaction

La 2ème station à hydrogène du Royaume-Uni installée… sur un campus

Pr Rob Thring, vous occupez une chaire de professeur en ingénierie des cellules de carburant à l’Université de Loughborough au Royaume-Uni. Une station de ravitaillement en hydrogène vient d’être installée à Holywell Park, sur le campus même de l’université. N’est-ce pas un emplacement insolite ?
À l’heure actuelle, il n’existe que deux stations de ravitaillement en hydrogène au Royaume-Uni dont une, ici-même, à Loughborough. Nous pouvons être considérés comme des pionniers à cet égard. Elle nous permet à la fois de ravitailler des véhicules à hydrogène, venus de l’extérieur, et de faire des recherches sur la technologie de ces voitures, sur leur homologation, sur leur usage futur et leur pénétration du marché, leurs effets futurs sur l’économie nationale, etc…Ce dispositif de ravitaillement, fabriqué par Air Products, sera initialement livré par un fournisseur extérieur, mais l’université étudie actuellement des moyens de créer son propre hydrogène en utilisant des technologies vertes sur son campus.

Le marché des voitures à hydrogène justifie-t-il une telle installation sur le campus ?
Pas encore, mais ce sera le cas un jour. Nous avons déjà ravitaillé un certain nombre de véhicules et sommes disposés à accueillir toute personne qui voudrait utiliser notre station de ravitaillement et à coopérer avec elle. Aujourd’hui, très peu possèdent encore des véhicules à hydrogène. Lorsque le nombre de véhicules à hydrogène aura augmenté, nous devrons peut-être alors nous montrer sélectifs, mais pour le moment toute personne est la bienvenue. Nous ne disposons pas encore de notre propre flotte mais c’est une possibilité dans le futur.

Quels services l’université est-elle susceptible de fournir ?
Ils sont très variés. Notre recherche porte sur les véhicules eux-mêmes, sur les cellules de carburant d’hydrogène, sur les questions de ravitaillement, d’optimisation de ces véhicules, leur entretien ou encore la mise en service d’une flotte. Nous travaillons aussi sur la conception des véhicules à hydrogène, l’analyse des données, et testons ces véhicules sur notre dynamomètre de châssis et de moteurs.

Holywell Park, où est le campus de l’université de Loughborough, fait partie d’un pôle scientifique de 53 hectares, à la pointe du développement des piles à combustible. Quelles sont les diverses activités mises en oeuvre ici ?
Rolls-Royce Fuel Cells Systems Ltd y mène son activité de recherche-développement des technologies d’alimentation et peut produire 1.000 composants de céramique pour piles à combustible par semaine.L’« Hydrogen and Renewables Integration » (HARI) étudie une combinaison de sources d’énergie renouvelables pour extraire efficacement l’hydrogène de l’eau. Le « Centre of Excellence for fuel cells and low carbon technologies » (CENEX), est l’organisme national britannique chargé de la diffusion des technologies à faibles émissions carboniques dans le secteur automobile. Le CENEX dispose de plusieurs programmes de développement. L’un d’entre eux vise à favoriser l’adoption des technologies propres par les exploitants publics de flottes de véhicules de service. Un autre programme vise à promouvoir les opportunités de démonstration des véhicules à hydrogène au Royaume-Uni dans son ensemble. La station a été inaugurée à l’automne 2008. Plusieurs véhicules à hydrogène étaient exposés lors de l’événement. Parmi eux, des Microcab, le Morgan LifeCar et une moto conçue pour l’utilisation de piles à combustible à hydrogène, l’ENV bike (voir photo). Elle a été développée par Intelligent Energy , une jeune société issue directement de l’université de Loughborough.La nouvelle station de l’université fait partie d’un ensemble de stations de réapprovisionnement en hydrogène qui sera mis en place dans la région par le British Midland Hydrogen Forum. Connues sous le nom de Midlands Hydrogen Ring (la ceinture d’hydrogène des Midlands), ces stations seront au cœur du déploiement de l’infrastructure de réapprovisionnement en hydrogène, prévu sur l’ensemble du Royaume-Uni. (Consulter le site de l’East Midlands Development Agency)Rob Thring occupe une chaire de professeur en ingénierie des cellules de carburant à l’Université de Loughborough au Royaume-Uni.

Jatropha : démêler le vrai du faux

Les nombreuses qualités du jatropha en font un très bon candidat comme biocarburant. Il est résistant à la sécheresse et s’adapte aux sols à faible rendement. C’est un gros avantage car il peut ainsi être cultivé sur des terres impropres à toute autre forme de culture. Les terres les plus propices sont celles en phase d’appauvrissement ou de désertification. Or la désertification est un problème majeur à travers le monde, causé par la surexploitation de terres arides.Des techniques existent pour combattre celle-ci, notamment la plantation de plantes capables de former un socle qui empêche le sol d’être érodé par le vent. Mais il faut que les paysans locaux soient incités à les cultiver. La candidate idéale serait une plante comestible qui répare en même temps le sol. Viennent ensuite les plantes qui peuvent être transformées en carburant – pour rentabiliser la culture – tout en étant bénéfique au sol. Le jatropha curcas est de celles-là.

Comparaison avec l’huile de palme

Où le jatropha peut-il être utilisé à cette fin ? Observez le graphique ci-dessous. Sa zone de plantation est proche de celle du palmier à huile d’Afrique.Il est vrai que le palmier à huile d’Afrique, dont est tiré l’huile de palme, produit beaucoup plus d’huile que le jatropha. En réalité, les rendements d’huile de palme – pouvant atteindre 5 tonnes métriques par hectare – placent le palmier à huile d’Afrique en tête des cultures les plus riches en lipides dans le monde, en terme de productivité. Mais l’huile de palme présente des inconvénients majeurs. Tout d’abord, les terres propres à la culture du palmier à huile d’Afrique forment une bande étroite près de l’équateur. Si la situation est idéale pour la Malaisie, l’Indonésie ou la Thaïlande, où les fermiers profitent de ces cultures de rente, l’Inde et la majeure partie de l’Afrique sont impropres à cette culture.

Plus grave est le fait que l’expansion des plantations de palmier à huile, pour répondre à la demande de biocarburant en Occident, a eu des conséquences dramatiques dans de nombreux pays tropicaux autour de l’équateur. Dans certains endroits, cette expansion a entraîné de graves dégâts pour l’environnement, comme la déforestation de la forêt tropicale. Les forêts tropicales absorbent en effet le dioxyde de carbone et réduisent les émissions de gaz à effet de serre. Du fait de la destruction des tourbières en Indonésie, remplacées par des plantations de palmiers à huile, le pays est devenu le troisième plus gros émetteur mondial de gaz à effet de serre.Davantage de terres étant propres à la culture du jatropha dans le monde, celui-ci pourrait réduire la pauvreté en Afrique, en Inde et dans de nombreux pays pauvres, en procurant des cultures rentables aux fermiers. D’autre part, le jatropha peut contribuer à réduire la déforestation au fur et à mesure que les gros producteurs se tourneront vers cette culture plutôt qu’une autre.

Revenons sur terre

Jusqu’ici, cet article laisse à entendre que le jatropha est la solution miracle pour résoudre les problèmes de dépendance aux carburants fossiles. Hélas, il n’y a pas de miracle. Attention au battage médiatique.Ainsi que je l’ai écrit dans un article sur mon voyage en Inde, comme toute autre source d’énergie, le jatropha a des inconvénients. Premièrement, il est toxique pour les hommes et le bétail. Ainsi que je l’ai signalé dans un autre article, le gouvernement australien a interdit en 2006 le jatropha, au motif qu’il est une plante invasive. Deuxièmement, comme il n’est pas domestiqué, les rendements sont très variables et les fruits mûrissent à plus ou moins longue échéance. Troisièmement, la récolte des fruits et l’extraction de l’huile demandent beaucoup de travail. Enfin, s’il peut être cultivé sur des terres à faible rendement, il nécessite une infrastructure logistique pour le rendre économiquement viable. La plupart des terres à faible rendement dans le monde ne disposent pas de telles infrastructures. Lorsque j’étais en Inde l’an dernier, j’ai vu de grandes bandes de terre à la lisière du désert qui pourraient être utilisées pour cultiver du jatropha. Le problème est que ces espaces sont très isolés et dépourvus d’infrastructures.L’origine de beaucoup de difficultés est le fait que le jatropha est encore une plante sauvage. La reproduction sélective ou le génie génétique peuvent résoudre de nombreux problèmes. Le jatropha commençant tout juste à être pris au sérieux, une phase d’apprentissage est nécessaire. Des recherches génétiques sérieuses sont indispensables, de pair avec un gros effort de sélectivité. Nous avons besoin d’un nouveau Luther Burbanks pour travailler sur ce problème. De cette façon, le jatropha pourrait un jour rattraper la légende.

Ressources supplémentaires :
Il existe de nombreuses ressources sur le jatropha. En voici une sélection : The Jatropha SystemJatropha Comes to Florida (une vidéo de 3 minutes du Time Magazine)Jatropha Potential for HaitiChhattisgarh plants 100 million jatropha saplings in 3 yrsMali’s Farmers Discover a Weed’s Potential PowerToxic jatropha not magic biofuel crop, experts warnYield Per Hectare of Various Lipid ProducersUP to cultivate Jatropha for bio-diesel production

Robert Rapier est directeur ingénierie chez Accsys Technologies PLC et anime le blog R-Squared Energy Blog

Les tendances du salon des énergies renouvelables 2009

Quoi de neuf dans le domaine du solaire cette année sur le salon des énergies renouvelables ?

  • De nouveaux panneaux appelés micromorphes qui permettent d’absorber un plus grand spectre lumineux et donc d’augmenter les rendements. Il s’agit en fait d’un panneau amorphe recouvert de particules de silicium cristallin.
  • Des panneaux solaires qui s’orientent avec le soleil en fonction d’un algorithme permettant une géolocalisation de la course du soleil toute l’année, et ce, en un lieu bien précis. Cette technologie permet d’augmenter de 30% les rendements et convient bien à des champs solaires. Côté pratique, les panneaux solaires sont soutenus par une structure au sol, elle même attachée à un axe rotatif en son centre. Il ne faut pas confondre cette technologie avec les panneaux qui s’orientent avec l’intensité de la lumière. Ce système n’est d’ailleurs pas très au point car les panneaux solaires bougent tout le temps dans des directions différentes afin d’obtenir le meilleur angle avec le soleil. Ils doivent donc bouger horizontalement et verticalement et être immobilisé un certain temps afin de se stabiliser. En revanche, avec cette nouvelle technologie, les panneaux solaires suivent la direction du soleil.
  • Une intégration solaire photovoltaïque et thermique intéressante sur un même toit.
  • Quelque chose m’a également marqué : le courant électrique des systèmes de panneaux solaires intégrés dans la toiture est acheté plus cher que les panneaux non intégrés, à savoir à l’heure actuelle 0,35 centimes/kilowattheure contre 0,60 centimes/kilowattheure pour les panneaux intégrés.
Et dans le domaine de la biomasse ?
  • Les fabricants de pellets répondent à des normes de plus en plus sévères afin de se démarquer des autres producteurs.
  • Des chaudières à bois qui fonctionnent avec plusieurs types de combustibles bois. Ces chaudières suisses sont très performantes tant dans leur conception que dans leur efficacité. Elles répondent à des gammes de puissance très larges pouvant aller jusque 6 MW. Toute la gestion est automatique, permettant donc de bénéficier de primes très intéressantes (Belgique).
  • Des stations de cogénération à partir de la production de biogaz de plus en plus performantes. Certains modèles peuvent accepter une large gamme de déchets afin de produire du biogaz.
  • Des producteurs de bois de plus en plus nombreux à respecter l’environnement en intégrant la norme PEFC afin de permettre une gestion durable des forêts.
Dans le domaine de l’éolien
  • Le petit éolien se développe très bien. On peut observer différents types d’éoliennes qui s’intègrent dans de nombreux contextes. Leur avantage est d’être peu visibles (pour ceux qui ne les aiment pas) et de ne faire quasiment aucun bruit. Ces éoliennes garantissent une surproduction d’énergie électrique qui est renvoyée sur le réseau ou qui est stockée sur les sites isolés.
Par Jérémy Goldyn, consultant indépendant en énergie. Lire son blog

Reims vise 95.000 m² de toits solaires

Ce programme d’environ 10 MW devrait permettre de produire 10 millions de kw/h par an et rapporter 300.000 euros chaque année à la collectivité, selon la ville.Plusieurs opérateurs auraient déjà manifesté leur intérêt. L’appel d’offres sera lancé en mai et la désignation de l’opérateur est prévue pour septembre prochain.Ce projet est l’action la plus spectaculaire de la nouvelle politique de développement durable présentée par Adeline Hazan, maire (PS) de Reims (188.000 habitants) et présidente de Reims Métropole. L’objectif est de diviser par quatre les émissions de CO2 de l’agglomération d’ici à 2050.D’autres actions sont prévues. A partir de septembre prochain, Reims Métropole versera une aide aux taxis s’équipant de véhicules neufs faiblement émetteurs de CO2, équivalente à la prime accordée aux particuliers par l’Etat pour l’achat d’un véhicule peu polluant.La ville veut aussi encourager les bâtiments verts. Elle a établi un label « Reims Métropole Développement durable », avec l’aide de maîtres d’ouvrages et d’organismes de certification, qui comporte un volet HQE (Haute qualité environnementale) et un volet énergétique. Il comporte quatre catégories pour déterminer le niveau d’exigence environnementale. Pour le volet énergétique, les catégories sont déterminées par le seuil de consommation en KWh/m2/an.La ville va enfin créer un « Point infos énergie » pour conseiller les habitants désireux de s’engager dans l’amélioration énergétique de leur habitat : renforcement de l’isolation, du chauffage, mise en contact avec l’Ademe pour l’octroi de subventions…Par Laurence Benhamou auteur du site GreenUnivers

MON 810 : la France défend sa clause de sauvegarde

Les OGM sont de retour ! Il y a eu d’abord la décision (polémique) de la France en février 2008, de faire valoir une clause de sauvegarde afin d’interdire l’accès à son territoire de ces substances (controversées), et en particulier le maïs MON 810 fabriqué par la (très critiquée) firme Monsanto. Ensuite, la publication d’un rapport (loin de faire l’unanimité), en juin 2008, d’Yves Le Maho, membre (épinglé anti-OGM ) de la Haute Autorité sur les OGM, qui appuyait la décision (discutée) du gouvernement. Et actuellement, l’affaire continue avec le rapport (déjà contesté) de l’AFSSA, l’Agence Française de la Sécurité Sanitaire et Alimentaire (estampillée pro-OGM), qui contredit l’avis (dénigré, si vous suivez) prononcé par Yves Le Maho. Or le 16 février 2009, la France devait défendre sa position (contestée) devant la Commission européenne à Bruxelles pour conserver sa clause de sauvegarde. On le sait, les OGM sont un dossier délicat et très contreversé ! Les experts de l’Union Européenne n’ont d’ailleurs pas pu trancher la question, et la clause est maintenue par défaut… Jusqu’à la prochaine réunion des 27 ministres de l’Environnement des États membres. Rien de vraiment explosif n’est pourtant contenu dans le récent rapport de l’AFSSA. Il débouche sur la même conclusion, au mot près, que le rapport publié en avril 2008, à savoir : « les maïs portant l’événement de transformation MON810 et leurs produits dérivés présentent le même niveau de sécurité sanitaire que les variétés de maïs conventionnelles et que leurs produits dérivés ». Même si l’avis de l’AFSSA ne tranche pas avec ses positions antérieures, et n’apporte pas de nouveaux éléments au débat, ces conclusions « provoquent de vives réactions, aussi bien dans le champ politique que chez certains », comme l’indique Le Figaro du 12 février. Au vu du sujet concerné, on n’en attendait pas moins.

Propos de controverse
Pour José Bové, qui signe ici son grand retour, c’est un « coup de force du lobby pro-OGM », tandis que Corine Lepage, présidente du CRII-GEN (Comité de Recherche et d’Information Indépendantes sur le génie GENétique) « qualifie les « soi-disant rapports » de l’AFSSA, comme de l’EFSA [l’Agence Européenne de Sécurité des Aliments], d’ »opération de manipulation » digne des « années Tchernobyl » » lit-on dans Le Figaro. Le quotidien français s’est également précipité pour recueillir les propos d’Yves Le Maho, l’auteur du rapport contesté par l’AFFSA. « Je ne suis pas arrivé à la conclusion qu’il n’y avait pas de nocivité pour la santé et l’environnement » explique-t-il, ajoutant que les OGM ne « constituent pas une science dangereuse mais une absence de science ». Dans le même journal, Arnaud Apoteker de Greenpeace, trouve « scandaleux qu’une agence publique garde un tel rapport secret et en organise les fuites à la veille d’une décision européenne », le rapport ayant été effectivement rendu public le 11 février 2009, alors qu’il est daté du 23 janvier. Mais ce décalage temporel est également noté par Christian Demuynk, sénateur UMP, qui y voit tout autre chose ! Pour lui c’est au contraire le gouvernement qui « s’opposait depuis plusieurs semaines à la publication de cet avis ». Reste à savoir si cet écart de dix-neuf jours profite réellement à quelqu’un ? Peut-être devrait-on faire un rapport sur la question ? Les OGM semblent en tout cas définitivement appartenir à la catégorie des des sujets qui fâchent.

Une délicate délibération européenne
Le gouvernement français, quelques jours avant que Jean-Louis Borloo défende la clause de sauvegarde à Bruxelles, n’a montré aucun signe de changement de cap après la publication du rapport de l’AFFSA. Dans un communiqué, relayé par L’Express du 12 février, le ministère de l’Écologie a d’ailleurs déclaré que « le fondement de la clause de sauvegarde repose sur des risques jugés sérieux pour l’environnement et non pas sur des risques sanitaires, objet de l’avis de ce jour de l’AFSSA ». C’est ainsi que le 16 février, « la France a plaidé avec succès à Bruxelles en faveur du maintien de l’interdiction de la culture de cet OGM sur le territoire national » écrit Pierre Avril pour Le Figaro. L’argumentaire français, qui a obtenu le soutien d’onze autres États membres, tenait en plusieurs points :
  • le risque de propagation d’OGM à des champs non génétiquement modifiés via la pollinisation ;
  • la résistance au MON 810 de deux lépidoptères responsables de la destruction du maïs ;
  • l’existence d’effets toxiques sur les monarques, les lombrics et d’autres insectes ;
  • enfin, plus grave, la toxine BT se retrouverait dans des sédiments voisins, la propageant dans le sol et l’eau.
La Commission européenne « devrait, « le plus vite possible », demander une nouvelle levée de la clause de sauvegarde français » précise Le Figaro. Au plus tard en mars, les ministres de l’Environnement des 27 États membres devront se pencher sur le dossier de la clause de sauvegarde française sur les OGM. Mais pas seulement : l’Autriche depuis 1999, la Hongrie depuis 2005, et la Grèce depuis 2006 qui l’appliquent aussi devraient voir leur cas examiné. Reste que, entre les rapports d’experts scientifiques qui se contredisent et les discussions politiques… l’objet du débat n’avance pas. En revanche, et faisant suite à cette actualité, la Cour de justice européenne vient de rendre obligatoire la publicisation des lieux où sont disséminés des OGM . Il faut en effet savoir que « les cultures d’essai restent autorisées dans l’Hexagone tant que les entreprises concernées veillent à limiter la dissémination des pollens vers les champs non-OGM » rappelle L’Express du 17 février. Rendez-vous donc bientôt en papeterie pour acheter une nouvelle carte de France, celle des OGM.

Sources :
« On ne connaît pas les effets à long terme des OGM », J.B. avec AFP et AP, Le Figaro, 12 février 2009.La France défend l’embargo OGM, malgré l’avis de l’Afssa , L’Express, 12 février 2009.Le maïs OGM, pas dangereux ! Ah bon ?, Le Post, 12 février 2009. OGM : la France obtient un nouveau répit à Bruxelles, Pierre Avril, 17 février 2009. La localisation des champs d’OGM doit être publique, dit la CJE, 17 février 2009Revue de presse de la Mission Agrobiosciences 

Des panneaux solaires qui « accrochent » la lumière

Le rendement des panneaux solaires photovoltaïques – qui est aujourd’hui en moyenne de 17% – dépend de deux paramètres très importants :

  • L’inclinaison : plus les rayons du soleil sont perpendiculaires au panneau, plus ceux-ci bénéficieront d’énergie et produiront d’énergie électrique. C’est pourquoi on oriente les panneaux actuels de manière à bénéficier au mieux sur une année des rayons perpendiculaires.
  • L’intensité lumineuse : tous les pays et les régions ne sont pas égales en termes d’intensité lumineuse, c’est-à-dire de quantité de lumière et de temps d’ensoleillement présents dans une journée.
Mais la donne pourrait bientôt changer. L’institut polytechnique de Rensselaer à New York a découvert un revêtement anti-réflexion innovant permettant à une cellule de silicium (corps principal constituant les panneaux solaires) d’absorber 96% de l’énergie lumineuse comparé à 64 % auparavant. Cette cellule composée de 7 dépôts d’épaisseur absorbe l’ensemble du spectre lumineux allant de 400 à 1.600 nm, ce qui correspond aux UV jusqu’à des infra rouge proche. Cela est même possible quand les rayons lumineux ne frappent pas le panneau perpendiculairement. L’inclinaison précise des panneaux solaires par rapport au soleil ne joue plus un rôle déterminant sur le rendement. Cette technologie, mise au point par l’équipe du Pr de physique Shawn-Yu Lin, permettrait ainsi d’augmenter de plus de 20% les rendements.Comme le rapporte le site de Science Daily : « les revêtements antireflets classiques sont traités pour laisser transiter la lumière d’une longueur d’onde particulière. Le revêtement mis au point par Lin empile sept de ces couches, de telle façon que chaque couche accentue les propriétés anti-reflets de la couche située en dessous. Ces couches successives aident aussi à « courber le flux » de lumière selon un angle qui accroît les capacités anti-reflets. Cela signifie que chaque couche non seulement laisse transiter la lumière du soleil, mais aide aussi à capturer toute lumière qui aurait pu sinon être réfléchie par les couches en dessous.Les sept couches, chacune d’une épaisseur de 50 à 100 nanomètres, sont faites de micro-barres de dioxyde de silicone et de dioxyde de titanium placées en oblique les unes par rapport aux autres – chaque couche est un peu comme une forêt qui « capture » les rayons du soleil entre ses arbres. Les micro barres sont attachées à une base en silicone par un procédé de fixation chimique, et le Pr Lin a indiqué que le nouveau revêtement peut être fixé sur presque n’importe quel matériel photovoltaïque. »Cette évolution technologique qui privilégie le meilleur rapport efficacité/prix doit encore être adaptée afin d’être économiquement viable pour la production de nouveaux types de panneaux solaires. Au delà, elle permet de répondre plus efficacement au problème de l’inclinaison des panneaux solaires qui est un des critères législatifs changeant en fonction du pays et même des régions. Jérémy Goldyn est consultant indépendant en énergie. Lire son blog

L’impact du Grenelle de l’environnement : la production d’électricité

Dans un éditorial précédent [1], je signalais que l’étude d’impact du Grenelle de l’environnement [2] avait très mal traité l’impact de la production d’électricité. Aux défauts méthodologiques déjà signalés viennent s’ajouter 3 griefs.Le premier ne fait que refléter les travaux et les conclusions du Grenelle de l’environnement : la production d’électricité n’y est abordée qu’avec les nouvelles énergies renouvelables, en « oubliant » totalement les rôles joués par les autres électricités non carbonées, nucléaire et hydraulique. On ne peut en tenir rigueur aux auteurs de l’étude, mais on doit le déplorer.Le second est moins pardonnable. Les bénéfices attendus de l’électricité éolienne en matière de protection du climat sont en effet grossièrement surestimés. La production éolienne, aléatoire, car tributaire du vent qui ne doit souffler ni trop fort, ni trop faible, a toutes chances de se substituer équitablement aux énergies fossiles et aux énergies non carbonées. La figure suivante [3] et son commentaire associé illustrent cette problématique : « Dans la zone de consommation de pointe où le supplément d’énergie est majoritairement d’origine fossile, ce remplacement est favorable. Mais pour le reste de l’année où la consommation est couverte par de l’énergie sans émission de CO2 (et dont la surface d’empiétement est plus grande que celle de la période de pointe), cette substitution n’apporte aucune réduction d’émission. » [4] Le CO2 évité par kWh éolien va correspondre à peu près à la moyenne du CO2 par kWh du parc français, soit 50 g de CO2 équivalent en 2008 [5]. Or l’étude affiche 300 g/kWh [6], soit 6 fois plus !Le troisième grief était déjà signalé dans l’éditorial précédent : l’étude ne cherche pas à évaluer combien coûte, ou combien rapporte, aux différents acteurs les mesures prises par le Grenelle. Cette fâcheuse lacune est particulièrement criante dans le cas des productions d’électricité renouvelables, éolienne et solaire, qui bénéficient d’une obligation de rachat par EDF à des tarifs imposés. Prenons le cas des 22 TWh que doivent produire les 10 GW éoliens installés d’ici 2013 :

  • Les éoliennes coûtent 15 milliards (G€) et ont une durée de vie estimée à 20 ans ; s’agissant d’un investissement sans risque, il peut être amorti à 4%, auquel on ajoutera 1% de frais d’entretien, soit au total 1,15 G€/an. Le revenu garantis aux promoteurs est de 83 €/MWh, soit 1,825 G€ ; ceux-ci bénéficient donc d’une rente de 675 M€/an.
  • EDF rachète l’électricité 83 €/MWh, mais grâce à la compensation de service public (CSPE) ne prend à sa charge que 60 €/MWh, ordre de grandeur du prix de l’électricité sur le marché libre de gros. Les 23 €/MWh de la CSPE sont répercutés sur les clients. En réalité, pour chiffrer le coût pour EDF, il faut regarder à quelle production se substitueront les 22 TWh d’éolien : à 10% d’énergies fossiles dont le coût est proche du prix du marché libre, et à 90% à du nucléaire (20 TWh environ). On peut imaginer deux approches, selon que ces 20 TWh viennent en diminution du nucléaire existant (dont le prix de revient est de 20 €/MWh) ou de nouveaux EPR (dont le prix de revient est de 40 €/MWh). Dans le premier cas, le coût pour EDF est de 800 M€/an, dans le second de 400 M€/an. Ces coûts seront répercutés pour partie sur les consommateurs, pour partie sur les actionnaires.
 Au total, le bilan est le suivant pour les 10 GW mis en service d’ici 2013 :
  • Pour les promoteurs : un bénéfice net de 600 M€/an, exorbitant.
  • Pour EDF : une perte nette de 400 à 800 M€/an répercutée sur les clients et actionnaires
  • Pour les clients et actionnaires d’EDF : une perte nette de 850 à 1250 M€/an, dont 450 au titre de la CSPE.
L’étude ne dit rien sur l’impact des 25 GW proposés d’ici 2020. Celui-ci sera proportionnellement plus lourd que celui des 10 GW, car il faudra très probablement augmenter la production fossile pour compenser les aléas de la production éolienne. On peut légitimement se demander, au vu de ces différents éléments, si le moment n’est pas venu de supprimer les aides publiques à l’éolien et de le laisser voler de ses propres ailes. Pierre Bacher, ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur. [1] Editorial du 8 décembre 2008[2] www.legrenelle-environnement/IMG/pdf/etude_d’impact_1_final_1er_octobre.pdf ; pour faire bref, nous la citerons comme l »Etude ».[3] « 10 questions sur l’éolien » – G. Ruelle – www.academie-technologies.fr/publication/10Questions/ [4] La réalité est évidemment plus complexe, car il faut tenir compte de l’hydraulique de barrage – moyen de pointe idéal -, des périodes anticycloniques de grand froid et de vent très faible, des centrales fossiles maintenues en service pour garantir la puissance, etc. [5] En fait, 43 g/kWh pour le parc EDF (comprenant les effets des oxydes d’azote), le chiffre de 50 g intégrant les autres producteurs.[6] Pourquoi 300, présentés comme les rejets des centrales thermiques à gaz, alors que celles-ci rejettent 600 g de CO2/kWh, sans compter les oxydes d’azote ?

Le biocarburant algal : un trompe l’oeil ?

Les biocarburants algaux – à savoir des huiles d’algues à base esters de glycerol d’acides gras – sont un sujet d’actualité brûlant. Airbus se réjouit de l’idée tandis que la compagnie pétrolière Shell et la compagnie aérienne Air France sont impliquées dans le développement de cette production d’huile d’algues, ainsi qu’un certain nombre de start-ups. J’ai entendu il y a peu un représentant de l’une de ces start-ups actives dans le domaine, Algae-Link, affirmer sur le Service Mondial de la BBC que les biocarburants algaux sont excitants car réalisables. Algae-Link travaille avec des bio-réacteurs tubulaires qui produisent des microalgues en serre. Des journaux spécialisés ont publié des articles vantant la productivité élevée des algues en matière de biocarburants. La couverture médiatique est tout aussi dithyrambique sur le sujet.Pourtant, il y a un silence remarquable de ses supporters quant aux dépenses en énergies fossiles liées à la production de biocarburant algal.Ceci est très curieux. Les estimations montrent que, dans le cas de l’utilisation de bio-réacteurs tubulaires pour produire du biocarburant algal, la balance énergétique est susceptible d’être négative : c’est-à-dire que la contribution en termes d’énergie fossile excède probablement la production de biocarburant.La culture de microalgues en bassins ouverts réduit certes les dépenses d’énergie fossile. Cependant, dans les conditions normales d’un bassin ouvert, les algues sont la proie de prédateurs tels que les puces d’eau. À cela s’ajoute la présence d’autres espèces d’algues parasites.En outre, la culture de microalgues destinées à la production de carburant requière des conditions optimales, telles qu’un pH élevé (eau alcaline) ou une concentration en sel très élevée, incompatibles avec une productivité élevée. Elles nécessitent également un traitement des déversements qui entraîne à son tour un surcroît de consommation d’énergie.Les données les plus optimistes que j’ai pu trouver concernant la consommation d’énergies fossiles pour la culture de microalgues en bassins ouverts (2) équivalent grosso modo au pouvoir calorifique des rendements d’algues les plus élevés rapportés dans les bassins aujourd’hui commercialisés et en opération (3). Voilà pourquoi, au regard des technologies de production actuelle, les biocarburants à base d’algue n’ont pas de sens d’un point de vue énergétique. Ils peuvent en avoir lorsqu’on ajoute du dioxyde de carbone libre, provenant par exemple des émissions des centrales électriques. Toutefois, jusqu’à aujourd’hui, les recherches en la matière se sont avérées décevantes (4). Il semble très difficile d’obtenir une production d’algues fiable lorsque les émissions des centrales électriques sont capturées dans les bassins. D’autre part, l’efficacité de la transformation du dioxyde de carbone en biomasse algale est faible comparée à celle de la capture de CO2 dans des gisements de gaz naturels épuisés ou des aquifères. C’est un inconvénient majeur dans la course à la concurrence pour contrôler les émissions de gaz à effet de serre. Enfin, on comprend difficilement l’intérêt des compagnies aériennes et d’Airbus. À l’altitude de vol des avions, les températures sont si basses que le carburant algal gèlerait.Les supporters du biocarburant algal semblent de toute apparence très doués en relations publiques. Mais personne n’a encore démontré de façon convaincante que, dans la réalité, le biocarburant à base d’algues a un sens.

Sources :
(1) R.R. Wijffels, Trends in Biotechnology 26 (2008) 26-31(2) Y. Chisti, Trends in Biotechnology 26 (2008)351-352(3) C.Jimenez et al. Aquaculture 221 (2003) 331-345(4) J.R. Benemann et al. Greenhouse Gas Control Technologies – 6th International Conference 2003 14433-1438Lucas Reijndres est professeur en sciences environnementales à l’Université d’Amsterdam depuis 1988 et à l’Université ouverte des Pays-Bas depuis 1999 et éditorialiste à Scitizen.com.

La « cinquième énergie », la plus propre et la moins chère

Jim Rogers, le CEO de Duke Energy, a beaucoup fait la promotion de l’expression 5ème énergie, en tant que synonyme pour efficacité énergétique. Il la résume en quelques lignes : « la réponse traditionnelle à la demande croissante en électricité a été d’accroître la production, c’est-à-dire de construire plus de centrales alimentées par le charbon, le gaz naturel, l’énergie nucléaire ou les énergies renouvelables. Nous pensons que l’efficacité énergétique peut jouer un rôle important en réduisant la demande du consommateur et en devenant la « 5eme énergie » (5th fuel). Et parce que la centrale la plus propre est celle qui n’est jamais construite, nous pensons que l’efficacité énergétique est la plus grande ressource énergétique non exploitée pour réduire les émissions de gaz à effet de serre à court terme ».Beaucoup d’analyses – citons l’important travail en 2008 du McKinsey Global Institute – ont montré, maintes fois, que l’approche la plus efficace en termes de coût pour réduire les émissions de CO2 est de mettre davantage l’accent sur l’efficacité énergétique. En fait, il y a 30 ans que le fondateur du Rocky Mountain Institute, Amory Lovins, a commencé ses observations prouvant que l’efficacité énergétique est souvent moins coûteuse que l’apport d’une production complémentaire – sans parler de l’objectif de réduction des émissions.Alors, si cette efficacité énergétique est si formidable, pourquoi ne cherche-t-on pas à la mettre en œuvre plus largement ? C’est d’ailleurs la question centrale posée par le numéro de Time du 12 janvier, dans sa « cover story ».Sans doute, une des raisons est que cette efficacité énergétique apparaît, disons le, ennuyeuse. A coté de l’innovation excitante des panneaux solaires et des turbines à vent, ou même de la nostalgie esthétique des vieux puits de mine et des plates-formes pétrolières, l’efficacité est invisible : vous ne pouvez pas voir ce que vous ne consommez pas. Il est difficile pour la plupart d’entre nous de se passionner pour l’absence de quelque chose. D’où l’intérêt de l’expression « 5eme énergie » pour essayer de donner vie, aux yeux du public, à cette forme d’énergie et la mettre sur le même plan que celles que l’on peut se représenter concrètement. Mais au delà de la sémantique et de la psychologie, le plus gros obstacle au développement de l’efficacité énergétique a souvent été l’argent. Comment financer ? Souvent, les économies qu’elle assure (sous forme de réduction des factures de consommation) n’intéressent pas ceux qui doivent au départ payer pour améliorer cette efficacité, soit qu’ils n’aient pas les moyens d’investir, soit que le temps nécessaire pour retrouver leur investissement leur paraît trop long. Des mécanismes financiers innovants sont nécessaires pour résoudre ces écarts. Heureusement, de nouvelles approches apparaissent de plus en plus souvent pour compenser ces faiblesses du marché qui ont freiné la pleine utilisation du potentiel offert par l’efficacité énergétique. C’est le cas à Berkeley, près de San Francisco, avec le programme FIRST (Financing Initiative for Renewable and Solar Technology) qui permet le financement des travaux par une augmentation de la taxe foncière. A Milwauke, dans le Wisconsin, on a pris l’initiative de programmes d’incitation fiscale pour favoriser les installations solaires ( voir ME2 – Milwaukee Energy Efficiency ). Dans les deux cas, la recherche de l’efficacité énergétique devrait être plus attractive pour de nombreux consommateurs, qui bénéficieront d’incitations fiscales qu’ils n’auraient pas eu s’ils n’investissaient pas. Les mécanismes aboutissent à leur demander des paiements périodiques très limités alors que dans le même temps les économies d’énergie qu’ils réalisent chaque mois sont substantielles.Richard T. Stuebi travaille à la Cleveland Foundation, fondée en 1914 pour aider au développement de la ville de Cleveland, dans l’Ohio. Il est le fondateur et président de NextWave Energy, Inc. Source: CleanTech Blog.

La voiture à hydrogène : no future !

Voici donc les premières voitures à hydrogène d’une autonomie de 500 km, dépassant la limite de vitesse autorisée avec une pointe à plus de 130 km/h. Fonctionnant avec une pile à combustible, l’hydrogène se combine silencieusement avec l’oxygène de l’air pour produire de l’électricité qui alimente un moteur électrique. De puissantes batteries Lithium-ion permettent au véhicule de démarrer à froid et de récupérer une partie de l’énergie au freinage ou en descente, à l’instar d’un véhicule hybride comme la Prius 2 de Toyota.Mais derrière ce tableau séduisant, se cachent une série de problèmes dont voici quelques uns :

1 – Du coûteux platine dans la pile
Nissan et Renault, qui expérimentent actuellement des prototypes, projettent de sortir leurs modèles de série vers 2015. A quel prix ? Mystère… Ce qui est sûr, c’est que la pile à combustible qui utilise du platine coûte actuellement plusieurs dizaines de milliers d’euros. Et le prix du platine ne risque pas de fondre dans le futur, surtout s’il est utilisé massivement tant pour produire de l’hydrogène avec de l’électricité par électrolyse de l’eau que dans des piles à combustibles destinées à consommer cet hydrogène…

2 – Trois fois moins d’énergie dans le réservoir
Comprimé à 700 bars, le réservoir de 125 litres stocke 3 fois moins d’énergie qu’un même volume d’essence ou de diesel. Cette pression est par ailleurs fort dangereuse. En cas d’incident, le véhicule exploserait comme une grenade, causant vraisemblablement la mort des passagers mais également des dommages dans un rayon de plusieurs dizaines de mètres comme l’explosion accidentelle des bonbonnes de plongée sous-marine.

3 – 40% plus lourd
A capacité égale, le véhicule pèse 40% de plus qu’un véhicule classique pour embarquer sa lourde technologie. Or, la consommation d’un véhicule en dessous de 90 km/h est quasi proportionnelle à son poids. Il faut donc 40% d’énergie supplémentaire pour effectuer un même trajet. Par ailleurs, il n’existe pas de gisement d’hydrogène. Sa production actuelle est faite avec du méthane, combustible fossile qui produit donc du CO2.

4 – Electrolyse + transport + compression = 70% de pertes !
Dans le futur, on envisage de produire l’hydrogène par électrolyse de l’eau avec de l’électricité nucléaire ou renouvelable. Il faudra cependant consentir à perdre au moins 70% de l’énergie électrique initiale dans la chaîne de l’électrolyse de l’eau (40%), puis du transport de l’hydrogène (30%), vecteur énergétique 3 fois moins performant que le méthane, et enfin dans la compression à 700 bars (30%).Avec un prix actuel de 6 centimes par kWh pour l’électricité éolienne, le kWh d’hydrogène comprimé coûterait donc environ 0,2 euro soit 2 euros pour l’équivalent d’un litre de LPG qui coûte actuellement 0,5 euro.

(M)éthanol à partir de bois-énergie renouvelable
Je crois davantage dans l’éthanol ou le méthanol produits à partir de bois renouvelable sans peser sur les surfaces agricoles réservées à l’alimentation. Dans ce cas, le bilan CO2 est quasi neutre. Ces carburants peuvent produire facilement la force motrice dans un moteur thermique au rendement de 30% à 35% un peu inférieur au rendement d’une pile à combustible de type PAFC (35% à 45%) mais dont le surpoids augmente in fine la consommation par km.Le transport et le stockage de carburants liquides ou liquéfiables à température ambiante comme le LPG rendent leur utilisation bien plus économique et bien moins dangereuse que l’hydrogène ou le méthane qui doivent être stockés à haute pression dans de pesantes bonbonnes d’acier.Rendez-vous donc dans 10 ans pour vérifier quel carburant et carburant et quel moteur remportera la bataille du transport !Laurent Miguet est l’auteur de « 9 milliards, le futur maintenant » et anime le blog Nowfuture

Ensemencement des océans, agriculture regénératrice : à quel coût ?

En principe, la séquestration du CO2 par le biais de l’agriculture régénératrice, de l’ensemencement des océans, de la culture du phytoplancton et de la production de charbon vert et d’algues, associés à la relocalisation des implantations humaines, pourrait présenter un bilan carbone négatif de – 3 gigatonnes (Gt) de carbone par an et autant de biomasse utile produite. Si ce simple calcul a de quoi réjouir, il ignore toutefois les besoins considérables en énergie et en temps requis par de tels procédés.Sur le sujet de la séquestration du CO2 – c’est-à-dire les processus extrayant le CO2 de la biosphère et le stockant dans des puits de carbone – deux camps s’affrontent communément : celui du pour et celui du contre. Le premier met en avant la nécessité d’enrayer le réchauffement climatique causé par le carbone, tandis que le second juge le procédé inutile dans la mesure où l’impact négatif des carburants fossiles sera inévitablement atténué par la baisse de la consommation entraînée par les pics pétrolier, gazier et un pic potentiel de charbon prévu selon des calculs récents s’appuyant sur la courbe de Hubbert, pour 2028. Je ne suis pas certain de la pertinence de la thèse du pour, car nul ne peut savoir avec exactitude comment la Terre va réagir au réchauffement climatique (et personne ne le saura avant d’avoir mené à leur terme des expériences considérables). Mais en ce qui concerne le contre, je suis d’accord pour dire que le réchauffement climatique est à l’heure actuelle le dernier de nos soucis, alors que la pénurie de pétrole et de gaz est susceptible d’avoir des conséquences cataclysmiques pour la société si nous ne trouvons pas de plan B.On pourrait toutefois envisager de réconcilier les deux positions, si tant est qu’on en ait le temps et que le E.R.O.E.I (le rapport de l’énergie obtenue sur l’énergie consommée pour la produire) soit satisfaisant. Soyons optimistes et considérons, pour le moment du moins, que tel est le cas.Les propositions de géo-ingénierie me laissent toujours mal-à-l’aise, y compris l’idée d’ensemencer l’océan. Ma crainte réside principalement dans le fait que tous les aspects de la nature sont liés entre eux et que y toucher d’un côté, pourrait entraîner de l’autre une calamité imprévue. C’est l’effet papillon, pour reprendre une expression connue. Toutefois, si on parvenait à faire proliférer le phytoplancton, disons dans l’océan antarctique, 1 Gt de carbone pourrait être capturée chaque année.D’après les estimations, l’agriculture régénératrice pourrait séquestrer près de 3 Gt de CO2 chaque année (bien que ces chiffres soient discutés) et d’ici 2050, la production de charbon vert (*) pourrait compter pour une autre Gt de charbon par an. En principe, et là est tout l’intérêt, le charbon contenu dans le sol peut y rester et améliorer sa qualité. Mais si on pouvait recueillir les autres types de carbone séquestré, on pourrait potentiellement produire une source utile de biomasse/biocarburant. La culture d’algues à l’échelle locale – un village de bassins, pourrait-on en quelque sorte l’appeler – pourrait produire de l’énergie pour remplacer les carburants fossiles pour les communautés locales, sans conséquence pour les terres arables.Etant donné que nous émettons 7 Gt/an de CO2 à partir des énergies fossiles, il resterait (en Gt) : 7 – 1 – 3 – 1 = 2 Gt dont il faudrait encore s’inquiéter. Une réduction de la consommation en énergies fossiles de 50 % grâce à la biomasse réduit encore ce total à 1 Gt. La photosynthèse absorbe déjà près de 3 Gt de CO2/an dans le phytoplancton et les plantes terrestres. Si la production localisée d’algues réduit encore les émissions de pétrole d’une autre gigatonne, le bilan des deux combinés est carbone négatif de – 3 Gt/an.Ainsi, dans 40 ans, il y a aura 120 Gt de CO2 en moins dans l’atmosphère, pour une réduction de concentration en CO2 de 50 à 60 ppm.Ce qui précède est une extrapolation à partir de données que j’ai pu trouver. Ainsi, sur le papier, tout paraît rose. Nous pourrions ainsi faire durer les ressources pétrolières, gazières et nucléaires tout en ramenant le taux de carbone dans l’atmosphère au niveau qui était le sien avant l’industrialisation, et tout cela d’ici la fin de ce siècle. Ce qui est rarement mentionné, sans parler d’être chiffré, ce sont le temps de la mise en route, les coûts énergétiques, l’E.R.O.E.I., les matériaux, l’ingénierie et j’en passe… C’est là que le tableau se dégrade.Par exemple, alors que je suis favorable à l’idée du charbon vert, les objectifs fixés par l’International Biochar Initiative (IBI) sont de 1 Gt/an de carbone soustraite de l’atmosphère d’ici à 2050. Parfait. Si on considère que l’échéance est dans 40 ans et qu’aujourd’hui on part de zéro, avec des progrès technologiques réguliers, on observe seulement une réduction de 20 Gt de carbone ou de 10 ppm (vous le constatez en traçant une ligne droite de coordonnées, 0-1 Gt en ordonnée et 0-40 ans en abscisse), alors que dans le même temps la production de biomasse et tout le processus seront colossaux.Cela dit, si ce niveau est atteint et respecté au-delà de 2050, 1/7 de tout le CO2 (14 %) séquestré par an serait un résultat conséquent. Le ratio pourrait même être encore plus important si la consommation en énergies fossiles se trouvait à ce moment-là considérablement réduite, délibérément ou à cause de l’appauvrissement des ressources. En outre, le bénéfice principal du charbon vert devrait être une amélioration de la qualité des sols, s’il est utilisé dans une logique de réparation des sols, réduisant ainsi les besoins en eau et nutriments comme le nitrate et le phosphate pour les cultures. Ce dernier point devrait être crucial dans les parties du monde où les sols sont pauvres, à savoir l’Afrique et l’Asie. Au Royaume-Uni, les sols ont tendance à être très riches – trop riches même parfois. Pourtant, là aussi, l’incorporation de charbon vert dans le sol atténuerait les problèmes de débordement des eaux qui contiennent trop de phosphate et de nitrate.Le potentiel de séquestration du carbone de l’agriculture régénératrice est contesté. De même, peu de preuves viennent étayer la possibilité d’ensemencer l’océan, ou d’étendre le plancton à une échelle significative. En effet, si des quantités considérables de phytoplancton devaient pousser suite à l’ensemencement, les émissions de composés du souffre (H2S, diméthyl de souffre, etc.) qui oxydés, déploient des particules de sulfate dans la troposphère, auraient pour conséquence de contribuer à … l’ensemencement des nuages. Ceci pourrait aider à refroidir la planète en réfléchissant davantage la lumière du soleil dans l’espace, ce qui est une bonne chose pour le réchauffement climatique, mais affecterait sûrement le niveau des précipitations et la distribution de l’eau à l’échelle de la planète.Ce que je vois, c’est que la production de charbon vert et d’algues à l’échelle locale, dans le cadre d’un programme de basse consommation énergétique, pourrait offrir certains bénéfices. Une fois n’est pas coutume, le nombre d’habitants sur le planète serait également un avantage. Ainsi, si 2.000 personnes pouvaient séquestrer 200 tonnes de charbon vert par an (100 kg/personne), 7 milliards d’entre nous pourraient séquestrer près de 0.8 Gt/an (pas loin des projections de l’IBI d’1 Gt/an d’ici à 2050). Toutefois, c’est la baisse de consommation d’énergie qui importe vraiment. Revenons au village de bassins d’algues. Il faudrait au total 3.200 km2 de bassins pour approvisionner la Grande Bretagne en carburant, soit une superficie pour chaque village de bassins de : 3.200 km2 x 100 ha/km2/60 million x 2.000 = 10,7 hectares par tranche de 2.000 personnes. Cela semble beaucoup mais pas impossible, morcelé de cette façon. Le vrai problème réside dans le traitement des algues, soit par extraction de l’huile (transestérification) soit par gazéification thermique. Il serait peut-être plus simple de cultiver les algues (et la biomasse en général), la sécher et la brûler comme source d’énergie thermique.Tout ce qui vient d’être mentionné va nécessiter une somme considérable d’ingénierie et donc de temps et d’énergie. Mais laissons ces sombres détails pour nous concentrer à nouveaux sur ces chiffres réjouissants.(*)le charbon vert – ou biocharbon – est la traduction du mot anglais Biochar, charbon de bois produit à partir de la biomasse, notamment les résidus végétaux.Chris Rhodes, tient un blog (Energy Balance) qui traite des problématiques énergétiques et environnementales actuelles, et est éditorialiste pour Scitizen.com . Aujourd’hui retiré de la vie académique, il poursuit ses activités de consultant (« Fresh-Lands ») pour l’amélioration des conditions environnementales en Europe et dans les pays de l’ex-URSS.

Ampoules fluorescentes : attention au mercure

Récemment, la Commission européenne a décidé de supprimer les ampoules incandescentes dans un délai de dix ans. Pourtant, une ONG vient de lancer en Lituanie une campagne contre l’utilisation croissante des ampoules fluorescentes. La raison : le mercure.Les dangers de l’exposition au mercure sont connus. Elle peut augmenter le risque de maladies coronariennes mortelles chez l’homme âgé. (1) On sait aussi (2) que les taux actuels de mercure dans l’environnement des pays industrialisés peuvent avoir un impact sur le développement des embryons humains et entraîner des troubles neurocomportementaux chez les nouveaux-nés. C’est pourquoi on pousse à réduire le taux d’exposition au mercure. Une des sources importantes d’émission du mercure est constituée par les émissions des centrales au charbon, largement utilisées dans le monde pour la production d’électricité. En principe, il est possible de capturer celui-ci dans les cheminées avec un taux d’efficacité élevé. C’est ce que font de nombreux incinérateurs de déchets en Europe occidentale. Mais je n’ai pas trouvé de centrale au charbon qui pratique cette capture de façon satisfaisante. Certes, les ampoules fluorescentes consomment moins d’électricité que les ampoules incandescentes. Donc leur utilisation généralisée solliciterait moins le réseau électrique et donc moins les centrales à charbon. On a ainsi calculé aux Etats-Unis que, sur la durée de vie d’une ampoule, l’émission de mercure résultant de la production d’électricité est réduite en moyenne de 8 mg quand le consommateur remplace une ampoule incandescente par une ampoule fluorescente (3). De ce point de vue, l’ONG lithuanienne a donc tort de partir en campagne contre les nouvelles ampoules. Mais elle a raison de mettre en garde contre le danger de libération de mercure quand les ampoules fluorescentes compactes sont jetées à la poubelle. Le seul moyen pour empêcher ce geste dangereux est de mettre en place un système de récupération des ampoules (type dépôt-remboursement) qui permet ensuite de recycler le mercure avec un taux d’efficacité élevé. Ce recyclage permet en outre de préserver une ressource naturelle très rare. (1) E. Guallar et al. New England Journal of Medicine 347 (2002) 1747-1754 (2) G. Huel et al. Environmental Health Perspectives 116 (2008) 263-267 (3) M.J. Eckelman et al. Environmental Science & Technology 42 (2008) 8564-8570Lucas Reijndres est professeur en sciences environnementales à l’Université d’Amsterdam depuis 1988 et à l’Université ouverte des Pays-Bas depuis 1999, et éditorialiste à Scitizen.com.

Déchets en eaux profondes : une fausse bonne idée ?

Une nouvelle variante de la solution d’enfouissement océanique des déchets, co-rédigée par un chercheur de l’Université de Californie Gregory Benford, est proposée et mise en discussion par un professeur et chercheur de l’Université de Washington, Stuart Volet. Certes, la solution de l’enfouissement des déchets sous l’eau peut paraître à première vue comme n’étant pas une solution High Tech. Ce serait même une solution Low Tech voire même Old Tech pour résoudre un des problèmes les plus importants que le 21e siècle va devoir affronter. Pourtant c’est bien cette solution que les chercheurs s’obstinent à proposer. De quoi s’agit-il ? Cette nouvelle variante propose de réunir en bottes (comme du foin coupé) plusieurs tonnes de déchets à la fois, puis de lester ces bottes avec de grosses pierres ou des blocs de béton et de les couler à des profondeurs d’au moins 1.500 m. Ce mode d’enfouissement en eaux très profondes garantirait la capture du CO2 pendant des milliers d’années. Comment ? La théorie est principalement basée sur la différence de températures existant entre les eaux en profondeur (4°) et les eaux qui deviennent de plus en plus chaudes à mesure que l’on approche des courants de surface (théorie qui est à la base de l’exploitation de L’Energie Thermique des Mers). Pour nos chercheurs, cette constatation leur permet juste de déduire que les déchets entreposés dans des eaux froides et profondes seraient comme figés, emprisonnés sur place par le froid pendant « des milliers d’années » et donc ne bougeraient plus. Dans leur article, les auteurs déploient une autre théorie selon laquelle si les déchets étaient directement rejetés à proximité de « cônes alluviaux » – c’est-à-dire pour résumer, de ces lieux géo-morphologiques à proximité des côtes où les rivières finissent de se rejoindre sous l’océan – ces déchets se trouveraient naturellement enfouis par les limons de ces cours d’eau dans les eaux froides des profondeurs qui en préviendraient toute dégradation future. Selon les auteurs de l’article, l’objectif de réduction des émissions de CO2 que le monde s’est fixé ne pourra être tenu que si l’on enfouit 30% de la collecte mondiale des déchets dans des eaux océanes. Cela pourrait alors permettre de supprimer environ 600 mégatonnes de carbone, ce qui correspond à une réduction de près de 15% de CO2 dans l’atmosphère. Par rapport aux taux d’efficacité des autres façons de capturer le carbone que les auteurs disent avoir étudiées de près, la leur atteindrait un taux de 92%. A titre d’exemple, transformer les déchets en éthanol n’est efficace qu’à seulement 32%. Sans attendre les réactions des experts environnementaux que ne manqueront pas de lever de telles propositions, les auteurs suggèrent déjà la mise en place d’une structure de conditionnement des déchets en bottes de façon à les rendre facilement transportables par barges vers leurs lieux d’enfouissement en eaux profondes, où lesdites bottes seraient donc coulées après avoir été lestées de gros blocs de pierres ou de béton. Voilà qui ressemble tout de même beaucoup à un carnage écologique sous-marin. Mais qu’importe, on va même jusqu’à présenter cette technologie d’enfouissement en mer comme la plus proche des modes naturels d’élimination des déchets. Cette technologie qui a, je le rappelle, la faveur de beaucoup de scientifiques américains, a cependant un gros défaut : son coût. Une récente estimation de l’Earth Policy Institute a conclu que cette façon de séquestrer le carbone coûterait 210 dollars par tonne. Ce chiffre, rappelé aux auteurs de l’étude, remet vite les idées en place. Et encore se gardent-ils d’aborder la question de « l’empreinte carbone », sans doute élevée, laissée par de telles opérations de transport par barge de tonnes de déchets… et de leurs blocs de béton. Pour l’instant donc les auteurs suggèrent de continuer la R&D en la matière, si je peux dire, et appellent à « plus d’études sur l’incidence que cette technologie pourrait avoir sur les créatures qui vivent dans les zones en eaux profondes ». Ils ont remarqué que dans les eaux profondes, il y avait un écosystème ! Et sans doute savent-ils aussi que c’est celui que l’on connaît le moins bien. Le monde n’est peut-être pas encore sauvé, mais en tout cas on a l’air de tenir le bon bout… D’ailleurs on pourrait peut-être commencer directement par s’attaquer aux deux énormes plaques de déchets (de la taille d’un « mini continent ») qui dérivent toujours quelque part dans le Pacifique Sud. Il est vrai que celles-là, personne n’avait pensé à les mettre en bottes et à les lester… Par Francis Rousseau, auteur du blog  Les énergies de la mer 

Pic pétrolier ? Redoutez plutôt le gouffre pétrolier !

Vous entendez certainement cette expression pour la première fois : le gap oil, ou le gouffre pétrolier. J’ai fabriqué ce terme, qui me paraît nouveau, et qui résume la situation qui va prévaloir en matière d’approvisionnement et de prix du pétrole. On entend beaucoup parler du pic pétrolier, et on l’interprète de façon d’ailleurs erronée en considérant qu’il signifie que le monde va manquer de pétrole sous peu [un pic pétrolier désigne en fait le sommet de la courbe qui caractérise la production pétrolière d’un puits ou d’un champ pétrolier, ndlr]. Or le Dr Richard Pike, président de la Société Royale de Chimie et un ancien professionnel du pétrole, a montré avec des arguments convaincants qu’il y a davantage de pétrole – environ deux fois plus – à extraire que le chiffre généralement avancé de 1,2 milliard de barils. En fait, c’est le rythme de récupération de ces réserves de pétrole qui est au cœur du problème. Le monde extrait environ 84 millions de barils par jour, soit un peu plus de 30 milliards de barils par an. C’est un quantité énorme qui alimente les mécanismes mondiaux de l’économie moderne et une population de 6,7 milliards d’êtres humains. Si l’on en croit l’OMS, la population mondiale dépassera 9 milliards en 2050 et atteindra peut-être 12 milliards au siècle suivant. Tous nourris par le pétrole. D’autres estimations font état d’un plateau à 7,1 milliards d’ici 2024, avant une décroissance à 2,5 milliards vers 2100.  Or la croissance de la demande pour le pétrole apparaît tout aussi inexorable. On estime que dans vingt ans la Chine consommera plus de pétrole que les Etats-Unis et que, d’une façon générale, la demande mondiale aura augmenté de 50 %. Il est évident que quelles que soient les réserves dans le monde, elles ne pourront être récupérées à un rythme permettant de répondre à cette demande. Il y aura donc un gouffre grandissant entre demande et offre, comme cela s’est produit l’été dernier avec pour effet de faire grimper le prix du baril jusqu’à 150 dollars.  Cette situation de « gouffre pétrolier » aura une conséquence similaire : le prix du pétrole va s’envoler bien au dessus de sa valeur actuelle et l’impact sur l’économie mondiale sera sévère, avec des oscillations sur les marchés d’une amplitude sans précédent. Il y aura aussi des pénuries de pétrole, les fournitures allant au plus offrant, et donc des changements dans l’équilibre des pouvoirs économiques et politiques, qui iront dans les mains de ceux qui détiennent ce pétrole. Cela va se produire que l’on soit ou pas arrivé au pic pétrolier. Le concept de pic pétrolier mondial est trompeur dans la mesure où les puits pétroliers sont à des étapes différentes de leur exploitation : la Russie produira encore du pétrole longtemps après la fin des gisements de mer du Nord, et l’Arabie saoudite en sortira sur une période encore plus longue. Certains pays vont donc dépendre d’autres. Le pic pétrolier mondial correspondra au moment où les plus grand puits culmineront. Quand le gisement géant de Ghawar en Arabie saoudite sera à ce stade, nous pourrons dire adieu à nos styles de vie de consommation.  Cela va conduire à un nouvel âge de l’efficacité énergétique et un recours plus systématique à des économies durables, plus localisées et donc moins dépendantes des transports, et davantage centrées sur la bio-économie, fonctionnant à partir de ce qui peut être cultivé. Les solutions technologiques, par exemple celles fondées sur l’hydrogène, n’arriveront pas avant des décennies, si tant est qu’elles arrivent. Au mieux, nous aurons besoin de solutions intermédiaires. L’avenir de l’humanité va reposer sur la durabilité de la photosynthèse, plutôt que sur les carburants fossiles qui furent produits par une photosynthèse il y a des millions d’années. Quand le pic pétrolier arrivera, il va encore élargir ce gouffre pétrolier. C’est lui que nous devons redouter, ce moment où l’offre ne répondra plus à la demande, et qui est inévitable et imminent.En savoir plusLe Professeur Chris Rhodes est un chercheur et un écrivain renommé, qui a dévouvert les questions environnementales en travaillant en Russie après l’accident de Tchernobyl. Chimiste de formation, il a publié plus de 400 articles de vulgarisation scientifique et plusieurs livres.Chris Rhodes est éditorialiste à Scitizen.com.

Chiffres clés : photographie du parc éolien français en 2009

Les données présentées ci après sont produites par le Syndicat des Energies Renouvelables et sa branche spécialisée France Energie Eolienne et couvrent la période allant de fin 2008 à début 2009. Ci-dessous, la carte des parcs éoliens en activité. Une photographie qui permet de constater l’absence d’équipements en Aquitaine, alors que plus au Nord, la Bretagne est largement pourvue. Les trois graphes ci dessous présentent pour le premier la puissance installée par région, pour le deuxième, la puissance installée par département, et enfin la part d’énergie produite par les éoliennes au regard de la consommation du département. Très instructif !Autant de données qu’il est possible de retrouver sur le site de France Energie Eolienne. Un document Excel vraiment bien fait présente chacun des parcs en puissance installée et permis de construire accordés, en part de production au regard de la consommation, la puissance des machines, les classements par cartes, départements, régions, et même les marques des éoliennes installées.

Sources :
Neomansland

Pesticides : enfin une nouvelle directive européenne

C’est en raison d’un risque cancérigène ou de leur possible effet de perturbateur endocrinien, que 22 substances, utilisées dans la fabrication de pesticides seront prohibées dans l’Union Européenne. En parallèle, les eurodéputés ont prévu la création d’une liste de substances actives à partir de laquelle des autorisations de mise sur le marché seront délivrées. Mais la directive ne s’arrête pas là et prévoit également d’imposer des formations pour les professionnels et des campagnes d’informations pour les citoyens.Harmoniser les législations nationales constitue l’objectif initial des rapporteurs du texte qui voulaient également moderniser la réglementation antérieure datant de 1991, selon le communiqué de presse du Parlement européen. Dès à présent « deux fongicides – le Carbendazim et le Dinocap – seront interdits dès 2009 » lit-on dans la Tribune, tandis que pour les autres, l’interdiction se fera de manière échelonnée : les substances se trouvant actuellement sur le marché, mais étant considérées comme dangereuses pour la santé humaine, seront progressivement interdites à l’expiration de leur autorisation de commerce. Le même journal précise qu’il est prévu des « exemptions au cas par cas, notamment lorsque aucune alternative n’est possible, en cas de menace sérieuse pour les récoltes » sachant que « les pays européens, répartis en trois groupes, auront la possibilité d’interdire un produit sur la base de risques spécifiques pour l’environnement ou l’agriculture » ajoute l’Express. D’ailleurs, les parlementaires réaffirment leur volonté de réguler le marché des pesticides, puisqu’à l’origine de ces interdictions, se trouve une liste répertoriant les produits qui seront in fine autorisés au commerce dans l’Union européenne. Le but de cette réglementation étant de « faciliter la mise sur le marché européen des produits phytosanitaires tout en garantissant un niveau élevé de protection à l’égard des consommateurs » tel qu’on peut le lire dans le communiqué de presse du Parlement.Dans le cadre de son application par chacun des Etats membres, la directive prévoit des moyens d’action, comme l’attribution de subventions pour encourager l’utilisation de pesticides moins nocifs. Les pays de l’UE devront également remplir des missions de formation sur les produits illégaux auprès des professionnels et de sensibilisation des citoyens sur les risques liés aux pesticides ou encore mettre en oeuvre les mesures nécessaires pour éviter toute contamination de l’eau à proximité des zones de captage. Enfin, concernant les produits phytosanitaires (dont l’utilisation concerne les organismes végétaux), le texte prévoit la mise en place d’un « principe de la reconnaissance mutuelle des produits autorisés », comme l’explique le Nouvel Observateur.L’hebdomadaire indique de plus que, dans la foulée de cette directive, a été votée une loi prévoyant, « avec des exemptions temporaires au cas par cas, l’interdiction des pulvérisations aériennes, répandues dans la sylviculture et la viticulture, en raison des risques d’expansion vers des zones peuplées ou écologiquement sensibles ». Les parcs, les terrains de sports ou les cours de récréation se transforment ainsi en zones de non-droit pour tout pesticide. Mais la santé humaine n’est pas la seule concernée : la Commission européenne prévoit d’effectuer des études pour mesurer l’impact des pesticides sur la mortalité des abeilles, dont le taux s’élève à 30 % dans les pays de l’Union.Au Parlement, on met surtout l’accent sur la « victoire des Verts et des environnementalistes qui ont su collectivement résister aux énormes pressions » d’après les propos recueillis par le Nouvel Observateur de Monica Frassoni, co-présidente du groupe des Verts au Parlement européen. Et si le texte a été sujet à controverse, le vote ne clôt pas les discussions pour autant. L’Express révèle que « certains scientifiques […] estiment que le texte risque de poser des problèmes de compétitivité à ‘agriculture européenne et de rendre certaines cultures plus onéreuses ». Pour sa part, François Veillerette, président du MDRGF (le Mouvement pour le Droit et le Respect des Générations Futures) reconnaît dans la Tribune que le « texte constitue une première, notamment en instaurant des critères visant à exclure les pesticides dangereux », mais il s’attend également à « batailler ferme pour que la notion de perturbateurs endocriniens soit définie rapidement et de la manière la plus stricte possible ». La directive, fruit d’un compromis entre les acteurs en jeu, a dû « s’amaigrir » de l’objectif de diviser l’usage des pesticides par deux en l’espace de 10 ans (par ailleurs un des objectifs du Grenelle de l’environnement), ce dont se sont satisfaits les industriels, présentés pourtant comme ceux ayant le plus à perdre de l’application du texte.Une contribution de la Mission d’animation des Agrobiosciences 

Nanotechnologies : REACH ne suffira pas

Le gouvernement britannique doit reconnaître de façon urgente le degré d’ignorance et d’incertitude qui règne dans le domaine des nanomatériaux ainsi que le temps qui sera nécessaire pour résoudre ce problème et doit donc développer des systèmes de contrôle adaptés à ces nouvelles technologies.Telle est la principale conclusion de la RCPE (Royal Commission on Environmental Pollution) dans son 27ème rapport consacré aux « nouveaux matériaux dans l’environnement ». Toutefois, la RCEP ne voit pas de justification à une interdiction complète ou à un moratoire visant les nanomatériaux.Le rapport de la RCEP s’ajoute aux nombreuses voix (Royal Society, Royal Academy of Engineering, Council for Science and Technology entre autres) qui, au Royaume-Uni, réclament davantage de recherches sur les possibles dangers liés à l’utilisation des nanomatériaux. Pour la RCEP, une nouvelle gouvernance est nécessaire. En effet, en matière de réglementation, de nombreux aspects des nanomatériaux sont couverts par la règlementation européenne REACH (qui n’a toutefois pas été conçue pour prendre en compte ces nanomatériaux et leurs applications). D’autres dimensions pourraient être couvertes par l’extension logique du cadre existant. Mais d’autres aspects des nanomatériaux vont au-delà des réglementations existantes, ce qui nécessite de façon urgente la mise en place d’une nouvelle gouvernance dont les principes généraux pourraient d’ailleurs s’appliquer à d’autres domaines de développement technologique.Selon la RCEP, la limitation la plus significative de REACH a trait au seuil d’une tonne. Du fait du très grand nombre de particules contenues dans de très petites quantités de nanomatériau, une tonne peut constituer un seuil trop élevé pour capturer des effets potentiellement problématiques. La RCEP se félicite donc de la demande faite par la Commission européenne au Comité scientifique européen sur les risques sanitaires émergents et nouveaux (SCENIHR) de passer en revue REACH et de formuler des recommandations sur la façon dont la réglementation pourrait être modifiée pour couvrir les nanomatériaux.Les recommandations de la RECP s’articulent autour de trois axes :1) la fonctionnalité : plutôt que de traiter tous les matériaux de même taille comme une seule classe, il convient de se concentrer sur les propriétés et sur les fonctionnalités de nanomatériaux spécifiques pour comprendre leur comportement dans les organismes et dans l’environnement ; 2) l’information : il est urgent de mettre en place un programme de recherche dirigé et substantiel sur les propriétés et les fonctionnalités des nanomatériaux. Les résultats de ce programme seront utilisés pour élaborer des stratégies d’évaluation et de gestion des risques. Ce programme dirigé aura en particulier pour objet le développement de techniques permettant la détection de nanomatériaux particuliers dans l’environnement. Les formations en toxicologie et en nanotoxicologie dispensées dans l’enseignement supérieur britannique devraient être renforcées ;  3) un système de gestion doté d’une grande capacité d’adaptation : (…) un système d’alerte précoce pourrait être fondé sur une check-list assez simple obligatoirement remplie par les fabricants ou importateurs de nanomatériaux non couverts par REACH. Enfin, le gouvernement britannique devrait pousser la Commission européenne à évaluer la réglementation REACH, de façon urgente et en consultation avec les états membres et le Comité scientifique européen sur les risques sanitaires émergents et nouveaux (SCENIHR). L’objectif serait d’adapter ce règlement au cas des nanomatériaux.Une étude du service science et technologie de l’Ambassade de France au Royaume-Uni reprise par la Mission d’Animation des Agrobiosciences.

L’UE fait la part belle à l’éolien offshore

Le secteur de l’énergie éolienne est celui qui connaît la plus forte croissance mondiale parmi toutes les sources d’énergies renouvelables. L’industrie éolienne vise à fournir de 12 à 14% de la consommation d’électricité d’ici 2020 et le portail Europa estime que plus d’un quart de ce pourcentage pourrait provenir de l’éolien offshore. En 2030, la contribution de l’éolien offshore devrait atteindre 15% de l’ensemble de la production d’électricité de l’Union européenne. Alors que l’on peut considérer que la technologie éolienne onshore est parvenue à maturité technologique, l’éolien offshore aurait, selon ce mémo, encore besoin de faire ses preuves en étant développé dans de grands projets à l’échelle industrielle. Dans le cadre de l’European Economic Recovery Action Plan, un programme d’énergie éolienne offshore (Offshore Wind Program) de 500 millions d’euros est désormais proposé.L’Offshore Wind Program se concentre sur l’accompagnement de nouveaux projets éoliens offshore à grande échelle mis en place par divers États membres et se propose, éventuellement, d’accompagner ceux qui sont déjà en cours de développement. Dans ce dernier cas précis, l’U.E. fait savoir qu’un soutien ne pourra être apporté qui si celui-ci constitue « une véritable valeur ajoutée pour eux ». Les projets qui seront privilégiés devront réunir plusieurs conditions parmi lesquelles : avoir une véritable « implication transfrontalière », être situé en eaux profondes (jusqu’à 50 m) et offshore – farshore (jusqu’à 100 km des côtes), distance et profondeur estimées nécessaire par l’U.E. pour tirer un profit maximum de la ressource.D’ores et déjà de nombreux projets éoliens offshore impliquent la mise en place d’infrastructures transfrontalières d’une grande complexité technologique et logistique. L’U.E. estime avoir un rôle particulier à jouer dans l’encouragement des investissements nécessaires dans ce domaine qui, sans son appui, pourrait être négligé par certains Etats membres.Par Francis Rousseau auteur du site Les énergies de la mer

Malte, une île branchée… au compteur intelligent

Les compagnies d’électricité et d’eau de l’île de Malte, Enemalta Corporation et Water Services Corporation (WSC), ont confié à IBM, pour 70 millions d’euros, le soin de mettre en place un réseau intelligent d’eau et d’électricité pour les 400.000 Maltais.Le géant américain va d’abord remplacer par des compteurs intelligents électroniques les 250.000 compteurs électriques analogiques de l’île, qui intégreront désormais à la fois l’eau et l’électricité. Ils seront consultables et gérables à distance, et constitueront la première étape d’un réseau intelligent d’un bout à l’autre de la chaîne.Les nouveaux compteurs permettront toute une série de nouveaux services, tant pour les consommateurs que pour les compagnies de distribution : le paiement de la consommation réelle et non estimée, des tarifs flexibles, la génération automatique des factures, le pré-paiement, le suivi de la consommation via un portail Internet qui permettra de choisir les forfaits les plus adaptés. En outre, la consommation d’eau et d’électricité sera optimisée (réduction des pertes, gestion à distance du réseau, analyse en temps réel de la consommation sur le réseau).Le système doit être entièrement terminé en 2012.C’est peu sans doute face aux 40 millions de compteurs que Barack Obama veut installer aux Etats-Unis (lire l‘article de Greenunivers), aux quelques 35 millions que veulent déployer la France comme la Grande-Bretagne (lire l’article de Greenunivers) pour équiper tous les foyers, sans oublier les 28 millions de compteurs déjà installés en Italie, pays pionniers. Mais avec ce système intégral, Malte servira de test grandeur nature à ses plus grands voisins, et de vitrine à IBM qui se positionne en force sur ce créneau convoité aussi par Google (lire l’article de Greenunivers).Par Laurence Benhamou auteur du site GreenUnivers