Une pile photovoltaïque à bas coût au Pays de Galles

La recherche pour réduire les coûts de production de l’énergie solaire bat son plein. Après le silicium moins pur et mois cher du CEA (commissariat à l’énergie atomique), c’est l’université de Swansea, au Pays de Galles, et la société Pure Wafer International (spécialiste de la production de semi-composants électriques et électroniques), qui ont mis au point une pile photovoltaïque à bas coût grâce à l’utilisation d’un silicium de récupération.Le silicium de récupération est un résidu de l’activité de récupération des tranches de semi-conducteurs fabriquées par Pure Wafer. Il est d’habitude expédié à l’étranger pour être retraité dans une qualité plus basse.

Un rendement supérieur de 14 %
Les cellules photovoltaïques produites sont ensuite intégrées dans des modules constitués de 90 cellules connectées dont le rendement est plus important que les cellules isolées.Le prototype de cette pile photovoltaïque aurait déjà un rendement de 14 %, selon l’université de Swansea, qui espère arriver à 20 % rapidement, soit 5 % de plus que les piles déjà commercialisées. Et grâce au silicium de récupération, le coût serait plus bas.Pure Wafer International et l’Université de Swansea espèrent obtenir un soutien financier des pouvoirs publics pour développer leur projet et commencer la production en 2010.Par Laurence Benhamou, auteur du site Green Univers 

Marché du carbone : des raisons d’y croire ?

Le marché du carbone, qui consiste à acheter et à vendre des crédits de carbone, a comme tous les autres secteurs souffert de la crise. Cependant, selon une étude américaine, la tendance pourrait changer à moyen terme. Le crédit de carbone, qui équivaut à l’émission d’une tonne de dioxyde de carbone, permet à son détenteur d’émettre davantage de gaz à effet de serre. Le but est de favoriser les entreprises et les états qui luttent activement contre les rejets de CO2, dans le but de poursuivre les objectifs fixés par le protocole de Kyoto.Il s’agit donc d’un marché à enjeux, qui a connu une récession ces derniers mois. Une mauvaise passe qui est pour l’instant loin d’être terminée. En effet, la société d’études américaine SBI table sur une année 2009 médiocre pour le marché du carbone. Ainsi, à court terme, les perspectives restent assez mauvaises. Le marché du carbone devrait se contracter de 29 % cette année, pour plafonner aux environs de 84 milliards de dollars. Une estimation, plombée par la chute des cours, qui reflète la situation incertaine des marchés.

Des cours faibles et des opportunités d’achats
Mais au-delà de la crise actuelle, SBI est plus optimiste. La société d’étude table sur un taux de croissance annuel de 69 % dans les quatre années qui suivent, ce qui propulserait le marché à 669 milliards de dollars en 2013. Un chiffre prospectif mais encourageant, qui tient compte d’une reprise progressive de l’activité industrielle, et donc des émissions de CO2. Cette augmentation des émissions devrait créer une demande supplémentaire en termes de crédits de carbone. Pour SBI, la volonté de Barack Obama de créer un marché national du carbone, comme celui existant en Europe, devrait aussi jouer un rôle actif dans cette reprise. De plus, les cours actuels, déjà faibles et toujours à la baisse, offrent actuellement de belles opportunités d’achats.

Un optimisme qui n’est pas partagé par tous
Aujourd’hui, le cours du carbone est à 13,5 euros. Il était il y a deux mois à 10 euros (au début du mois de février), loin de son record d’avril 2006, à 33 euros. Bien sûr, la principale explication à cette baisse trouve son explication dans la récession actuelle. Concrètement, beaucoup d’industriels européens concernés par les allocations de quotas de CO2 ont réduit substantiellement leur production. Le cas est valable en particulier pour les cimentiers et les sidérurgistes. Leurs émissions de CO2 ont dont baissé, forcément, et ils se sont retrouvés avec des surplus de crédits. Au final, certains, à cours de liquidités, ont vendu leurs quotas, accélérant ainsi l’effondrement des cours. Ainsi, si 2009 sera une année difficile, SBI reste optimiste et voit de multiples signaux favorables à une reprise à moyen terme. Mais toutes les sociétés d’études ne partagent pas cet avis. Ainsi, à la suite de cette étude, d’autres analystes ont fait part de leurs réserves quant aux conclusions de SBI. C’est le cas de Barclays Capital, qui estime que le marché aura besoin de plusieurs années pour récupérer.

Le rendement des OGM de nouveau en question

Le rapport publié le 14 avril dernier par l’UCS, un groupe de chercheurs indépendants américains, participe à la remise en cause des rendements des OGM, en comparaison avec les semences classiques. C’est en tout cas ce qu’affirme Doug Gurian-Sherman, l’auteur du rapport : « depuis des années, les industries claironnent qu’elles vont nourrir le monde, en promettant que les OGM produiront de meilleurs rendements.»En effet, les semenciers justifient l’utilisation de semences transgéniques par la nécessité de produire plus, pour nourrir une population mondiale, qui atteindra, selon les prévisions, 9 milliards d’individus en 2050. Assurer les besoins alimentaires de la planète est un enjeu fort, mais la solution « OGM » semble perdre peu à peu sa crédibilité.

Des hausses de rendement « marginales »
Pour conduire à bien son rapport, l’UCS a analysé toutes les statistiques et travaux académiques publiés sur le soja et le maïs, qui sont les deux cultures les plus répandues aux Etats-Unis. En effet, 90 % des surfaces de soja du pays sont génétiquement modifiées. Le chiffre est de 60 % en ce qui concerne le maïs.Les études, notamment menées sur les trois OGM qui dominent le marché américain, révèlent que l’amélioration du rendement par rapport aux semences naturelles est marginale, voire nulle. Ainsi, le rapport explique que les rares hausses de rendement observées suite à l’utilisation d’OGM pourraient trouver leur justification dans les innovations techniques agricoles. Mais le rapport va plus loin, puisque son auteur juge que le recours aux biotechnologies pour assurer les besoins alimentaires de la planète est une utopie, voire un danger.

« L’agriculture traditionnelle continue d’avoir de meilleurs résultats »
Quoi qu’il en soit, il ne s’agit pas du premier rapport mettant en cause la pertinence de l’utilisation des OGM. En 2006 déjà, une étude, menée par les chercheurs du ministère américain de l’agriculture, avait conclu que les cultures transgéniques n’amélioraient pas « significativement » les rendements. Cette étude se basait sur les rendements relevés lors des dix premières années d’utilisation des organismes transgéniques. Doug Gurian-Sherman, dont le rapport déconseille le choix des OGM comme solution aux défis alimentaires de demain, prône même un retour en arrière. « Comparée aux OGM, l’agriculture traditionnelle continue d’avoir de meilleurs résultats. Pourquoi donc prendre un risque pour la santé humaine et l’environnement avec une agriculture qui n’offre pas de meilleures récoltes ? » Ces résultats, qui viennent s’ajouter aux études déjà menées, ont fini de jeter le trouble, surtout chez les agriculteurs, qui se tournent vers les OGM principalement pour augmenter leurs récoltes.

Les panneaux solaires bientôt sur orbite ?

Le marché du solaire progresse considérablement depuis quelques années. On entend parler chaque semaine de nouveaux projets d’installations de centrales solaires, sur des superficies toujours plus importantes. Le bémol à cette embellie est le rendement du solaire, peu élevé. La dépendance de cette technique vis-à-vis des conditions météorologiques est aussi un facteur limitant au niveau géographique, pour l’installation de panneaux solaires et pour la régularité de la production d’électricité.Aussi, l’idée d’installer des dispositifs solaires dans l’espace émerge depuis quelques mois. En effet, lorsque le rayonnement solaire traverse notre atmosphère jusqu’à la terre, la déperdition est importante : 60 % du rayonnement émis n’atteint pas le sol terrestre.Dans le détail, 30 % est directement réfléchi vers l’espace, 20 % par les nuages, 6 % par les différentes couches de l’atmosphère et 4 % par la surface de la terre. Au final, seule une petite fraction des rayons solaires arrivent effectivement au sol, pour une puissance reçue qui dépasse rarement les 350 W/m².

Une source d’énergie infinie
Ainsi, sur terre, seulement 4 à 15 % du rayonnement solaire est converti en énergie électrique. L’attrait pour l’espace est alors compréhensible et trouve sa justification. L’énergie solaire, quatre fois plus concentrée en haute atmosphère, a l’énorme avantage d’être diffusée de façon continue. Correspondant à une puissance de 1.300 W/m², il est donc permanent, et il ne dépend ni des conditions météorologiques, ni des saisons. La NASA, qui finance des recherches depuis de nombreuses années pour tenter de mettre au point un satellite capable de collecter les rayons du soleil pour transmettre l’énergie générée à des capteurs situés sur terre. Le projet, intitulé SPS (Solar Power Satellite), utilise une immense antenne parabolique qui capte les rayons solaires, et les transmet aux capteurs terrestres sous forme de micro-ondes. Ce procédé permettrait de récupérer 5 à 10 GW/h.Côté européen, EADS a choisi une voie très différente. Concrètement, l’utilisation d’un rayon laser pour transmettre l’énergie sur terre est sérieusement envisagée. Frank Steinsiek, responsable du projet SPI (Solar Power Initiative), explique ce choix : « Le faisceau laser assure une meilleure concentration de l’énergie et évite, sur de très longues distances, des dispersions latérales souvent incontrôlables. D’autre part, il n’affecte pas les systèmes électroniques de communication ou de navigation dans le voisinage. Enfin, les effets que peut avoir une émission continue de micro-ondes sur l’atmosphère terrestre ne sont pas sans risques. »Quoi qu’il en soit, la manipulation d’un laser n’a pas que des avantages. Ainsi, le faisceau doit pointer vers les récepteurs au sol avec une extrême précision. C’est pourquoi le laser transmet des informations de reconnaissance de position, en même temps que l’énergie.

Un réflecteur de 78,5 km de diamètre !
Mais d’autres paramètres, toujours à l’étude, doivent être améliorés. Par exemple, il est nécessaire d’augmenter de façon substantielle la puissance du laser : actuellement de quelques watts, elle doit atteindre le mégawatt pour être efficace dans cette configuration d’utilisation. Ensuite, la zone géographique d’installation des récepteurs doit se trouver dans une zone dégagée (sans nuages). Les choix sont restreints, puisque seuls les pôles et l’Afrique du Nord conviennent, et ces régions ne sont pas celles où l’on a le plus besoin d’électricité.Enfin, au-delà de ces problèmes théoriques, la mise en place du générateur orbital reste un problème de taille. Et pour cause : un laser actuel de 400 watts pèse 12 tonnes. La puissance nécessaire évaluée pour le projet SPI est de 10 gigawatts, ce qui correspond à un réflecteur de 78,5 kilomètres de diamètre ! L’opération nécessiterait donc des centaines de voyages pour assembler cette gigantesque antenne, pour un coût exorbitant. Dernier point, cette taille hors normes rendrait la probabilité de collision avec un astéroïde non négligeable.

Les lampes à économie d’énergie : une fausse bonne idée ?

Les ampoules à économie d’énergie n’ont jamais été aussi promues. Il est vrai que les chiffres ne plaident plus en faveur des lampes à incandescence. En effet, on sait que pour ces dernières, entre 5 et 10 % de la consommation d’électricité seulement est utilisée pour son objectif : l’éclairage. En comparaison, les ampoules à économie d’énergie sont à peu près cinq fois plus efficaces. C’est d’ailleurs la raison pour laquelle la décision a été prise, au niveau politique, d’arrêter petit à petit la vente des ampoules à incandescence. Prévue pour 2012, l’arrêt de la commercialisation de ce type de lampe se heurte aujourd’hui à l’avis de plusieurs scientifiques. Ainsi, un récent article publié par Michael Ivanco, scientifique de renom de l’Atomic Energy du Canada, et le professeur Bryan Karney jette le trouble sur le choix de privilégier les lampes à économies d’énergie.

Les ampoules fluo-compactes 5 fois plus efficaces
L’article en question revient sur les « effets indirects » des lampes à incandescence. En effet, sur les ampoules à incandescence, la majorité de l’électricité consommée a pour particularité de chauffer, avec un rendement que l’on peut comparer à celui d’un chauffage électrique. La suite est logique : le remplacement des lampes à incandescence coûte de l’argent, et a pour effet pervers de décharger plus encore la charge de chauffage sur les appareils qui sont dédiés à cette fonction. Bien sûr, le raisonnement n’est valable que si le foyer en question a besoin d’être chauffé. Mais la réflexion va plus loin. En effet, si les pays de l’Europe du Nord par exemple décidaient d’imposer le remplacement de toutes les ampoules à incandescence au profit d’ampoules à économie d’énergie, la situation serait la suivante : le remplacement des lampes à grande échelle reviendrait à utiliser moins d’énergie propre, et plus de gaz naturel, pour compenser l’énergie perdue.

Attention aux fausses bonnes idées
Ainsi, dans un objectif de limitation des émissions de gaz, ces pays auraient tout intérêt à utiliser des ampoules à incandescence durant toue la période de chauffe, soit 9 mois sur 12. A contrario, dans les pays chaud, où la climatisation fonctionne une grande partie de l’année, l’intérêt des lampes à économie d’énergie est avéré. Il faudrait donc, avant de prendre des mesures drastiques et définitives, prendre en considération les caractéristiques propres de chaque type de lampe.Ceci permettra à certains gouvernements, notamment en Europe, d’éviter de constater qu’au final, leurs décisions destinées à réduire l’émission de gaz à effet de serre aura eu l’effet inverse.

Un nouveau plant de maïs prometteur pour les biocarburants

Résultat d’années de recherche, la mise au point d’un maïs génétiquement modifié pourrait jouer un rôle fondamental pour le développement des biocarburants. Ce nouveau plant qui présente des surfaces foliaires plus importantes pourrait s’avérer être une excellente source de matière première pour la transformation en biocarburants. Les travaux ont été publiés dans Proceedings of the national academy of sciences of the United States of America (voir le site), daté du 2 mars 2009.

L’étude se base sur l’observation de la présence naturelle dans le génome du maïs d’un gène appelé Glossy 15, qui permet à la plante de secréter une cire recouvrant les jeunes feuilles, les protégeant ainsi d’un ensoleillement direct. D’autres études ont montré que la principale fonction de Glossy 15 serait de ralentir la maturation de la plante, lui permettant ainsi d’optimiser sa croissance et d’augmenter en taille à la fin de la saison. Stephen Moose a donc cherché à augmenter l’expression de ce gène en introduisant une seconde copie du gène à l’aide des procédés de transfert de gènes.

Les observations et mesures réalisées au niveau de la plante ayant subi cette modification génétique indiquent un allongement de la taille du plant, accompagné d’une réduction de la densité des grains et d’une augmentation de la teneur en sucres des tiges. Ces caractéristiques pourraient également en faire une excellente source d’alimentation pour le bétail.

Une manipulation sans danger pour l’environnement

L’équipe du professeur Moose a tenté cette expérience sur plusieurs types de maïs et les effets observés sont similaires pour l’ensemble des variétés étudiées. Les études d’optimisation de la technique ont toutefois permis de montrer que l’introduction d’un nombre trop élevé de copies du gène Glossy 15 pouvait avoir un effet létal sur la plante suite à une production trop importante de cire responsable d’un ralentissement de la croissance des feuilles.Le professeur Moose est relativement confiant quant à l’approbation de son dossier de demande d’autorisation de commercialisation par les services administratifs compétents : « la manipulation est sans danger pour l’environnement puisque le gène d’intérêt est déjà présent dans le génome du maïs, le seul changement étant l’intrusion d’une copie supplémentaire de ce gène .»

Les Etats-Unis veulent reprendre les études sur les OGM

Une précaution sans doute justifiée par le changement de ton des autorités fédérales. Contre toute attente, la réglementation relative aux OGM risque d’être modifiée aux Etats-Unis. L’USDA (le Département Américain à l’Agriculture) a annoncé le 6 mars dernier qu’elle comptait effectuer une révision de la réglementation des Organismes Génétiquement Modifiés (OGM).

Ceci confirme la volonté de la nouvelle administration de reprendre les études sur une technologie et des aliments qui demeurent, 13 ans après leur mise sur le marché, très controversés et dont l’innocuité pour la santé et l’environnement n’a toujours pas été démontrée d’une manière scientifique.

Autre signe de la volonté américaine de renouveler ses pratiques, un article du New York Times datant du 19 mars dernier rapporte que le couple Obama aurait décidé de cultiver des fruits et légumes biologiques à la maison blanche, afin d’envoyer un message sur l’importance d’une alimentation saine et plus respectueuse de l’environnement. Un petit geste qui accompagne celui de la prolongation des consultations publiques sur la première révision de la réglementation en matière d’OGM depuis 22 ans.

Article issu du Bulletins-electroniques.com

Sources :

  • Doubling a Gene in Corn Results in Giant Biomass, 02/03/2009: http://www.aces.uiuc.edu/news/stories/news4683.html
  • Obamas to Plant Vegetable Garden at White House, 19/03/2009: http://www.nytimes.com/2009/03/20/dining/20garden.html?_r=2
  • Obama renvoit les OGM à la cuisine! 17/03/2009: http://redirectix.bulletins-electroniques.com/fkcXd
  • BE Etats-Unis numéro 159 (27/03/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/58412.htm

Environnement et alimentation : gare à l’empoissonnement aux PCB !

Utilisés à l’origine comme lubrifiants, isolateurs, ou dans la fabrication de transformateurs, les PCB ont été interdits en France en 1987 du fait de leurs caractère cancérigène. Ces composés n’en sont pas moins toujours présents dans l’environnement. En raison de leurs propriétés chimiques (insolubilité, relativement ininflammable, stabilité moléculaire), ils sont très peu biodégradables et possèdent une durée de vie très longue.

Passagers clandestins
L’étude comparera des zones contaminées par les PCB à d’autres où ils en sont absents. L’objectif de l’AFSSA et de l’INVS est de connaître l’impact qu’ont ces éléments chimiques sur la santé humaine. Pour cela, 900 foyers de pêcheurs en eau douce répartis sur 6 zones contaminées ou non seront passés au crible des analyses sanguines.Le choix de zones de pêche peut surprendre. Comme l’explique l’AFSSA, « L’homme est exposé aux PCB essentiellement par la consommation de produits gras d’origine animale : poissons, viandes et produits laitiers. Toute la population française est exposée à d’infimes quantités de PCB par l’alimentation générale ».Les poissons restent les premiers contaminés par l’ingestion de PCB, le composé chimique se fixant facilement dans les sédiments ou sur diverses matières en suspension des milieux aquatiques. Les déplacements des poissons ainsi que leurs prédateurs contribuent de plus à étendre rapidement la zone contaminée. La question est donc de savoir, comme l’indique Metro, « si les consommateurs de poissons de rivière ont été plus exposés aux PCB que la population générale ». De plus, l’AFP précise qu’en parallèle, « le niveau de contamination des poissons de ces zones sera mesuré ».

Des interrogations déjà existantes
Reste que ce n’est pas la première étude sur la présence des PCB dans l’alimentation et l’environnement. En février 2008, l’Association Santé Environnement Provence (ASEP) s’était penchée sur l’impact des PCB sur 60 personnes de la région du Rhône. Patrice Halimi, secrétaire général de l’ASEP, livre les conclusions du rapport au journal Metro : « il y a une différence significative entre les gens qui consomment régulièrement du poisson du Rhône et les gens qui habitent le long du fleuve, mais qui n’en consomment pas, les premiers ayant une concentration en PCB dans le sang près de quatre fois plus grande dans l’organisme ».Il va en revanche falloir attendre février 2011 pour obtenir les conclusions de l’étude de l’AFSSA et de l’INVS sur la contamination humaine et animale par les PCB. L’AFSSA espère être en mesure de fournir « des recommandations détaillées quant aux fréquences de consommation (des poissons de rivière) sans danger pour l’homme », peut-on lire dans Metro. 

Source :
Revue de presse de la Mission Agrobiosciences du 15 avril 2009

L’énergie parfaite n’existe pas

La dernière expérience à grande échelle du NFI américain (le National Ignition Facility), le plus grand laser au monde, au Laboratoire National de Lawrence Livermore, a été accueillie avec le mélange habituel de fanfare et de scepticisme qui accompagne la quête de la fusion nucléaire. Cette dernière cherche à produire de l’énergie nucléaire au moyen de lasers ultra-puissants [ndlr : un procédé concurrent de celui expérimenté par le programme international ITER]. Mais plutôt que de me focaliser sur le potentiel prodigieux de l’énergie par fusion ou de chercher à savoir si cet appareil sera enfin le bon, je voudrais m’interroger sur notre vision collective des sources d’énergie. Notre foi dans la fusion nucléaire est-elle fondée sur le potentiel réel de celle-ci ou sur notre insatisfaction à l’égard de toutes les autres options énergétiques dont nous disposons ?

La fusion nucléaire solution par défaut ?

La réponse réside peut-être dans les caractéristiques que nous prêtons couramment à la fusion nucléaire : une technologie commercialement viable qui produit de l’énergie bon marché, fiable et concentrée à partir d’un combustible aussi omniprésent qu’illimité, tout en permettant d’obtenir des quantités conséquentes d’énergie sans déchets nuisibles. Est-ce une aspiration réaliste ou simplement une série d’antonymes des points faibles de chaque source d’énergie existante ?

Etudions les solutions alternatives :

  • Les carburants fossiles sont limités et leur production et leur utilisation libère toutes sortes de produits secondaires, y compris des gaz à effet de serre, qui participent au changement climatique. Leurs réserves sont également réparties de façon inégale, ce qui crée des situations préoccupantes de rentes, de nationalisme des ressources, d’instabilité géopolitique et d’insécurité.
  • L’énergie éolienne est intermittente, imprévisible et inesthétique, et requière une adaptation importante du réseau énergétique, des ressources en carburants fossiles comme roue de secours et des capacités de stockage importantes pour que le système soit fiable sur une grande échelle.
  • L’énergie solaire est plus prévisible que l’éolienne mais reste chère, inefficace et cyclique, et délivre moins d’un quart du pic de production quotidien, y compris dans les zones optimales. Plus de 3.000 MW d’installation solaire sont nécessaires pour générer la même quantité d’énergie qu’une centrale à charbon de 1.000 MW.
  • L’énergie géothermique est fiable et relativement bon marché. Cependant, les réservoirs « hydrothermiques » (des dépôts naturels de vapeur et d’eau très chaude) qu’elle exploite sont inégalement distribués et souvent éloignés des marchés. La géothermie profonde ou haute température est plus intéressante en termes de promesses et de flexibilité, bien qu’elle n’en soit qu’à ses débuts et puisse potentiellement causer des tremblements de terre.
  • L’énergie des océans exploite les vagues, les marées ou les gradients de température et offre ainsi un énorme potentiel, tout en ayant les mêmes inconvénients que l’éolien, le solaire et la géothermie. Elle est également à la traîne de plusieurs décennies par rapport à ces derniers.
  • La transition forcée vers un développement durable des biocarburants dépend d’une technologie chère et qui n’a pas encore été prouvée. La production à grande échelle de biocarburant nécessite de récolter une grande quantité de matière première encombrante et à faible potentiel énergétique, ce qui soulève de sérieuses questions sur ses capacités à fournir un jour un surplus suffisant d’énergie pour le reste de l’économie. Cette limite s’applique également à l’électricité générée par la biomasse.
  • La fission, cousine germaine de la fusion, est peut-être ce qui se rapproche le plus de cet idéal. Elle fournit de grandes quantités de KWhs à la demande, sans interruption, et entraîne très peu d’émissions. Malheureusement, le processus est entravé par le prix élevé de la construction de nouveaux réacteurs ainsi que par les préoccupations en matière de sécurité, de prolifération et de déchets. Certains de ces critères sont légitimes tandis que d’autres sont quelque peu pompeux, mais il est vrai que dans le domaine de la technologie, on n’a rien sans rien.

Ne vous méprenez pas sur mon compte. J’ai toujours aimé la science qui voit grand et rien ne me ferait plus plaisir si le National Ignition Facility ouvrait, comme il l’a été clamé à tous vents, une nouvelle ère d’abondance énergétique.Cependant, étant donnée la longue tradition d’inconvénients et de conséquences imprévues de toutes les autres sources d’énergie, il semble irréaliste de penser qu’une nouvelle source d’énergie, la fusion y compris, puisse répondre à toutes les attentes dont elle est porteuse.

L’énergie solaire dans l’espace : une solution d’avenir ?

La fusion est parfaite sur le papier, de même que l’est l’option énergétique que je préconise à long terme : l’énergie solaire dans l’espace. Du moins, jusqu’à ce que l’opinion publique s’inquiète d’envoyer des mégawatts d’énergie de l’espace vers la Terre ou que les Etats voyous parviennent à contrer les satellites pour retenir notre énergie orbitale en otage.Je ne sais pas quels seront les inconvénients inattendus de la fusion si le test du National Ignition Facility devait ouvrir la voie à la commercialisation de centrales à fusion d’ici une ou deux décennies. Je sais que nous avons besoin d’un vrai débat sur les concessions auxquelles nous sommes prêts dans le cadre d’un double challenge : le changement climatique et l’insécurité énergétique.

Au minimum, nous devons faire bouger les mentalités alors qu’aucune technologie actuelle n’est compétitive face à la perfection présumée de celles qui en sont encore au stade de la planche à dessin, ou dont les défauts n’apparaîtront qu’à un stade de développement plus avancé. Notre futur régime énergétique sera probablement un mélange peu orthodoxe de tout ce qui a été mentionné ci-dessus, comme c’est le cas aujourd’hui. L’énergie parfaite est un poisson d’avril.

Par Geoffrey Styles, gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il a également un blog : Energy Outlook.

Vers une production massive et propre d’hydrogène

L’hydrogène comme vecteur énergétique propre est l’une des solutions pour répondre aux actuels défis énergétiques. Pour produire ce carburant, que beaucoup désignent d’ores et déjà comme le carburant du futur, la méthode d’électrolyse de l’eau figure parmi les filières « écologiques » les plus prometteuses. L’électrolyse, une méthode permettant de séparer deux éléments chimiques à l’aide d’un courant électrique, l’oxygène et l’hydrogène dans ce cas, possède un point faible qui paraissait il y a peu rédhibitoire.En effet, le principal écueil de cette méthode est son rendement. Soucieux d’optimiser cette technique, des chercheurs du CNRS sont parvenus, pour la première fois, à produire de l’hydrogène en quantité notable par une nouvelle méthode. Leur technologie innovante, protégée par un brevet aujourd’hui rendu public, pourrait dans un avenir proche être développée à grande échelle et permettre d’obtenir de l’hydrogène à moindre coût et surtout, sans émission de gaz à effet de serre.

La solution : l’électrolyse sous pression
L’obtention de l’hydrogène par électrolyse de l’eau avec un meilleur rendement nécessite une phase de chauffage. A partir de là, deux voies sont possibles. La première, la plus traditionnelle, utilise la conduction par ions [O2-]. La seconde s’appuie sur la circulation des protons [H+]. La voie protonique possède un gros avantage : elle requiert des températures plus faibles, de l’ordre de 600°C. À de telles températures, une bonne conductivité des protons peut être envisagée, tout en utilisant des matériaux peu onéreux et fiables. C’est pourquoi les scientifiques ont choisi d’explorer et d’optimiser cette voie.  L’idée réellement novatrice est en fait d’effectuer l’électrolyse sous pression (entre 50 et 100 bars). En effet, à cette pression, les principaux paramètres de fonctionnement des électrolyseurs s’en trouvent améliorés : les premiers essais effectués permettent d’atteindre des quantités d’hydrogène notables, avec un niveau de courant bien supérieur à ce qui avait été fait précédemment par leurs concurrents étrangers travaillant sur la filière protonique.
Des problèmes de transport
Enfin, cette nouvelle technologie abaisse de près de 200°C la température de fonctionnement. Ce résultat, prometteur et capital pour l’avenir économique de la filière hydrogène, laisse espérer le développement de technologies rentables et économiques. Cependant, avant de produire de l’hydrogène massivement et à bas coût, des efforts sont encore nécessaires, et un travail de perfectionnement du dispositif est envisagé.Aussi, outre la fabrication, la filière hydrogène est également handicapée par la phase de stockage et de transport sous forme gazeuse sous pression ou sous forme liquide. De nombreuses recherches sont aussi en cours pour stocker l’hydrogène en l’incorporant à des matériaux poreux. Du fait de leur faible masse et leur grande capacité d’adsorption, les nanostructures à base de carbone s’avèrent d’excellents candidats. Une autre équipe du CNRS s’est d’ailleurs distinguée à ce sujet l’année dernière. Ainsi, même si rien n’est pour l’instant concrétisé, l’avenir de l’hydrogène en tant que carburant s’élargit.

Données privées : RFID et réseaux sociaux mis à l’index

La Commission européenne, en la personne de sa commissaire chargée de la société de l’information et des médias, a appeler, mardi 14 avril 2009, les Etats membres a plus de vigilance en matière de diffusion et d’utilisation des données personnelles collectées sur le Web. Viviane Reding, a indiqué dans une vidéo publiée sur son site Web (voir la vidéo) que si les nouvelles technologies offraient de nombreux avantages, elles ne devaient pas devenir intrusives. En d’autres termes, elle a rappelé « que les Européens devaient avoir le droit de contrôler la manière dont leurs données personnelles étaient utilisées ».

Ce faisant, la commissaire européenne pointe du doigt trois technologies récentes. La première d’entre elle est incarnée par les réseaux sociaux. Si elle reconnaît le potentiel de cette nouvelle forme de communication, elle n’hésite pas à redire que « la protection de la vie privée doit être une priorité des éditeurs et des utilisateurs de tels sites ». En particulier pour les mineurs dont elle propose que le profil ne soit pas accessible aux moteurs de recherche. Une invitation en forme d’avertissement puisque la Commission européenne a déjà demandé aux réseaux sociaux d’être plus vigilants, en particulier pour les données concernant des mineurs. Or en l’absence de résultats, de nouvelles règles pourraient tomber.

Autre pratique en ligne de mire : la publicité par ciblage comportemental. Sur ce point, Viviane Reding rappelle la règle qui prévaut désormais en Europe. Pas d’utilisation de données privées sans le consentement préalable de la personne.Enfin, dernier phénomène épinglé par la commissaire européenne : la transmission d’informations personnelles via les puces RFID intégrées à une carte ou à un produit. Les nouvelles perspectives qu’elles ouvrent ne seront atteintes déclare-t-elle que si elles sont utilisées par les consommateurs et non à leurs dépens. En d’autres termes, les usagers doivent être informés de la présence de ces puces et avoir la possibilité de les désactiver à tout moment. « L’Internet des objets ne fonctionnera que s’il est accepté par les gens, » ajoute-t-elle.Autant de sujets qui ne devraient de toute manière pas rester sans suite. La Commission étant renouvelée à la fin de cette année, il y a fort à parier qu’elle planche de nouveau sur les lois européennes encadrant la protection des données privées.

ABB va relier les éoliennes irlandaises aux côtes britanniques

L’Irlande a choisi de développer au maximum son activité éolienne en mer du Nord. Un choix qui nécessite la construction d’un réseau maillé de lignes à haute tension à toute épreuve. La première pièce de ce réseau verra bientôt le jour. En effet, le suédois ABB, leader mondial des transmissions électriques, a remporté un contrat majeur de 550 millions de dollars pour raccorder les réseaux électriques irlandais et britannique avec des lignes haute tension sous-marines capables d’absorber l’énergie éolienne capricieuse, que l’Irlande veut développer à grande échelle au large de ses côtes. Car qui dit énergie éolienne, dit réseau rénové capable de la gérer, comme l’avait souligné Philippe Guillemot, le patron d’Areva Transmission et Distribution (lire l’article sur Greenunivers), challenger d’ABB. L’Irlande pourra importer du courant si le vent tombe, et l’exporter s’il souffle.

186 km de ligne sous-marine
La compagnie gestionnaire du réseau irlandais, Eirgrid, a commandé à ABB un système de transmission de 500 MW à très haute tension (HVDC), le moins nocif possible pour l’environnement. Dans le détail, des câbles propres, peu de pertes électriques, des champs électromagnétiques neutres ainsi que des systèmes de redémarrage sans énergie extérieure en cas de blackout composeront le réseau.Posées entre Dublin et le Pays de Galles, les lignes, gainées de polymère, seront sous-marines sur 186 km et souterraines sur 70 km, donc quasiment invisibles, sauf au niveau des stations de conversion de courant continu en courant alternatif, et vice-versa. Elles transporteront du courant à 200.000 volts, le plus haut voltage possible sur ce type de câble, ce qui permettra de transporter 500 MW.La date de mise en route de ce réseau partiellement sous-marin, la première pierre du « supergrid » européen, est prévue pour 2012.Par Laurence Benhamou, auteur du blog Greenunivers 

Les 10 véhicules essence les moins polluants

Le palmarès 2009 de l’Ademe en matière d’émissions automobiles fait office de « bonne nouvelle », dans le contexte difficile que l’on connaît. Les émissions de CO2 ont fortement diminué depuis quelques années. En sept ans, le pourcentage de vente des véhicules aux émissions de CO2 inférieures à 140 g/km a plus que doublé au niveau national. Mieux, en 2008, ces véhicules représentent 68 % des parts de marché, contre 50 % en 2007.Plusieurs facteurs expliquent ces chiffres encourageants. D’abord, la chute des ventes de 4×4 (une baisse de 27 % sur l’année), mais la principale de raison de cette évolution est à chercher ailleurs.

La Toyota iQ 68 en dessous des 100 g/km
La multiplication du nombre de modèles à basse consommation sur le marché est en augmentation constante : en 2002, on démontrait 32 modèles disponibles émettant moins de 120 g/km de CO2. En 2008, 470 modèles émettant moins de 120 grammes par kilomètre sont dénombrés.Le tableau ci-dessous répertorie les dix modèles essence dont les valeurs d’émission de CO2 sont les plus faibles sur le marché :
Marque Modèle Emissions de CO2 (en g/km)
Toyota iQ 68 VVT-i 99
Daihatsu CUORE II BVM5 104
Toyota PRIUS (75 ch) VVT-i 104
Peugeot 107 3P/5P 1.0e 12V 106
Citroën C1 3P/5P 1.0i 106
Toyota Nouvelle AYGO 1.0 VVT-i 106
Peugeot 107 3P/5P 1.0e 12V 2-tronic 107
Citroën C1 3P/5P 1.0i SensoDrive 107
Toyota Nouvelle AYGO 1.0 VVT-i MultiMode 107
Citroën C1 3P 1.0i SensoDrive 108
 Ainsi, avec des valeurs comprises entre 99 et 108 g/km, le palmarès 2009 confirme la volonté des constructeurs de proposer des voitures performantes et plus respectueuses de l’environnement. Mieux, en France, la baisse des émissions de CO2 des véhicules est de 9 g/km entre 2007 et 2008, un chiffre très encourageant, selon Matthieu Orphelin, le directeur de cabinet du président de l’Ademe : « l’année 2008 restera comme un tournant historique pour l’amélioration de la performance des véhicules vendus en France. »Ce classement, qui montre que les constructeurs s’emploient à proposer une gamme la plus étendue possible de véhicules à faibles émissions, est une des explications de la baisse des émissions en France depuis un an. Mais ce n’est pas la seule. La crise économique et l’augmentation des prix du carburant ont facilité le choix de voitures moins consommatrices de carburant. Ensuite, l’introduction des bonus/malus et de la prime à la casse ont également favoriser cette évolution favorable vers des taux d’émissions plus bas. Toujours d’après l’Ademe, les efforts des constructeurs, ajoutés aux mesures mises en vigueur en 2008, auraient permis d’économiser environ 240.000 tonnes de CO2. Qui plus est, il est intéressant de noter que les ventes de véhicules « avec bonus » ont augmenté de 50 % l’année écoulée.

Le congrès international Wascon 2009 ouvrira ses portes en juin

Congrès international de référence sur la problématique de l’intégration des matières premières secondaires dans le domaine du génie civil, WASCON se déroulera cette année en France et plus précisément, à l’Espace Tête d’Or, à Lyon.Organisé par EEDEMS, groupement d’Intérêt scientifique sur l’évaluation environnementale des déchets, matériaux et sols pollués regroupant l’INSA de Lyon, l’Ecole Nationale des Travaux Publics de l’Etat, le CSTB, le BRGM et l’Ecole des Mines de Saint-Etienne, cette 7ème édition du congrès a pour objectif d’ouvrir de nouvelles perspectives dans un contexte difficile au niveau international de baisse des ressources naturelles et de hausse des besoins sanitaires et environnementaux dans le domaine de la construction.Plus de 250 scientifiques français et étrangers devraient s’y retrouver pour animer des débats et des ateliers autour des thématiques suivantes :

  • Quantification et modélisation des émissions (y compris celles des Substances Dangereuses Réglementées des produits de construction et les conséquences pour la gestion de la qualité des eaux des milieux urbains) ;
  • Développement de nouveaux produits et procédés pour l’utilisation de déchets en construction ;
  • Nouveaux scénarii ou nouveaux gisements de déchets (par exemple les sédiments) ;
  • Impacts écologiques et sanitaires ;
  • Impacts évités (épuisement de matières premières, émissions de Gaz à Effet de Serre, produits à haute énergie grise) ;
  • Economie du recyclage ;
  • Ecologie Industrielle-recyclage des déchets et métabolisme territorial ;
  • Analyse Multicritère et outils d’aide à la décision (Analyse de Cycle de Vie, Analyse des Flux de Matières, Analyse Coûts/Bénéfices, …).
  • Barrières et incitations au recyclage des déchets (réglementations, marché, éco-taxation, conflit d’intérêts entre différents secteurs industriels, statuts et spécifications des matériaux recyclés, acceptation sociale, responsabilité du producteur,..).
Au delà, les aspects socio-économiques du recyclage compléteront l’ensemble de la gestion durable des matières de substitution en construction. 

Date et lieu
Les 3-4-5 juin 2009 à l’Espace Tête d’Or à Lyon 

Information
Inscription et informations pratiques : [email protected]Informations complémentaires et formulaire d’inscription en ligne : http://www.insavalor.fr

Pour une utilisation directe du gaz naturel compressé

« J’ai déjà eu l’occasion de m’exprimer à plusieurs reprises sur le fait que je préfèrerais utiliser directement le gaz naturel destiné à fabriquer de l’éthanol dans des véhicules fonctionnant au gaz naturel comprimé (GNC). Le gaz naturel brûle très proprement et à mon sens, cela serait beaucoup plus efficace que ce système alambiqué par lequel nous transformons le gaz naturel en éthanol. L’une des critiques que je rencontre parfois de la part des défenseurs de l’éthanol est qu’il faudrait construire toute une nouvelle infrastructure pour le gaz naturel comprimé. Je fais toujours remarquer que l’unique raison pour laquelle nous avons construit une infrastructure pour l’E85 est que celle-ci a été financée par les contribuables.Dans son livre Oil 101, Morgan Downey s’étend longuement sur le gaz naturel et les problématiques inhérentes au réseau de distribution. D’après lui, il existerait 1.600 stations qui vendraient du GNC au détail aux Etats-Unis. Je me suis demandé combien de stations vendaient de l’E85, étant donné que certains défenseurs de l’éthanol m’ont soutenu que nous étions engagés beaucoup trop loin sur la voie de l’E85 pour développer maintenant le GNC. Il s’avère qu’il existe aujourd’hui 1.900 stations qui vendent de l’E85, sachant que le stade des 1.600 n’a été dépassé qu’en 2008. Ainsi le GNC n’est pas autant à la traîne de l’E85 qu’on voudrait bien le faire croire, la législation lui a simplement été moins favorable.

« Réaliser l’indépendance énergétique vis-à-vis du Moyen Orient et du Vénézuela »
Mais le paysage pourrait commencer à changer. Tout d’abord, T. Boone Pickens, qui dirige le fonds alternatif BP Capital Management et investit surtout dans le pétrole et le gaz naturel, s’est très fortement prononcé en faveur du GNC dans le cadre de son Pickens Plan. Puis, le mois dernier, AT&T, le plus gros fournisseur de services téléphoniques locaux et longue distance, de services sans fil et de xDSL des États-Unis, a annoncé qu’il allait investir 565 millions de dollars pour remplacer sa flotte de 15.000 véhicules à essence par des moteurs hybrides ou à gaz naturel comprimé. Enfin, le 1er avril, les représentants Dan Boren (D-Okla.), John B. Larson (D-Conn.) et John Sullivan (R-Okla.) ont introduit une nouvelle législation pour promouvoir le GNC.Les Etats-Unis sont certainement en meilleure forme du point de vue de leurs réserves de gaz que de leurs réserves de pétrole. De plus, le gaz peut-être produit de façon renouvelable à partir des mêmes matières premières que pour les autres biocarburants.De tous les schémas qui visent à l’indépendance énergétique, un développement massif du GNC pourrait se substituer à suffisamment de pétrole pour réussir à réaliser au moins l’indépendance vis-à-vis du Moyen Orient et du Vénézuéla. Même si de nombreux facteurs entrent en jeu, je ne vois pas d’autre solution d’y parvenir sans la participation des productions nationales de pétrole et de gaz. »Par Robert Rapier, directeur ingénierie chez Accsys Technologies PLC. Il anime le blog R-Squared Energy Blog

Les nanoparticules en tête de liste des risques chimiques émergents au travail

L’exposition aux substances dangereuses serait à l’origine de 74.000 décès liés au travail chaque année en Europe. Dietmar Reinert est le vice-directeur de l’institut de prévention des caisses allemandes d’assurance AT-MP. Il a co-écrit le rapport de l’EU-OSHA sur les risques chimiques émergents liés à la santé et à la sécurité au travail. Il revient plus particulièrement sur le cas des nanoparticules, dont l’usage se généralise, mais dont les risques pour l’homme sont encore pour la plupart très méconnus.

Comment avez-vous procédé pour réaliser cette étude ?

Dietmar Reinert : Nous avons recueilli l’avis de plus de 170 experts au cours de trois tours d’enquête, en nous appuyant sur la méthode européenne Delphi. Cette méthode a pour but de dégager certains consensus sur des sujets précis en interrogeant des experts à travers une série de questionnaires.

Avez-vous été surpris par les résultats de l’étude ?

Nous avons obtenu une liste avec plus de 80 risques différents. En ce qui me concerne, j’ai été légèrement surpris de voir les fibres minérales artificielles dans le top 10. Nous ne les avions pas estimées si dangereuses pour le futur dans la mesure où des fibres novatrices posant un risque bien moindre avaient pu être développées. Je ne m’attendais pas non plus à ce que les nanotechnologies arrivent en tête du classement. Elles ont en effet une connotation très positive dans le grand public. Les experts ont toutefois clairement signalé que les nanoparticules pouvaient représenter un vrai problème dans l’avenir. Même s’il existe de nombreux projets européens dans ce domaine, de nombreuses recherches sont encore nécessaires. Le rapport les place sans hésitation possible en tête des risques émergents à surveiller.

Comment expliquez-vous le peu de connaissances disponibles sur les risques des nanoparticules ?

On ne peut pas dire que les nanoparticules sont un domaine inconnu. Prenons l’exemple des gaz d’échappement provenant de moteurs diesel ou des fumées de soudage… Nous en savons beaucoup sur les particules ultra fines et il existe tout un travail de prévention dans ces domaines. Mais notre expérience est en effet limitée en ce qui concerne les nanoparticules artificielles. Une étude épidémiologique requiert du temps. Or, les nanoparticules artificielles sont relativement récentes. Des tests sur les animaux sont nécessaires. De même, nous connaissons très bien la distribution des nanoparticules dans le corps mais nous avons besoin de temps pour en savoir davantage sur leurs effets.

Avez-vous noté des disparités en matière de prévention des risques chimiques au travail en Europe ?

Ce n’était pas le but du rapport. Nous n’avons pas vraiment vérifié s’il existait des disparités entre les experts selon qu’ils étaient du Nord, du Sud, de l’Est ou de l’Ouest de l’Europe. De manière générale, je dirais toutefois que des différences existent. Par exemple, les nouvelles mesures sur les risques liés à la santé et à la sécurité au travail proviennent pour beaucoup du Nord, de la Scandinavie, des Pays-Bas ou de l’Europe centrale. Toutefois, dans le cas d’une exposition aux risques chimiques, il n’existe que de très légères différences entre le Sud et le Nord de l’Europe, en raison notamment de l’uniformisation des équipements de protection individuelle par les normes et les directives européennes. REACH contribuera également à harmoniser la situation en Europe.

Quelles sont les principales mesures de prévention recommandées dans le rapport ?

Cela dépend beaucoup du risque émergent en question. Dans le cas des nanoparticules, par exemple, on peut utiliser un équipement de protection individuel ou automatiser le processus et utiliser un système d’évacuation. Dans le cas d’autres risques émergents tels que l’exposition dermique, on peut remplacer des substances dangereuses ou utiliser à nouveau des gants et un équipement de protection individuel. Pour le traitement des déchets, on peut utiliser un système d’évacuation. Selon le degré de toxicité des nouvelles substances, il est bien souvent inutile de développer de nouvelles mesures de sécurité, car celles qui sont connues conviennent déjà.

En savoir plus

Dietmar Reinert est le vice-directeur de l’Institut de prévention des caisses allemandes d’assurance AT-MP. Il a co-écrit le rapport de l’EU-OSHA sur les risques chimiques émergents liés à la santé et à la sécurité au travail.

La plus grande centrale solaire française ouvrira en 2010

EDF Energies Nouvelles (EDF EN) s’est engagé à investir près de quarante millions d’euros dans une très vaste centrale solaire au sol en Ariège, sur la commune de Daumazan-sur-Arize. Sa mise en service est prévue pour 2010, pour une capacité de 10 MW. La station sera la plus importante sur le territoire métropolitain, sachant que le projet de centrale solaire d’EDF EN sur le site de Sainte-Rose à la Réunion, qui vise une capacité de 15,3 MW, constitue pour l’instant le « record » français. Déjà à l’origine de la plus grande centrale solaire métropolitaine actuelle, située à Narbonne, et d’une capacité de 7 MW, EDF EN poursuit ses investissements dans le solaire. L’installation inaugurée à Narbonne en décembre dernier est constituée de 95.000 modules à couche mince et fournit l’équivalent de la consommation annuelle de près de 4.200 foyers. Cela représente une économie de près de 2.750 tonnes de CO2 par an. EDF EN, avec cette nouvelle station solaire en Ardèche, poursuit un programme ambitieux. En effet, l’entreprise a pour ambition de développer une capacité cumulée de 500 MW de solaire sur le territoire national d’ici à 2012. De plus, dans son plan pour les énergies renouvelables, le gouvernement a fixé un objectif d’une centrale photovoltaïque par région d’ici à 2011, pour une capacité totale équivalente à 300 MW. Des objectifs élevés, mais réalisables, tant les projets de ce type se multiplient dans l’Hexagone à l’heure actuelle. En effet, les retombées pour les sites choisis sont intéressants, en termes de développement.

Objectif 500 MW en 2012
Ainsi, en Ariège, la future centrale occupera 35 hectares appartenant à la commune et aura donc une capacité de 10 MW. Même si toutes les autorisations administratives ne sont pas encore signées, un bail de 22 ans vient d’être conclu entre la commune et EDF EN, qui ont tous deux des intérêts communs dans ce projet. EDF EN concrétise ainsi un peu plus sa volonté de développer des énergies plus propres. Tandis que pour la commune de Daumazan-sur-Arize, l’installation de cette centrale solaire représente une véritable manne financière. Au total, la location et les différentes taxes devraient rapporter à la commune près de 450.000 euros par an, soit l’équivalent du budget de cette collectivité locale. Un argument de poids pour EDF EN, qui prouve ici que les activités concernant les énergies propres sont aussi porteuses d’activité et créatrices d’emplois.Le solaire a le vent en poupe en France, mais l’Hexagone reste très loin des plus grandes centrales photovoltaïques du monde, malgré un fort potentiel. A titre d ‘exemple, la plus grande centrale photovoltaïque au monde est située au Portugal, et a une capacité de 46 MW.

Les biocarburants menacent les réserves d’eau douce

Dans une étude à paraître dans Energy Policy, Hong Yang et ses collègues (1) analysent les besoins en eau afin d’atteindre les objectifs fixés par la Chine d’ici 2020 en matière de production de biocarburants. Le gouvernement chinois envisage en effet de produire 12 millions de tonnes de biocarburants. Yang et ses collègues prennent pour hypothèse qu’il s’agira de bioéthanol fabriqué à partir du maïs.

Yang et son équipe ont calculé que pour produire ces 12 millions de tonnes de bioéthanol, l’équivalent du débit annuel du Fleuve Jaune était nécessaire. C’est un très lourd fardeau pour la Chine. 64% des terres arables se trouvent dans le nord de la Chine où le niveau des nappes phréatiques diminue dans la mesure où la consommation d’eau dépasse les stocks (2). Yang et ses collègues lancent ainsi un avertissement concernant l’impact des objectifs chinois de production de biocarburant sur le prix des denrées alimentaires et sur l’environnement.

La Chine n’est pas le seul pays où l’on peut craindre de graves conséquences des suites de la demande massive en eau engendrée par la production de biocarburants. Le niveau des nappes phréatiques diminue également dans la plupart des zones de cultures de féculents en Inde et dans l’Ouest des Etats-Unis.

Des ressources en eau douce trop limitées ?

L’Australie, autre grand producteur traditionnel de culture de féculents pouvant servir à produire du biocarburant, souffre depuis plusieurs années d’une grave sécheresse. Des études ont montré qu’en raison du changement climatique, une telle sècheresse pourrait dans l’avenir affecter également l’Ouest américain.

Si on considère la production mondiale de biocarburants, le laxisme n’est pas de mise. Quand tout les carburants fossiles seront remplacés dans le monde par du bioéthanol tiré du maïs, près de 6.000 km³ d’eau douce sera nécessaire. En comparaison, la quantité totale d’eau douce disponible chaque année est aujourd’hui estimée à 13.500 km³. Fabriquer du biocarburant à partir du blé, du soja ou du colza réclamerait une quantité encore plus importante d’eau que pour la production de bioéthanol à partir du maïs.

Ainsi, il semble nécessaire que les gouvernements des pays ne disposant que de faibles quantités d’eau douce, et les gros producteurs comme Shell avec des plans ambitieux pour étendre la production de biocarburant, réévaluent leur projet à l’aune de leur impact sur les ressources futures en eau douce.

Sources :
(1)H. Yang, Y. Zhou, J. Liu. Land and water requirements of biofuel and implications for food supply and the environment in China. Energy Policy (à paraître)
(2)S. Khan, M.A. Hanjra, J. Mu Water management and crop production for food security in China: a review. Agricultural Water Management 2009; 96: 349-360

Par Lucas Reijndres, professeur en sciences environnementales à l’Université d’Amsterdam depuis 1988 et à l’Université ouverte des Pays-Bas depuis 1999, et éditorialiste à Scitizen.com

Plan de relance et Grenelle : l’équation impossible ?

En moins d’un mois, les cours industriels de l’automobile viennent de remonter en moyenne de 38% à travers le monde. Une hausse qui dépasse largement la hausse moyenne des marchés d’actions, qui est de 19% sur la même période. Ce sont les constructeurs européens qui profitent le plus de cette embellie. En effet, les deux plus fortes hausses du secteur automobile enregistrées à la bourse concernent respectivement Renault, dont l’action a doublé en l’espace d’un mois, et Fiat, dont le titre a grimpé de 88%. A l’étranger, les Japonais Mazda et Nissan, l’Américain Ford, le Coréen Kia et l’Allemand BMW ont aussi regagné du terrain.Deux facteurs expliquent cette esquisse de reprise, qui devra de toute manière être confirmée dans les prochains mois. Ainsi, le regain général de la bourse, depuis un mois, a profité à tous les secteurs. Mais l’automobile a beaucoup plus progressé. Les investisseurs, qui ont vu l’industrie automobile s’enfoncer dans la crise avant toutes les autres branches, sont persuadés que l’automobile « touche le fond » en ce moment.Concrètement, les spécialistes affirment que le secteur automobile atteint en ce moment son pic le plus bas, et pourrait donc faire partie des segments qui pourraient à se redresser en premier. Mais la sphère financière est une chose, et la réalité économique en est une autre. Pour sortir l’industrie automobile de la crise, le gouvernement a pris des mesures destinées à dynamiser la production et à relancer les achats de voitures neuves. Or, ces mesures paraissent contradictoires avec les engagements pris par le gouvernement lors du Grenelle.

Un manque de cohérence évident
Dans le détail, le plan de relance tient en deux points principaux. D’abord, l’introduction de la prime à la casse : 1.000 euros de reprise pour l’achat d’un véhicule neuf n’émettant pas plus de 160 g de CO2 par km. Une décision destinée à dynamiser le marché automobile, mais qui se heurte frontalement aux engagements pris lors du Grenelle. En effet, la moyenne actuelle du parc automobile est aujourd’hui de 148 g de CO2 rejeté par km, et le bonus écologique ne concerne que les véhicules émettant moins de 130 g par kilomètre. Enfin, les objectifs européens pour 2012 tablent sur une moyenne de 120 g par km. Il y a donc une contradiction bien réelle entre le plan de relance annoncé et les objectifs ambitieux du Grenelle.Alors que certains attendaient du gouvernement des décisions audacieuses, comme le financement de la généralisation en série du pot catalytique, de l’alterno-démarreur ou encore du filtre à particule, c’est un plan de relance strictement industriel qui a été privilégié. Aussi, l’exigence de contreparties environnementales aux prêts octroyés aux entreprises pour relancer leur activité aurait eu un effet additionnel sur l’économie, l’environnement et sur la santé.L’absence de prise en compte du Grenelle de l’environnement a surpris, et elle est encore plus flagrante en termes d’infrastructures de transports. En effet, 46 % du budget du plan de relance de l’automobile sera investi dans la construction d’infrastructures de transport. La construction de trois nouvelles autoroutes est ainsi prévue, alors que le Grenelle avait conclu à la nécessité de stopper l’extension du réseau autoroutier national.De plus, la France se trouve déjà très bien équipée au niveau des infrastructures routières, mais est clairement en retard en ce qui concerne les transports urbains collectifs, secteur qui plus est reconnu pour son potentiel en termes de création d’emplois.

2,3% du plan de relance consacré à l’environnement
Enfin, deux derniers volets du plan de relance soulèvent de vives interrogations. Premièrement, la prise en compte à la marge des énergies renouvelables, alors que la France s’est engagée sur un chiffre ambitieux de 23 % d’énergies renouvelables dans sa consommation pour 2020. Une volonté qui paraît désormais en retrait et difficilement réalisable. Deuxième point, aucune information chiffrée sur les conséquences du plan de relance en termes d’émissions de gaz à effet de serre ou d’impact sur la biodiversité n’est disponible, ce qui est pour le moins regrettable, alors que le Grenelle avait promis l’inversion de la charge de la preuve.Au final, il y a donc une évidente incompatibilité entre le plan de relance annoncé et les objectifs du Grenelle. Dans son ensemble, le plan ne consacre que 2,3% de son budget à l’environnement. L’écart entre la volonté politique affichée lors du Grenelle et la réalité économique reste donc latent. L’Alliance pour la planète, une organisation regroupant plusieurs ONG agissant pour l’environnement, recense sur son site Internet une trentaine de projets « grenello-incompatible » en cours à l’heure actuelle, même si ces derniers ne sont pas tous financés par le plan de relance.

Chiffre clé : 6 heures de soleil pour faire vivre la planète

D’abord considéré comme une utopie, le projet Desertec, imaginé par des ingénieurs allemands gagne en crédibilité depuis quelques mois. En effet, le projet vise à relier les déserts du Sahara au continent européen. Dans le détail, il s’agit de créer un réseau électrique intelligent en courant continu, reliant des milliers de centrales thermiques du Sahara à toutes les sources d’énergies renouvelables du continent européen (éolien, géothermie et biomasse principalement). Au final, la création de cette boucle permettrait d’alimenter l’Afrique mais également l’Europe en électricité. Mais ce n’est pas tout. La réussite de Desertec mettrait fin en trente ans à peine à l’hégémonie du pétrole, du gaz et du charbon ! A la base de ce projet, fantaisiste à première vue, il y a une réalité : en six heures, le soleil fournit autant d’énergie à la terre que ce que l’humanité consomme en une année. Partant de là, les ingénieurs allemands responsables du projet ont un objectif concret : couvrir de panneaux solaires 0,3% de la superficie des déserts de l’Afrique et du Moyen-Orient, ce qui correspond à peu près à la surface de l’Autriche.

De l’utopie au soutien unanime
Le projet est donc pharaonique, mais a reçu fin mars 2009 le soutien du gouvernement allemand. Aussi, deux grands groupes spécialisés dans l’équipement électrique, Siemens et ABB, ont apporté leur caution industrielle à Desertec. Enfin, l’Union pour la Méditerranée a inscrit ce projet dans son agenda, lequel a également reçu le soutien de l’UE.Cependant, c’est un défi colossal qui attend les responsables de Desertec. Ce qui peut simplement se résumer à un « super réseau vert » implique une révolution technologique. Il s’agit principalement de construire des lignes à très haute tension en courant continu pour acheminer de grandes quantités de courant sur de longues distances. Historiquement, les réseaux de transport sont en courant alternatif. Mais depuis quelques années, de nombreuses réalisations d’importance en courant continu voient le jour. La plus importante, pour le moment, est une ligne de 600 mégawatts qui relie la Nouvelle-Zélande du Nord au Sud.

Un coût du kWh ultra compétitif
Le point fort du projet est la volonté des responsables de coupler ce super réseau à haute tension en courant continu avec une production décentralisée d’énergie renouvelable, ceci pour diversifier les sources et assurer une robustesse systémique à l’ensemble de la boucle. Le volet financier du projet est bien sûr capital pour les responsables de Desertec. 1,5 trillion d’euros sont nécessaires pour la réalisation et la mise en fonctionnement du réseau. Un chiffre astronomique, mais qui reste relatif si on le compare aux 13,6 trillions d’euros qui seront investis d’ici à 2030 dans les centrales fossiles. En fait, avec un coût du kWh évalué à 4,7 centimes d’euro par l’étude de faisabilité commandée par le gouvernement allemand, le projet s’avère aussi rentable que les meilleures centrales à gaz actuelles.Ainsi, Desertec, longtemps considéré comme une utopie totale, s’ancre de plus en plus dans la réalité, et offre aux pays du Moyen-Orient et de l’Afrique une occasion historique de faire un saut de géant dans l’électrification. Même si le chemin est encore long pour Desertec, le projet n’a jamais été autant pris au sérieux et son évolution mérite d’être suivi de près.

Le câble Ethernet pour remplacer le HDMI ?

Le High Definition Multimedia Interface (HDMI) est une norme et une interface audio/vidéo entièrement numérique. Le HDMI permet de transmettre des flux chiffrés non compressés. Par exemple, le HDMI permet de connecter une source audio/vidéo (un lecteur blu-ray ou HD DVD, un ordinateur, une console de jeu par exemple) avec un récepteur compatible, un téléviseur HD par exemple. Cependant, des problèmes de compatibilité existent.Par exemple, pour éviter les copies intempestives de contenus, les fabricants de produits électroniques et les studios de production se sont mis d’accord pour créer des systèmes de verrouillage anti-copie. Ainsi, la technologie propriétaire HDPC (High-bandwidth Digital Content Protection) est développée par une filiale d’Intel, LLC, qui assure la protection contre la copie des flux HD. Ce verrouillage numérique étant intimement lié à la norme HDMI, il ne peut pas être éliminé. C’est pourquoi en l’absence de compatibilité HDCP de l’un des appareils, source ou affichage, les signaux HD ne peuvent pas être restitués dans leur définition d’origine. Ces signaux sont alors restitués en basse définition, mais ils peuvent aussi ne pas s’afficher du tout.

Créer un standard unique et multi-fonctionnel
Aujourd’hui, l’entreprise Broadcom annonce avoir développé une nouvelle technologie baptisée BroadSync HD. Cette innovation permettrait concrètement d’exploiter de simples câbles Ethernet RJ-45 de catégorie 5, les câbles utilisés dans la vie courante, pour transmettre des flux vidéo et audio en haute définition. Concrètement, cette technologie s’appuie sur le protocole Ethernet IEEE 802.1 AVB, qui constitue un standard de qualité, de synchronisation et de timing suffisant pour assurer une transmission audio/vidéo d’une qualité professionnelle grâce à un simple câble Ethernet. Cette nouvelle technologie ouvre de nombreux horizons, et notamment celle du standard unique. En effet, la création d’un standard unique, multi-fonctionnel, capable de gérer la transmission de l’audio, de la vidéo, mais aussi la connexion avec d’autres produits mis en réseau, sans oublier l’accès à Internet, constituerait une avancée majeure en termes de connectique.Ensuite, le protocole Ethernet a beaucoup d’avantages. Il est commun, peu coûteux, connu du grand public. Broadcom souhaiterait simplement faire du câble Ethernet un outil à tout faire, qui pourrait remplacer tous les câbles utilisés aujourd’hui pour la transmission des flux audio et vidéo dans le secteur de l’électronique grand public. En somme, il s’agit de simplifier les procédures.

La garantie d’une bande passante
Par exemple, aujourd’hui, la transmission de flux peut nécessiter une interface HDMI. Or, il existe une dizaine de versions de ces interfaces, avec lesquelles les sources et les récepteurs ne sont pas tous compatibles. La présence d’un seul et unique port Ethernet, qui aujourd’hui s’impose à la fois sur les ordinateurs, téléviseurs, lecteurs blu-ray et disques durs multimédia, permettrait non seulement de simplifier la conception des futurs produits, mais engendrerait également une réduction des coûts.Au niveau de la capacité, les câbles Ethernet ne semblent pas poser de problèmes. En effet, les câbles RJ45 de catégorie 5 permettent de supporter des débits allant jusqu’à 100 Mbits/s, ce qui théoriquement reste suffisant pour supporter les débits d’une vidéo stockée sur un blu-ray disc.La technologie BroadSync HD devrait donc permettre une standardisation de la connectique, et une facilité d’utilisation évidente pour le grand public. « Les technologies actuelles présentent des problèmes techniques entrainant des performances limitées, des fonctionnalités restreintes et parfois une incapacité à supporter des connexions avec des ordinateurs ou le réseau Internet. La technologie BroadSync HD résout ces problèmes en combinant la garantie d’une bande passante, ainsi que la flexibilité et les performances du protocole Ethernet », résume Michael Johas Teener, directeur technique chez Broadcom.

Les batteries Lithium Ion, solution d’avenir pour les véhicules électriques ?

Charger une batterie en quelques secondes… pour les chercheurs du MIT, cela sera bientôt possible. La technologie qu’ils ont mise au point ne change toutefois pas drastiquement des batteries Lithium Ion que nous utilisons actuellement. En effet, le matériau utilisé par l’équipe de recherche, le Lithium Fer Phosphate (dont le symbole chimique est LiFePO4) ne nécessite pas de changements importants au niveau du procédé de fabrication. Autant d’éléments qui jouent en la faveur d’une commercialisation rapide. Deux ou trois ans, selon le responsable de la recherche Gerband Ceder.

Comme toutes les batteries Lithium Ion, le LiFePO4 absorbe et délivre de l’énergie par l’extraction simultanée et l’insertion d’ions Li+ et d’électrons. Ainsi, la capacité à fournir de la puissance et à se recharger dépend de la vitesse de déplacement des ions Li+ et des électrons à travers l’électrolyte et à travers le matériau des électrodes. Les simulations faites par les chercheurs Byoungwoo Kang et Gerbrand Ceder montrent que les ions et les électrons se déplacent intrinsèquement vite. Donc la limite à leur déplacement rapide dans les batteries actuelles vient d’ailleurs.

Concernant ce point précis, ils ont mis en évidence que les particules chargées se déplacent dans des sortes de tunnels à travers le matériau, dont les entrées et les sorties se situent sur la surface. Si les particules ne sont pas en face de ces entrées, elles ne peuvent pas se déplacer. Le LiFePO4 nanostructuré permet d’obtenir selon l’expression des chercheurs un « beltway », littéralement « boulevard périphérique », permettant une mobilité importante des ions et électrons en surface du matériau. Un prototype de batterie de ce type pourrait se charger en moins de 20 secondes, contre 6 minutes avec un matériau non modifié.

Sur le marché d’ici deux à trois ans ?

La plupart des batteries commercialisées sont faites aujourd’hui de Lithium Cobalt. En effet, même s’il est peu cher, le LiFePO4 n’a pas, jusqu’à présent, retenu l’attention des industriels car le Lithium Cobalt peut stocker plus de charge pour un poids donné. Cependant, les chercheurs ont découvert que leur nouveau matériau ne perd pas sa capacité de charge avec le temps alors que les batteries standards ont une durée de vie plus limitée.

Cela signifie que l’excès de matériau nécessaire pour les batteries standards pour compenser leur dégradation avec le temps ne sera plus nécessaire, rendant les batteries plus petites et plus légères avec des performances de charge et de décharge très importantes. Charger des batteries en quelques secondes au lieu de plusieurs heures devrait permettre un changement des habitudes quotidiennes, et donc, de nouvelles applications technologiques. En effet, la vitesse d’évolution de l’électronique est limitée par la capacité des batteries. Seulement 360 W sont nécessaires pour charger une batterie de téléphone portable de 1 Wh en 10 secondes. Autre avantage du LiFePO4, il ne souffre pas de surchauffe, phénomène qui a déjà entraîné la destruction d’ordinateurs portables ou autres baladeurs mp3.

Un nouvel élan pour les véhicules hybrides

Au delà des ordinateurs et des téléphones, cette technologie pourrait également bouleverser l’automobile : décharger une batterie en quelques secondes, c’est disposer de la puissance immédiate qui fait défaut aux véhicules électriques actuels. La charger en quelques minutes au lieu d’y passer la nuit permet d’envisager sereinement de longs trajets. Encore faut-il, bien entendu, que le réseau électrique fournisse une puissance suffisante pour permettre cette charge rapide. En effet, 180 kW sont nécessaires pour charger une batterie de 15 kWh (batterie pour véhicules hybrides électriques) en cinq minutes, ce qui implique l’utilisation de stations d’énergie électriques pour recharger les voitures hybrides électriques. Le pari n’est donc pas simple, mais certains constructeurs ont déjà investi dans des batteries à charge rapide. Utilisant la technologie d’Altair Nanotechnologies, Phoenix Motorcars a construit un prototype de voiture électrique, autonome sur 160 km et pouvant être rechargée en seulement 10 minutes.

Selon Ceder, de telles batteries pourraient être sur le marché d’ici deux à trois ans. Ces nouvelles batteries pourraient donc, assez rapidement, révolutionner le secteur des véhicules hybrides, en réglant le problème du temps de charge, et en améliorant nettement le potentiel des batteries utilisées. Ce projet a été financé par la National Science Foundation, à travers le « Materials Research Science and Engineering Centers program » et le « Batteries for Advanced Transportation Program » du département américain à l’énergie.

 

Sources :

&

Pourquoi faut-il interdire le BPA dans les plastiques alimentaires ?

Le BPA est une substance chimique utilisée dans la composition de certaines matières plastiques, principalement le polycarbonate (65% des usages) et le polyépoxy (30% des usages). Il est employé dans la fabrication de ces matériaux depuis de nombreuses années.

Comment est-on exposé au BPA ?
Le BPA est également connu sous sa dénomination chimique, le 2,2-bis (4-hydroxyphényl) propane. L’exposition au BPA a lieu quasi-exclusivement par la voie alimentaire, en raison de la migration du BPA dans les aliments notamment sous l’effet de la chaleur, mais on le détecte aussi dans les poussières domestiques. Les dosages urinaires dans un échantillon de 2.500 personnes montrent que 93% de la population américaine est imprégnée. Il est également important de noter que les enfants sont globalement plus imprégnés que les adultes.On trouve le BPA dans le lait, le sérum, la salive, le liquide amniotique. On ne dispose pas de données en France (ce qui montre le retard français en matière de surveillance par biomonitoring), à l’exception des mesures effectuées par le WWF dans le cadre de la campagne DETOX et qui donnent des informations similaires aux données américaines (1).

Quels sont les risques dêtre exposé au BPA ?
On considère généralement que le Bisphénol A ne se stocke pas dans l’organisme, mais cette idée est peut-être en train d’être remise en cause, car une étude américaine récente a montré que l’excrétion urinaire est la même quelle que soit la durée du jeûne qui a précédé le prélèvement urinaire.On détermine le risque pour la santé à partir des études in vitro (sur des tests cellulaires) et in vivo (chez l’animal) ainsi qu’à partir des études chez l’homme. Les tests cellulaires montrent que le BPA est un perturbateur endocrinien, c’est-à-dire qu’il perturbe le fonctionnement du système hormonal (2). Chez l’animal, à la date du 31/12/2004, 115 études avaient été effectuées in vivo. Au final, 94 étaient positives dont 31 à des doses inférieures à la Dose Journalière Admissible (3).Depuis, les études nouvelles n’ont fait que conforter cette analyse :
  • Des rates exposées via la lactation développent des tumeurs mammaires à l’âge adulte.
  • Le BPA diminue l’efficacité de la chimiothérapie du cancer du sein.
Les principaux effets déduits de ces études sont tout d’abord les cas de cancers (sein, prostate, testicule). On relève également des atteintes de la reproduction (baisse de la spermatogénèse) et du développement, avec entre autres des troubles du comportement (hyperactivité, agressivité), diabète et obésité.Les études menées chez l’homme sont plus rares, mais les résultats demeurent inquiétants : on note un taux plus élevé de fausses-couches chez les femmes les plus imprégnées. Ensuite, une étude récente montre, de façon très significative, que plus l’imprégnation d’une population en BPA est forte, plus le taux de maladies cardio-vasculaires, de diabète et d’atteinte hépatique est élevé. Des effets indésirables du BPA sur les cellules du pancréas, du tissu adipeux, pourraient rendre compte de ces pathologies, mais beaucoup de travaux sont encore nécessaires pour comprendre les mécanismes.  

Au delà de l’aspect sanitaire, quels sont les autres enjeux du BPA ?
Toutes les études, au nombre de 11, menées par des scientifiques et financées par l’industrie ne montrent aucun effet. Mais 90 % des études menées par des équipes indépendantes de l’industrie montrent quant à elles des effets. La déontologie de l’expertise du comité scientifique de l’EFSA est très discutable puisque, à l’inverse de ce qui se fait habituellement, celui-ci considère le nouveau-né moins sensible que l’adulte et l’homme moins sensible que le rat.De nombreuses études ont été publiées mais ne sont pas prises en compte par le comité scientifique de l’EFSA : ainsi, les 28 études menées sur le sujet montrent des atteintes du comportement à des doses inférieures à la norme européenne, mais sont écartées au motif de « faiblesses méthodologiques ». L’AFSSA ne fait pas mieux en suivant sans esprit critique l’avis de l’EFSA.

Comment réagir : que propose le RES ?
Le BPA est un perturbateur endocrinien. Le fœtus et le nouveau-né sont des populations particulièrement à risque. Par conséquent, il faut agir vite sans attendre d’avoir la preuve lorsque ces enfants arriveront à l’âge adulte. C’est le fondement du principe de précaution : agir en cas de risque grave et irréversible. C’est ce qui se fait déjà outre-Atlantique :
  • Le Canada a fait le choix depuis octobre 2008 d’interdire l’utilisation du BPA dans les biberons sur la base du rapport du National Toxicology Program des Etats-Unis estimant qu’il y a un risque préoccupant pour le nouveau-né. Depuis, un projet de loi a été présenté par un député du NPD (Nouveau Parti démocratique) le 6 février devant la Chambre des Communes pour interdire le BPA dans des produits spécifiques.
  • Aux Etats-Unis une proposition de loi a été déposée pour interdire le BisPhénol A dans les plastiques alimentaires. Parallèlement, la société chimique Sunoco a informé les investisseurs qu’elle refusait de vendre le bisphénol A à des sociétés qui l’utiliseraient pour des récipients qui contiendraient la nourriture ou la boisson destinées aux enfants de moins de 3 ans.
Comme dans ces pays, le RES souhaite faire avancer la compréhension et l’interdiction du BPA en mettant en place différentes actions. 

Source
 [1] Exposure of the U.S. population to bisphenol A and 4-tertiary-octylphenol: 2003-2004. Calafat AM, Ye X, Wong LY, Reidy JA, Needham LL. Environ Health Perspect. 2008 Jan;116(1):39-44. Lire l’étude [2] ChapelHill bisphenol A expert panel consensus statement : integration of mechanisms, effects in animals and potential to impact human health at current levels of exposure. Vom Saal FS et al Reprod Toxicol. 2007 Aug-Sep; 24(2) :131-8.Association of urinary bisphenol A concentration with medical disorders and laboratory abnormalities in adults. Lang IA, Galloway TS, Scarlett A, Henley WE, Depledge M, Wallace RB, Melzer D. JAMA. 2008 Sep 17;300(11):1303-10. Lire l’étude  [3] Environ Health Perspect. 2005Aug;113(8):926-33. An extensive new literature concerning low-doseeffects of bisphenol A shows the need for a new risk assessment.Vom Saal, Lire l’étudeTribune écrite par le Réseau Environnement SantéLes Réseau Environnement Santé a été lancé en mars 2009 sous l’égide de l’Alliance pour la Planète et plus particulièrement des ONG suivantes : WWF France, Fondation Sciences Citoyennes, MDRGF, FacVerte, Objectif Bio et Nord Ecologie Conseil. Sa première campagne vise à interdire le bisphénol A.

L’énergie hydraulique en mer : le cas des atolls de stockage

Les « stations de transfert d’énergie par pompage » (STEP), c’est-à-dire les retenues d’eau alimentant une turbine, représentent à ce jour la technologie permettant de stocker le plus d’énergie et de délivrer la plus grande puissance, avec un rendement inégalé de 90 % au pompage comme au turbinage. Soit un rendement total d’environ 80 % sur un cycle de stockage / déstockage. En outre, leur utilisation ne dégage pas de gaz à effet de serre. François Lampérière, expert mondial, prend l’exemple d’un atoll de stockage situé en bord de mer, hypothétiquement situé dans les Pays de Caux.

Les hypothèses d’aménagement
Il s’agirait d’un stockage de 160 GWh pour une puissance de 5 GW. Ce stockage serait constitué par un bassin de 5,5 km de diamètre, adossé à la falaise sur 3 km : le niveau maximum du réservoir, proche de la crête de la falaise, est 90 mètres au-dessus du niveau moyen de la mer. Son exploitation (entre 50 et 90 m de charge sous 70 m de charge moyenne, avec un rendement de 0,9) permet de stocker une énergie (en GWh par km²) égale à : ((106 × 40 × 70 × g × 0,9) / (3600 x 106)) = 7 GWh. Ce chiffre représente (3.600 × 106) 160 GWh pour une surface de 23 km².

Un aménagement en trois parties
Les travaux nécessaires à un tel projet sont conséquents. Tout d’abord, il s’agit d’installer :
  • Le brise lames, à une centaine de mètres à l’extérieur du pied de la digue principale, d’une longueur totale de 15 km, arasé au niveau des plus hautes mers, limitant ainsi la protection de la digue elle-même à des vagues intérieures faibles et exceptionnelles. Sur les 10 km où la profondeur est voisine de 20 m sous les basses mers le brise lames peut être, pour des raisons de délai, réalisé par des caissons en béton armé (analogues aux caissons récents de Tanger ou à la jetée de Dieppe). Les caissons peuvent être préfabriqués, par exemple au Havre, à Dieppe ou à Dunkerque. Les amorces peuvent être réalisées sur le modèle de la digue d’Antifer (port pétrolier du Havre). Le délai de construction du brise lames est de l’ordre de 3 ans.
  • La digue principale du bassin atteindrait 120 m de hauteur maximale et 115 m en moyenne (dont 25 m sous le niveau des hautes mers). La fondation est en matériaux sablo-graveleux sur un fonds rocheux (craie). L’essentiel de la digue peut être constitué de matériaux sablo-graveleux dragués au large de l’aménagement. Il existe dans le monde 10 barrages en sablo-graveleux à étanchéité amont d’une telle hauteur. 10 autres sont en construction et 10 en projet. Une pente amont de 1,5/1, une pente aval de 2/1 en moyenne sont probables. Dans le cas présent, l’étanchéité amont peut se faire en revêtement flexible pour la partie à sec, en paroi moulée sous l’eau. Le parement extérieur de la digue peut être revêtu en terre végétale et arboré pour des raisons d’environnement. Le délai d’exécution de la digue peut être de 4 ans, commençant 6 mois avant l’achèvement du brise lames.
  • L’usine comportant 25 à 30 groupes de 150 à 200 MW aurait une longueur de 700 m environ. Le barrage de prise d’eau, de profil classique est constitué en grande partie de béton compacté au rouleau à base de sablo-graveleux dragué, donc à faible coût. L’usine et les groupes sont classiques. Tous ces ouvrages sont au voisinage de la falaise et fondés au rocher à l’intérieur d’un batardeau de faible hauteur. Le matériel électromécanique peut être amené par mer en très gros éléments, ce qui devrait réduire les coûts. L’usine peut être implantée près de la falaise soit à l’Est du bassin, soit à l’Ouest.
Un délai total de 6 ans et demi pour la mise en eau est probable, avec mise en service progressive des groupes de pompage entre 6 ans et demi et 8 ans.

Un coût avoisinant les 6 milliards d’euros
Au niveau du calcul des coûts, l’évaluation financière quant à l’installation du brise lames et de l’usine aboutit aux résultats suivants. Pour le brise lames, on peut se référer à l’exemple du brise lames de Tanger. Exposé à des houles plus fortes, son prix de revient est nettement inférieur à 50 millions d’euros par km, pour une longueur beaucoup plus courte. Un coût moyen de 50 millions d’euros par km paraît ici conservatif. Le coût principal de la digue, d’une longueur totale de 13 km est constitué par le remblai, d’un volume total de 13.000×21.000 = 275 millions de m³. On peut utiliser quelques millions de m³ de craie, mais l’essentiel serait du matériau sablo-graveleux dragué en moyenne à 5 ou 10 km. La partie basse de la digue pour la moitié du volume pourra être mise en place par dragues (voir le schéma ci-dessous), la moitié supérieure nécessitant une reprise terrestre, probablement par bande transporteuse. Le coût probable serait de 3 euros pour la partie basse et de 6 euros pour la partie haute. On admet un prix moyen de 5 euros. Dans le détail, le coût des opérations par mètre carré serait le suivant :
  • Le revêtement étanche réalisé à sec est de 150×13.000 = 2 millions de m² à 100 euros/m²
  • L’étanchéité sous l’eau est assurée par 40 m×13.000 = 0,5 millions m² de paroi moulée à 300 euros/m²
  • Le revêtement extérieur est de 2 millions de m² (terre végétale et arbres) de l’ordre de 50 euros/m².
On peut donc en déduire les coûts suivants (en millions d’euros) :
  • Le brise lames : 15 km x 50 = 750
  • Remblais de digue : 275 millions x 5 = 1.375
  • Revêtement : 200 + 150 + 100 = 450
On arrive donc, en additionnant ces montants, à un total de 2,575 millions d’euros pour l’aménagement de ces installations.En ce qui concerne l’usine, les dépenses seraient les suivantes (en millions d’euros) :
  • Prise d’eau : 3 x 100 = 300
  • Génie civil : barrage en béton de 3 millions de m³ + 750.000 m³ pour l’usine = 600
  • Batardeau et terrassement : 100
  • Matériel électromécanique : 400 €/kWh x 5 = 2.000
On arrive ainsi à un total de 3 milliards d’euros pour la construction de l’usine et sa mise en fonctionnement. La totalité de l’aménagement coûterait donc 5,575 milliards d’euros. En arrondissant ce chiffre à 6 milliards pour 5 GW, on obtient donc un coût moyen de 1.200 €/kWh. Un coût moyen, du même ordre que les aménagements mondiaux récents de pompage entre deux lacs. Un seul atoll de stockage, de 5 kilomètres de diamètre, pourrait compenser l’indisponibilité, pour cause d’absence ou d’excès de vent, de l’équivalent d’un cinquième du parc éolien français prévu pour 2020 (25 GW) pendant 32 heures, c’est-à-dire une journée et demi.C’est dire s’il s’agit d’un instrument bien dimensionné pour répondre à la difficulté fondamentale posée par l’intégration des énergies renouvelables au réseau d’électricité, à savoir leur intermittence. Le coût d’un atoll est du même ordre que celui d’une centrale nucléaire.

 
Article issu du « Rapport sur l’Évaluation de la stratégie nationale de recherche en matière d’énergie » par MM. Christian Bataille et Claude Birraux, députés

Vidéomicroscope VHX, 54 Millions de pixels en 3D

Keyence, fabriquant de microscope numérique depuis 25 ans, annonce la sortie de son premier modèle en France, le nouveau VHX-600. Ce système compact offre une exceptionnelle définition d’observation (54 millions de pixels max.) grâce à une caméra 3CCD haute performance couplée à un moteur de déplacement de la CCD. Il est en outre pourvu d’un actionneur intégré, qui permet des mesures 3D. De plus, le procédé de balayage progressif élimine les reflets. Il permet ainsi de générer des expressions de texture et une reproduction des couleurs similaire à une observation à l’œil nu. Le VHX permet ainsi d’observer précisément des détails de 0,01 µm, ce qui le place bien au-delà des meilleures performances du marché. Sa capacité de traitement est aussi unique. Le VHX-600 offre une profondeur de champ au moins 20 fois supérieure à celle des microscopes optiques. Ces avancées sont rendues possible grâce au procédé D.F.D. (profondeur par évaluation du flou). Il permet de construire des images 3D précises à partir de la détection des flous, correspondant à des différences de distance de l’optique. Le procédé D.F.D. (profondeur par évaluation du flou) analyse le degré de flou d’une image 2D afin d’en déduire des informations concernant la profondeur. Le VHX-600 trouve des applications aussi bien en recherche fondamentale (nanotechnologies, biomédical…) que dans les services qualité ou encore au sein des services industrialisation dans les domaines de l’automobile, du pneumatique, du travail des métaux, de la chimie, etc…

Un papillon à l’origine de nouvelles cellules solaires photovoltaïques

Les écailles du Papilio paris se présentent sous la forme de nids d’abeilles et ont la propriété de capter un maximum de lumière. En effet, la lumière réfractée par les loges qui composent l’écaille peut être absorbée par une autre loge. Ainsi, on comprend vite l’intérêt de cette structure dans le domaine de l’énergie solaire photovoltaïque afin d’accroître la quantité de lumière absorbée et donc d’améliorer les rendements. La structure des panneaux solaires actuels pose en effet un problème : ils réfléchissent la lumière quand le soleil est bas dans le ciel.Un autre exemple dans le domaine afin d’augmenter l’efficacité énergétique des cellules solaires photovoltaïques était de copier la structure de la cornée de certains papillons de nuit. Le raisonnement était le même : la structure de la cornée empêche la réflexion de la lumière et augmente ainsi la quantité de lumière absorbée. Cependant, il ne s’agit pas d’utiliser des cellules solaires conventionnelles comme on en retrouve sur le marché, c’est-à-dire des cellules fabriquées à partir de silicium. Il s’agit ici d’améliorer l’efficacité des cellules solaires en dioxyde de titane. L’oxyde de titane est un minéral très abondant, non toxique qui présente la propriété d’absorber les UV (rayonnement haute énergie) et de produire des électrons capables de dégrader des composés. L’intérêt est que ce matériau ainsi que le processus de fabrication des cellules photovoltaïques sont économiques.Les cellules en dioxyde de titane, encore appelées cellules Grätzel, différencient les niveaux d’absorption de la lumière contrairement aux cellules traditionnelles au silicium. Ces cellules se présentent sous la forme d’une monocouche où un sensibilisateur (colorant organique absorbant la lumière) est greffé sur la surface d’un oxyde semi conducteur (le dioxyde de titane TiO2).Le principe de fonctionnement est le suivant : quand les rayons du soleil frappent la surface du panneau, le colorant organique a suffisamment d’énergie pour éjecter un électron. Les électrons libérés circulent via le TiO2 jusqu’à la périphérie de la cellule où ils sont collectés. Ils circulent ensuite dans un circuit extérieur où leur passage génère de l’électricité. Pour former un cycle, un électrolyte composé d’iode surchargé d’électrons permet de boucher les électrons libérés par le colorant le temps que ceux-ci traversent le circuit. Ils reviennent alors dans l’électrolyte (circuit fermé). Cette étape est très importante pour éviter le phénomène de surchauffe des cellules constituant le panneau solaire.

De nouvelles cellules photovoltaïques plus faciles à fabriquer
À la base, le rapport prix/performance était déjà compétitif par rapport aux autres technologies connues. Bien qu’elles ne présentent un rendement que de l’ordre de 11%, soit la moitié des cellules au silicium actuel de 22%, les nouvelles cellules élaborées par Di Zhang et son équipe auraient la capacité d’absorber deux fois plus de lumière que les cellules en titane conventionnelles et de en plus, elles sont plus faciles à fabriquer.Cette idée avait également été étudiée précédemment par une équipe de chercheurs de l’Université de Washington qui ont essayé d’augmenter la surface spécifique des composés actifs (oxyde de zinc ZnO) des cellules solaires, en intégrant ceux-ci sous forme de nanosphères. Ainsi, la lumière réfléchie est absorbée par les sphères voisines, ce qui augmente les performances d’absorption et donc les rendements des cellules. On a pu tripler le rendement des cellules et l’idée est donc d’adapter cette technique pour du TiO2.Cette technologie pourrait révolutionner le solaire photovoltaïque pour des projets de grande ampleur, surtout d’un point de vue économique. Une première idée serait par exemple de rendre moins cher la production d’hydrogène à partir de l’électrolyse de l’eau.Par Jérémy Goldyn, consultant indépendant en énergie. Lire son blog

Le Forum Mondial de l’Eau à Istanbul : établir des ponts ?

Vingt mille personnes grouillaient autour des kiosques thématiques internationaux ou commerciaux, assistant aux sessions politiques, d’information et d’actualité, nouant des relations sociales dans les couloirs… Tous cherchaient des solutions pour une meilleure gestion de l’eau.Aucun nom n’aurait pu mieux convenir qu’« établir des ponts » pour cette conférence à Istanbul. Istanbul est une ville reliant l’Asie à l’Europe, marquée par le mélange de nombreuses cultures et où les bâtiments religieux ont abrité des croyants et des objets de différentes fois.Si on se fie à la couverture médiatique du forum, il semble bien que les divergences n’aient pas été aplanies. A l’extérieur, les manifestants dénoncent la privatisation de l’eau et la construction de barrages alors qu’à l’intérieur, les spécialistes discutent de la meilleure façon pour les gouvernements de travailler avec les opérateurs privés pour améliorer les services de l’eau, ainsi que de l’utilité des barrages pour aider à gérer des ressources en eau rares et variables.Pourtant, comme témoin, il m’a semblé que le fossé était moindre que ce qu’il y paraissait, et certainement moindre qu’il y a dix ans. Les positions et les actions des deux côtés sont plus nuancées. Il y aura toujours des différences profondes mais le débat passionné contribue à faire avancer les choses.

Les questions sur le droit d’accès à l’eau restent en suspens
D’une certaine façon, la recherche de ce juste milieu entre l’opinion publique et ce que l’on appelle l’opinion des experts, illustre parfaitement ce qu’il doit se passer avec le changement climatique. Pour réduire le changement climatique et nous y adapter dans le secteur de l’eau, il nous faut choisir entre plusieurs options, dont aucune n’est facile. Nombreuses sont celles qui ont également des effets pervers. Il n’y a pas de solution facile. Ces dernières peuvent avoir des inconvénients imprévus. Par exemple, de nombreuses personnes pensent qu’il suffit d’encourager les agriculteurs qui dépendent de l’irrigation, à pratiquer l’irrigation par goutte à goutte pour obtenir la même récolte avec moins d’eau et en garder ainsi pour la consommation urbaine. Malheureusement, cela ne marche pas comme ça. L’irrigation par goutte à goutte pousse les agriculteurs à intensifier ou à étendre leur production, en utilisant la même quantité d’eau, voire plus s’ils peuvent exploiter la nappe phréatique. Nous produisons plus mais sans laisser plus d’eau pour les autres.Dans les endroits où on utilise déjà plus d’eau qu’il n’y en a de disponible (c’est le cas dans la majeure partie du Moyen Orient, de la Chine du Nord et dans certaines parties de l’Inde), la seule manière d’avoir une pratique de développement durable est de réduire le droit d’accès à l’eau des individus. Ce n’est évident ni pour ceux qui doivent faire avec moins d’eau ni pour les politiques qui doivent prendre la décision. Un participant australien nous a montré en s’appuyant sur un graphique les efforts de son gouvernement pour revenir sur le droit d’accès des utilisateurs quand sa première attribution n’était pas durable.Pour moi, cela signifie que notre réflexion et notre prise de décision sont plus robustes que nous ne le supposons. Le caractère volontaire des débats, même s’ils sont chaotiques et que certains participants sont moins bien disposés que d’autres, laisse entrevoir un avenir meilleur. Nous avons besoin de meilleurs résultats pour pouvoir innover et investir à la hauteur nécessaire, et nous assurer que les décisions prises n’affectent pas les groupes les plus vulnérables et sont acceptables sur le plan politique.

L’importance de soutenir les projets de petite et grande échelle
Nous savons tous que ce qui prime, ce sont les innovations. Certaines, intéressantes, ont été présentées ici. En voici deux exemples très différents, l’un en provenance du secteur privé, l’autre du secteur public.Sous le chapiteau commercial, les compagnies vendent des centrales de dessalement de la taille du refroidisseur d’eau qui se trouve dans mon bureau, pouvant fournir de l’eau pour une famille ou être couplées ensemble pour subvenir aux besoins d’une petite communauté. S’attaquant ainsi au problème d’échelle dans le processus de dessalement, elles apparaissent comme la solution pour les communautés dans les petites îles ou les zones côtières éloignées. Cela pourrait aussi ouvrir la voie à une série de petites usines le long des côtes, en lieu et place des très grosses usines et des pipelines qui transportent l’eau avec l’inefficacité qu’ils comportent. Et cela pourrait aider à lutter contre la pénétration saline dans l’aquifère, supposée aggraver le changement climatique. D’après le vendeur, le prix de l’eau produite dans ces unités n’est pas tellement plus cher que dans les grandes centrales. Une compagnie parle de 3.5 kWh pour 1.000 litres. Même si on a à peine dépassé le stade de la planche à dessin, cette technologie semble se développer rapidement.D’autre part, dans le centre d’information, les scientifiques de la NASA nous ont parlé de leurs travaux avec les agences hydrologiques du Moyen Orient pour mesurer la balance hydrique. Combien y-a-t-il a d’eau disponible, où est elle utilisée ? Ils vont combiner les derniers modèles et les informations par satellites pour fournir des mesures quotidiennes. On utilise le meilleur du savoir des Etats-Unis et du Moyen Orient pour résoudre un grave problème mondial. Les informations seront rendues publiques, ce qui devrait entraîner une boucle de rétroaction en termes de performance.Julia Bucknall est chercheuse à la Banque mondiale où elle travaille sur la gestion de l’eau, les investissements dans les infrastructures et l’irrigation au Moyen Orient et en Afrique du nord. Elle participe au blog Development in a Changing Climate, des co-auteurs d’un rapport à venir de la Banque mondiale, World Development Report 2010.

Le programme Nano 2012 est officiellement lancé

Le programme de recherche et développement Nano 2012, qui associe l’Etat, les collectivités locales dont le conseil général de l’Isère, ainsi que des partenaires scientifiques et industriels parmi lesquels le Commissariat à l’énergie atomique (CEA), le franco-italien STMicroelectronics ou encore IBM, a été officiellement lancé, mardi 1er avril 2009, par Christine Lagarde, ministre de l’Economie, de l’Industrie et de l’Emploi. L’ensemble des partenaires ont signé une convention cadre qui vise à poursuivre et à développer les travaux de R&D menés en microélectronique sur le site du cluster de Crolles (Isère). Objectifs : accroître la compétitivité des filières microélectroniques notamment face à l’Asie du sud-est, développer des technologies dérivées pour systèmes sur puce électronique, et ainsi, conforter la position de leader du site de Crolles.

Le programme de financement
L’enveloppe totale de ce nouveau programme de R&D, baptisé Crolles III, est de 2,3 milliards d’euros. Versée sur 5 ans, elle sera financée à hauteur de 657 millions d’euros par les collectivités publiques indique l’Elysée (477 millions par l’Etat et 180 millions par les collectivités territoriales) auxquels viennent s’ajouter 340 millions d’euros apportés par STMicroelectronics. L’aide publique bénéficiera également au Laboratoire d’électronique et de technologies de l’information du Commissariat à l’énergie atomique (CEA-LETI), ainsi qu’à de nombreux autres organismes de recherche et acteurs industriels. Il fait suite au programme Crolles II qui entre 2002 et 2007 avait bénéficié d’une enveloppe de 1,5 milliard d’euros.

Combien d’emplois en perspectives ?
STMicroelectronics s’est engagé à créer, sur les sites de Grenoble et de Crolles, 660 emplois supplémentaires par rapport aux effectifs en poste au 1er janvier 2008. Un chiffre qui devraient venir s’ajouter aux 27.000 emplois induits dans la région de Grenoble par le cluster de Crolles.

Les cleantech ne connaissent pas la crise

Publié par GreenUnivers et La Tribune, le premier baromètre trimestriel mondial des deals (levées de fond et fusion-acquisition) dans les cleantech permet de dresser une carte des investissements et d’en connaître les tendances. Ainsi, le montant total des deals atteint 1,1 milliard d’euros. Ces investissements concernent aussi bien les énergies renouvelables, le recyclage ou les voitures électriques. Mais le panorama ainsi dessiné permet de dresser les tendances actuelles des secteurs cleantech les plus dynamiques.Ainsi, le solaire est de loin le secteur le plus actif. Sur les 61 fusions-acquisitions réalisées dans les cleantech au premier trimestre dans le monde, 22 concernent le solaire, pour un montant total avoisinant les 700 millions d’euros. Dans la même veine, la liste des dix principaux deals mondiaux fait apparaître 6 transactions liées à l’industrie solaire. La principale opération en valeur, concerne les Etats-Unis, et plus précisément la Californie, où l’on observe un tourbillon de concentration chez les acteurs du solaire. C’est le cas pour l’opération phare du trimestre, qui concerne FirstSolar, premier fabriquant américain de cellules solaires. L’entreprise, quatrième acteur mondial du secteur, a décidé de se développer dans l’installation de centrales solaires en rachetant pour 400 millions de dollars son rival OptiSolar.

La crise n’a pas arrêté les transactions
Autre investissement intéressant, l’audacieuse manœuvre du Japonais Mitsubishi, qui a jeté son dévolu sur le solaire en rachetant partiellement la plus grosse centrale solaire photovoltaïque du monde, installée au Portugal.Le contexte français suit la tendance mondiale, puisque sur les cinq principaux deals du trimestre, les trois premiers concerne le solaire. Par ordre d’importance figure :
  • Exosun : cette start-up girondine conçoit des centrales nucléaires, photovoltaïques et thermiques, équipées de « trackers » pour suivre la course du soleil. Exosun vient de lever 4,5 millions d’euros auprès de Crédit Agricole Private Equity, afin d’augmenter son activité.
  • ReWATT : l’entreprise, spécialisée dans les centrales solaires, vient d’ouvrir son capital à Frey Nouvelles Energies à hauteur de 3 millions d’euros. La filiale de la compagnie financière Frey ambitionne 300 MW dans l’éolien et le solaire d’ici 5 ans.
  • Sillia énergie est spécialisée dans les panneaux photovoltaïques polycristallins intégrés au bâtiment. Il vient de lever 2,6 millions d’euros auprès d’IPO, filiale du crédit mutuel-CIC, et de Sodero gestion.
  • Windtechnics vient de céder 42% de son capital à la société d’investissement Hanalei Finances. Cela représente 1,6 million d’euros, pour cette entreprise spécialisée dans la maintenance éolienne.
  • Pellenc Selective Technologies produit des machines assurant automatiquement le tri des déchets ménagers et industriels. Basée dans la Vaucluse, l’entreprise vient de lever des fonds, pour un montant de 1,2 million d’euros, auprès de Turenne Capital.
Au niveau mondial comme français, on voit donc que le solaire est le secteur le plus dynamique depuis le début de l’année. Mais les autres secteurs cleantech ne sont pas pour autant en reste. Ainsi, le recyclage se place comme un secteur en plein essor. Le groupe Paprec a d’ailleurs récemment mis la main sur la société bordelaise Acoor Environnement, pour un montant non divulgué. De même, l’éolien, malgré la crise, reste un secteur très dynamique, surtout de l’autre côté de l’Atlantique.

Chiffre clé : baisse de 3,8% des dépenses IT en 2009 dans le monde

La crise économique n’épargnera pas le secteur des technologies de l’information. Elle pourrait même sérieusement l’ébranler si l’on en croit Gartner qui a publié, lundi 31 mars, ses prévisions pour l’année 2009.Le cabinet d’études américain estime en effet, que les dépenses IT du grand public comme des entreprises dans le monde devraient reculer de 3,8% en 2009 pour atteindre 3,2 milliards de dollars (2,4 milliards d’euros), soit une baisse de près de 10 points par rapport à 2008. L’année dernière, les dépenses informatiques avaient atteint 3,4 milliards de dollars (2,5 milliards d’euros), soit une progression de 6,1% sur une année glissante.Ce décrochage apparaît d’autant plus significatif qu’il dépasse nettement celui constaté après l’éclatement de la bulle Internet. Entre 2000 et 2001, les dépenses IT n’avaient alors baissé que de 2,1 % rappelle Gartner.Evolution et prévision des dépenses IT dans le monde (en milliards de dollars)

Dépenses2008 Variation annelle Dépenses 2009 Variationannuelle
Matériel 381,0  + 2,8 % 324,3  – 14,9 %
Logiciel 221,9  + 10,3 % 222,6  + 0,3 %
Service 809,5  + 7,6 % 796,1  – 1,7 %
Telecom 1.948,0  + 5,6 % 1.891,2  – 2,9 %
Total 3.360,3  + 6,1 % 3.234,0  – 3,8 %
Source : Gartner (mars 2009)
Tous les secteurs ne sont toutefois pas touchés de la même manière. C’est la vente de matériels qui devrait le plus souffrir. Avec des dépenses estimées à 324,3 millions de dollars (242,5 millions d’euros), les ventes de ce segment devraient reculer de 15% sur un an.Les télécoms, également dans la tourmente, devraient mieux s’en sortir avec une baisse de leur activité de seulement 2,9%. Même chose pour les services informatiques ( – 1,7%). La chute des investissements des firmes y sera pour beaucoup, mais le pire devrait être évité grâce aux prestations d’infogérance qui procurent aux SSII des revenus récurrents.Au final, c’est le segment du logiciel qui devrait le mieux tirer son épingle du jeu avec une croissance de 0,3% sur un an. En particulier ceux dont l’objectif est d’aider les entreprises à optimiser leurs budgets informatiques, à réduire le temps nécessaire aux tests avant le lancement de nouveaux produits, ou encore à améliorer la relation clients. En France, la situation est également tendue, même si l’impact de la crise apparaît moins important. Pour le Syntec Informatique qui a divulgué mardi 1er avril ses prévisions pour l’année 2009 au cours de sa conférence semestrielle, la croissance du secteur informatique devrait être proche de zéro, avec une incertitude de plus ou moins un point. En France aussi, tous les segments ne seront pas touchés de la même manière. Deux d’entre eux devraient mieux résister. Dans le conseil et services informatiques, il s’agit des projets d’infogérence d’infrastructure (+ 5%) et dans l’édition de logiciels, des logiciels embarqués (+ 5%).

GreenDrive, un système innovant pour une conduite écologique

L’innovation automobile se tourne depuis quelques années vers les économies de carburants. Arrêt du moteur au feu rouge, récupération de l’énergie cinétique… les procédés innovant ne manquent pas. Cependant, un facteur de consommation de carburant sur lequel les constructeurs n’ont aucun moyen d’action est le style de conduite. Ainsi, on sait que les conduites dites « sportives » sont gourmandes en carburant, surtout en ville.Partant de là, Alex Ackerman et Yossef Shiri, respectivement suédois et israëlien, ont mis au point un appareil intelligent nommé GreenDrive. Ce système, dont la date de commercialisation n’est pas encore arrêtée, combine des informations sur la position du véhicule, les conditions de circulation et le type de voiture pour calculer et conseiller le conducteur sur le style de conduite à adopter pour réduire sa consommation. « Notre système permet de réduire la consommation de carburant d’un véhicule d’une manière très intuitive pour le conducteur. Il peut fonctionner sur un téléphone mobile ou un appareil de navigation personnelle, et il tient compte de l’environnement », explique Yossef Shiri.

Entre 15 et 25% de carburant économisé

Le système est encore à l’état de prototype, mais les résultats des tests menés sur le terrain sont concluants. Selon les deux inventeurs de GreenDrive, ce système permet de réaliser, en moyenne, une économie de 15 à 25% de carburant sur un cycle complet. « Si vous conduisez de manière agressive, vous pouvez économiser jusqu’à 50% de carburant grâce à ce système », précise Yossef Shiri.Utilisant les informations de localisation du Global Navigation Satellite System (GNSS), GreenDrive fonctionne pour l’instant avec le GPS, mais dans l’avenir, il sera également capable d’exploiter les données de Galileo, le futur système de positionnement par satellites européens.Il sera même possible aux utilisateurs de ce système de consulter sur le Web les données statistiques relatives à leur style de conduite, pour adapter ce dernier au besoin.L’Agence Spatiale Européenne a salué cette invention, dans le cadre de son programme de transfert de technologie, et travaille en partenariat avec Ackerman et Shiri pour améliorer ce nouveau système. GreenDrive a déjà été récompensé, en 2008, par le premier prix de l’European Satellite Navigation Competition.