Des bulles de savon pour organiser des nanoparticules

Les bulles de savon sont des objets « fragiles », apparemment simples, et qui nous sont familiers. Beaucoup de processus industriels nécessitent pourtant une connaissance approfondie de ces objets bien plus organisés qu’ils n’y paraissent. Après le drainage de l’eau, les parois des bulles ont des structures très ordonnées dont on peut utiliser le fort potentiel d’auto-organisation pour confiner des nanoparticules de diverses natures, ouvrant ainsi la voie à de nouvelles applications. Trois questions à Jean-Jacques Benattar, chercheur au service de physique de l’état condensé du CEA de Saclay.

Techniques de l’ingénieur : Comment peut-on fabriquer des films de nanoparticules organisés par des bulles de savon ?
Jean-Jacques Benattar : Les bulles après le drainage de l’eau deviennent très mince, atteignant quelques nanomètres. Elles sont constituées de deux parois de molécules de savons qui confinent et organisent des nanoparticules qui sont originalement dans la solution.

Quels sont les obstacles que vous avez dû lever pour atteindre ce résultat ?
Il a fallu contrôler les solutions en maîtrisant les concentrations des différents composants, savons, nanoparticules et sels, assurer le drainage complet d’une bulle sans qu’elle éclate, enfin trouver les conditions de dépôt de cette bulle en préservant l’organisation à l’échelle nanométrique.

A quoi les films de nanoparticules peuvent-ils servir ? Quelles sont les perspectives ?
Les films de nanoparticules ont des caractéristiques très intéressantes pour des applications en nanophotonique, films magnétiques bidimensionnels etc. Actuellement, nous avons réussi à ligner et à concentrer fortement des nanotubes de carbones qui présentent, par exemple, des propriétés extrêmement importantes pour la réalisation de transistors. La méthode que nous développons est d’un coût extrêmement faible. Elle a des caractéristiques très originales qui permettent de déposer des grandes surfaces de nanoparticules sur des substrats divers du silicium aux supports flexibles transparents.ParcoursDocteur d’Etat en physique, Jean-Jacques Benattar est chercheur au service de physique de l’état condensé, à l’Iramis (Institut rayonnement matière de Saclay) du CEA Saclay. Il est expérimentateur spécialiste de la physique des films minces et des systèmes auto-organisés ainsi que des techniques de rayons X. Il a récemment publié un article dans la base documentaire des éditions Techniques de l’ingénieur : Films de nanoparticules organisés par des bulles de savon.  

Irena : l’Institut des énergies renouvelables au pays du pétrole

L’Irena (Institut international pour les énergies renouvelables), qui tenait dernièrement sa deuxième réunion préparatoire, est un succès. Il a aussi fait naître la polémique. Le succès, c’est le nombre de pays qui ont rejoint cette initiative d’origine allemande : 136 Etats ont déjà adhéré à l’Institut, dont tout récemment les Etats-Unis et le Japon. Une preuve évidente de leur intérêt pour les énergies renouvelables.La polémique, c’est le choix du siège de l’organisation : alors que l’Allemagne portait la candidature de Bonn, c’est finalement l’émirat d’Abou Dhabi qui a été retenu. Un curieux choix pour certains que celui d’un Etat dont la prospérité repose sur l’exploitation du pétrole et qui détient même le record de la plus forte empreinte carbone du monde par habitant, selon le WWF.Mais Abou Dhabi a réussi une belle campagne de lobbying, s’assurant du soutien d’Etats importants au premier rang desquels les Etats-Unis, mais aussi la Grande-Bretagne ou l’Australie. L’émirat a promis des engagements financiers importants : 135 millions de dollars sur cinq ans et 50 millions de dollars supplémentaires par an pour les projets soutenus par l’Irena.

La directrice de l’Irena sera française

L’émirat a aussi fait valoir une carte : il compte installer le siège de l’Irena dans sa future ville propre de Masdar, une ville de 50.000 habitants à zéro émission de CO2 dont la construction devrait être achevée en 2016.« Ce choix témoigne de l’engagement d’un pays dont l’économie est aujourd’hui fortement tournée vers les énergies propres, estime Alexis Gazzo, consultant au cabinet Ernst & Young. Et puis, c’est aussi un beau symbole de l’évolution de la planète : c’est la première fois qu’un pays du Moyen-Orient est retenu pour accueillir le siège d’une organisation internationale. »Les négociations ont été ardues, mais Bonn et Vienne ont finalement retiré leurs candidatures. La ville allemande a obtenu un lot de consolation : elle hébergera le centre des technologies et de l’innovation de l’Irena, alors que Vienne récupère un bureau de liaison pour la coopération avec les autres organisations traitant des énergies renouvelables. Reste à trouver un mode d’organisation efficace entre ces trois sites…

Une plate-forme de partage des connaissances

 Ce sera l’un des chantiers prioritaires de la nouvelle directrice générale de l’Irena, la française Hélène Pelosse, une spécialiste des négociations internationales sur le climat et l’énergie qui était jusqu’à présent directrice adjointe du cabinet de Jean-Louis Borloo, ministre de l’Ecologie.Dans un premier temps, l’Irena devrait surtout être une plate-forme de partage des connaissances et des transfert de technologies sur les énergies renouvelables, notamment entre les pays industrialisés et les pays émergents. « C’est un beau signal donné de l’importance accordée par les Etats du monde entier aux énergies vertes, observe Alexis Gazzo. Surtout que l’Institut devrait compter une centaine de collaborateurs dans deux ans, ce qui permettra un travail important. »La nouvelle agence devra cependant se faire une place aux côtés d’autres organisations comme l’Agence internationale de l’énergie qui traite déjà, en partie, des énergies renouvelables.

Source:

Green Univers

Tour du monde de la robotique de service

14 milliards de dollars. C’est ce que devrait peser le marché de la robotique pour la période 2008 – 2011. D’après le rapport 2008 de l’IFR (International federation of robotics), les robots de service pour usage professionnel vont représenter un marché de 9 milliards de dollars sur cette période. Les robots de service pour usage personnel vont générer un chiffre d’affaires de 3,3 milliards, auxquels il faut ajouter 1,8 milliard pour les robots destinés à l’éducation et la formation. Le marché pour l’assistance aux handicapés, encore restreint, devrait doubler. D’après la Japan robotics association, la robotique dédiée aux services à la personne devrait atteindre 35 milliards en 2025. De quoi susciter l’intérêt de nombreux pays.  

 Le Japon, le leader avant l’heure
Principal producteur et utilisateur de robots industriels, le Japon fait preuve d’une avancée importante en robotique de service. Cela répond notamment à des besoins de la société liés au vieillissement de la population et au manque de main d’œuvre peu qualifiée. Très technophiles, les Japonais ne connaissent pas les réticences de certains Européens face aux robots humanoïdes. La recherche dans ce domaine se fait sous l’impulsion du Meti (ministère japonais de l’économie, du commerce et de l’industrie), qui a notamment financé le projet le robot humanoïde HPRP-2 destiné aux chercheurs, fabriqué par Kawada. L’industrie constitue un moteur de la robotique, avec des entreprises comme Toyota (Mechadroid C3), Honda (Asimo), NEC (Papero, Partner personal robot), Mitsubishi (Wakamaru loué comme hôtesse d’accueil) ou encore Sony (Aibo dont la production a été arrêtée, Qrio qui n’est pas encore commercialisé).  

 Les Etats-Unis, secret défense
Aux Etats-Unis, la recherche est soutenue par l’armée pour des robots tout terrain roulant à grande vitesse ou des systèmes d’aide aux fantassins. Des ingénieurs de l’université de Duke viennent par exemple de développer un prototype de robot capable de localiser des petits morceaux de métal dans la chair, puis de guider une aiguille à leur emplacement exact. Les chercheurs espèrent pouvoir soigner des blessures sur un champ de bataille, et plus généralement réaliser des opérations chirurgicales très complexes. Les Etats-Unis sont également en pointe dans la robotique domestique avec notamment les recherches du MIT (Massachussetts institute of technology) qui vient de présenter son dernier né, le robot humanoïde Domo, destiné aux tâches ménagères. Microsoft s’est positionné dans le domaine du développement d’applications robotiques, avec Microsoft robotics studio, une plate-forme utilisable gratuitement pour une activité non commerciale. 

La Corée du Sud dans les starting-blocks
La Corée veut devenir leader en robotique de service et domestique, comme le montre la feuille de route finalisée en avril par le National science and technology council. Le gouvernement va investir dans un parc d’attraction Robot land, dans la recherche sur l’intelligence artificielle et dans la formation. La Corée s’est fixer comme objectif de détenir 20% de parts de marché. Le pays compte développer 200 entreprises de robotique qui emploieront 13.800 personnes dans les cinq prochaines années. La Corée a donné le jour au robot humanoïde Albert Hubo, doté du visage d’Einstein. En septembre 2008, une entreprise spécialisée dans les cours de langues (Hwakin english) a lancé une méthode d’apprentissage de l’anglais avec des robots. Elle est en test dans huit écoles pilotes. Cette solution vise notamment à palier à un manque de professeurs natifs anglophones en province.  

La Chine au stade du robot domestique
L’agence Chine Nouvelle vient d’annoncer la prochaine mise sur le marché du premier robot domestique chinois par le fabricant Xinsong automation, affilié à l’académie des sciences de Chine. Lancé en 2007, il avait été classé projet national clé. Il reste à réduire les coûts pour que le robot puisse être commercialisé dans une fourchette de 3.500 à 5.500 euros. Il s’agit d’un robot de compagnie pour les personnes âgées seules. Il est capable de donner de la nourriture ou des médicaments, de déclencher des alarmes en cas de fuite d’eau ou de gaz, d’envoyer des textes ou des vidéos, de chanter une chanson ou de jouer aux échecs. L’énorme potentiel de son marché pourrait servir de tremplin à la Chine.  

La France dans la cour des grands
« En termes de publications, la France représente 3 à 4 % de l’effort mondial tous sujets confondus, contre 7 à 8 % pour la robotique, après les Etats-Unis et le Japon. Nous sommes les premiers si l’on ramène ce chiffre au nombre d’habitants », nous expliquait Bruno Maisonnier (président fondateur d’Aldebaran Robotics et président de Cap robotique) dans une interview. Le programme Robea du CNRS en faveur de la robotique a débuté en 2001, avec en parallèle la création du département Stic (département Sciences et technologies de l’information et de la communication). En 2003, le CNRS a initié un programme en partenariat avec le National institue of advanced industrial science and technology, créant deux centres de recherche (l’un au Japon l’autre à Toulouse). Cette coopération a permis des progrès dans la maîtrise de la planification du mouvement 3D (le robot transporte des objets encombrant en évitant les obstacles en marchant). Le dynamisme du secteur en France repose également sur les PME qui viennent de se regrouper au sein de Cap robotique. Nao, le robot humanoïde d’Aldebaran Robotics (en photo ci-dessus) est l’un des plus sophistiqués au monde, il a été choisi pour la ligue standard de la coupe du monde de football des robots. Le projet Romeo, mené par différents partenaires de Cap robotique, devrait permettre à la France de développer son secteur robotique. 

 L’Allemagne et l’intelligence artificielle
L’Institut de cognition et de robotique (CoR-Lab) a été inauguré en octobre 2007 à l’université de Bielefeld. Cet institut travaille en coopération avec le groupe Honda, qui a mis à sa disposition Asimo, plus particulièrement dans le domaine « cognition et robots intelligents ». Dans la catégorie des robots domestiques, l’Allemagne a notamment développé Morpha, qui aidera à la réalisation de tâches ménagères. Dans les robots de loisirs, l’Allemagne se distingue avec Robocoaster de Kuka. 

L’Italie, berceau d’Icub
L’Italie participe activement au projet européen Robotcub initié en 2004. Coordonné par l’université de Gênes, il réunit 16 partenaires pour un budget de 8,5 millions d’euros sur cinq ans. Il a donné vie à Icub, un robot humanoïde destiné aux chercheurs, parmi lesquels les chercheurs en robotique et en intelligence artificielle de l’université Claude Bernard de Lyon et de l’Inserm. Corentine Gasquet

Les informaticiens s’en sortent plutôt bien

L’Apec vient de revoir à la baisse ses prévisions, avec un total de 145.000 recrutements de cadres (tous secteurs confondus), soit un repli de 27 % par rapport à 2008. Cependant, comme nous le signalait dans une interview Pierre Lamblin, le directeur des études de l’Apec, le marché de l’emploi résiste mieux pour les ingénieurs. C’est encore plus vrai en informatique.

Globalement, la fonction informatique n’est pas épargnée par la tendance générale. Entre janvier et mai, on constate une baisse de 37,4 % du volume des offres en informatique, soit une réduction pire qu’en 2002 et 2003 (-19,5 % pour les mêmes mois). Notons cependant que ce chiffre a fortement augmenté de 2004 et 2008, avec une hausse de 31,7 % en moyenne sur les mêmes mois. Le nombre d’offres reste donc élevé en volume, avec un total de 76.132 offres sur un an, ce qui représente 29 % des offres Apec. Par ailleurs, l’association met en avant la raréfaction des candidats, surtout pour les profils pointus.

L’enquête du CNISF (Conseil national des ingénieurs et des scientifiques de France) qui vient de paraître laisse entrevoir la même tendance : l’informatique résiste mieux. Ainsi, 19 % des ingénieurs interrogés dans le secteur des SSII et des éditeurs de logiciels pensent que le secteur ne recrutera pas de cadres techniques en 2009, contre une moyenne de 33 % pour l’ensemble des ingénieurs. Dans l’automobile, ils sont 69 % à estimer que leur secteur ne recrutera pas. Lorsqu’on leur demande s’ils craignent de perdre leur emploi en 2009, seuls 12 % des ingénieurs du secteur SSII et éditeurs de logiciels répondent oui. Dans le domaine du matériel électrique, de l’électronique et de l’informatiques ils sont 20 % à répondre par l’affirmative.

17 % des ingénieurs débutent dans une SSII ou chez un éditeur

A l’issue de la formation des ingénieurs, STIC (électronique, télécommunications, informatique, génie logiciel, maths appliquées) arrive en tête des spécialités, loin devant les autres (23,5 % du total). Pour les ingénieurs en poste, la fonction système d’informations (21 %) est la deuxième après études, recherche et conception (46 %). Les SSII et éditeurs de logiciels emploient 17,3 % des débutants, devant tous les autres secteurs d’activité.

Le salaire médian des informaticiens (source CNISF)

Secteur des SSII et éditeurs de logiciels

Moins de 30 ans

30 – 44 ans

45 – 64 ans

Ensemble

36.000 euros

50.150 euros
 

69.000 euros

44.500 euros

Fonction systèmes d’informations

Moins de 30 ans

30 – 44 ans

45 – 64 ans

Ensemble

37.063 euros

53.448 euros
 

70.000 euros

50.000 euros

L’enquête du CNISF comporte également tout un volet rémunération. Le salaire médian dans les systèmes d’information atteint 50.000 euros. Sans surprise, le sous-segment direction, administration, gestion des SI rapporte le plus, jusqu’à 96.500 euros de salaire médian pour les 45 – 64 ans

C.G.

L’enquête du CNISF
L’édition 2009 de l’Observatoire de l’emploi des ingénieurs diplômés vient de paraître. Cette enquête annuelle très détaillée rapporte la situation au 31 décembre 2008, recueillie dans le courant des mois de mars et avril 2009 auprès de 47.000 ingénieurs.
En savoir plus sur cette étude : enquete.cnisf.org 

&l

Une société de télécommunications propose de chauffer un quartier de Londres gratuitement

Lorsqu’il ouvrira en 2010, le bâtiment de 9 étages, d’un coût de 80 millions de livres, du centre de données Telehouse West dans le quartier de Docklands à Londres pourra fournir jusqu’à 9 MW de « chaleur gratuite ». De quoi alimenter 450 maisons du voisinage en chauffage et en eau chaude.Telehouse prévoit d’installer un échangeur de chaleur pour pomper l’eau, chauffée par le système de refroidissement du centre de données, à la périphérie du site, d’où un promoteur pourra la transporter dans des tuyaux jusqu’à son propre site et utiliser un échangeur de chaleur pour chauffer ou climatiser un bâtiment.Le projet n’a pas encore démarré en raison de difficultés financières. Mais Telehouse a bon espoir, persuadée que son offre est intéressante sur le long terme. La société n’a pas l’intention de faire payer l’eau chaude mais espère une contribution pour un échangeur de chaleur de bonne taille sur son propre site. « Ils vont avoir de l’énergie gratuite à vie, ce n’est pas une offre insignifiante », déclare un des responsables du projet.Si la chaleur perdue est intégralement utilisée, l’économie annuelle réalisée devrait être de 1.110 tonnes de CO2.Par Lain Aitch et Hannah Bullock, journaliste et rédactrice de Green Futures, un magazine indépendant publié par Forum for the future.

Les énergies renouvelables sont-elles crédibles ?

Le 20 juin dernier se tenait au collège de France, dans le cadre du Forun Sciences, Recherche et Société, un débat sur le thème des énergies renouvelables : comment les domestiquer de façon industrielle et rentable ? En d’autres termes, sont-elles crédibles ?C’est à Jean-Louis Bal, directeur des énergies renouvelables à l’Ademe, qu’est revenu de faire le premier constat. Celui-ci a signalé que les seules énergies renouvelables qui nous viennent du ciel (le solaire, l’éolien…) représentaient 800 fois les besoins totaux de l’humanité. Cette donnée ne prend en compte ni l’autre grande famille des énergies renouvelables, celles qui nous viennent du sol, ni même l’énergie due à la variation de la gravitation (les marées), ce qui donne la pleine mesure du potentiel des énergies renouvelables.Néanmoins à court-terme, explique Patrick Faisques, responsable des relations institutionnelles avec la recherche pour Véolia Environnement, la France va devoir « passer à l’échelle industrielle » pour atteindre l’objectif de 23 % d’énergies renouvelables en 2020 qu’elle s’est fixée. Pour Jean-Louis Bal, l’avenir passera par un réseau de distribution intelligent qui pilote à la fois l’offre et la demande. Mais si on s’en tient au Grenelle de l’environnement, la priorité est pour l’instant clairement donnée à la baisse de la consommation (35 millions de tonnes équivalent pétrole, tandis que le Grenelle estime les capacités des énergies renouvelables à 20 millions de tonnes équivalent pétrole).Jean-Louis Butré, Président de la Fédération Environnement Durable, s’est quant à lui attaqué vivement à la filière éolienne, coûteuse et peu rentable, sans oublier les problèmes de voisinage et un impact paysager non négligeable. Il y a aujourd’hui en France entre 2.000 et 2.200 éoliennes produisant 3.500 MW, soit 1 % de notre production d’électricité. Pour atteindre les objectifs du Grenelle, il va falloir multiplier ce nombre par 7 et atteindre ainsi les 12.000 à 15.000 éoliennes pour un coût de 2,5 milliards d’euros par an (soit à titre de comparaison le budget du CNRS). Si les énergies renouvelables sont l’avenir, « il ne faut pas que tout devienne une grande lessive verte », précise-t-il.

« Tout déséquilibre dans la nature crée de l’énergie »
Le photovoltaïque et les énergies marines ont davantage fait le consensus. La voie vers les énergies renouvelables devrait donc passer, à court terme, par le photovoltaïque et, à long terme, par les énergies marines dont la France est particulièrement bien dotée. Pour Jean-Louis Bal, la France dispose de 10.000 km² de surface construite : si on met du photovoltaïque partout, on double la production actuelle d’électricité, avec une emprise au sol de zéro. 30 mètres carrés de panneaux suffisent ainsi à couvrir notre consommation personnelle annuelle.Après avoir rappelé que « tout déséquilibre dans la nature crée de l’énergie », Frédéric Jouve, directeur de la recherche sur les énergies renouvelables du Groupe EDF, a répertorié les énergies marines les plus prometteuses : le marémoteur, d’abord, qui doit néanmoins résoudre le problème de son impact environnemental, le houlomoteur ensuite (les courants marins), qui a la capacité de couvrir la consommation électrique européenne. Mais aujourd’hui, il n’y a pas de technologie avérée capable de résister à la houle. Enfin, le thermique des mers.Le débat ne s’est pas attardé sur les biocarburants. Jacques Faisques a néanmoins eu le temps de rappeler que, grâce à une analyse de cycle de vie, Véolia n’avait pas fait l’erreur de se positionner sur les biocarburants de première génération, ce en quoi l’histoire lui a donné raison. Toutefois, aujourd’hui, elle s’est lancée dans la transformation des huiles de friture usagées (notamment des McDo) en biomasse.

Oui, les énergies renouvelables sont crédibles
Pour finir, notons une question intéressante sur le pourquoi du peu de place faite à la géothermie en France. Pour Jean-Louis Butré, ce sont les pétroliers, à savoir les prospecteurs, qui pourraient s’intéresser à la géothermie, mais cela n’arrivera pas tant que les réserves de pétrole ne seront pas épuisées. Jean-Louis Bal a quant à lui cité l’exemple de la première centrale géothermique en Alsace qui exploite la chaleur des roches profondes sèches. Un principe novateur, car il exploite la géothermie même dans les endroits où il n’y a pas de nappes aquifères à haute température (ce qui est le cas général en France hormis pour l’outre-mer).D’autre part, en Ile de France, un nouveau forage dans une nappe à 80 °C situé à 1.500 m de profondeur va alimenter 4.000 foyers près de la Villette. Enfin, plusieurs dizaines de milliers de ménages s’équipent chaque année de pompes à chaleur. Mais, pour Jacques Fraisques, le problème de la géothermie est celui de la distribution de la chaleur. La géothermie implique d’avoir un réseau de chaleur, donc un chauffage collectif, alors qu’en France, le chauffage individuel prime. Si le chaud et le froid ont été successivement jetés sur l’une ou l’autre filière des énergies renouvelables (l’éolien, pour ne pas le citer, mais aussi la biomasse), la réponse à la question initiale laisse peu de place au doute : oui, les énergies renouvelables sont crédibles. Pour autant que toute proposition énergétique soit complète, comme l’a rappelé un auditeur de Sauvons le climat : « Il faut faire un scénario complet : évaluer les économies d’énergies possibles tout en faisant une proposition globale pour fournir le reste ». Faute de quoi, on fausse le débat.Par Clémentine Fullias

Une centrale britannique capture les émissions de CO2

Le groupe énergétique Scottish Power a développé une technologie de récupération des émissions de CO2. C’est la centrale de Longannet, au Royaume-Uni, qui va bénéficier de cette innovation. Elle capture donc une partie de ses émissions de CO2. Ce projet permet d’en savoir plus la technologie de récupération du CO2, cruciale pour l’avenir du charbon et du climat.Une réplique à petite échelle d’une centrale de capture du CO2 (mesurant tout de même 12 mètres de long et pèsant 30 tonnes) récupèrera durant 7 mois le CO2 des fumées de combustion. L’objectif est de tester les différentes solutions d’amines qui absorbent le CO2, la quantité d’énergie nécessaire pour chauffer la solution saturée en gaz pour expulser et capturer le CO2, et le nombre de fois où les amines peuvent être recyclées dans le processus. Les 1 MW (sur les 2,3 MW de la capacité totale de Longannet) qui sont traités représentent 1.000 mètres cubes de gaz de combustion par heure.Même si le CO2 est capturé, il ne s’agit pas réellement du procédé tant vanté de capture et de stockage du CO2 (CCS) puisqu’aucun stockage à long-terme n’est prévu ici. Mais Scottish Power espère atteindre une capacité de 300 MW et relier la centrale aux sites de stockage potentiels de la mer du Nord, s’il remporte l’an prochain le concours du gouvernement d’une centrales CCS commercialisable.

Le CCS n’est encore qu’une promesse
Depuis qu’il est en charge du ministère de l’énergie et du changement climatique, Ed Miliband a misé sur le CCS au Royaume-Uni, tant pour conserver le charbon (qui compte encore pour près d’1/3 de l’électricité délivrée au réseau national) dans le mix énergétique que pour développer une nouvelle industrie verte avec un énorme potentiel à l’exportation.Il a également proposé de fixer une date pour rendre le CCS obligatoire s’il s’avère être une réussite. Les projets de nouvelles centrales à charbon (les deux unités de 800 MW si controversées que E.ON a l’intention de construire à Kingsnorth) ne seraient autorisés qu’à cette condition. Dès lors que la technologie aura été jugée techniquement et commercialement viable, les centrales auront cinq ans pour l’appliquer à l’ensemble de leurs capacités, et 300 MW dès le premier jour.Une dernière proposition suggère de fixer des normes d’émissions pour améliorer les performances énergétiques de toutes les centrales à charbon (y compris celles qui existent déjà).

Un enjeu social et financier
Une consultation est en cours jusqu’en septembre sur toutes ces propositions et la possibilité de les étendre aux centrales à charbon existantes. Des critiques, dont Greenpeace, craignent que tout cela n’aboutisse à un feu vert pour le charbon dans l’avenir alors que le CCS n’est encore qu’une promesse.Un rapport récent de l’AEA Group (Accounting, economics & appraisal Group, il s’agit d’un cabinet anglais de consulting environnementl), publié en parallèle des propositions du gouvernement, avance un gain de 2 à 4 milliards de livres par an d’ici à 2030 pour l’industrie britannique grâce aux technologies de réduction des émissions de CO2 des centrales à charbon. D’après le rapport, un rôle de leader dans le secteur permettrait la création de 30.000 à 60.000 emplois. Au vu de l’enjeu, les Etats-Unis, le Canada, l’Australie, l’Allemagne, la Norvège et d’autres pays pourraient également entrer dans la course. Roger East est rédacteur conseil pour Green Futures, un magazine indépendant publié par Forum for the future.

Le Green IT, plus qu’une mode ?

(Cette tribune a été publiée en deux parties dans le blog GreenIT.fr)

1ère partie
Selon une étude du Gartner Group, le green IT fait partie des 10 technologies stratégiques pour 2009. L’étude du baromètre green IT 2008 menée par IDC pour Dell confirme cette tendance.Pour les grands comptes français interrogés, l’avancement du green IT est illustré de la manière suivante :
  • 46 % sont sensibilisés aux enjeux énergétiques et environnementaux du système d’information ;
  • 34 % ont déjà mis en place certaines initiatives ;
  • 12 % ont planifié le développement d’une politique informatique de préservation de l’environnement pour les prochains mois et les prochaines années.
Comment mettre en place une politique green IT ? Elle s’articule autour de trois grands axes :
  • La réconciliation des responsabilités économiques et sociétales ;
  • L’adoption et la promotion de règles ” vertes“ ;
  • La réduction de la consommation d’énergie.
Les deux premières actions nécessitent un engagement de la direction et une harmonisation avec la stratégie de l’entreprise. La réduction de la consommation d’énergie est plus simple à mettre en œuvre.

La réduction de la consommation d’énergie
Il y a deux façons d’aborder la réduction de la consommation d’énergie : l’optimisation et/ou la virtualisation du parc. Lors de la mise en place de telles actions, il ne faut pas perdre de vue l’objectif initial qui est de réduire l’impact sur l’environnement. Il est en effet louable de vouloir optimiser son parc, mais les bienfaits d’une consommation moindre sont vite annulés par des changements d’équipements trop fréquents.L’analyse du cycle de vie des appareils permet d’identifier les impacts sur l’environnement, “du berceau à la tombe” (cradle to the grave) :
  • Acquisition des matières premières ;
  • Transport ;
  • Fabrication ;
  • Utilisation (et réutilisation) ;
  • Elimination
Au regard du cycle de vie, deux conclusions s’imposent.– Le long terme doit être privilégié. Il faut bien considérer la finalité et le taux d’utilisation des machines. Ainsi, la très grande majorité des utilisateurs métier n’utilisent que l’ERP et des applications bureautiques, il n’est pour cela pas nécessaire d’avoir un équipement à la pointe des évolutions techniques.– L’optimisation du parc implique de retirer du parc actif de nombreux équipements qui doivent être ensuite traités. Le traitement peut être réalisé de différentes manières : réutilisation des matériels, dé-pollution et recyclage des composants et/ou matières, valorisation énergétique.J’aborderai prochainement la prise en compte du cycle de vie des DEEE et leur gestion.

 
2e partie
Dans la première partie, nous avons vu que travailler uniquement sur les économies d’énergie n’a pas de sens. Il faut aussi prendre en compte le cycle de vie des matériels (DEEE) et gérer correctement leur fin de vie.

La réglementation DEEE
Les filières de traitement des matériels informatiques sont intégrées dans le cadre plus large des déchets d’équipements électriques et électroniques (DEEE ou D3E). Afin de limiter les atteintes à la santé et à l’environnement provoquées par les DEEE, l’Union européenne a décidé de mettre en place en 2003 une réglementation visant à assurer une récupération et un traitement adéquat de ces produits.Ces derniers peuvent en effet contenir des produits polluants ou dangereux pour la santé comme le cadmium, le plomb, le mercure, etc. Selon le décret du 20 juillet 2005, la responsabilité des producteurs s’applique uniquement pour la fin de vie des appareils mis sur le marché à partir du 13 août 2005.Pour les autres DEEE dits ”historiques“, la responsabilité d’élimination revient au détenteur. De plus, il importe que les conditions de la fin de vie soient précisées dans le contrat de vente de nouveaux équipements professionnels.

Réutilisation, dépollution, recyclage et valorisation
Le traitement des matériels informatiques donne lieu à plusieurs possibilités : la dépollution, le recyclage, la valorisation, la réutilisation.
  • La dépollutionCette opération consiste à enlever les composants dangereux qu’on ne peut pas traiter avec le recyclage : piles, accumulateurs, condensateurs, etc. Ces déchets dangereux sont envoyés dans des usines de traitement dédiées. Ainsi, on neutralise le produit pour pouvoir le recycler. La mise en décharge n’est qu’une conséquence résiduelle qui ne concerne pas les déchets dangereux.
  • Le recyclageUne fois la dépollution effectuée, les DEEE seront broyés. On pourra alors récupérer la fraction de métaux ferreux, des métaux non ferreux et des plastiques qui peuvent être recyclés.
  • La valorisation (principalement énergétique lors de l’incinération)
  • La réutilisation (des appareils ou de leurs pièces)C’est une priorité de la directive européenne avant même le recyclage ou la valorisation énergétique. Une place est laissée au réemploi et à la réutilisation en France des appareils fonctionnant encore ou susceptibles d’être réparés. Dans ce cas, ce sont les collectivités, les éco-organismes ou les prestataires de traitement qui se mettent d’accord avec les associations d’insertion comme Envie ou Emmaüs déjà présentes sur ce secteur depuis de nombreuses années.Une autre possibilité est d’envoyer des matériels dans des pays en voie de développement dans un but coopératif. Il est alors dans ce cas primordial de considérer la dimension ”déchets” à l’arrière-plan. D’aucuns déguisent ainsi l’exportation de déchets dangereux à moindre coût, d’autant que le traitement sur place se fait dans des conditions plus que discutables pour les populations locales et pour l’environnement.
En guise conclusion
L’ensemble de ces enjeux doivent être pris en compte en amont, lors de l’établissement des règles green IT. Il apparaît alors que la manière de traiter le sujet déborde du cadre de la DSI et touche directement la politique de l’entreprise. Le green IT devrait donc s’intégrer dans une démarche de développement durable, qui déjà a largement dépassé l’effet de mode.Par Marie Daelman – Enora Consulting, tribune publiée en mars 2009 dans le blog GreenIT.fr

Des molécules-aimants qui conservent leur bistabilité

Des chercheurs viennent de réussir à assembler des molécules aimants sur des nanotubes de carbone. Ces nouveaux objets intéressent à la fois les physiciens et les chimistes. Ils permettent en effet de stocker dans chaque molécule de très petite taille (~2nm) une information binaire (état on ou off). Les nanoaimants moléculaires permettent aussi d’observer une accélération exceptionnelle du transfert électronique entre les électrodes et les polyoxométallates [1] laissant présager de nouvelles propriétés catalytiques. Les molécules-aimants sont des complexes de la chimie de coordination qui présentent une bistabilité, c’est-à-dire changent de propriétés magnétiques sous l’effet d’une perturbation extérieure (état on/off). Cette bistabilité a jusqu’à présent été mise en évidence à l’échelle des cristaux moléculaires contenant un très grand nombre de molécules. Une fois les molécules isolées les unes des autres, elles peuvent perdre cette propriété. Le défi consistait donc à conserver la bistabilité à l’échelle de molécules individuelles isolées, dans le but de réaliser des dispositifs modèles pour le stockage de l’information binaire (on/off) à l’échelle de la molécule unique.

Lecture et manipulation des moments magnétiques
Pour la première fois, des chercheurs de l’institut de chimie moléculaire et des matériaux d’Orsay [2] ont réussi à assembler des molécules aimants de Fe6-Polyoxométallate sur un nanotube de carbone, sans qu’elles soient chimiquement modifiées. Les molécules sont alors isolées les unes des autres. Les mesures magnétiques réalisées à l’aide d’un micro-squid [3] montrent qu’elles conservent leur propriété de bistabilité. De plus, la présence de nanotubes de carbone autour des molécules pourrait faciliter le passage des molécules d’un état magnétique à l’autre grâce à l’interaction entre les propriétés électroniques des nanotubes (semi-conducteur) et les propriétés magnétiques des molécules. On pourrait ainsi imaginer un dispositif permettant la lecture et la manipulation des moments magnétiques pour effectuer des opérations quantiques.

Molécule aimant (droite) assemblée à un nanotube de carbone (gauche), © Talal Mallah
Dans un tout autre domaine, des études électrochimiques ont montré que le greffage de cette molécule sur le nanotube de carbone s’accompagnait d’une accélération considérable du transfert électronique entre les électrodes et les polyoxométallates. La grande stabilité du système hybride nanotube/polyoxométallate et la présence du nanotube de carbone renforcent l’interaction entre l’électrode et la molécule, augmentant ainsi les transferts d’électrons entre les deux. Ce comportement ouvre des perspectives très encourageantes, notamment en électrocatalyse.

Notes
[1] Les polyoxométallates (POM) sont composés principalement de métaux (molybdène et tungstène) et d’oxygène.[2] En collaboration avec l’institut Lavoisier de Versailles (CNRS/université de Versailles Saint-Quentin), le laboratoire de chimie physique (CNRS/université Paris 11) et le laboratoire d’électronique moléculaire (CEA-Saclay) et l’institut Néel-Grenoble (CNRS/Université Joseph Fourier). [3] Un micro-squid (de l’anglais « superconducting quantum interference device ») est un magnétomètre de grande sensibilité utilisé pour mesurer des champs magnétiques très faibles dans des objets de très petites tailles. Les résultats ont fait l’objet d’un article dans l’édition du journal Angewandte Chemie du 2 juin.« Magnetic Bistability of Individual Single-Molecule Magnets Grafted on Single-Wall Carbon Nanotubes »www3.interscience.wiley.com

Les tarifs d’achat du solaire photovoltaïque doivent baisser… vite !

Au tarif d’achat actuel, la charge financière serait colossale : à chaque kWc (kilowatt-crête) installé correspond une somme engagée proche de 16.000€ €, somme qui va à peu près pour moitié au fournisseur/installateur des panneaux, et pour moitié au particulier /maître d’ouvrage qui investit dans cette énergie renouvelable [1].

Le financement est assuré pour moitié par les consommateurs d’électricité au travers de la contribution de service public de l’électricité (CSPE), et pour un peu moins du quart chacun par les contribuables (au travers de crédits d’impôt, de subventions directes, de prêts à taux zéro) et par les particuliers qui installent chez eux les panneaux PV.

Les parts d’EDF sont faibles, tant dans le financement (part de l’achat non remboursée par la CSPE) que dans les recettes (redevance annuelle) :

original

 

 

 

 

 

 

 

 

Si ces tarifs sont maintenus jusqu’en 2015, l’engagement total pour les 500 MW prévus dépassera 8 milliards d’euros. Leur maintien jusqu’en 2020 conduirait à un engagement supérieur à 80 milliards d’euros. Ce sont là des sommes colossales !

La plupart des technologies en développement ont besoin d’aides à la fois pour stimuler la recherche et pour faciliter l’industrialisation. De nombreuses études ont observé que les coûts diminuaient exponentiellement sous le double effet des progrès technologiques et de l’industrialisation. Dans le cas du solaire, une multiplication par 100 des quantités pourrait se traduire par une division par 3 du coût, qui passerait de 7000 à environ 2000 €/kWc. L’EPIA se dit encore plus optimiste [2].

Les tarifs d’achat doivent « coller » au plus près au coût réel des installations si on veut éviter l’apparition de bulles spéculatives et de phénomènes d’aubaines préjudiciables à l’ensemble du programme de lutte contre le changement climatique. On a déjà montré [1] que l’on pourrait ainsi diviser par 2 les sommes engagées. Passer de 80 à 40 milliards d’euros, ce n’est pas rien !

D’autres pays européens sont arrivés aux mêmes conclusions : l’Espagne, qui avait instauré des tarifs comparables aux tarifs français, a plafonné en 2008 les puissances installées parce que la facture devenait trop lourde ; l’Allemagne a adopté en octobre 2008 la loi dite EEG (entrée en vigueur le 1er janvier 2009) qui diminue de 9 % par an le tarif d’achat de l’électricité photovoltaïque (le point de départ étant voisin du tarif français actuel). Il est urgent que la France adopte des dispositions similaires.

Quarante milliards d’euros, c’est encore beaucoup, même étalés sur 20 ans, durée garantie d’achat de l’électricité. Mais si ces sommes permettent de placer l’industrie française en bonne position face à la concurrence mondiale, peut-être sont-elles justifiées. Souhaitons que les débats en cours aux niveaux français (autour des lois Grenelle) et européen (autour du paquet énergie climat) soient l’occasion d’une analyse approfondie.

 

[1] P. Bacher – « Loi Grenelle I et flux financiers » – Revue de l’Energie (à paraître)
[2] European Photovoltaic Industry Association Global PV outlook until 2013 (avril 2009)

 

Pierre Bacher, ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur.

« Le nucléaire pourrait tirer profit des recherches sur les nanocomposites »

Michael Demkowicz est maître de conférences au sein du Département des matériaux et d’ingénierie du Massachusetts Institute of Technology. Il nous explique comment des nanocomposites, capables de résister à un environnement extrême, pourraient trouver une application dans le domaine des énergies, et notamment dans le nucléaire en particulier.

Quelles sont les propriétés spécifiques des matériaux nanocomposites ?
Les propriétés principales que mes collaborateurs et moi-même essayons d’exploiter concernent le ratio surface/volume élevé des nanocomposites. Pour faire court, plus les composants d’un composite sont petits, plus ce ratio est élevé. Ce facteur est important car les interfaces sont les « sites actifs » d’un composite. A l’inverse de matériaux classiques, les composites possèdent beaucoup de sites actifs.

Comment peuvent-ils résister aux radiations ?
C’est justement au niveau des interfaces que peuvent êtres réparés les dommages causés par les radiations. Si un nanocomposite possède un grand nombre d’interfaces de la bonne sorte, il peut alors être plus résistant aux irradiations qu’un matériau conventionnel (Voir une vidéo sur le site du MIT).

Comment fabrique-t-on de nouveaux matériaux ?
Nous voulons être capables de sélectionner les matériaux entrant dans la fabrication des composites en déterminant les combinaisons qui seront les plus efficaces au niveau des interfaces pour réparer les défauts causés par les radiations. Comment faire le bon choix relève précisément de mon domaine de recherche.

Quelles sont les applications potentielles des nanocomposites dans les énergies ?
Les applications immédiates que nous visons concernent l’énergie nucléaire, fission et fusion confondues. Ce sont en effet celles qui ont le besoin le plus urgent de nouveaux matériaux capables de résister à un environnement « extrême ». D’autres domaines requièrent néanmoins également ce type de matériaux et nous espérons que les progrès que nous réalisons dans le nucléaire nous permettront de leur fournir de nouveaux matériaux ultra-résistants.

Dans quelle mesure pourraient-ils améliorer l’efficacité et la sécurité des centrales nucléaires ?
Les réacteurs nucléaires les plus perfectionnés – qui essaient de réduire au maximum le nombre de déchets nucléaires – sont limités par les capacités de résistance des matériaux aux températures extrêmes, aux irradiations, ainsi qu’aux environnements corrosifs. Les matériaux que mes collègues et moi-même espérons mettre au point pourraient rendre possible la construction de nouveaux réacteurs nucléaires remplissant ces critères.Propos recueillis par Clémentine FulliasMichael Demkowicz est maître de conférences dans le Département des matériaux et d’ingénierie du Massachusetts Institute of Technology. Il fait par ailleurs partie d’une équipe de chercheurs du Los Alamos National Laboratory qui a récemment reçu une bourse fédérale dans le cadre de ses travaux sur les matériaux nanocomposites. 

e-signature : ce qui change au niveau européen

La 9e édition de la conférence « European forum on electronic signature » qui s’est tenue en Pologne début juin a été l’occasion de faire le point sur les tendances, les retours d’expérience et les attentes en matière de signature électronique. Des annonces ont également été faites, notamment celle de la Commission européenne qui a demandé à ce que chaque Etat membre établisse une liste de confiance des autorités de certification d’ici au 28 décembre 2009. Par ailleurs, une étude a été lancée pour évaluer la faisabilité d’un système fédéré de validation des signatures. Dans la pratique, un nom à la fin d’un mail peut être considéré comme une signature. En cas de litige, ce serait ensuite au juge de décider de la validité de la signature en fonction du contexte. La forme la plus élaborée, surnommée la signature électronique qualifiée, remplit des exigences de sécurité précises et équivaut à une signature manuscrite. D’après la directive européenne qui date de 1999 (1999/93/EC), les critères de validité sont :

  • Toute modification du document doit être visible ;
  • Le moyen de signer doit rester sous seul contrôle de l’utilisateur ;
  • L’identification du signataire doit être non équivoque ;
  • Le certificat est délivré par une autorité de certification qualifiée.
La directive ne préconise aucune technologie en particulier. Mais dans la pratique, elle suppose l’utilisation d’une clé cryptographique intégrée à une carte à puce, remise en mains propres, avec un code personnel. Cependant, ce système requiert un lecteur sur son PC, ce qui rend le dispositif relativement coûteux. Il existe toutefois des versions plus accessibles avec une clé USB sécurisée (cf. encadré).

Une standardisation difficile
Résultat, le développement de la signature électronique est quelque peu freiné. Mais certains éléments devraient favoriser son déploiement. Ainsi, la directive service (art. 8) précise que les formalités d’enregistrement devront pouvoir se faire de manière électronique et à distance. Or cette procédure requiert souvent la signature d’un ou de plusieurs documents. Les marchés publics en ligne pourraient également contribuer à son développement (aucune date n’a pour l’instant été fixée par la Commission), tout comme la facturation électronique (dans certains Etats on doit signer les factures). Par ailleurs, de plus en plus de citoyens européens ont une carte d’identité électronique, ce qui facilitera la signature électronique. De fait, des prestataires vont probablement exiger la présence demain d’une signature, même s’ils s’en sont très bien passés jusqu’à présent. Autre frein de taille : les problèmes d’interopérabilité entre pays. Un écueil qui pourrait toutefois être résolu grâce à la fédération des autorités de certification nationales. Mais la normalisation de la signature reste très compliquée et la question du format reste entier. Toutefois, ce thème n’a pas encore été vraiment abordé par la Commission européenne. Aujourd’hui, les formats reconnus par l’Etsi (European telecommunications standards institute) sont le CAdES (CMS Advanced electronic signatures) et le XAdES (XML Advanced electronic signatures). Il existe aussi une norme ISO avec le format pdf. Des travaux sont en cours à l’Etsi en synergie avec l’ISO, pour combiner ces trois formats de signature. L’Etsi a récemment émis une recommandation pour changer l’algorithme de hachage, l’algorithme SHA-1 (Secure hash algorithm) ayant été cassé. Un concours public est d’ailleurs en cours aux Etats-Unis pour sélectionner un nouvel algorithme. Le hachage permet de réduire un long texte en un code significatif, un peu comme une clé RIB pour un compte en banque. Pour un document volumineux, cela permet de signer uniquement le hash et cela limite les problèmes de confidentialité lors d’une certification par un tiers.C.G.e-signature : ec.europa.eu  Une clé USB démocratise la signature électroniqueKeynectis a récemment lancé K.Sign for PDF, en partenariat avec Gemalto et Adobe. Cette solution offre une réponse simple et intuitive pour répondre aux besoins de signatures électroniques. Pour signer un document pdf, il suffit d’insérer sa clé USB cryptographique personnalisée K.Sign for PDF dans le port USB de son ordinateur. Une fenêtre s’ouvre pour demander un code PIN. L’utilisateur peut alors signer en quelques clics. Cette signature permet de garantir l’identité du signataire, l’intégrité du document (il n’a pas pu être modifié) et de l’horodater de façon sécurisée.

Le photovoltaïque : un créneau prometteur pour les ingénieurs

52.000 emplois dans les énergies renouvelables en 2007, 120.000 en 2012. Peu de secteurs peuvent se targuer d’une telle croissance. Et c’est encore plus vrai pour le segment du photovoltaïque en plein boum.

D’après les chiffres de l’Ademe, la puissance installée dans le photovoltaïque est en forte évolution. L’agence prévoit une croissance à deux chiffres pendant encore plusieurs années, la France rattrapant son retard par rapport à l’Allemagne, l’Espagne et l’Italie.

Le secteur photovoltaïque en France (source Ademe)

Année

2007

2008

2009

Puissances installées (centrales et particuliers)

50 MW cumulés

175 MW cumulés

Prévisions 200 à 300 MW installés
Total 400 à 500 MW cumulés

Une opportunité pour les ingénieurs

Ce développement va créer de nombreux emplois, atteignant 13.100 postes en 2012 pour le photovoltaïque. L’Apesi (l’Association des producteurs d’électricité solaire indépendants) espère représenter une filière de 60.000 emplois d’ici une douzaine d’années. Cela concerne les commerciaux, mais surtout des ingénieurs. Les postes les plus qualifiés touchent au développement technique des projets, ceux-ci pouvant ensuite évoluer vers l’exploitation et la maintenance. « Nous avons besoin d’électriciens de grande compétence, notamment pour faire face à l’enjeu majeur de l’optimisation des pertes », explique Christian Cachat, président de l’Apesi et PDG de Rewatt. Par ailleurs, tout comme les autres énergies renouvelables, le solaire doit relever le défi du stockage.

Emplois directs dans le photovoltaïque et dans les énergies renouvelables en France (source Ademe)

Année

2007

2012

Photovoltaïque

2.110

13.100

Energies renouvelables

52.000

120.000

« Notre besoin s’installe dans la durée car, après l’installation, il faut assurer la maintenance et l’exploitation ainsi que piloter les améliorations technologiques », précise Christian Cachat. Les ingénieurs qui choisissent de travailler dans ce secteur doivent disposer de nombreuses compétences et faire preuve de polyvalence. Dans l’idéal, il faut avoir une formation généraliste d’ingénieur, couplée d’un master teinté énergies renouvelables, comme par exemple celui de l’institut Bastia de l’Ensam.

Les candidatures sont pour l’instant principalement spontanées, mais l’Apesi va lancer une plate-forme emploi. Côté salaire, la rareté de certains profils assure des rémunérations élevées. Christian Cachat a dû s’adapter pour recruter son responsable technique. « Il y a peut-être dix personnes en France de son niveau avec une expérience dans le montage », raconte-t-il. Pour que le photovoltaïque tienne ses promesses, il faudra que l’ensemble de la filière se développe. « Il faut soutenir une filière industrielle française en s’appuyant sur les PME-PMI », plaide le président de l’Apesi. Cela suppose un cadre juridique stable, une certification de la filière et la mise en place de formations qualifiantes.

C.G.

Nouveau : un job board pour les ingénieurs

Les Editions Techniques de l’ingénieur lancent emploi.techniques-ingenieur.fr, un nouveau service entièrement destiné aux ingénieurs et techniciens à l’écoute du marché ou en recherche d’emploi ou de stage, du jeune diplômé au très expérimenté.

&l

« Le contexte s’avère plutôt favorable pour les ingénieurs expérimentés »

En photo, Pierre Lamblin, directeur des études de l’Apec, © Bruno Lévy
Techniques de l’ingénieur : Comment évolue le marché de l’emploi cadre ?
Pierre Lamblin : Le marché continue à se dégrader. Aucun indicateur ne laisse apparaître le contraire. D’après notre enquête de février 2009, on ne s’attend pas à une reprise avant 2013. Les débutants seront les plus touchés avec une baisse des intentions de recrutement de 21 à 30 % en 2009 par rapport à l’an dernier.

Comment se présente le marché pour les jeunes diplômés ingénieurs ?
Les jeunes diplômés ingénieurs ont des conditions d’emploi moins favorables qu’avant la crise mais ne sont pas les plus mal lotis. Nous publierons les chiffres en septembre pour les promotions 2007 et 2008. Dans un contexte de marché favorable, ils s’insèrent très bien dans le monde du travail, avec des taux d’insertion proches de 90 % un an après le diplôme et de 100 % deux ans après. C’est vrai quelle que soit la filière. Lorsque l’on se penche sur le retournement de 2002 – 2003, on constate que ce ne sont pas ceux qui ont le plus souffert.

Et pour les ingénieurs expérimentés ?
Pour les ingénieurs expérimentés et très expérimentés, le contexte s’avère plutôt favorable grâce aux départs à la retraite. On n’atteindra pas les niveaux de 2008, mais c’est ce segment qui va le plus résister. En 2008, nous avons enregistré la plus forte mobilité jamais observée. En janvier 2009, encore 38 % des cadres souhaitaient changer d’emploi. Les cadres sont conscients du risque de perte d’emploi, ils anticipent pour devenir acteur du changement.

Quels conseils donneriez-vous à un jeune diplômé ingénieur ?
Cela ne sert à rien d’envoyer 4.000 CV ! Il faut se poser les bonnes questions, être conscient de ce qui existe sur le marché et faire le point sur ses connaissances acquises à l’école et les compétences acquises en stage. Il faut savoir se vendre, montrer qu’on s’intéresse à l’entreprise et que l’on est capable de se projeter dans le poste. Il est indispensable de solliciter son réseau et de s’entourer de conseils. Il est nécessaire de sortir des idées reçues, pour éventuellement changer de secteur, ou partir en province ou à l’étranger.

Pourriez-vous donner des exemples de changement de secteur pour des jeunes diplômés ?
Par exemple, la chimie est aujourd’hui en crise. Cependant, malgré des débouchés limités, les chimistes ont une forte capacité à se reconvertir. Beaucoup font finalement de l’informatique. Les ingénieurs peuvent aussi se tourner vers la banque qui recrute toujours.

Quels conseils donneriez-vous à un ingénieur expérimenté ?
Lorsque son environnement est menacé, il faut se tenir informé et activer son réseau. Les compétences sont transposables. Par exemple d’anciens ingénieurs de Renault spécialisés dans les ceintures de sécurité travaillent maintenant chez Décathlon en utilisant cette même technologie pour les sacs à dos.

Quels secteurs résistent mieux à la crise ?
Les secteurs de pointe comme l’énergie. EDF, Areva et GDF Suez annoncent des plans de recrutement importants. Certains secteurs en crise offrent aussi des opportunités. Par exemple dans la construction, il est toujours difficile de trouver des superviseurs de chantiers. De même dans certains domaines de l’informatique.

Et l’environnement ?
Dans notre dernier pointage, les métiers cadres liés à l’environnement représentaient 2 à 3.000 offres. Il existe de nombreuses formations, mais pas tant de débouchés que cela pour l’instant. Cela va se développer.

Quelles fonctions s’en sortent le mieux ?
Les trois fonctions obtenant le plus grand nombre d’offres d’emploi publiées par l’Apec sont ventes, recherche et études techniques, et informatique de gestion. Les chiffres concernant la recherche étaient plutôt rassurants en début d’année puisque les entreprises déclaraient maintenir leurs investissements en R&D. Le nombre d’offres baissent mais il reste important. Propos recueillis par Corentine GasquetApec : Association pour l’emploi des cadres, www.apec.fr Nouveau : un job board pour les ingénieursLes Editions Techniques de l’ingénieur lancent emploi.techniques-ingenieur.fr, un nouveau service entièrement destiné aux ingénieurs et techniciens à l’écoute du marché ou en recherche d’emploi ou de stage, du jeune diplômé au très expérimenté.

Trophée des énergies renouvelables et maîtrise de l’énergie : les gagnants sont…

Signe des temps, le trophée des énergies renouvelables et maîtrise de l’énergie a été remis pour la première année lors du Sireme à Paris, jeudi 25 juin. Organisé par Essec Alumni (association des diplômés de l’Essec), le Sireme (Salon international des énergies renouvelables et de la maîtrise de l’énergie) et le cabinet de conseil BearingPoint, ce trophée vise à récompenser les PME-PMI développant ou commercialisant un produit, un process ou un service exemplaire et innovant dans le domaine des énergies renouvelables ou de la maîtrise de l’énergie. Après 40 contacts, les organisateurs ont reçu 23 dossiers, parmi lesquels huit ont été nominés. Le jury, présidé par Jean Bergougnoux, ancien directeur général honoraire d’EDF, a remis deux prix, dont le trophée remporté par DM énergies. Créé en février 2008, cette start up de 10 salariés conçoit et produit des pompes à chaleur air et eau, brevetées haute température et haute performance. Le prix spécial du jury revient à CETH (Compagnie européenne des technologies de l’hydrogène). Créé en 1997 et employant également 10 personnes, CETH a mis au point un électrolyseur permettant de stocker l’énergie sous forme d’hydrogène, à partir de n’importe quelle source d’énergie.

Soutenir les PME-PMI pour la croissance verte
Le président du jury Jean Bergougnoux a souligné le caractère à la fois innovant et économiquement viable des projets. « Les bons ingrédients pour une économie verte sont principalement une volonté politique et un tissu industriel efficace, innovant et agile », a expliqué Emmanuel Autier, directeur associé chez BearingPoint. « Cela suppose le développement de PME-PMI qui ont une capacité à effectuer des ruptures technologiques mettant à mal les modèles économiques établis. » Les gagnants ont remporté un soutien non financier de la part des différents sponsors, par exemple sous forme de jours de consulting pour BearingPoint.C.G.Les huit nominés du trophée des énergies renouvelables et maîtrise de l’énergieCETH (Compagnie européenne des technologies de l’hydrogène) : prix spécial du juryDate de création : 1997Effectif : 10 salariésInnovation : stockage de l’électricité sous forme d’hydrogène, permettant de valoriser les énergies renouvelablesDM énergies : trophéeDate de création : février 2008Effectif : 10 salariésInnovation : pompes à chaleur air et eau, brevetées haute température et haute performanceEco constructions et boisDate de création : septembre 2008Effectif : 6 salariésInnovation : les maisons durables préfabriquées à ossature en boisGiordano industriesDate de création : 1965Effectif : 44 salariésInnovation : pompe à chaleur avec multicpateursMeteodynDate de création : 2003Effectif : 14 salariésInnovation : logiciel Urbanwind qui permet un calcul de vent pour le grand éolien en milieu urbainSinteoDate de création : janvier 2008Effectif : 5 salariésInnovation : conseil et ingénierie spécialisée dans la maîtrise de l’énergie du bâtiment.SunvieDate de création : novembre 2006Effectif : 7 salariésInnovation : solutions solaires pour les entreprises et collectivités locales qui veulent exploiter leur espace disponible (toitures, façades, parkings, friches…)VeleanceDate de création : juin 2006Effectif : 3 salariésInnovation : Triode, un scooter trois roues électrique  

« Les directions n’ont que le mot Web 2.0 à la bouche »

Après une vingtaine d’années dans le design d’information pour les médias, les éditeurs et la communication, Luc Legay (photo ci-contre, © Sylvie Le Bars) se consacre aujourd’hui au travail collaboratif dans les entreprises en réseau et à la conception de projets mobilisant des communautés de pratique. Il anime depuis 2006 le collectif des Explorateurs du Web, un réseau d’experts qui intervient auprès de grandes entreprises et d’administrations pour la diffusion du Web 2.0 et des nouveaux modes d’organisations qui en découlent.

Techniques de l’ingénieur : Quel est l’impact du développement du Web 2.0 dans le management ?
Luc Legay : L’environnement a bougé à une vitesse vertigineuse, mais pas la culture de l’entreprise. Cela risque de démotiver les jeunes et de supprimer toute maîtrise des échanges d’information. Dans des réseaux d’agence dans la banque ou l’assurance, les systèmes internes sont tellement lourds que les échanges d’information se font en parallèle sur des sites de réseaux sociaux. On constate cependant une prise de conscience : les directions n’ont que le mot 2.0 à la bouche. Mais ce n’est pas encore le cas de l’encadrement intermédiaire. Les peurs résultent généralement d’une méconnaissance du sujet.
Ne faut-il pas encadrer ces pratiques, que ce soit pour préserver l’image de l’entreprise ou même la productivité des salariés ?
Les DRH utilisent les réseaux sociaux pour embaucher du personnel, elles ont donc du mal à donner des règles pour les interdire. Je n’ai jamais vu de charte concernant l’utilisation des sites de réseaux sociaux. Cela ne serait pas efficace et cela me semble juridiquement assez limite, sauf peut-être lorsqu’un poste suppose une confidentialité particulière. Les salariés passeraient moins de temps sur les réseaux sociaux extérieurs à l’entreprise si l’entreprise savait se mettre à l’heure du Web 2.0 et offrir à ses collaborateurs un système d’information comparable en convivialité et en simplicité d’accès à Twitter, Facebook ou Linkedin.
Dans l’entreprise, qui peut tirer profit au mieux des réseaux sociaux ?
A tous les niveaux, la transposition du Web 2.0 à l’intranet constitue un bon moyen pour communiquer et échanger les bonnes pratiques. Les ressources humaines l’utilisent pour promouvoir les formations et la mobilité, et pour exercer une veille. Les directions générales sont concernées par ce dernier aspect, elles souhaitent prendre la température, savoir ce que pensent les salariés. Pour la communication interne, l’intérêt est évident.

On peut aussi chercher à se faire connaître grâce aux réseaux externes…
C’est effectivement un enjeu pour le marketing et la communication, mais elles ne maîtrisent pas encore bien ce domaine. Ceux qui cherchent à avancer cachés se trouvent très vite démasqués. Cependant, les entreprises internationales se doivent d’assurer une présence multicanale et d’occuper l’espace, quitte à mal l’occuper.

Quelles solutions conseillez-vous pour développer un intranet ?
Il faut avant tout se centrer sur les objectifs, et non sur les questions techniques. Les réseaux internes doivent exploiter les mêmes ressorts que les autres. Dans un intranet, on peut développer un Facebook simplifié. Cela offre une facilité d’accès, avec le côté mobilisateur, presque addictif. Il faut que les salariés s’expriment et que cela soit visible et valorisé. Plus l’outil sera simple, plus les salariés pourront se l’approprier. Pour cela, on peut développer des outils open source ou propriétaires, mais cela ne sert à rien d’installer des gros systèmes coûteux et difficiles d’accès. La tendance générale est à l’entreprise en réseau, avec l’utilisation de logiciels en ligne, sans installer d’application.Propos recueillis par Corentine Gasquet

Environnement, énergie : une inquiétude intergénérationnelle

L’idée de respecter davantage l’environnement et de mieux gérer l’énergie fait progressivement son chemin dans les mentalités. Mais quelle perception en ont les différentes générations ? Pour y répondre, Christine Castelain Meunier, chercheur au CNRS, et auteur avec F.Meunier de « Adieu pétrole ! Vive les énergies renouvelables » a réalisé une enquête auprès de 270 personnes réparties en trois classes d’âge (20/30 ans, 45/60 ans, 70 ans et plus). Objectif : déterminer quelles perceptions ces différentes personnes peuvent avoir des problèmes liés à l’environnement et à l’énergie.Premier constat : les énergies renouvelables sont généralement perçues comme des alternatives positives, voire indispensables, surtout par les jeunes.Leur efficacité est toutefois parfois mise en doute et leur coût élevé est déploré. Le solaire est la plus connue des alternatives, avec les éoliennes. Mais le coût réel de ces technologies est mal connu et entraîne des critiques sur le manque d’informations disponibles dans ces différents domaines.Au final, le rapport avec les énergies renouvelables dépend des représentations liées aux problèmes de l’environnement, de l’énergie et du sentiment d’urgence. Quel que soit leur âge, la dégradation de l’environnement et les problèmes d’énergie constituent un sujet commun d’inquiétude pour les 270 personnes de l’enquête. Si chacun l’exprime avec sa sensibilité propre, en fonction de son âge, de son histoire, de ses origines sociales ou de son lieu de résidence, ces questions ne laissent personne indifférent. Certes, l’angoisse reste toute relative. Ces problèmes « ne m’empêchent pas de dormir » est une phrase qui revient souvent.

Un appel au respect des protocoles
L’inquiétude est malgré tout réelle, diffuse, mal définie. Elle crée un besoin de disposer d’informations claires et précises sur la réalité des pollutions, du changement climatique, de la déforestation… et suscite une demande d’intervention de la part des pouvoirs publics à l’égard des entreprises polluantes et du comportement des citoyens, en particulier dans les transports et le respect de la nature, prise comme le miroir de l’état de santé de nos sociétés. Une nature qui reste considérée par ailleurs de façon ambivalente, à la fois comme une source d’énergie mais aussi à travers sa dimension réparatrice, susceptible de sauver les individus des méfaits et des nuisances de la modernité. Ces inquiétudes se traduisent par un appel, adressé aux grandes puissances, à respecter les protocoles de régulation. Ils sont également nombreux à réclamer des réglementations, des limites, des normes, des balises, y compris des mesures répressives sous forme d’amendes ou de taxes. Ils ne disposent pas d’éléments suffisants pour surmonter les contradictions fondamentales qu’ils ressentent, qu’il s’agisse des nuisances qu’ils perçoivent, mais aussi des propositions et des mesures qu’il faudrait mettre en place pour maîtriser la situation. L’anxiété s’exprime dans un contexte global où l’on s’insurge contre la domination du marché, l’obsession de l’argent, du profit et de ses effets négatifs indirects ou directs sur l’environnement et l’individu.
Garantir un environnement de qualité et dénoncer les abus
Chacun alimente cette angoisse et la désamorce à sa manière, par un état d’esprit qui peut paraître individualiste, même s’il se prévaut du bien-être d’autrui. Mais l’angoisse est entretenue par un sentiment d’opacité qui rend difficile l’identification des problèmes majeurs, d’autant que les contours de l’angoisse varient avec l’âge. Qu’il s’agisse des rapports à l’avenir, du sentiment de responsabilité, des modèles de modernisation et du degré de contribution aux modèles passés qui sont jugés aujourd’hui préjudiciables pour l’environnement, la nature et le degré d’inquiétude ne se présentent pas de la même manière pour tous, ce qui ajoute encore au sentiment d’incohérence et de complexité.Beaucoup souhaitent renforcer, sur ces questions, l’éducation à l’école, dans la famille et dans la société en général. Cette éducation est considérée comme faisant partie de la citoyenneté actuelle et se réfère à des principes dont le respect et l’application sont perçus comme la base du civisme, comme « ne pas jeter par terre ».

Entre mondialisation et protection de la nature
Mais pour une proportion importante, plus de la moitié des personnes interrogées, tous âges confondus, l’environnement est avant tout « l’entourage proche », « le milieu où je vis, le milieu familial », « la convivialité, la courtoisie, l’entente », « la tranquillité, le bien- être personnel, collectif », « le monde qui nous entoure, la terre fragile, la famille », les autres. C’est aussi soi avec les autres et donc aussi les problèmes relationnels et la question du civisme, du respect d’autrui, du respect de la nature, de la conception de la société qui passe par des liens entre soi, les autres et avec la nature.Comment la mondialisation vient-elle s’inscrire dans cette perception ? Selon certaines personnes interrogées, ce sont les pays développés qui sont responsables de la dégradation de l’environnement des pays émergents, de la couche d’ozone, des gaz émis par certains pays développés. Mais ce n’est pas tout : « les pays émergents n’ont pas les moyens. Les pays dominants veulent imposer leurs règles, ils aggravent ainsi le retard des pays pauvres ».

Des liens pas toujours explicites
Les personnes interrogées sont tiraillées entre une conscience coupable à l’égard des problèmes d’inégalité, de pauvreté des pays dépendants mais aussi la peur qu’en se développant, ces pays soient source d’inquiétude et de pollution. L’ambivalence s’amplifie face à l’industrialisation des pays émergents comme la Chine ou l’Inde, qui va contribuer au réchauffement de la planète et à augmenter la pollution. « Les pays émergents polluent presque autant que les pays développés ».Avec cette particularité que l’environnement n’a pas de frontière, lui porter atteinte génère une peur d’autant plus diffuse qu’elle est sans limite. Tout se passe comme si l’environnement était perçu globalement comme menacé et donc menaçant, et, si les raisons d’aimer l’environnement l’emportent largement sur celles qui consistent à s’en méfier, aimer cet environnement n’éteint pas la critique des nuisances qui en émanent.

Trois types de vigilance se démarquent
Au nom de la citoyenneté, de la valorisation d’un bon environnement et du respect auquel tout citoyen a droit, plusieurs types de vigilance interfèrent dans les liens entre l’individu et l’environnement. Le premier s’attache à ce que puisse être garanti à tout citoyen un environnement de qualité, preuve d’une modernité réussie et d’une société harmonieuse.Le deuxième dénonce les atteintes faites à cet environnement et, derrière elles, l’irrespect qui est fait à l’individu, de la part de tous ceux qui contribuent d’une manière ou d’une autre à dégrader la qualité de notre cadre de vie ou qui ne contribuent pas à diffuser des informations claires et fiables. Le troisième, enfin, pointe l’incompétence des responsables, l’incurie des dirigeants, le gâchis et les inégalités entre les pays.Par Christine Castelain Meunier, chercheur au CNRS, auteur de Adieu Pétrole! Vive les énergies renouvelables, Dunod

Une volonté de changer les choses, sans savoir comment

Les trois générations souhaitent toutes que soient mieux perçus, mieux identifiés et mieux compris les problèmes majeurs et prioritaires. Elles attendent qu’ils soient réellement, et sérieusement, pris en considération par des instances compétentes, que ce soit au niveau international, national, régional et local, mais des différences notables apparaissent entre les générations.Les jeunes n’hésitent pas à faire des propositions qui peuvent paraître naïves et font penser à une liste à la Prévert. Néanmoins, cela témoigne d’une volonté de trouver des solutions. Ils ne se sentent absolument pas dans une impasse, ce qui n’est pas toujours le cas des autres générations. Ils sont soucieux de développer des stratégies appropriées, qui combinent les actions individuelles et les actions collectives, à la fois dans la sphère privée, chez soi, au quotidien et dans la sphère publique.

Les jeunes en attente de mesures radicales et d’actions efficaces
Leurs aspirations se rapprochent dans ce sens de celles de la génération de leurs parents. Mais les jeunes sont beaucoup plus enclins qu’eux à considérer l’importance des interventions dans les deux sphères. Ils sont aussi plus demandeurs d’actions efficaces et de mesures radicales que leurs parents et ils sont affectés par ce qu’ils appellent « l’irresponsabilité des gouvernements ».Leur conscience est tournée vers l’avenir et passe par le souci d’améliorer réellement la situation, de trouver les moyens d’y parvenir, souci partagé par les trois générations, mais de manière plus intense et décisive par les jeunes générations, d’autant que leur enfance est marquée par différentes catastrophes, comme Tchernobyl qui demeure entouré d’un halo de secret.Leurs propos sont moins contradictoires, moins ambivalents, moins chargés de conscience coupable que la génération de leurs parents, qui éprouvent un fort sentiment de responsabilité face à l’absence de mesures claires et efficaces qu’ils déplorent.

Il est devenu urgent de responsabiliser
Les jeunes n’admettent absolument pas l’idée qu’ils vont droit dans le mur alors que leurs aînés sont, pour certains, beaucoup plus résignés. Pour leurs grands-parents, la distinction se fait, entre les hommes et les femmes, autour du clivage entre la sphère privée et la sphère publique. Les femmes sont surtout soucieuses de l’environnement proche, les hommes dénient l’importance des interventions au quotidien au profit des grandes mesures, tout en ayant une approche complexe et contradictoire des mesures qu’il s’agirait de développer.On trouve ainsi une plus grande clarté d’intentions du côté des jeunes qui lancent en direction de leurs aînés un appel à la responsabilité. Ces jeunes revendiquent une existence dans laquelle l’individu peut défendre ses droits à ne pas vivre dans un monde « pollué » et dévasté et à ne pas le faire subir à ses futurs enfants, et demandent que ces droits soient garantis par des normes de régulation, y compris répressives. En 1968, il était « interdit d’interdire ». Pour les jeunes d’aujourd’hui, compte tenu de la perception qu’ils ont de la gravité de la situation, il est devenu urgent d’interdire. Cette nécessité d’action, qui démarque cette génération des deux précédentes, peut trouver son explication à travers le contexte dans lequel ont grandi ces hommes et ces femmes. Objet de toutes les attentions depuis 25 ans, l’environnement est un problème de société pour les jeunes. Pour leurs parents et leurs grands-parents, c’est le développement de l’industrie, annonciateur de progrès et d’augmentation du niveau de vie, qui a longtemps été un enjeu de société.

« La technologie ne vaut que par l’usage que l’on en fait »
Ainsi, notre société, qui s’est tournée vers la production, la rentabilité et le profit, en découvre les effets pervers sur l’environnement et l’accès aux énergies. Ce problème est nouveau dans l’histoire. Il n’a émergé que dans le dernier quart de la fin du 20 ème siècle, tant la question du travail et de la productivité restait jusque-là associée à la notion de progrès social, dans la continuité du siècle des lumières.Quoi qu’il en soit, les rapports entre l’individu, la technologie, la nature ont toujours été traversés par des tensions, des contradictions, des ambiguïtés en termes de domination, de soumission, voire même de sacrifices de vies humaines. Le psychosociologue Serge Moscovici dans son ouvrage « L’homme domestique et l’homme sauvage » a été l’un des premiers à analyser la complexité des rapports entre l’homme et son environnement.L’historien Fernand Braudel dans son livre « L’identité de la France » montre à quel point la technologie ne vaut que par les manières que l’individu a de l’utiliser, c’est-à-dire, en fonction des usages qu’il en fait. Et si pour parler des problèmes de la France du milieu du 20 ème siècle, il mentionne la dénatalité et le problème brûlant de l’immigration, il faudrait pour évoquer ceux de la France du 21 ème siècle, mentionner entre autres, le chômage et la vaste problématique que l’on résumera, par commodité, par le terme générique d’environnement.

Au cœur de l’ambivalence et du paradoxe
Cette problématique fait désormais partie intégrante des préoccupations des jeunes générations, inquiètes pour l’environnement, mais aussi de leurs parents et grands-parents, même s’il est difficile de trouver un consensus entre tous sur la hiérarchie des problèmes. En même temps, s’exprime la sensation diffuse qu’il va falloir changer de comportement, sans trop savoir comment, alors qu’on commence à peine à savoir pourquoi.Les énergies renouvelables sont appréhendées au travers du prisme de l’urgence et constituent des alternatives valorisées par les jeunes, d’autant plus qu’ils ont moins d’à priori que leurs aînés sur l’efficacité liée à la combinaison des contraires, à l’ambivalence, symbolisée par l’osmose entre les technologies, les savoirs concernant les énergies traditionnelles, industrielles, contemporaines. Ils sont aussi moins rétifs à manier le paradoxe qui consiste à aller contre les idées reçues et à s’insurger contre des normes qui leur paraissent pérennes.L’idée de devenir producteur-consommateur d’énergie en séduit plus d’un et peut s’inscrire dans leur perspective d’avenir, à condition qu’ils possèdent les clés pour y parvenir.Par Christine Castelain Meunier, chercheur au CNRS, auteur de Adieu Pétrole! Vive les énergies renouvelables, Dunod

Parents, grands parents : entre malaise et culpabilité

L’enquête menée auprès des parents fait clairement ressortir un malaise qui touche l’ensemble de la génération. Les formes d’exprimer cette sensation diffèrent cependant selon chacun. Chez certains parents, il s’agit d’un sentiment global de culpabilité à l’égard des jeunes générations, auxquelles ils laissent un problème majeur en héritage. Un sentiment de responsabilité, aussi, éprouvé plus particulièrement par ceux qui doivent faire des choix technologiques dans leur domaine professionnel. « Il faut donner des conseils aux ETP (entreprises de travaux publics), pour mieux gérer, moins produire de déchets », affirment certains. Pour d’autres, il faut « réparer le développement non maîtrisé de 50 ans. Quand on développe, on ne contrôle pas tout. On ne connaît pas les effets secondaires ». Ils regrettent une perte de sens, et s’inquiètent de voir se perdre les acquis. Enfin, dans une grande majorité, tous déplorent que des responsabilités importantes ne soient pas assumées.

« Un problème majeur en héritage »
« Aujourd’hui c’est l’anarchie. Tout doit venir d’en haut. Malheureusement, les intérêts financiers sont plus importants que la préservation de la planète. Les gens vont commencer à s’angoisser quand il y aura des alertes sérieuses », déplorent les parents, qui restent toutefois confiants dans les capacités de la jeunesse : « les jeunes seront beaucoup plus responsables que nous, car sensibilisés dès le plus jeune âge, aussi peut-être parce qu’ils n’auront plus le choix ».Les parents des jeunes générations font part de leur ambivalence à l’égard de la modernité, du développement. D’une part, il s’agit « de réparer le développement non maîtrisé », « de convaincre tous les pays du même effort », mais aussi de parvenir à une « prise en charge par tous ».D’autre part, le progrès doit profiter à tous, car il « engendre le progrès social ». Son contrôle permet de « préserver l’environnement », et « les progrès scientifiques peuvent solutionner des points inquiétants ». L’idée positive que le développement peut servir à réparer les dégradations que ses propres effets négatifs ont entraînées anime aussi beaucoup de parents.

Un trop plein d’informations
Ils restent profondément sceptiques sur leurs possibilités d’être correctement informés. « Je ne suis pas persuadée de savoir qui je peux croire, qui manipule intentionnellement les informations qui nous sont livrées. Je ne suis pas experte dans la matière et pour cela je juge des choses plutôt intuitivement. Il y a énormément d’informations, qui sont souvent hors contexte et présentées par des journalistes pas tout à fait professionnels. De ce fait, je ne peux adopter une opinion à 100 % », déclare par exemple une femme médecin de 54 ans.

Les plus âgés : entre inquiétude et culpabilité
Chez les adultes les plus âgés, la tonalité est particulièrement pessimiste : « quel monde laisserons-nous à nos enfants et aux générations futures ? On a tellement saccagé la planète. Il faut revenir à beaucoup plus de raison. J’ai honte devant les futures générations ». Dans la même veine, cet ancien ingénieur de 70 ans affirme « quil y aura peut-être une réaction quand la situation deviendra intolérable, mais il sera peut-être trop tard. Je ne crois pas à l’autodiscipline. J’ai un espoir : la pollution due aux hydrocarbures cessera dans 50 ans environ, quand les réserves seront épuisées. Quelles seront les sources d’énergie de remplacement ? Et quelles nuisances engendreront-elles ? ».La prise de conscience des problèmes existe, mais elle s’exprime aussi parfois en des termes évasifs, se référant à la beauté de la nature, à la propreté, à l’ambiance agréable, désormais perdue : « l’environnement se dégrade. Je me souviens que la nature et les alentours de ma ville étaient très agréables à vivre, propres ».

Entre culpabilité et fatalité
Les personnes âgées font part de leur nostalgie et de leur désarroi face aux problèmes de l’environnement, dans la mesure où ils appartiennent à une génération qui a accompagné le développement de la modernité, la montée de la croissance. En fait, hormis ceux qui, de par leur métier, se trouvaient au cœur de ces questions, les autres personnes âgées paraissent se situer en marge de problèmes qui n’ont pas fait partie de la culture de leur enfance.Bien au contraire, ils ont vécu enfants les handicaps liés à l’absence de modernité domestique. Ils ont vu la production se développer, les transports s’étendre. A l’âge adulte, ils ont accueilli comme une chance le développement des médias, du nucléaire, des technologies de la communication. Les retombées sur l’environnement n’ont pas pour eux le même sens que pour la jeunesse actuelle, qui vit dans un monde qui a toujours porté les stigmates de ce développement.

Les séniors, respectueux de l’environnement et amoureux de la nature
On trouve ainsi chez ces personnes âgées une sensibilité accrue à la beauté de la nature, à sa dimension romantique, romanesque. Elle est souvent appréhendée comme un cadre, un lieu de vie dont la recherche de qualité entre dans le choix du lieu de résidence. La santé constitue pour eux un baromètre révélateur de la qualité de leur environnement. Lorsque le baromètre est déréglé, l’environnement est accusé d’avoir porté préjudice.Ces « séniors » se définissent spontanément comme des personnes très respectueuses de l’environnement, dans la mesure où leur sphère d’activité s’est considérablement réduite, qu’il s’agisse de leurs déplacements en voiture, en transport en commun, de leurs stratégies de consommation. Pour toutes ces raisons, la réflexion en termes de « décroissance » semble relativement éloignée de leurs préoccupations.

Interventions à grande échelle contre « petits riens »
On constate un clivage significatif entre les hommes et les femmes, qui traduit des différences de condition, avec des femmes majoritairement « au foyer », en ménage avec des hommes qui se sont définis, au contraire, par leur activité professionnelle. Ces femmes font donc surtout référence à la sphère privée, domestique, à leur environnement proche.Elles mettent en avant le paysage, les fleurs, les champignons, les activités de l’enfance dans la nature, leur amour des plantes et les soins qu’elles leur dispensent. Les hommes se tournent davantage vers la sphère publique, les politiques « d’en haut ». Ils valorisent plutôt les interventions à grande échelle et minimisent les « petits » changements au quotidien, considérés comme « des petits riens ». La culture des grands parents est dans ce sens bien différente de celle des petits enfants qui, pour résoudre les problèmes d’énergie et d’environnement, valorisent autant les gestes individuels du quotidien que les changements à grande échelle.Par Christine Castelain Meunier, chercheur au CNRS, auteur de Adieu Pétrole! Vive les énergies renouvelables, Dunod

Surveillance des caténaires : du concept de l’instrumentation aux essais terrain

Pour prévenir les incidents responsables des interruptions de trafic, la surveillance de l’infrastructure ferroviaire est réalisée périodiquement par des trains dédiés. Or, celle-ci, onéreuse et lourde, ne détecte que des défauts liés à l’infrastructure, et pas ceux dus aux trains (un pantographe détérioré peut être source d’incidents). Tel que souligné dans le précédent article (lire Mesure à très haute cadence : l’exemple des lignes TGV), la Commission Européenne a lancé des initiatives de R&D pour améliorer cette situation. Le CEA LIST a ainsi participé au projet européen CATIEMON – CATenary InterfacE MONitoring – (1) pour mettre au point des Capteurs à Fibres Optiques (CFO) à réseaux de Bragg, et leurs instrumentations [1]. L’objectif : caractériser l’interaction entre lignes caténaires et pantographes de trains empruntant un réseau ferré (Fig. 1), mais cette fois à partir de capteurs installés sur portique d’inspection.

Fig. 1 : Eléments de l’interaction « pantographe/caténaire »
 
Un « portique d’inspection » pour la surveillance du trafic ferroviaire
Intégrant capteurs et instrumentations, son rôle est de diagnostiquer les convois, pour bien sûr stopper ceux qui présenteraient un danger pour le réseau, mais aussi pour évaluer l’impact de chaque train en terme d’usure de l’infrastructure.Le comportement dynamique d’une ligne de contact est complexe : le point d’application de la force est glissant, la ligne suspendue par des « pendules » chemine en zigzag, des phénomènes de propagation d’ondes apparaissent, … le tout nécessitant de multiples capteurs. Ceci est particulièrement vrai pour les mesures de déformations de la ligne de contact, la modélisation montrant qu’elles évoluent de façon oscillatoire entre pendules de suspension.L’interaction pantographe/caténaire peut en fait être caractérisée à l’aide des mesures du déplacement 3D et des déformations induites sur le fil de contact par les pantographes (Cf. Fig.1). Celles-ci requièrent des capteurs insensibles à la haute tension (25 kV), peu intrusifs et résistants (température, pluie, grêle, gel). De plus, la vitesse des trains impose des cadences d’acquisition d’au moins un kHz, et les oscillations de moyenner les déformations mesurées par plusieurs capteurs successifs pour obtenir un indicateur pertinent de la force de contact.Le portique d’inspection, issu du projet CATIEMON étant un prototype, il regroupe différentes technologies (télémètre laser, nappe laser + caméra) ainsi que des CFO du CEA LIST (capteur de déplacement 3D et de déformations à réseaux de Bragg). En fait, seuls les CFO (Fig. 2) réalisent l’éventail complet des mesures :
  1. déplacement 3D de la ligne ;
  2. déformations locales via un maillage fin d’une section de ligne ;
  3. oscillations de celle ci via un bras de rappel instrumenté.

Fig. 2 : Implantation des capteurs de Bragg dans le portique d’inspection
 

Capteurs de Bragg et instrumentations
Déplacements 3D du fil de contact. Trois capteurs de déplacement forment les arêtes d’un tétraèdre inversé surplombant la caténaire, son sommet étant fixé en un point du fil de contact (Fig. 3a). Chacun d’eux comporte une tige mobile équipée d’un dispositif mécanique à ressort de réduction du déplacement, et un réseau de Bragg (20 cm de course induit 1 nm de décalage spectral). La géométrie permet de remonter aux mouvements 3D du fil.Bras de rappel instrumenté. Un réseau de Bragg est collé dans une rainure usinée le long des parties cylindriques du bras (Fig. 3b). Lorsqu’il se déforme ou subit un impact, suite aux mouvements de la ligne, on détecte les variations de la longueur d’onde du réseau.Déformations subies par la ligne de contact. Cette mesure est très utile pour caractériser l’interaction caténaire/pantographe : des fibres avec 20 réseaux de Bragg espacés de 25 et 50 cm, ont été collées le long du fil (Fig. 3c), par un procédé « de terrain » innovant (polymérisation à froid par lampe UV fibrée). Effectuées en plusieurs points, ces mesures sont reliées à la force. Puis, répétées sur des trains commerciaux, elles définissent une distribution des déformations de la ligne, permettant, une fois des limites haute et basse définies, d’identifier les trains ‘à risque’.Instrumentation pour capteurs de Bragg. Tous ces capteurs sont scrutés au kHz, simultanément sur 6 voies, à l’aide d’une seule instrumentation (approche client – serveur [3]) de mesure spectrale de résolution 1 pm (Fig. 3d). Un PC portable est utilisé pour configurer le serveur que constitue l’instrumentation de mesure. Equipée de cartes réseaux Ethernet et Wi-Fi, elle permet les connexions distantes, très utiles sur le terrain pour paramétrer et récupérer les mesures, tout en restant à distance de sécurité.
Fig. 3a : Capteur de déplacement 3D Fig. 3b : Bras de rappel instrumenté
Fig. 3c : Lignes de réseaux de Bragg multiplexés Fig. 3d : Système de mesure
 
Installation sur site et essais ferroviaires
Installation. Capteurs et instrumentations ont été installés (de nuit pour réduire l’impact sur le trafic) en amont du tunnel du Lötschberg (Suisse) inauguré en 2007 ; localisation ‘critique’ par excellence. Les conditions de travail (nuit, intempéries, froid, vent) ont nécessité des méthodes d’installation spécifiques. Ainsi, pour le collage des réseaux sur la caténaire (Fig. 4a), du fait de l’absence d’alimentation, un système de mesure spectral portable et autonome, a été développé pour suivre la polymérisation. Par ailleurs, des câbles optiques de terrain ont permis le déport des instrumentations dans un container le long des voies.Essais. Une motrice a permis de calibrer les capteurs vis-à-vis de la force de contact et de la vitesse de passage sous le portique ; afin de relier ces deux grandeurs aux déformations et déplacements mesurés (Fig. 4b). Des vitesses évoluant de 5 à 100 km/h ont été utilisées, et les forces de contact ajustées à 50, 70 et 90 N, lors des calibrages nocturnes réalisés sur 18 mois. Au final, les mesures ont été collectées lors du passage de convois commerciaux (passagers, fret), permettant d’établir la distribution de la déformation moyenne d’une section de ligne de contact (Fig 4c). Pour cela, une procédure simple a été mise en oeuvre qui consiste à détecter les pics de déformation dus à chaque bande de frottement, du (ou des) pantographe(s) du train considéré, puis de les moyenner sur l’ensemble des réseaux de Bragg de la ligne. Cette procédure permet l’identification des trains dont l’impact sur l’infrastructure sort du gabarit (Fig. 4c, de 150 à 250 pm). 
Fig. 4a : Collage d’une ligne de mesure de réseaux de Bragg sur la ligne de contact Fig. 4b : Evolution de la déformation moyenne d’une section de ligne vs la vitesse du train pour une force de contact de 92 N Fig. 4c : Distribution de la déformation moyenne d’une section de ligne pour une centaine de trains
Par Guillaume Laffont, Nicolas Roussel, Jonathan Boussoir, Stéphane Rougeault, Laurent Maurin et Pierre Ferdinand, CEA, LIST, Laboratoire de Mesures Optiques, Gif-sur-Yvette Cedex

Note
1 – Ce projet, piloté par Siemens [Ge], regroupe les sociétés BLS et Furrer&Frey [CH], Morganite [UK], AKX [Au], ainsi que deux Instituts de Recherche : l’IPHT [Ge] et le CEA LIST [Fr].

Bibliographie
1 – P. Ferdinand, « Capteurs à fibres optiques à réseaux de Bragg », Techniques de l’Ingénieur, R 6735, pp. 1-24, déc. 19992 – S. Kusumi, T. Fukutani & K. Nezu, « Diagnosis of Overhead Contact Line based on Contact Force », QR of RTRI, vol. 47, n°1, pp. 39-45, 20063 – Yong Hyeon Cho, « Numerical simulations of the dynamic responses of railway overhead contact lines to a moving pantograph, considering a nonlinear dropper », J. of Sound and Vibration, vol. 315, pp. 433-454, 20084 – http://sine.ni.com/cs/app/doc/p/id/cs-11200.

Lithium : l’enjeu stratégique de demain ?

Même si l’électronique consomme de moins en moins d’énergie pour réaliser une même tâche, la puissance des appareils augmente, ce qui annule en partie le gain réalisé. Pour une batterie d’ordinateur de 90 Wh par exemple, il faut environ 8 grammes de Lithium.Le développement dans un futur proche de véhicules hybrides rechargeables et électriques va nécessiter de fabriquer de plus en plus de batteries. Elles seront pour la plupart de type Li-ion car cette technologie (qui existe sous plusieurs déclinaisons) offre une densité d’énergie massique plus grande que celles de la technologie NiMH, utilisée par exemple aujourd’hui comme batterie de puissance par la Prius de Toyota, véhicule hybride autonome n’ayant pas besoin de se recharger sur le réseau. En effet, la technologie Ni-MH a une densité énergétique plus faible (30-80 Wh/kg) quoique supérieure à celle du plomb (20-40 Wh/kg).

Du lithium pour le fusion thermonucléaire
Or, on dépassera bientôt le milliard de véhicules à quatre roues auxquels s’ajoutent les véhicules à deux roues. Pour parcourir 1 km avec un moteur électrique, il faut environ 150 Wh. Pour avoir 100 km d’autonomie avec un véhicule particulier, il faut une énergie de 15 kWh, soit une batterie d’environ 150 kg dans laquelle il y aura de l’ordre de 1,5 kg de Lithium. Le prix du Lithium ne représente pour le moment qu’une faible part du prix de la batterie qui avoisine 5.000 à 10.000 euros selon la capacité. Mais qu’en sera-t-il demain ? Heureusement on peut le recycler à 98 %, ce qui réduit beaucoup les quantités nécessaires à long terme (on fabrique chaque année de l’ordre de 70 millions de voitures particulières). Dans un futur plus lointain (fin du siècle ou début du suivant), on aura aussi besoin de lithium pour produire de l’électricité grâce à la fusion thermonucléaire. Le 6Li (isotope présent à 7,5 % dans le lithium naturel) est en effet nécessaire pour fabriquer le tritium qui, en fusionnant avec le deutérium, peut produire une quantité considérable d’énergie. Un réacteur de fusion de 1.000 MW électrique consomme environ 300 kg de 6Li par an (100 kg de deutérium et 150 kg de tritium).

Les réserves dépendent aussi du prix que l’on souhaite mettre pour la ressource
Deux questions se posent donc :
  • les réserves sont-elles suffisantes pour satisfaire ces nouveaux besoins ?
  • le lithium est-il facilement accessible ?
La teneur moyenne de lithium dans l’écorce terrestre est de 50 ppm, soit plus de 10 fois la teneur en uranium et plus que celle en plomb. Il existe toutefois des régions particulièrement favorisées avec des concentrations en lithium importantes. C’est le cas de certaines parties des Andes ou du Tibet, par exemple.L’évaluation des réserves d’une matière première est toujours délicate. Il y a des incertitudes techniques et politiques. Mais les réserves dépendent aussi du prix que l’on souhaite mettre pour la ressource. L’US Geological Survey comptabilise la production, les réserves exploitables (au coût économique du moment) et les réserves dites de base qui contiennent aussi ce qui n’est pas économiquement compétitif aujourd’hui ainsi que des extrapolations des estimations. Les données de certains pays, qui sont des acteurs importants, ne sont pas accessibles mais leur nom est indiqué.

Presque 14 millions de tonnes accessibles
Les réserves de base sont indiquées sur la figure 1. Au total il y a presque 14 millions de tonnes de lithium accessible. En fait, une estimation de toutes les sources terrestres possibles est de l’ordre de 28,5 millions de tonnes.

Figure 1
La figure 2 montre les pays qui produisent du Lithium dans le monde ainsi que la production 2008.La figure 3 montre les réserves exploitables aujourd’hui. Elles correspondent à 4,1 millions de tonnes pour ce qui est des pays pour lesquels nous avons des données.

Figure 3
Aux ressources terrestres s’ajoutent les ressources marines, puisqu’il y a en moyenne 0,17 g/m3 de lithium dans la mer ce qui représente environ 240.000 milliards de tonnes. Il semble donc qu’il y ait suffisamment de lithium pour les usages cités plus haut. Mais certains pays ou régions ayant des gisements facilement accessibles peuvent profiter de cet avantage pour faire augmenter les prix si la demande est importante. D’un autre côté, un prix très élevé pourrait rendre rentable des ressources qui ne le seraient pas avant, comme le lithium contenu dans l’eau de mer par exemple. Enfin, il ne faut pas exclure d’autres technologies de batteries qui peuvent s’avérer dans le futur plus efficaces et moins coûteuses.  

Sources :
Par Christian Ngô, agrégé de l’Université et Docteur es sciences. Il a fait de la recherche fondamentale en physique nucléaire pendant presque 20 ans à l’Université d’Orsay et au CEA/Saclay. En mai 2008, il a créé Edmonium Conseil. Lire son blog. 

Pour en savoir plus
Article de l’expansion.com : « Et s’il y avait 600 millions de voitures électriques« Article sur Agoravox : « Avons nous assez de Lithium pour les voitures électriques« Article Lithium AbundanceArticle d’electron-economy.orgArticle du CEA : « la fusion : une source d’énergie quasiment illimitée« 

PCB-Axelera : un programme de recherche ambitieux au service de la dépollution des milieux aquatiques

Ambitieux et historique, PCB-Axelera est le premier programme environnemental à réunir des moyens et des compétences d’envergure au profit de la dépollution des milieux aquatiques contaminés par les PCB (PolyChloroBiphényles). Ce programme de recherche d’une durée de 40 mois et piloté par Suez Environnement mobilise au total 30 partenaires autour de 16 actions. Le mois d’avril 2009 a marqué le coup d’envoi des 16 actions qui permettront à terme de fournir des solutions de dépollution efficaces des PCB dans les rivières.Les PCB sont des dérivés composés chimiques de la famille des dérivés chlorés plus connus en France sous le nom de pyralènes. Les PCB n’existent pas à l’état naturel. Très utilisés à partir des années 1930 dans l’industrie pour leurs qualités d’isolation électrique, de lubrification et d’ininflammabilité, ils ont été utilisés dans de nombreuses applications domestiques et industrielles.

Un plan national d’action sur les PCB
On les retrouvait notamment comme isolants dans les transformateurs électriques et les condensateurs, comme lubrifiants dans les turbines et les pompes ou comme composants d’huiles, de soudures, d’adhésifs, de peintures et de papiers autocopiants. Ils ont cessé d’’être produits depuis 1987 pour progressivement être retirés de la vente. Il resterait néanmoins aujourd’hui en France 500.000 appareils encore en service à décontaminer. De par leur faible solubilité et biodégradabilité, les PCB n’altèrent pas la qualité de l’eau en elle-même, mais se fixent sur les matières en suspension et les sédiments présents en milieux aquatiques. Les 6 millions de mètres cubes de sédiments charriés par les cours d’eau en France sont contaminés par les rejets industriels et urbains. L’ampleur de cette pollution a justifié la mise en œuvre d’un plan de national d’action sur les PCB, par le ministère de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire.
Faire le bilan des solutions techniques opérationnelles
Le projet PCB-Axelera s’insère également dans le programme d’actions régional « Pollution PCB-Rhône » piloté par la direction régionale de l’environnement Rhône-Alpes, pour lequel le pôle de compétitivité Axelera va dresser l’inventaire et le bilan des solutions techniques opérationnelles pour la gestion et le traitement des sédiments contaminés.Articulé en six axes, les objectifs de ce plan sont les suivants :
  •  intensifier la réduction des rejets de PCB ;
  •  améliorer les connaissances scientifiques sur le devenir des PCB dans les milieux aquatiques et gérer cette pollution ;
  •  renforcer les contrôles sur les poissons destinés à la consommation et adopter les mesures de gestion des risques appropriés ;
  •  améliorer la connaissance du risque sanitaire et sa prévention ;
  •  accompagner les pêcheurs professionnels et amateurs impactés par les mesures de gestion des risques ;
  •  évaluer et rendre compte des progrès du plan.
Le programme PCB-Axelera s’inscrit dans l’axe 2 avec pour objectif principal de « bâtir un programme de recherche appliquée sur les techniques de dépollution à mettre en œœuvre dans les zones les plus contaminées ».

4 axes techniques, 16 actions
Fédéré et monté par Axelera, pôle de compétitivité Chimie-environnement Lyon et Rhône-Alpes, le programme PCB-Axelera réunit des compétences de haut niveau. Il est piloté par Suez Environnement. Le programme PCB-Axelera s’articule sur quatre axes techniques déclinés en 16 actions :
  • la pertinence analytique : savoir mesurer (3 actions)
Cet axe vise la mise en œuvre de bonnes pratiques de prélèvement, la mesure des 209 variétés de PCB et l’utilisation de capteurs passifs dans l’eau pour l’échantillonnage.
  • les processus de transferts : comprendre les transferts (2 actions)
Cet axe est consacré à la dynamique des phénomènes de transport, de dépôts et de remise en suspension des sédiments fins d’une part, à la modélisation, l’analyse comportementale des PCB (transfert eau/sédiments, sédiments/eau) d’autre part, et enfin à la connaissance des flux de PCB observés dans le Rhône.
  • les technologies de traitement : savoir traiter (10 actions)
Cœur du programme PCB-Axelera, les travaux de cet axe exploreront plusieurs voies technologiques : d’’une part, le prétraitement des sédiments par dragage et criblage, en vue de leur valorisation ou de leur élimination, et d’autre part les techniques potentielles que sont : – les solutions éco-compatibles de confinement pour la mise en dépôt des sédiments pollués et le développement de technologies de stabilisation-solidification ; – l’’absorption des PCB par la mise en œœuvre de charbon actif, couplé à des techniques de tri granulométrique des matériaux ; – la dégradation des PCB par la voie fongique en utilisant les performances métaboliques de champignons saprophytes ; – la bioremédiation en vue du renforcement des capacités de biodégradation des PCB par des souches microbiennes ;  – le traitement biologique anaérobie des sédiments et des sols pollués ; – la destruction des PCB par voie thermique.
  • l’outil global d’aide à la décision : décider et agir (1 action)
S’appuyant sur les connaissances de la pollution et les solutions de traitement retenues, le programme PCB-Axelera concentrera sa dernière action sur un outil d’aide à la décision (analyse, transfert, performances technologiques et environnementales, risques) destiné aux collectivités locales pour faciliter la mise en place de solutions adaptées.

Résultat des 16 actions en mars 2012
Au final, le programme fournira 28 livrables :
  • 13 outils et méthodes pour la maîtrise des PCB dans l’environnement (8 produits, 5 méthodes)
  • 15 technologies de traitement pour faciliter la mise en place de solutions adaptées, développées dans le programme (1 produit, 5 procédés, 7 filières) ainsi que deux plates-formes (l’une pilote des procédés de traitement des PCB, l’autre industrielle pour l’évaluation des technologies de traitement des sédiments pollués du Rhône).
Le programme PCB-Axelera représente un budget global de 10,5 millions d’euros€. Il mobilise des partenaires financiers impliqués, dont 46 % d’origine publique et 54 % issus du secteur privé. Les fonds publics engagés dans le projet se répartissent entre le FUI (49 %), le Feder (19 %) et les collectivités locales de la région Rhône-Alpes (32%).D’une durée de 40 mois, le programme PCB-Axelera devrait s’achever en mars 2012, pour livrer le résultat de ses 16 actions.Par Cathy Clément (Gaia communication)

Une puce RF universelle calquée sur l’anatomie de l’oreille humaine

Rahul Sarpeshkar, professeur d’électronique au MIT, et son équipe formée d’étudiants ont conçu une nouvelle puce radio, rapide sur une très large bande, et de faible consommation. Cette puce, calquée sur le modèle de l’oreille humaine, pourrait permettre la conception de composants sans fil « universels », capable de recevoir des signaux de téléphone, Internet, de radio ou de télévision.Pour réaliser cette puce, l’équipe a copié le fonctionnement de l’oreille interne, appelée limaçon. Cette puce serait plus rapide que n’importe quelle autre analyseur de spectre en Radio Fréquence (RF) et pourrait opérer avec une très faible consommation de puissance. Selon Sarpeshkar : « Plus j’ai commencé à observer l’oreille et plus j’ai réalisé qu’elle fonctionnait comme une super radio mais avec 3.500 canaux en parallèle. »Sarpeshkar et ses étudiants ont décrit leur nouvelle puce dans un papier publié dans le numéro de juin du IEEE journal of Solid-State Circuits [1]. Ils ont aussi fait une demande de brevet pour incorporer la puce RF dans une architecture radio universelle, compatible avec un large spectre de signaux impliqués dans la téléphonie mobile, l’Internet sans fil, le FM et plusieurs autres signaux.Le limaçon RF imite la structure et la fonction de l’organe biologique qui fait appel à la fois à des fluides mécaniques et à des piézoélectriques pour convertir les ondes de son en signaux électriques qui sont ensuite envoyés au cerveau. Quand les ondes de son entrent dans le limaçon, elles créent des ondes mécaniques dans la membrane au travers d’un fluide activant alors des cils présents dans l’oreille interne. Le limaçon humain peut percevoir un domaine de fréquence compris entre 100 et 10.000 Hz. Sarpeshkar a utilisé ce modèle pour créer une puce RF qui peux percevoir des signaux entre 600 MHz et 8 GHz, ce qui est compatible avec la plupart des applications commerciales sans fil. La puce en silicium mesure 1,5 mm sur 3 mm. Les ondes électromagnétiques voyagent à travers des inductances et des capacités similairement au son traversant la membrane et le fluide présent dans le limaçon. Une série de transistors quant à elle joue le rôle des cils de l’oreille interne. De plus la puce consomme 100 fois moins de puissance que ce qui devrait être requis pour une numérisation directe sur la même largeur de bande.La démarche de l’équipe est enrichissante car elle est issue de la conjonction entre deux disciplines : l’électronique et la biologie. Ce n’est pas la première fois que Sarpeshkar s’inspire de la biologie pour créer de nouveaux composants électroniques [2]. Il a ainsi déjà développé une puce analogique prometteuse capable de synthétiser la voix calquée sur le tractus vocal. « L’homme a un long chemin à parcourir avant que ses architectures égalisent celles existantes dans la nature, spécialement dans les situations où l’on requiert une très grande efficacité énergétique ou une très faible consommation. Néanmoins nous pouvons nous approprier les ressources naturelles de la nature pour fabriquer des composants utiles aux humains, comme nous l’avons fait pour les ressources physiques dans le passé. » [1] adresse de l’article : redirectix.bulletins-electroniques.com/lmAQm[2] autres recherches réalisées par Sarpeshkar : www.rle.mit.edu/avbsSource :« Drawing inspiration from nature to build a better radio »: Anne Trafton – 06/03/09 – web.mit.edu/newsoffice/2009/bio-electronics-0603.htmlOrigine :BE Etats-Unis numéro 170 (19/06/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/59589.htmArnaud Souillé est rédacteur du bulletin électronique de l’ambassade de France aux Etats-Unis.

Fibre optique : l’Arcep plaide pour un déploiement multifibre

Face à l’opérateur historique, Free a finalement obtenu gain de cause. L’Arcep (Autorité de régulation des communications électroniques et des postes) a dévoilé mardi son projet de cadre juridique en faveur du multifibre. La boucle locale en fibre optique jusqu’à l’abonné (FttH) va progressivement remplacer la boucle locale cuivre pour assurer aux consommateurs une connexion très haut débit et cette infrastructure devrait rester en place dans les 50 prochaines années. Selon le projet de l’Arcep, dans les zones très denses, tout opérateur pourra demander à l’opérateur d’immeuble (c’est-à-dire l’opérateur choisi par la copropriété pour fibrer l’immeuble) de disposer d’une fibre supplémentaire dédiée à chaque logement, moyennant un préfinancement de son installation et un cofinancement de l’investissement initial. Cela signifie qu’il faudra déployer potentiellement trois ou quatre fibres par foyer. Alors que France Télécom estimait à 40 % le surcoût lié au multifibre, l’Arcep l’évalue à 5 % de l’investissement total, pourcentage qui sera à la charge de l’opérateur qui le demandera. L’opérateur d’immeuble devrait également permettre à tout opérateur qui le demande l’installation d’un dispositif de brassage (cf. glossaire). Le multifibre défendu par l’Arcep offre une indépendance de bout-en-bout à l’opérateur, alors que le partage d’une même fibre introduit des interactions complexes entre opérateurs. Il permet aussi de concilier l’utilisation de deux technologies différentes pour déployer un réseau en fibre optique jusqu’à l’abonné.

Le point-à-point plus intéressant à long terme
Dans le point-à-multipoints (ou PON, Passive optical network), une fibre unique partant du nœud de raccordement optique (NRO) permet de desservir plusieurs logements, par réplication du signal au niveau de coupleurs. Cela assure un investissement progressif suivant la montée en charge des réseaux. Un opérateur PON souhaite généralement avoir un dispositif de brassage au niveau du point de mutualisation.

Source : Arcep
Le point-à-point consiste à déployer au moins une fibre par logement, à partir du nœud de raccordement optique (NRO). Cela suppose un investissement initial important. Cependant, le point-à-point offre des avantages dans l’exploitation du réseau, avec un nombre limitée d’interventions. Il permet aussi de suivre les évolutions technologiques sans avoir à modifier l’architecture du réseau. L’opérateur point-à-point privilégie généralement un raccordement par soudure au point de mutualisation, afin de minimiser ses interventions ultérieures. Or, il n’est pas possible de souder et d’avoir un dispositif de brassage sur une même fibre. Il faut donc privilégier la pose de plusieurs fibres pour que chaque opérateur puisse choisir librement entre point-à-multipoints et point-à-point. A la suite de la consultation publique (pdf) qui aura lieu jusqu’au 22 juillet, l’Arcep prendra position à l’automne. Concernant les zones qui ne sont pas qualifiée de « très denses », l’Arcep engage une phase de travaux en collaboration avec les opérateurs, les collectivités territoriales et la Caisse des dépôts et consignation. C.G.Glossaire Brassage : modification, par branchement, de l’affectation d’une fibre d’un réseau amont, munie d’un connecteur, sur un panneau de connecteurs relié à un réseau aval.Nœud de raccordement optique (NRO) : point de concentration d’un réseau en fibre optique où sont installés les équipements actifs permettant à un opérateur d’acheminer le signal depuis son réseau vers les abonnés. Les NRO desservent généralement plusieurs milliers de prises.Point de mutualisation : dans un immeuble, l’accès au réseau à très haut débit en fibre optique se fait en plusieurs points. Parmi ces points, le point de mutualisation est le point de livraison de référence des accès sous forme passive, dans le respect de l’article L. 34-8-3 du CPCE. Le point de mutualisation est donc un point « logique » qui sépare le réseau de l’opérateur d’immeuble de celui des tiers. Le point de mutualisation peut être situé dans les limites de la propriété privée dans les cas suivant :– les immeubles raccordés à des égouts visitables, quelle que soit la taille de l’immeuble ;– les immeubles d’au moins 12 logements.Zones très denses : zone à forte concentration de population, où il est économiquement viable pour plusieurs opérateurs de déployer leurs propres infrastructures, en l’occurrence leurs réseaux de fibre optique, au plus près des logements. 148 communes sont concernées, représentant 5,16 millions de foyers.

Pompes à chaleur domestiques : modérons notre enthousiasme

Un gaz comprimé chauffe. Décomprimé, il refroidit. Imaginons le compresseur le plus simple qui soit : une pompe à vélo. Lorsqu’on met le doigt sur l’ouverture et qu’on pousse sur la pompe, l’air à l’intérieur devient très chaud. Si on enlève le doigt pour laisser l’air chaud s’échapper, il se refroidit à nouveau. C’est le principe d’une pompe à chaleur. La chaleur du gaz comprimé est utilisée pour augmenter la température en un lieu donné tandis que la perte de chaleur due à la décompression fait baisser la température ailleurs.Par temps chaud, on peut inverser la pompe en refroidissant la maison et en rejetant l’air chaud au-dehors. La plupart des pompes à chaleur peuvent chauffer ou refroidir l’eau. Ainsi, elles peuvent, sous certaines conditions, utiliser le réseau de tuyaux d’eau chaude et de radiateurs de la maison. De même, elles peuvent fournir de l’eau chaude pour l’usage domestique jusqu’à 55 ou 60°C.

Des prix qui varient beaucoup
La chaleur d’une pompe à chaleur n’est pas gratuite. On appelle Coefficient de performance le ratio entre l’énergie nécessaire à l’activation de la pompe et la production de chaleur utile (CdP). Cette donnée est primordiale pour évaluer l’économie réalisée en termes de coût et de CO2. Plus la différence de température entre l’intérieur et l’extérieur est importante, plus le CdP est faible. Un CdP faible signifie que la consommation d’électricité par unité de chaleur est importante.Aujourd’hui, l’attention est portée sur les pompes à chaleur aérothermiques, qui puisent leur énergie dans l’air. Elles sont peu encombrantes et faciles d’installation dans les maisons, au mur ou au sol. Les meilleures comme l’Ecodan de Mitsubishi ont un CdP d’environ 3 à 3.3 (dans les conditions moyennes au Royaume-Uni). Pour une unité d’électricité consommée, la pompe fournit jusqu’à 3 unités de chauffage. Mieux vaut ne pas se fier aux chiffres plus élevés fournis par les fabricants mais plutôt à des exemples en situation réelle.Les pompes à chaleur géothermiques (qui puisent la chaleur dans le sol ou l’eau des nappes phréatiques) ont un CdP supérieur à celui des pompes aérothermiques mais leur installation revient beaucoup plus cher et nécessite de creuser des trous dans le jardin pour faire passer les tuyaux.

Une économie de 60 euros par an ?
Sans surprise, le coût d’une pompe à chaleur varie considérablement selon la complexité de l’installation et la taille de la pompe. Pour une maison neuve moyenne, il faut compter entre 2.360 et 3.540 euros de plus que pour une chaudière traditionnelle. Le gouvernement offre actuellement une aide de 1.000 euros, ce qui n’est pas rien mais reste insuffisant pour donner un véritable élan à l’installation de pompes à chaleur.D’après mes calculs, l’électricité nécessaire pour chauffer la maison représente moins d’un tiers d’une chaudière à gaz. Mais l’électricité est de loin plus chère que le gaz par KW/h. En me fiant aux tarifs les moins chers en vigueur en juin 2009, j’ai calculé qu’une pompe à chaleur aérothermique économise à un consommateur moyen l’équivalent de 60 euros par an par rapport à une chaudière à gaz. Ce n’est pas un bon retour sur investissement (rappelons qu’une pompe à chaleur coûte plusieurs milliers d’euros).L’Energy Saving Trust (qui est chargé de promouvoir la maîtrise de l’énergie au Royaume-Uni) avance lui une économie de 350 euros, un chiffre déraisonnablement optimiste. Le gouvernement fait probablement une erreur en exagérant les bénéfices des nouvelles technologies pour persuader le public de les adopter.

L’économie en termes de CO2 est exagérée
Toutefois, si vous chauffez votre maison à l’électricité, l’économie pourrait être plus impressionnante grâce à l’utilisation de radiateurs à accumulation qui profitent des heures creuses. Les radiateurs emmagasinent de la chaleur la nuit qu’ils libèrent le jour. Il y a toutefois deux inconvénients : d’une part, la nécessité d’installer de nouveaux radiateurs et d’autre part, le fait que les pompes à chaleur consomment en permanence de l’électricité et pas seulement pendant les heures creuses de la nuit. Personnellement, je doute que l’économie réalisée dépasse 250 à 350 euros alors que l’Energy Saving Trust avance une estimation de 1.000 euros.L’économie de CO2 tend également à être exagérée. Une pompe à chaleur utilise de l’électricité fournie en majorité par une centrale à gaz ou à charbon pour remplacer une chaudière à gaz. L’économie de CO2 dépend donc des performances énergétiques des pompes à chaleur. J’évalue cette économie à 0,59 tonne de CO2, soit une réduction d’1/5 des émissions de CO2 provenant du chauffage des maisons. Cet aspect est plus important que l’économie financière, dans la mesure où le chauffage des maisons est souvent la source la plus importante d’émissions. Mais le coût de la pompe pour chaque tonne de CO2 économisée est au moins de 300 euros, soit un coût très élevé.L’intérêt d’utiliser une pompe à chaleur va augmenter au fur et à mesure que nous passerons à l’énergie éolienne, la biomasse et d’autres sources d’énergie à faibles émissions de CO2. Toutefois, je pense qu’il est plus raisonnable d’attendre que cela soit le cas plutôt que d’acheter une pompe à chaleur dès aujourd’hui.Par Chris Goodall, auteur, entre autres, de 10 Technologies pour sauver la planète. Il est également éditorialiste pour The Independant on Sunday et le Guardian. Lire son blog.

Sources :
Cet article est adapté de « Domestic heat pumps: enthusiasm needs to be tempered », extrait de la deuxième édition de How to Live a Low-Carbon Life à paraître en février 2010 chez Earthscan. Se référer à l’article original pour le détail des calculs. 

Une nouvelle technique de dépollution des eaux usées fondée sur une électrode bifonctionnelle

Le traitement des eaux usées est souvent réalisé grâce à la combinaison de plusieurs techniques, ce qui permet de traiter un spectre plus large d’éléments polluants. Le docteur Aicheng Chen présente ici une technique combinant l’irradiation par les UV et l’électrochimie, mise au point par les chercheurs de l’université de Lakehead au Canada.

Vous avez déposé un brevet pour un procédé de dépollution de l’eau combinant la lumière et le courant électrique. En quoi ce procédé est-il novateur ?
Dr Aicheng Chen : Cette nouvelle approche est basée sur l’utilisation d’électrodes bifonctionnelles fabriquées à partir d’une plaque de titane (Ti) enduite d’un côté d’un photocatalyseur et de l’autre côté d’un électrocatalyseur. Cette nouvelle technique combine ainsi deux méthodes d’oxydation avancées : la dégradation photochimique (qui utilise la lumière pour éliminer les polluants) et l’oxydation électrochimique (qui utilise le courant électrique pour éliminer les polluants). Notre étude a démontré que la combinaison des deux méthodes est beaucoup plus efficace.

Dans quelle mesure ce procédé est-il compétitif avec des traitements biologiques moins coûteux ?
Bien que le processus biologique, qui utilise des bactéries pour éliminer les polluants, soit largement appliqué dans le cadre du traitement des eaux usées, son application n’est pas toujours possible, notamment pour les effluents très pollués. Il n’y a pas de concurrence entre le traitement biologique et cette nouvelle technologie. Cette dernière pourrait être utilisée conjointement avec un traitement biologique, en particulier pour les effluents très pollués.

Comment lutter contre le nombre croissant de polluants persistants dans les eaux usées aujourd’hui ?
En règle générale, la purification des eaux usées polluées par les nitrophénols est très difficile car la présence d’un groupe nitro dans l’anneau aromatique augmente la stabilité des composés phénoliques [1] dans les traitements chimiques et biologiques. Notre étude montre que l’électrode bifonctionnelle s’avère très efficace pour le traitement des nitrophénols.En savoir plus[1] Les composés phénoliques, utilisés comme désinfectants, biocides, produits de préservation. Colorants, pesticides et produits chimiques organiques en médecine et dans l’industrie sont reconnus comme étant toxiques pour l’homme et l’environnement.Aicheng Chen est chercheur dans le département de chimie de l’université de Lakehead au Canada. Ses recherches sur l’électrochimie ont pour objectif de développer de nouveaux capteurs et de nouvelles technologies vertes pour les industries minière et papetière.Propos recueillis par Clémentine Fullias

Sources :
A New Approach to Wastewater Remediation Based on Bifunctional Electrodes, Robert Matthew Asmussen, Min Tian and Aicheng Chen, Environ. Sci. Technol., Article ASAP DOI : 10.1021/es900582m Publication Date (Web) : May 29, 2009

Un champignon pour dépolluer les sols contaminés ?

Publiés il y a peu dans le célèbre Journal of chemestry, les résultats des recherches coordonnées par les laboratoires Paris Diderot et Paris Sud pourraient bien ouvrir de nouvelles perspectives dans le domaine de la décontamination des sols. En effet, à partir de l’étude d’un simple champignon, Podospora anserina, les chercheurs ont isolé une enzyme qui détruit les composés aromatiques toxiques en les modifiant, permettant au champignon de s’épanouir sur des sols pollués. Ainsi, les propriétés de cette enzyme pourraient servir à décontaminer des sols contenant certains polluants persistants.

Une modification chimique des éléments toxiques
D’après le compte rendu de ces recherches, « Au cours de leur évolution, tous les organismes vivants ont développé des mécanismes de défense pouvant les protéger contre les effets délétères de composés toxiques qu’ils soient d’origine naturelle ou non. Les champignons comptent parmi les espèces qui possèdent les outils les plus performants pour survivre en présence d’une très grande variété de composés, toxiques pour la majorité des autres espèces. »Dans le détail, ce sont deux enzymes qui permettent la modification chimique des éléments toxiques en éléments inertes. Une d’entre elle a été repérée grâce à son activité intense de transformation, et notamment d’amines aromatiques toxiques d’origine industrielle. Il est également intéressant de préciser que ces processus de décontamination sont assez rapides, comme précisé dans le rapport : « Le champignon a la capacité de détoxiquer des terres contaminées par un dérivé de pesticides (la 3,4-dichloroaniline ou 3,4-DCA). Au final, l’utilisation de ce type de champignon inoffensif appliquée à la dépollution de certains sols devra désormais être testée en plein champ. »

Une rapidité d’action étonnante
En effet, les expériences réalisées par les chercheurs ont donné des résultats étonnants. Non pathogène, Podospora anserina est également une espèce de manipulation aisée et de croissance contrôlée. C’est pour cela qu’elle a été choisie pour étudier ces phénomènes de bioremédiation. Dans les expériences menées, des échantillons de terre contaminée par de fortes concentrations de 3,4-DCA ont été mis en présence de Podospora anserina. Quelques heures plus tard, la majorité des molécules toxiques de ce dérivé de pesticide ont été inactivées, et la terre testée est alors saine, propice à la germination. Si les tests pratiqués en plein champs s’avèrent concluants, Podospora anserina pourrait s’avérer être une solution à l’accroissement préoccupant de la concentration des nombreux polluants dans les milieux naturels, accroissement directement lié aux activités humaines. 

Sources :
CNRS – An acetyltransferase conferring tolerance to toxic aromatic amine chemicals : molecular and functional studies(Marta Martinsa,b, Fernando Rodrigues-Limaa,b, Julien Dairoua,b, Aazdine Lamouric,d, Fabienne Malagnacb,e, Philippe Silarb,e & Jean-Marie Dupreta,b,f) – lire le compte rendu (en anglais)

L’Europe veut devenir un moteur de l’Internet des objets

L’Internet des objets fait rêver et fait peur. L’utilisation de la RFID (Radio frequency identification) pour connecter les objets à Internet et entre eux représente une opportunité économique et sociale, notamment dans le contexte de vieillissement de la population et de changement climatique. Cependant elle soulève bien des interrogations sur la protection de la vie privée, la santé ou l’environnement. L’Union européenne compte jouer un rôle majeur afin de favoriser et d’encadrer au mieux cette évolution. La commissaire européenne Viviane Reding (en photo ci-contre) vient de publier un plan d’action en ce sens (cf. les 14 mesures ci-dessous). Le même jour, jeudi 18 juin, elle a fait paraître un communiqué en faveur d’une gouvernance ouverte, indépendante et responsable de l’Internet. Dans son communiqué sur l’Internet des objets, Viviane Reding insiste sur la nécessité de faire évoluer le réseau. 100 à 1.000 fois plus d’objets seront connectés dans les cinq à dix ans, ce qui suppose de multiplier la quantité d’adresses IP. Pour cela, l’UE va accélérer le déploiement de l’IPv6 (Internet protocol version 6), ce qui augmentera le nombre d’adresses de 2^128 codées sur 16 octets, contre 2^32 adresses IP longues de 4 octets pour IPv4, qui sert actuellement de base à Internet. Le plan sera déployé au cours des trois ans à venir et se concrétisera par un rapport de la Commission. Il repose sur 14 mesures :1. La gouvernanceL’UE va travailler à la définition d’une série de principes de gouvernance et à la définition d’une architecture avec une gestion suffisamment décentralisée.2. La vie privée et les données personnellesIl s’agit de contrôler l’application de la législation sur la protection des données. Une communication sera publiée en 2010.3. Le droit de rendre les puces silencieusesLa Commission va lancer un débat pour savoir si les individus seront capables de déconnecter les puces du réseau à tout moment. Les citoyens doivent être en mesure de lire les puces et de les détruire. Ces droits prendront encore plus d’importance lorsque les puces deviendront suffisamment petites pour rester invisibles.4. L’identification des risques à venirCela consiste à relever les challenges de la confiance, de l’acceptation et de la sécurité par des mesures réglementaires ou non.5. Le moteur de la croissance et du progrès socialIl faut considérer l’Internet des objets comme une ressource indispensable pour l’économie et la société. Pour cela, la Commission va suivre le développement d’une infrastructure sécurisée.6. La standardisationLa Commission mettra en place de nouveaux chantiers de rationalisation des standards et si besoin de définition de nouvelles normes. Cette normalisation est nécessaire pour supprimer les barrières aux nouveaux entrants, faire baisser les prix pour les utilisateurs, réaliser des économies d’échelles et créer un marché mondial. Le développement de l’IPV6 sera nécessaire pour augmenter le nombre d’adresses IP.7. La rechercheLa Commission va continuer à financer des projets dans le domaine de l’Internet des objets dans le cadre du 7e plan cadre de recherche. En mettant l’accent sur les microélectroniques, les technologies « energy harvesting » (de récupération de l’énergie), le positionnement permanent, les réseaux sans fil de systèmes intelligents communicants, la sémantique, les logiciels d’émulation du raisonnement humain…8. Les partenariats public-privéLa Commission va intégrer l’Internet des objets dans quatre partenariats de R&D entre le secteur privé et le public : les voitures vertes, les bâtiments économes en énergie, les usines du futur et l’Internet du futur.9. Les projets pilotesIl s’agit de promouvoir des projets pilotes pour soutenir le déploiement d’applications avec un apport fort pour la société : e-santé, changement climatique, fracture numérique…10. La sensibilisation des institutionnelsLa Commission va régulièrement informer le parlement et le conseil sur ces sujets.11. Le dialogue internationalIl faut intensifier le dialogue avec des partenaires internationaux pour partager des informations et des bonnes pratiques, mettre en place des actions communes et promouvoir les positions de la Commission.12. La protection de l’environnementLa Commission va étudier les difficultés de recyclage des étiquettes RFID aussi bien que les bénéfices qu’elles peuvent apporter dans le recyclage des objets. Des études seront régulièrement menées sur l’éventuelle incidence des technologies de radiofréquence sur la santé.13. La publication de statistiquesEurostat va publier des statistiques sur la pénétration des technologies RFID et leur impact sur l’économie et la société à partir de décembre 2009.14. L’évaluation de l’évolutionLa Commission réunira un éventail représentatif des parties prenantes pour contrôler l’évolution de l’Internet des objets.C.G. RéférencesLes communiquésLorsque les pots de yoghourt se mettent à vous parler : l’Europe se prépare à la révolution de l’internetLa Commission européenne plaide pour une gouvernance ouverte, indépendante et responsable de l’InternetLe plan d’action en détailpdf (en)pdf (fr)Le rapport sur la RFID de mars 2007La Commission propose une stratégie européenne pour les étiquettes radio intelligentes

Le terminal méthanier d’Antifer : l’avenir du gaz naturel en France

Le MEEDDAT rappelle que la France consomme 50 Gm3 de gaz naturel [1], importé pour une forte moitié sous forme gazeuse de la mer du Nord et de Russie et pour le reste sous forme de gaz naturel liquéfié (GNL).Les 3 terminaux de réception du GNL ont une capacité totale de 23,75 Gm3 (Fos Tonkin, Montoir, Fos Cavaou), susceptible d’être portée à 3.5-40 Gm3 d’ici 2020. Les 4 nouveaux projets actuellement envisagés (Dunkerque, Antifer, Verdon et Fos Faster) auraient pour leur part une capacité de 33 à 39 Gm3.Au total, si tous ces projets se réalisaient, les capacités d’importation de GNL seraient de 70 à 80 Gm3 en 2020, ce qui porterait les capacités totales de gaz disponibles en France à près de 100 Gm3. Le MEEDDAT explique que les importations en provenance de la mer du Nord devraient baisser de 40 % (soit environ 6 Gm3) et que les importations de Russie (10 Gm3) sont soumises à des aléas géopolitiques. Il explique également que la création du grand marché européen du gaz ouvre des opportunités commerciales et que la France est bien placée pour alimenter ce marché.Le dossier de presse du MEEDDAT du 3 juin 2009 [2] annonce une baisse de 10 % de la consommation finale de gaz d’ici 2020 ; celle-ci passerait de 42 à 38 Gm3. Il est précisé que « cette variation cache en réalité deux évolutions différentes : une très forte baisse dans la consommation résidentielle, compensée par une hausse sensible dans la consommation industrielle et électrique (remplacement du charbon par du gaz). »

Une perte de 15 Mtep pour le gaz ?
Que penser de tout cela ? Du côté de la consommation nationale, il importe d’être plus que circonspect. Ainsi, dans le secteur résidentiel et tertiaire, le fioul domestique et le gaz naturel représentent respectivement 15 et 23 Mtep. Or, la loi Grenelle 1 prévoit une diminution proche de 40 % de la consommation d’énergie de ce secteur, qui passerait de 70 à 40 Mtep. La baisse de 30 Mtep devrait porter essentiellement sur ces deux combustibles, seuls émetteurs de CO2 ; même en admettant que la première « victime » sera le fioul domestique, le gaz naturel pourrait « perdre » 15 Mtep, soit plus de 15 Gm3 [3].Dans l’industrie, le gaz et l’électricité sont déjà les deux énergies largement dominantes, et le gaz ne peut guère espérer gagner plus de quelques Mtep.Le seul secteur où les besoins de gaz devraient augmenter de façon significative est la production d’électricité, en remplacement du charbon et du fioul : actuellement, les quelque 50 TWh électriques produits à partir de combustibles fossiles, essentiellement pour assurer la demi base et la pointe, se répartissent approximativement de la façon suivante : 20 TWh à partir de charbon, 10 TWh à partir de fioul et 20 TWh à partir de gaz. En admettant (comme le fait le MEEDDAT) que d’ici 2020 toute la production « charbon » sera assurée par le gaz, cela représenterait une augmentation de la consommation de gaz de 35 TWh (3,5 Gm3).

Quel coût pour le remplacement du charbon par le gaz ?
La consommation finale française devrait donc diminuer encore plus nettement qu’annoncé par le MEEDDAT, et atteindre environ 35 Gm3 d’ici 2020 (soit 40 Gm3 d’énergie primaire).Le remplacement d’ici 2020 du charbon par le gaz naturel pour la production d’électricité permettra aussi de diminuer de 45 à 35 Mt CO2 les émissions de gaz à effet de serre de ce secteur. Ceci s’inscrit bien dans la trajectoire du Grenelle de l’Environnement, mais à un coût qu’il conviendrait de chiffrer. Pour que ce gain soit durable, deux conditions devront être remplies :
  • Que la production thermique n’augmente pas, et cela malgré les besoins nouveaux engendrés par les électricités intermittentes.
  • Que les centrales à gaz mises en service au cours de la prochaine décennie puissent, dès que possible, être équipées de capacités de captage et stockage du CO2. Ces centrales, en effet, seront encore en service en 2050, date à laquelle les rejets totaux de CO2 dus à l’énergie devront être environ 3 fois plus faibles qu’en 2020.
Une contribution importante de la France aux besoins énergétiques européens (électricité et gaz) est une option défendable. Le programme nucléaire a bien permis d’exporter environ 70 TWh par an d’électricité et la France est effectivement bien placée pour abriter des terminaux de GNL.

Assurer les mesures de sécurité et de protection de l’environnement
La capacité d’importation excédentaire proche de 60 Gm3 n’est pas négligeable rapportée aux besoins européens (aujourd’hui supérieurs à 300 Gm3). Encore faut-il que soient assurées, pour les terminaux méthaniers, toutes les mesures de sécurité et de protection de l’environnement. D’autre part, les capacités supplémentaires étant pour l’essentiel destinées au marché européen, il serait tout à fait anormal qu’elles bénéficient d’aides directes ou indirectes de l’Etat. En particulier, il appartient aux industriels d’assumer pleinement le risque d’ « investissements échoués » si, par malheur, les prix du gaz naturel et (ou) du CO2 venaient réduire fortement la demande de gaz en Europe.Par Pierre Bacher, ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur.

Notes
[1] Chiffre probablement un peu fort, mais que nous conserverons par souci de cohérence[2] MEEDDAT Dossier de presse «Jean-Louis Borloo présente une feuille de route issue du Grenelle Environnement pour les infrastructures énergétiques de la France»[3] 1 Gm3 # 10 TWh # 0,86 Mtep

Green IT : la norme Energy star de plus en plus exigeante

La norme Energy star pour les ordinateurs, les photocopieurs et les imprimantes deviendra plus contraignante à partir du 1er juillet. La Commission européenne et l’Agence américaine pour la protection de l’environnement (Environmental Protection Agency, EPA) viennent de signer un accord en ce sens. En Europe, les nouvelles spécifications permettront des économies d’énergie de près de 22 TW/h sur les quatre à six ans de durée de vie des produits, soit la consommation annuelle de l’Irlande selon la Commission. L’EPA a complété la norme en mai dernier par des spécifications réservées aux serveurs. D’après l’agence américaine, un serveur respectant la norme consommerait 30 % d’énergie en moins qu’un serveur traditionnel. « Si tous les serveurs vendus aux Etats-Unis suivaient cette nouvelle spécification, l’économie d’énergie pourrait atteindre 800 millions de dollars par an, et éviterait l’émission de gaz équivalente à celui de plus de 1 million de véhicules », d’après un communiqué de l’EPA. Pour chaque catégorie de serveur, Energy star définit des seuils énergétiques à ne pas dépasser. Les spécifications concernent principalement la consommation d’énergie en veille et la performance de l’alimentation (la consommation d’énergie par rapport à la quantité de chaleur dégagée). Les serveurs doivent pouvoir communiquer à un logiciel de supervision des mesures (consommation, CPU, température, etc.). La norme ne concerne pour l’instant pas les serveurs lames, pourtant très consommateurs en énergie.  

Un label obligatoire pour les organismes publics de l’UE
Une nouvelle version du label pour les serveurs devrait être rendue publique l’année prochaine. Après la publication des nouveaux critères pour les ordinateurs, photocopieurs et imprimantes le 1er juillet, l’EPA publiera également des spécifications concernant le stockage informatique et les consoles de jeu. Considéré comme la première démarche green IT (le terme n’existait pas encore), le programme Energy star remonte à 1992 aux Etats-Unis. Il visait à réduire la consommation d’énergie, notamment des ordinateurs. Europe et Etats-Unis on signé un premier accord sur l’utilisation de cette norme en 2001, renouvelé fin 2006. En 2007, le Conseil de l’Europe a voté un règlement qui impose à tous les organismes publics de l’UE l’achat de matériels informatiques de bureau labélisés Energy Star. C.G.Sources :www.eu-energystar.orgwww.epa.gov