Les conditions de la renaissance du nucléaire américain

Le panel du MIT a estimé que l’entreposage des déchets dans des fûts sur le site des centrales est un moyen sûr pendant plusieurs décennies, voire un siècle, et qu’il n’y a pas de raison technique à vouloir mettre en place un stockage permanent. Pour beaucoup des membres du panel, il n’y a pas urgence. La priorité est en effet de relancer le nucléaire aux Etats-Unis où la dernière centrale a été construite il y a une trentaine d’années.

Approuvez-vous la décision de l’administration Obama d’annuler le projet de stockage à Yucca Mountain, qui devait regrouper les déchets radioactifs de toutes les centrales nucléaires américaines ?
Matthew Bunn : Non, je pense que c’est une erreur. Yucca Mountain pourrait être un site sûr pour le stockage permanent des déchets nucléaires, pour peu qu’il soit correctement agencé et géré. L’annulation du projet va jeter le doute sur l’ensemble du programme de gestion des déchets nucléaires et il peut se passer des décennies avant que les Etats-Unis ne jettent leur dévolu sur un autre site.

Vous avez déclaré que les technologies actuelles de retraitement des déchets nucléaires étaient la porte ouverte à la prolifération nucléaire et au terrorisme. Incluez-vous les recherches sur les réacteurs à neutrons rapides de quatrième génération qui ne produiraient que des déchets d’une durée de vie moyenne ?
Comme je l’ai indiqué lors du débat, il est inutile aujourd’hui de se lancer dans le retraitement. C’est un processus plus cher que le non-retraitement, qui présente effectivement des risques pour la sécurité nationale. Les choses pourraient changer dans l’avenir si de nouvelles méthodes de retraitement sont développées. Il faut poursuivre la recherche.Quant à la quatrième génération, ce ne sont pas des technologies actuelles. Aucune ne sera commercialisée avant 20 ans, si ce n’est plus. Par ailleurs, je n’ai encore vu aucune analyse convaincante qui démontre que ces technologies, dans leur globalité (incluant le coût, le traitement des déchets, la sûreté, la protection contre le terrorisme et le risque de prolifération, le soutien de l’opinion publique et l’utilisation des ressources), soient supérieures au stockage définitif en profondeur sans retraitement (dit once-through).

Comment envisagez-vous l’avenir du nucléaire aux Etats-Unis ?
Pour le meilleur et pour le pire, le nombre de centrales nucléaires qui seront construites dans l’avenir aux Etats-Unis dépendra de leur compétitivité face aux autres alternatives à faibles émissions de CO2. Le coût d’une centrale nucléaire est monté en flèche ces dernières années, mais celui des centrales à charbon ou à gaz a également augmenté. Le coût des énergies éolienne et solaire dépend en partie de notre capacité à gérer leur nature intermittente. L’issue de cette compétition n’est pas encore claire.Pour ma part, je pense que le gouvernement américain devrait mettre en place un programme de garanties de prêts pour les premières centrales nucléaires, avec des garanties similaires pour les autres sources d’énergies à faibles émissions de CO2, avec pour objectif explicite que l’aide gouvernementale ne soit plus nécessaire une fois les premières centrales en activité. 

Sources :
Propos recueillis pas Clémentine FulliasMatthew Bunn est maître de conférence à la John F. Kennedy School of Goverment de l’Université de Harvard aux Etats-Unis. Ses recherches portent sur la prolifération nucléaire, le terrorisme, le futur de l’énergie nucléaire et le cycle du combustible.

Martin Guespereau : « Reach ne représente pas que des perspectives lointaines »

Le 2 juin dernier se tenait à Paris une conférence organisée par l’Afsset, qui présentait son rapport d’activité 2008, et le programme de travail pour 2009. Ainsi, Martin Guespereau, nouveau directeur général de l’Afsset depuis le 2 janvier 2009, entouré de Céline Delysse, chef du Decid (Département Communication Information et Débat public), Gérard Lasfargues, chef du Deset (Département d’Expertises en Santé Environnement et Travail), Philippe Juvin, chef de l’ARCHE (département Appui Réglementations CHimieEuropéennes, Biocides, REACH), Jean Lesne, chef du MERRE (département Méthodologie, Recherche et Relations Extérieures) ont présenté les axes prioritaires de l’Afsset en santé/environnement et santé au travail pour l’année en cours.Trois axes principaux se dégagent : la chimie, les agents physiques et l’eau, autour de plusieurs problématiques. La chimie donc thème central, qui comprend trois axes de travail principaux : les cancers professionnels, REACH, les CMR, l’amiante et le formaldéhyde.

Le sujet central : REACH
« Nous entrons en Europe dans une phase historique sur les produits chimiques », précise tout de suite Martin Guespereau. Pour accompagner cette phase cruciale, l’Afsset finance d’ailleurs des projets de recherche sur ces axes de recherche à hauteur de 1,5 millions d’euros, et a lancé plusieurs appels à projet conjoints. Mais au niveau de la chimie, le sujet qui revient avec insistance est bien sûr REACH. Martin Guespereau reprend : « ce ne sont pas 33.000 substances qu’il s’agit de référencer, comme annoncé, mais plutôt 143.000. Les industriels sont les premiers responsables de l’utilisation de ces produits. Maintenant, il faut de réels informations pour les professionnels concernés, notamment au niveau de l’obligation de substitution ».Le tout nouveau directeur de l’Afsset s’est ensuite attardé sur les critiques essuyées par REACH dernièrement, et notamment sur le coût de cette opération, alors que l’Europe et le monde traversent une période de crise sans précédent : « REACH est critiqué à cause de la crise. Sur quels produits veut-on que reparte la croissance ? Ce que nous savons, c’est que REACH va coûter entre 2,8 et 5,2 milliards d’euros, mais en rapportera 91 sur trente ans, rien qu’en bénéfices ».

CMR : 31 substances fichées
Outre l’aspect financier, Martin Guespereau s’est également appliqué à répéter que REACH devait être présent dans les esprits dès maintenant : « REACH ne représente pas que des perspectives lointaines. Ainsi, parmi les 350 produits à bannir (liste dressée par un ensemble d’ONG), l’Afsset en a choisi 24 sur lesquels elle va travailler, et a transmis leurs noms au ministère. Aussi, l’Afsset gère en ce moment deux dossiers de restriction. Le premier concerne la présence de plomb dans certains bijoux fantaisie, et l’autre le dimethyl fumarate, rendu célèbre de par sa présence dans certains canapés importés ».Autre domaine de la chimie abordé avec insistance, les CMR et leur substitution. « A l’heure actuelle, 31 substances ont leur fiche. Cela représente un travail énorme. Plus de 186.000 salariés sont tous les jours exposés à des produits mutagènes », précise Martin Guespereau, qui poursuit : « Cela représente un énorme travail car il faut également suivre les effets des substituants eux-mêmes et avoir un retour sur la qualité de la subsitution ».
« Construire des outils »
L’Afsset a pour vocation également de construire des outils. Ainsi a été créé le RNV3P, soit le Réseau National de Vigilance et de Prévention des Pathologies Professionnelles. Cette énorme base de données recense 100 000 cas balayant :
  • les pathologies dominantes sans la sphère professionnelle (recrudescence des risques psychosociaux par exemple) ;
  • les maladies respiratoires (elles concernent 20% de la population et en 1er lieu les hommes) ;
  • les TMS et les problèmes de peau.
Cet outil permet :
  • de donner de la visibilité,
  • de repérer les maladies émergentes (ex. les cancers respiratoires),
  • d’aider les autres établissements pour enrichir leur expérience,
  • d’avoir une base pérenne et « experte ».
Après la chimie, le directeur de l’Afsset a développé des axes de travail relatifs aux agents physiques, et notamment les études liées aux radiofréquences, pour lesquelles le travail est en grande partie lié « à de la synthèse scientifique, plus de 500 articles ont déjà été publiés sur le sujet ». Les nanomatériaux ont également été abordés, avec la sortie prochaine d’un rapport de l’Afsset sur le sujet, qui se concentrera sur la problématique des cycles de vie.

Un souci de transparence et de valorisation des partenaires
Dans un troisième temps, c’est l’eau qui a focalisé l’attention : les PCB, les métaux lourds, les eaux de baignade, les résidus de médicaments dans le cadre des perturbateurs endocriniens, ou encore la réutilisation des eaux usées. Au-delà des axes de recherche présents et futurs, la direction de l’Afsset a tenu à rappeler les principes de l’agence, à savoir :
  • Une agence 100 % publique par souci d’indépendance ;
  • Communication des résultats au grand public avant de le faire auprès des instances par souci de transparence ;
  • Un modèle d’expertise hors sol afin de faire appel à toutes les compétences, rassembles des disciplines multiples et valoriser les partenaires.
En conclusion, Martin Guespereau a rappelé quatre axes de travail, prioritaires pour l’Afsset :
  • Donner la priorité aux scientifiques : faire venir les meilleurs, valoriser leurs travaux, renforcer le réseau d’experts (NB : les 400 experts que sollicite l’Asset ont publié une « Déclaration publique d’intérêt » pour être accepté comme expert) ;
  • Introduire les sciences sociales dans l’abord des problématiques (colloque à venir les 6 et 7 juillet : « Gouverner l’incertitude ») afin de « confronter les théories à la réalité » ;
  • Passer le relais aux préventeurs en organisant des réunions et des évènements pour la recherche d’impact en passant à la normalisation ISO9001 ;
  • S’ouvrir à la société civile en prenant en compte les acteurs émergents et en favorisant le dialogue (influence d’internet).

La bioénergie : le temps des compromis

Dans ce domaine, le mot clé est « durable ». Si l’option du renouvelable nécessite des combustibles fossiles, on ne peut pas dire qu’elle est durable. Elle peut néanmoins l’être pendant une longue période, par exemple, si les besoins en combustibles fossiles sont faibles ou s’il s’agit de combustibles fossiles que nous possédons encore en abondance. Mais cela amène d’autres compromis. La solution parfaite n’existe pas, mais les compromis peuvent être plus ou moins à notre avantage. Pour un pays tropical comme le Brésil, je pense que l’éthanol tiré de la canne à sucre est une bonne solution. Mais dès que l’on essaie d’augmenter la production pour l’exportation, cela implique des compromis plus difficiles. Une des options qui me semble intéressante à long terme est le diesel vert fabriqué par hydrotraitement ou hydrocraquage de plantes oléagineuses ou par gazéification de la biomasse, ensuite converties via le procédé Fischer-Tropsch en carburant (ainsi que le fait Choren).

Le jatropha curcas est une option intéressante
En ce qui concerne l’hydrocraquage, l’utilisation de plantes oléagineuses particulières (ou de graisse animale) implique davantage de compromis. Prenons l’huile de palme, par exemple. Le palmier fournit de l’huile en abondance et il est une nouvelle source de revenus pour de nombreux pays tropicaux. Mais la demande en provenance des pays développés a conduit à la déforestation massive alors que certains pays tropicaux plantent précipitamment des plantations de palmiers.Le jatropha curcas est une option intéressante. Son principal avantage est qu’il pousse sur des sols marginaux et supporte bien la sècheresse. On pourrait penser que dans ces conditions, il ne consomme pas beaucoup d’eau. Hors, une étude intitulée « L’empreinte d’eau de la bioénergie » publiée récemment dans PNAS affirme le contraire. Le graphique montre que le jatropha est le plus gros consommateur d’eau en Gigajoules de carburant produit. Nous pensons aujourd’hui que le monde est confronté à une crise très sérieuse de l’approvisionnement en eau douce. C’est pourquoi un compromis important sera la quantité d’eau consommée par les cultures destinées à produire de l’énergie.L’étude n’explique pas en détail la méthodologie utilisée. Il m’est donc difficile d’en critiquer les résultats. D’autres études ont toutefois montré que le jatropha pouvait produire de l’huile tout en ayant des besoin minimaux en eau.

Minimiser les inconvénients des compromis
Il est possible que les meilleurs rendements soient obtenus avec beaucoup d’eau. Mais dans beaucoup d’endroits, peu importe d’obtenir des rendements moins importants pour autant que la consommation d’eau soit faible. Le fait est que ce genre de compromis va s’imposer, quelle que soit l’option énergétique choisie. C’est toujours quelque chose à prendre. Cela ne veut pas dire que nous n’avons pas le choix.Alors que nous nous tournons de plus en plus vers la bioénergie, il est crucial de faire les choix qui minimisent les inconvénients des compromis. Malheureusement, l’histoire a montré que ceux qui bénéficient des aspects positifs des compromis, ne sont pas toujours les mêmes que ceux qui en supportent les aspects négatifs. Robert Rapier est directeur ingénierie chez Accsys Technologies PLC et anime le blog R-Squared Energy Blog.

Bruno Maisonnier : « Les robots, ce n’est pas seulement un truc de Japonais ! »

Président fondateur d’Aldebaran Robotics et président de Cap robotique, Bruno Maisonnier suit depuis 25 ans le marché de la robotique. D’après lui, les robots feront bientôt partie de notre quotidien, et la France est bien placée dans ce domaine. Rencontre.

Techniques de l’ingénieur : Qu’est-ce qu’un robot ?

Bruno Maisonnier : Le robot n’est pas un homme, pas un animal, c’est autre chose. Mais attention, il n’a aucune intelligence, ce n’est rien de plus qu’un petit ordinateur. Il faut démystifier les robots.

Les robots vont-ils entrer dans notre vie quotidienne ?

Oui et dans des délais très court, dans un ou deux ans. Cela s’explique non seulement par l’évolution technologique mais aussi par la démographie. Les personnes âgées et les enfants sont les premiers concernés par les robots. La robotique répond à un nouveau besoin d’avoir un compagnon. Ce marché va arriver, avec à la clé des millions d’emplois dans les pays qui conçoivent, fabriquent et vendent les robots. Les Japonais, les Coréens et les Américains investissent beaucoup dans ce domaine.

Comment la France se situe-t-elle au niveau mondial ?

La France est en fait bien située par rapport aux autres pays. En termes de publications, elle représente 3 à 4 % de l’effort mondial tous sujets confondus, contre 7 à 8 % pour la robotique, après les Etats-Unis et le Japon. Nous sommes les premiers si l’on ramène ce chiffre au nombre d’habitants. L’Allemagne est aussi un pays en pointe dans ce domaine. Mais, pour travailler, les chercheurs français étaient obligés d’acheter des robots japonais qu’ils font ensuite évoluer.

Existe-t-il une demande en Europe ?

Le chien de Sony, Aibo, s’est vendu autant en Europe qu’au Japon et aux Etats-Unis. La robotique, ce n’est pas seulement un truc de Japonais ! Nao est reconnu comme le robot humanoïde plus sophistiqué au monde.

Pourquoi avez-vous créé Cap robotique ?

Il existe de nombreuses PME françaises dans ce domaine, comme Gostai qui fait des logiciels pour robots. Mais cela ne suffit pas à créer une dynamique. Nous avons donc créé un cluster, Cap robotique. Il réunit des industriels, des laboratoires de recherche, des universités, des écoles… Cela permet de faire du lobbying, de communiquer et d’organiser des événements. Les pouvoirs publics nous soutiennent via la région Ile de France, la ville de Paris, le gouvernement…

original

A quoi les robots servent-ils ?

Avec Nao, nous avons donné des fonctionnalités, il faut maintenant écrire les applications. Les robots vont beaucoup nous apporter. On peut citer l’exemple de personnes âgées mal voyantes qui auront un compagnon pour les aider dans leur quotidien, les distraire ou leur lire un roman.

Qui achète Nao ?

Nous avons vendu 260 Nao, principalement à des laboratoires de recherche, à 95 % en-dehors de France.

Comptez-vous toucher le grand public ?

Nao est conçu pour le grand public. Nous écrivons actuellement les applications, avant de passer à une troisième étape, la fabrication à grande échelle à des prix bas, prévue pour fin 2010 début 2011. Une trentaine de clients vont acheter une version bêta en juin. Pour l’instant nous fabriquons Nao dans nos locaux, mais je ne sais pas encore où nous le produirons par la suite. Cela dépendra aussi du marché. Par exemple, si nos clients sont aux Etats-Unis, l’assemblage se fera peut-être là-bas pour des questions de maintenance et de rapidité de fourniture.

Les réticences face à la robotique sont-elles justifiées ?

En France, certains ont des réticences. Dans la culture monothéiste, il existe une rupture qualitative entre les créatures à l’image de Dieu et les autres. Quand quelque chose essaie de venir dans le monde des hommes, cela provoque des peurs. Dans les cultures asiatiques de cosmogonie, c’est différent. Quoiqu’il en soit, il ne faut pas ralentir le développement de la robotique sous prétexte qu’il existe des risques.

Quelles sont les tendances en robotique industrielle ?

C’est un univers très différent. Lorsque l’on construit une usine, on peut facilement adapter l’environnement pour qu’ils conviennent aux robots qui ont donc très rarement une forme humanoïde. A Cap robotique, nous nous focalisons sur les robots de service.

Quels sont les grands sujets de recherche actuellement en robotique ?

L’interaction homme robot, avec la reconnaissance vocale, la reconnaissance gestuelle et émotionnelle, la reconnaissance de situation, l’apprentissage et les technologies de coopération des robots.

Quels sont les freins technologiques forts ?

Le rapport qualité prix est au cœur des problématiques. Il faut inventer des matériaux et faire évoluer les capteurs. Autres problématiques, l’énergie et l’autonomie constituent un frein. Mais ce dernier sujet est aussi un enjeu majeur pour d’autres industries qui concentrent leurs recherches là-dessus.

 

Aldebaran robotics

Créée en 2005, Aldebaran robotics est la première entreprise française de robotique humanoïde. Elle a présenté pour la première fois Nao fin 2006, considéré comme le robot humanoïde le plus sophistiqué au monde. Son financement vient des actionnaires historiques : Bruno Maisonnier, sa famille et des salariés, pour un total de 1,4 million d’euros. La start up a ensuite levé 5 millions d’euros auprès de deux fonds. Elle a reçu des aides des pouvoirs publics et elle dégage un chiffre d’affaires. Aldebaran robotics emploie environ 80 personnes.

Au sujet de Nao : www.aldebaran-robotics.com 
Au sujet de son grand frère Romeo : www.projetromeo.com 

 

Les DSI se convertissent au green IT

97 % des décideurs informatiques interrogés ont déclaré au moins envisager une stratégie green IT et 45 % ont déjà mis en place différentes initiatives vertes, d’après le Green IT report de Symantec paru en mai. « En 2009, les DSI commencent à avoir des projets verts qui s’intègrent dans une démarche d’entreprise », confirme Christophe Corne, directeur général de Dotgreen, éditeur de logiciels et prestataire de services. Cela concerne pour l’instant principalement les grandes entreprises et certaines collectivités locales ou administrations, mais les PME suivront.Le green IT, que l’on peut traduire par « informatique verte », consiste à réduire l’impact de l’informatique sur l’environnement, grâce aux achats éco-responsables, au recyclage, à l’utilisation raisonnée des imprimantes et surtout à la maîtrise de la consommation énergétique. « La première démarche remonte à 1992 avec le programme Energy star aux Etats-Unis qui exige notamment la mise en veille des postes de travail dans l’administration », précise Christophe Corne. En Europe, la directive sur le recyclage des déchets, traduite dans la loi en 2005 en France, a marqué une étape importante dans la prise de conscience. « Le terme green IT est apparu en 2007, lorsque des universitaires puis des journalistes se sont emparés du sujet. » Au-delà des aspects environnementaux, ce sont les perspectives de gain qui intéressent les entreprises. La consommation d’énergie constitue le premier levier de réduction des coûts. Cette approche commence par des mesures simples comme l’extinction des postes de travail le soir. « Cela peut passer par la sensibilisation des utilisateurs, explique-t-il. Dans une démarche plus poussée, on peut utiliser le paramétrage par défaut ou le pilotage de l’ensemble du parc informatique par des logiciels. » Pour réduire la consommation, on peut aussi opter pour des clients légers, ce qui est possible dans une large majorité de cas. « Pour un parc informatique classique de 1.000 postes de travail, le fait de basculer vers des clients légers revient moins cher à l’achat et permet de réduire de 50 % sa facture énergétique sur un an », indique le directeur général de Dotgreen.

Des écolabels pour l’équipement informatique
Du côté des serveurs, les efforts de rationalisation s’avèrent aussi payants. D’après Forrester research, cité par Le Monde Informatique, l’opérateur de télécoms Sprint a économisé 14 millions de dollars de dépense de fonctionnement pour son data center en rationalisant ses applications. Le refroidissement des serveurs fait l’objet de recherches poussées. Selon la « loi de Moore des centres de traitement de données », un tiers de l’électricité consommée par des grands centres de traitement de données sert à refroidir les serveurs, et ce volume devrait augmenter au même rythme que la puissance des processeurs qui double tous les 18 mois. Au-delà de la consommation d’énergie, les entreprises prêtent de plus en plus attention aux problématiques vertes dans leurs achats. L’écolabel américain Epeat permet de les guider en ce sens, en prenant en compte tous les aspects environnementaux du matériel informatique, jusqu’au carton qui emballe le PC. « Ce type de label manque en France, mais la situation est en train d’évoluer, notamment dans les administrations », indique Christophe Corne. Avec la directive RoHS (Restriction of the use of certain hazardous substances in electrical and electronic equipment), les ordinateurs contiendront de moins en moins de produits toxiques, mais il faut pour cela trouver de nouveaux composants et transformer les usines pour les fabriquer. Dans une vision plus large, que Forrester research qualifie de green IT 2.0, l’informatique peut même devenir un levier pour réduire l’impact global sur l’environnement. Par exemple, les visioconférences hautes définitions permettent de réduire les déplacements et donc l’empreinte carbone, sans oublier la baisse des frais de transport en conséquence. Vert, c’est aussi la couleur du dollar. Green IT report de Symantec (pdf)EpeatEnergy star Etats-UnisEnergy star EuropeBE Etats-Unis : Des économies énergétiques pour le refroidissement des fermes de serveursL’article du Monde informatique

« Le synthétique peut jouer un rôle important dans l’énergie solaire »

Antoine Millioud est le directeur financier de NEP Solar, une société australienne fabriquant des capteurs solaires. Le modèle « Polytrough 1200 », conçu à base de mousse de polymère, vient d’être primé au salon Intersolar 2009.

Quels sont les avantages de Polytrough 1200 (la racine « trough » rappelant sa forme d’abreuvoir) par rapport à un capteur solaire conventionnel ?
Antoine Millioud : Polytrough1200 est un capteur solaire à concentration. Grâce à cette technique, il opère à des températures supérieures à 200°C avec une efficacité thermique de 60%, avec des performances ainsi qu’une efficacité énergétique supérieures à celles de capteurs plan ou de collecteurs à tube sous vide traditionnels. Avec un design unique du système de réflecteurs, il présente une surface réfléchissante continue de 24m de long, ce qui permet de supprimer les zones d’ombre. Polytrough 1200 a été conçu pour des applications à haute température, où la température désirée est comprise entre 120 et 220°C. Ses principaux domaines d’application sont les processus industriels, le refroidissement solaire, la production répartie d’électricité et le chauffage de l’eau à des fins commerciales. 

L’une des innovations de Polytrough 1200 est sa structure en mousse de polymère. Quel est le potentiel des matières synthétiques dans l’industrie solaire ?
Les matières synthétiques peuvent jouer un rôle important dans l’énergie solaire en se substituant aux éléments métalliques traditionnellement utilisés. Hormis un coût de production peu élevé, les matériaux polymériques expliquent le poids relativement léger de notre structure, offrant ainsi des facilités de transport et de montage. Enfin, leurs propriétés spécifiques ouvrent la voie à de nouvelles solutions de conceptions. 

Une nouvelle version, Polytrough 1800, est actuellement en phase de développement. Quelles améliorations allez-vous apporter ?
PolyTrough 1.800 sera d’une conception similaire à Polytrough 1.200. Grâce à son ouverture plus importante (1.800mm au lieu de 1.200mm), nous espérons une économie de coûts de 15 à 20 %. Antoine Millioud est actif dans l’industrie de l’énergie depuis quinze ans, aussi bien dans la R&D que dans le management. Il est actuellement directeur financier chez Nep Solar.

La crise est à l’origine de la baisse de la consommation d’électricité au Royaume-Uni

La cause de la baisse de la consommation pourrait être le ralentissement de l’économie, l’amélioration de la performance énergétique ou le coût élevée de l’électricité. Si la cause est la contraction de l’économie, nous pouvons nous attendre à ce que la consommation reprenne avec le retour de la croissance. D’un autre côté, si la performance énergétique est la raison, il est raisonnable de penser que la baisse va persister. On considère généralement que la consommation d’électricité n’est pas sensible au prix de l’énergie. Si le coût élevé de l’électricité est en cause, cela pourrait nous donner de précieux indices sur la manière de réduire notre consommation d’électricité et ainsi nos émissions de CO2. Mes conclusions dans cet article sont que la quasi totalité de la baisse de la consommation énergétique provient des grands groupes industriels et commerciaux. Cela signifie que la cause la plus probable est la chute de l’activité économique. La consommation des ménages est, elle, restée constante.

La consommation des ménages reste constante
Le distributeur d’énergie National Grid publie les données de la consommation de demi-heure en demi-heure. Les dernières informations disponibles couvrent la période de janvier à mars 2009. L’analyse de ces données est rendue difficile par les dates de vacances et de weekends variables d’une année sur l’autre mais on peut néanmoins en tirer les grandes lignes. La baisse de la consommation entre 2008 et 2009 est visible dans le tableau ci-dessous :
Mois Baisse entre 2008 et 2009
Janvier 2009 -1,5 %
Février 2009 – 1,5 %
Mars 2009 – 6,9 %
Total pour la période – 3,2 %
Dans la mesure où la consommation d’électricité est affectée par les températures qui ont été inhabituellement basses entre janvier et février et élevées en mars, il ne faut pas conclure trop vite à une accélération de la baisse de la consommation. Le tableau suivant compare les températures moyennes en Angleterre en 2009 et en 2008 en degrés Celsius :
Mois 2008 2009
Janvier 2,8 6,3
Février 3,9 5,2
Mars 6,7 5,9
Laissons de côté les mois de janvier et février. La chute de la consommation en mars 2009 s’explique en partie par les températures relativement élevées.Comparons maintenant la baisse de la consommation pour chaque tranche de la journée. En enlevant les données pour Pâques et en m’assurant qu’il y avait le même nombre de jours de la semaine et de weekends en 2008 et 2009, j’ai obtenu une comparaison relativement juste de ces deux mois. J’ai ensuite calculé la baisse moyenne de la consommation pour chaque demi-heure de la journée.Voici la courbe de la consommation d’électricité au Royaume-Uni en mars 2009, en pourcentage de la consommation de mars 2008 par tranches de trente minutes :La courbe montre que la baisse de la consommation d’électricité varie entre près de 10 % (aux alentours de 4h du matin) et moins de 6 % le matin et en début d’après-midi. Les périodes où la réduction est la moindre entre 2008 et 2009 correspondent aux périodes où la consommation des ménages est la plus forte.   Le graphique ci-dessous est tiré d’une étude de l’Environmental Change Institute, The 40 % house. Il montre la courbe de la consommation quotidienne en hiver au Royaume-Uni en 2002 et différencie la consommation domestique et non domestique. Les pics de la demande se situent entre 7h30 et 18h. C’est dans ce créneau horaire que la baisse de la consommation d’électricité est au plus bas entre mars 2008 et mars 2009.Qu’est-ce que cela veut dire ? Sans pouvoir en être complètement certain, l’explication la plus logique est que la consommation des ménages au Royaume-Uni est restée virtuellement stable tandis que la consommation industrielle a fortement diminué.La consommation domestique représente environ un tiers de la consommation du Royaume-Uni. L’industrie représente le dernier tiers, tandis que les bureaux et les magasins comptent pour la dernière portion. Mais ainsi que le montre le graphique ci-dessus, la consommation domestique est bien plus élevée le matin (grille-pain et repassage de dernière minute) et dans la soirée (TV, repas, machine à laver). Ainsi, dans le cas où la consommation domestique est stable, nous devrions voir une baisse beaucoup moins importante de la consommation électrique à ces heures de la journée. Hors, c’est justement le cas.A l’inverse, à 4h du matin, quand la consommation domestique ne représente que 20 % du total, mais que l’industrie consomme toujours de l’énergie pour fabriquer de l’acier, du plastique, du pain ou autre, la consommation totale diminue de 10%. Cette baisse provient très certainement de la réduction de l’activité économique et pourrait être intensifiée par les plans de réduction de la consommation d’énergie mis en place dans l’industrie.

La production industrielle a plus baissé que la consommation électrique
Globalement, j’estime que les données pour mars correspondent à une baisse de la consommation électrique de 10 à 12 % dans l’industrie, peut-être 6 à 8 % dans les bureaux et les magasins, et un pourcentage infime pour les ménages.Pourquoi est-ce décevant ? Nous pouvions espérer que la baisse des revenus, les prix élevés de l’électricité et l’amélioration de la performance énergétique des appareils ménagers aient un impact sur la consommation d’électricité des ménages. Mais rien dans ces données ne le prouve. D’autre part, nous avons aussi pu être optimistes quant à l’impact des programmes pour réduire la consommation énergétique dans certaines industries. Les dernières données disponibles pour le Royaume-Uni (Index de la production pour le premier semestre 2009 publié le 12 mai) suggèrent que la production industrielle a diminué de 12,1 % par rapport à 2008, légèrement plus que mon estimation de la baisse de la consommation d’électricité. La mauvaise nouvelle est que, d’après mon analyse, nous pouvons expliquer l’intégralité de la baisse de la consommation d’électricité comme le résultat de la récession économique et pas du tout de l’amélioration de la performance énergétique ou de la réduction des déchets. Lorsque la croissance reprendra, la consommation d’électricité devrait à nouveau augmenter rapidement, ce qui est lourd de conséquences pour les émissions de CO2. 

Sources :
Chris Goodall est l’auteur, entre autres, de 10 Technologies pour sauver la planète. Il est également éditorialiste pour The Independant on Sunday et le Guardian. Lire son blog.

Les énergies renouvelables en France en 2020

L’évolution de la part des énergies renouvelables dans la consommation finale d’énergie, annoncée par Jean-Louis Borloo, s’illustre dans la courbe présentée ci-dessous :        Ensuite, voici résumées de façon très synthétique ces annonces qui s’inscrivent dans le cadre des objectifs fixés par le Grenelle de l’environnement et le Paquet climat énergie européen :Production de chaleur par filière en 2020 (avec le chiffre 2006) :

  • Biomasse : 15 millions de tonnes équivalent pétrole (contre 8,8 millions en 2006)
  • Géothermie : 2,3 millions (0,4 en 2006)
  • Solaire : 0,9 million (0 en 2006)
  • Déchets : 0,9 million (0,4 en 2006)
  • Biogaz : 0,6 million (contre 0 en 2006)
Soit un total de 19,7 millions de tep (contre 9,7 millions en 2006). Production d’électricité par filière en 2020 (avec le chiffre 2006) :
  • Hydraulique : 5,4 millions de tonnes équivalent pétrole (5,2 en 2006)
  • Eolien terrestre : 3,6 millions (0,2 en 2006)
  • Eolien en mer : 1,4 million (0 en 2006)
  • Biomasse : 1,4 million (0,2 en 2006)
  • Solaire photovoltaïque : 0,5 million (0 en 2006)
  • Autres (géothermie, énergies marines ) : 0,1 million (0 en 2006)
Soit un total de 12,5 millions de tep (contre 5,6 millions en 2006).Les chiffres de progression annoncés par le ministère sont spectaculaires : multiplication par deux de la production pour le bois-énergie, par six pour la géothermie et par 400 pour le photovoltaïque. Des croissances spectaculaires à relativiser malgré tout car la France part d’un niveau assez bas dans la plupart des filières.Accéder à l’intégralité du dossier du ministère de l’Ecologie ici 

Sources :
Green Univers

Réunion : le prototype E.T.M. de DCNS en test en 2011

Selon la presse locale, la DCNS, premier constructeur naval européen, est revenue présenter les premières esquisses du démonstrateur à la Réunion. La technologie E.T.M. permet de produire de l’électricité grâce à l’exploitation d’un différentiel constant de température entre l’eau de surface (22 à 26°C ou plus) et celle des grandes profondeurs (3 à 5°C).Ce différentiel constant n’est présent toute l’année qu’en zone tropicale et intertropicale. Jules Dieudonné, directeur du plan énergie/climat à la Région, fait remarquer que « cette technologie d’avenir permettrait d’ici 2030 de remplacer la consommation de 400.000 tonnes de charbon dans notre mix énergétique ». Selon les estimations les plus enthousiastes, l’E.T.M. pourrait même assurer 25 % de la production totale d’électricité de la Réunion, soit entre 100 et 160 MW. Mais bien que l’île en ait parfaitement la capacité (et la volonté !), nous n’en sommes pas encore là.Si le prototype présenté par la DCNS n’est pas contractuel et peut encore évoluer, les ingénieurs ont déjà cependant une idée assez précise de ce que pourra être cette plateforme E.T.M. offshore. 30 mètres de diamètre, 15 de hauteur au-dessus de la surface, un poids de 7.000 tonnes et 1,5 MW de puissance en phase pré-industrielle !

30 mètres de diamètre et 15 mètres de hauteur !
Le site d’implantation lui-même est pratiquement arrêté : ce serait en face du port de la Pointe-des-Galets à environ 8 ou 9 kilomètres des côtes, ce qui rendrait la plate-forme quasiment invisible du rivage. La proximité des infrastructures portuaires semblerait avoir été un atout décisif dans cette décision d’implantation, car la Pointe des Galets n’est pas le seul site possible qui ait été sondé et retenu autour de l’île de la Réunion pour exploiter l’E.T.M.D’après les relevés réalisés par l’Arvam [1] et l’Arer [2], un potentiel d’exploitation d’eau à 3°C entre 1.000 et 1.500 mètres de profondeur a été trouvé aussi au large de Sainte-Rose, de Saint-Denis ou du Port, ce qui fait dire à Laurent Gautret, directeur technique de l’Arer, que la région Réunion « n’a rien à envier à Hawaï, qui porte également un projet analogue ».Tout aussi enthousiaste mais plus pragmatique, Jean-François Le Bert, chef de projet E.T.M. à la DCNS, a confié à Clicanoo (un média local) : « Notre entreprise qui construit des sous-marins nucléaires a horreur du risque. Nous allons boucler en 2009 l’étude de faisabilité et avancer étape par étape. Nous devons notamment nous assurer que le tuyau reliant la plateforme offshore et la terre soit bien solide. D’autres expériences ont montré que c’était là un point névralgique fragile. Concernant la plateforme en elle-même, on s’appuie sur les process utilisés pour les champs pétroliers offshore du golfe du Mexique soumis aux cyclones ».

Mise en route du premier prototype en 2011
La DCNS est bien inspirée d’afficher une certaine prudence et ce malgré les déclarations au plus haut niveau de l’Etat français en faveur des énergies renouvelables, mais peut être désormais les choses sont-elles appelées à aller un tout petit peu plus vite que prévu.Peut-être… En tout état de cause, les premières données du plan de financement devraient être présentées dès septembre. Et le calendrier technique s’établirait comme suit :
  • 2011 : mise en test d’un premier prototype de 15 KW à l’IUT de Saint-Pierre.
  • Mai 2013 : début de l’installation du démonstrateur en mer au large de la Pointe-des-Galets.
  • Début 2014 : mise en service sur le réseau d’un prototype d’une puissance de 1,5 MW, dernière étape avant la phase industrielle.
En ce qui concerne la question capitale des emplois que cette opération permettrait d’apporter dans la région, on estime que le seul montage du démonstrateur pourrait permettre de fournir localement du travail pour 120 personnes pendant six mois. La fabrication des pièces se faisant hors de l’île, cela n’apportera aucun emploi dans la région, mais sans doute ailleurs, sur le continent européen par exemple.

Une concurrence accrue
La concurrence, pour n’être pas des plus rudes, est cependant d’ores et déjà lancée à travers le monde : les Américains à Hawaï avec Lockheed Martin, mais aussi le Japon et l’Inde qui ont travaillé ensemble, sans beaucoup de succès notoire jusque-là sur l’E.T.M., ont des projets similaires.La Région Réunion a tout à gagner à essayer de devenir un leader européen en matière d’énergies marines grâce à l’E.T.M., que sa situation géographique lui permet d’exploiter de façon privilégiée. D’autres technologies marines sont aussi explorées à la Réunion, comme l’énergie des courants avec l’installation d’un courantomètre à Saint-Paul le 6 juin dernier. Pour plus de détails sur la technologie E.T.M., il est pertinent de consulter le site très documenté du Club des Argonautes et les articles de Michel Gauthier. [1] Arvam : Agence pour la recherche et la valorisation marine [2] Arer : Agence régionale de l’énergie Réunion 

Sources :
Les énergies de la mer

Le mobile sans contact à l’heure de la pré-commercialisation

Après de nombreux pilotes réussis, à Paris, Strasbourg, ou encore Caen, le « mobile sans contact » entre dans une nouvelle étape. Début 2010, les opérateurs vont proposer à quelques milliers d’utilisateurs niçois des services de paiement, de cartes de fidélité et de carte de transport. « Cette fois il ne s’agit pas d’un pilote mais d’un lancement pré-commercial, explique Philippe Coppolani, responsable Lab mobile au sein de la direction innovation et nouvelles technologies de Bouygues Telecom. Le sans contact va ensuite se développer ville par ville. »Presque tous les obstacles technologiques ont été dépassés. « Il reste un dernier amendement de la Global platform [NDLR : organisme international de spécifications pour les infrastructures de cartes à microprocesseur] qui lèvera les derniers verrous en septembre. »Le mobile sans contact fonctionne grâce à l’ajout d’une antenne sur le mobile, à laquelle on relie un composant NFC, relié à la carte SIM (on se sert pour cela de l’un des trois contacts non utilisés sur la SIM) et au téléphone lui-même. Entre le composant et la SIM, la norme retenue est le Single wire protocol (SWP : sur un seul fil).« Après une bataille de normes, les applications seront finalement dans la carte SIM », indique Philippe Coppolani. Ce système offre notamment plus de garanties en cas de perte ou de vol. Les applications peuvent être installées, activées et personnalisées en OTA (Over the air). « L’installation complète par OTA n’a pas encore été validée, mais cela ne saurait tarder », précise-t-il. L’installation des applications pourra également se faire en usine, ce qui nécessite ensuite de les personnaliser. Une opération qui peut également être faite par SMS mais uniquement pour des applications de petites tailles.

Le sans contact fonctionne aussi téléphone éteint
Dans la pratique, il faudra approcher le téléphone à moins de 10 cm des lecteurs (norme NFC, Near field communication), que ce soit pour un paiement, une validation d’un titre de transport ou d’une carte de fidélité. Il faudra un code pour le paiement de sommes élevées, mais pas pour les micro-paiements. « L’architecture permet de faire fonctionner le mobile sans contact même si le téléphone est éteint ou déchargé, explique Philippe Coppolani. Dans la pratique, seule l’application pour les transports sera disponible en off pour éviter les problèmes en cas de vol du téléphone. »Pour accéder au mobile sans contact, il faudra disposer de terminaux adaptés. Twinlinx offre une alternative au changement de téléphone grâce à un autocollant servant de plate-forme NFC et utilisant le bluetooth pour créer la connexion avec le téléphone (lire l’article). « La proposition Twinlinx nous intéresse pour la fonction lecture de tag, nous sommes nettement plus circonspect quant au mode carte qui nous paraît techniquement complexe », commente le responsable du Lab mobile. Au niveau fonctionnel, les opérateurs proposeront exactement les mêmes utilisations. « La différence se fera autour du service », conclut-il.

Daniel Kaplan : « L’Internet des objets doit sortir d’une vision utilitaire »

La Fondation pour l’Internet nouvelle génération (FING) se consacre à repérer, stimuler et valoriser l’innovation dans les services et les usages du numérique et des réseaux. Daniel Kaplan, son délégué général, s’intéresse notamment à l’Internet des objets. Techniques de l’ingénieur : Qu’est-ce que l’Internet des objets ?Daniel Kaplan : Les objets, les espaces ou même les corps se trouvent de plus en plus équipés de puces, lesquelles ont des propriétés de communication. Elles sont capables de s’identifier, de capturer des informations de l’environnement, de les traiter et d’agir. Le terme Internet des objets est apparu à la fin des années 90 autour d’une vision très commerciale et logistique. Mais cette orientation vers une finalité précise n’explore pas toutes les possibilités. Comme architecture de réseau, Internet déporte l’intelligence d’un bout à l’autre, avec un support le plus neutre et le plus accueillant possible. Le déploiement actuel de l’Internet des objets me semble très loin de cette idée. Est-ce une question de maturité ?C’est une question de maturité, mais aussi de concept. La vision commerciale avec une finalité précise marque le retour à une vision ancienne de l’informatique centralisée, utilitaire, avec un système fermé. Des applications comme l’amélioration de l’éclairage public ne sont pas critiquables en elles-mêmes, mais il faut dépasser cette approche. Dans l’histoire de l’informatique, les principales ruptures ont résulté d’usages auxquels le concepteur de la technologie n’avait pas pensé. Il faut favoriser l’émergence de concepts auxquels on n’est pas capable de penser individuellement. Pour cela, il faut chercher à déployer des infrastructures ouvertes de capteurs. Quels sont aujourd’hui les freins technologiques ?Il existe des obstacles technologiques du côté des standards, ainsi que des batteries et de l’alimentation électrique. Pourriez-vous donner un exemple pour expliquer la différence entre une approche centralisée et une approche ouverte ?Autour du vieillissement et du maintien à domicile, la première tendance consiste à barder le logement, voire le corps de la personne, de systèmes qui permettent de tout surveiller. Mais cela risque de mal se passer. La personne est ramenée au seul statut de malade, qui n’a plus de vie privée, de capacité à s’isoler, qui est en permanence suspecte… On lui demande de mettre un bracelet électronique, qu’elle va toujours oublier, comme par hasard, et on va le lui reprocher. Dans une autre vision de l’Internet des objets, on peut imaginer une plus grande interaction. Par exemple, le centre Erasme (de la Mission technologies de l’information du Conseil général du Rhône) met en place un projet de « Web napperon » qui permet à une personne âgée d’établir une communication Skype, de voir des photos, d’écouter les nouvelles… en posant un objet sur son napperon. Cela ne sert à rien médicalement, mais cela leur redonne une certaine autonomie. Existe-t-il des acteurs qui se démarquent en ce sens ?Cela commence à émerger. Des artistes, des militants ou encore des hackers participent à ce mouvement. Certaines entreprises sortent de l’objectif commercial d’une approche purement fonctionnelle, comme par exemple Violet et son lapin communicant. Des communautés de designers sont très actives dans ce domaine. Un groupe d’enseignants et d’étudiants de l’Institut de design d’interaction d’Ivrea en Italie a créé Arduino, une carte électronique d’entrée et de sortie avec un langage de programmation libre. On peut utiliser Arduino aussi bien pour concevoir une œuvre d’art, une muséographie ou des capteurs d’humidité à placer dans des pots de fleurs. Peut-on fabriquer des objets grâce à Internet ?Dans certains pays en développement, l’Internet des objets s’articule autour d’une application plus concrète : le Fab lab (fabrication laboratory). Internet sert à concevoir et fabriquer des objets. Il existe aujourd’hui une quarantaine d’ateliers de production dans le monde. L’Internet des objets fait-il peur ou rêver ?Lorsque l’on parle des puces, les gens se rétractent. Mais quand on leur présente une application concrète qui leur correspond, ils changent d’attitude. Il ne s’agit pas de savoir si on est pour ou contre, cela n’a aucune efficacité, mais de réfléchir à quel chemin on veut prendre. Lorsqu’un système reste très centralisé, la dimension de surveillance risque de prendre le dessus. Plus on l’ouvre, plus on contrebalance.  Lire un article de Daniel Kaplan sur l’Internet des objets : www.internetactu.netAu sujet du Web napperon : www.erasme.org/Le-Web-napperonLes entreprisesArduino : www.arduino.ccViolet : www.violet.net Une communauté de designers et d’artistesListe des hacker spaces (ateliers de création numérique) : hackerspaces.orgDorkot (des gens qui font des trucs bizarres avec de l’électricité) : dorkbot.orgLes arts numériques : arts-numeriques.netCinéma de rue itinérant : www.robotcite.frAppel à projets RFIDLe salon RFID 2009 lance un appel à candidatures auprès des acteurs et témoins du marché de la RFID pour valoriser les projets de demain.Les cinq meilleurs projets seront présentés en conférence plénière durant le salon. Inscrivez-vous avant le 31 juillet et déposez votre dossier avant le 15 septembre.

La grande efficacité des cellules solaires à nanocristaux

J’ai donné il y a peu une conférence à l’Institut de Physique d’Erevan, en Arménie, sur « l’énergie solaire et les applications dans l’espace », au cours de laquelle j’ai mis l’accent sur l’importance des technologies satellitaires. Cet atelier était organisé par l’ISTC (International Science and Technology Centre) de Moscou.Les quantum dots ou particules nanocristallines sont à cet égard un matériau très intéressant. Elles augmentent notamment l’efficacité de la conversion en énergie des radiations solaires, résistent aux radiations et se transportent très facilement. Hors, l’efficacité énergétique n’est-elle pas la clé de la courbe de Hubbert ?Le terme de quantum dots qui désigne les particules nanocristallines a été inventé par Mark Reed à l’Université de Yale. Il s’agit de semi-conducteurs dont les excitons sont confinés dans l’espace tridimensionnel. De ce fait, elles ont des propriétés à la fois proches de celles des semi-conducteurs et des molécules isolées.

Améliorer l’efficacité des cellules solaires
La taille des particules nanocristallines est comprise entre 2 et 10 nanomètres (de 10 à 50 atomes) de diamètre et elles contiennent de 100 à 100.000 atomes. Pour donner un ordre de grandeur, 3 millions de particules nanocristallines constitueraient une chaîne de la largeur approximative d’un pouce.Les particules nanocristallines ont le potentiel d’améliorer l’efficacité des cellules solaires à deux égards :
  • en étendant la bande interdite des cellules solaires afin qu’elles absorbent une plus grande partie du spectre solaire ;
  • en produisant plus d’excitons à partir d’un seul photon.
Quasiment la moitié de l’intensité de la lumière du soleil se situe dans la région infrarouge du spectre électromagnétique. Ainsi, les cellules photovoltaïques qui réagissent aux infrarouges peuvent même absorber les radiations d’une source thermique. La cogénération d’électricité et de chaleur est silencieuse, fiable et efficace.

Des avantages en termes de coût et de flexibilité
Une cellule de silicone de 1 cm² exposée à la lumière directe du soleil produirait environ 0,01 W, mais une cellule photovoltaïque à infrarouges avec une efficacité énergétique importante peut en théorie produire 1 W dans un système thermique.En 1970, on a découvert que le dopage chimique de polymères organiques couplés augmentait la conductivité électronique de plusieurs ordres de grandeur. Cette découverte a conduit à l’utilisation de matériaux électroniquement conductibles sous forme de capteurs, de diodes et de cellules solaires. Les polymères couplés sont caractérisés par la simplicité du processus, leur coût peu élevé, leur flexibilité et une large couverture. Ils fonctionnent aujourd’hui raisonnablement bien à l’intérieur du spectre visible.Pour faire fonctionner des polymères couplés à l’intérieur du champ infrarouge, des chercheurs de l’Université de Toronto ont enveloppé les polymères autour de quantum dots en sulfure de plomb réglés (en taille) pour réagir aux infrarouges. L’exploitation commerciale est prévue d’ici 3 à 5 ans.

Le taux d’énergie dissipée réduit substantiellement
L’équipe de chercheurs dirigée par Arthur Nozik au Laboratoire National des énergies renouvelables de Golden, Colorado, aux Etats-Unis, a récemment montré que l’absorption d’un seul photon par une particule nanocristalline, produisait non pas un exciton comme c’est le cas habituellement avec les semi-conducteurs, mais trois excitons !La formation de plusieurs excitons par photon absorbé nécessite que l’énergie du photon soit beaucoup plus importante que la bande interdite du semi-conducteur. Ce phénomène n’a pas lieu facilement dans des semi-conducteurs où l’énergie en excès est simplement dissipée sous forme de chaleur avant de pouvoir entraîner la formation d’autres paires électron-trou. Dans les particules nanocristallines, le taux d’énergie dissipée est réduit de façon significative. Les porteurs de charge sont confinés dans un volume infime, ce qui augmente leur interaction et donc la probabilité pour que plusieurs excitons se forment. 

Sources :
L’auteur, Chris Rhodes, tient un blog (Energy Balance) qui discute des problématiques énergétiques et environnementales actuelles, et est éditorialiste pour Scitizen.com. Aujourd’hui retiré de la vie académique, il poursuit ses activités de consultant (« Fresh-Lands ») pour l’amélioration des conditions environnementales en Europe et dans les pays de l’ex-URSS.

Reach : L’ECHA publie une liste de 7 substances prioritaires

L’Agence européenne des produits chimique vient de publier une liste de sept substances prioritaires à inclure dans l’annexe XIV dans le cadre de la réglementation Reach. Cette sélection émane d’une première liste de 15 substances publiée l’année dernière. Le choix s’est fait selon leurs propriétés dangereuses, les volumes utilisés et la probabilité d’exposition des personnes et de l’environnement. L’ECHA (European chemicals agency) a pris en compte les avis des parties intéressées lors d’une consultation publique ainsi que l’avis des Etats membres. Toutefois, il s’agit d’une recommandation. L’inscription à l’annexe XIV se fera ensuite par vote pondéré des Etats membres à la majorité qualifiée. Une fois la liste validée, l’usage des substances sera interdit, à moins qu’il ne fasse l’objet d’une autorisation spécifique. Les industriels bénéficieront d’un délai de quatre ans pour pouvoir développer des produits de substitution ou des techniques alternatives. L’Agence européenne formulera de nouvelles recommandations en vue d’inclure d’autres substances au moins tous les deux ans.

Recommandation sur sept substances prioritaires à inclure à l’annexe XIV dans le cadre de la réglementation Reach (European chemicals agency)
Substance Exemple d’utilisation
Substances toxiques pour la reproduction
Phtalate de bis(2-éthylhexyle) Plastifiant du PVC très présent dans notre environnement quotidien (sol, toiture, emballage des médicaments…)
Le benzylbutylphtalate (BBP) Dans le PVC
Le phtalate de dibutyle (DBP) En particulier dans les polymères divers (PVC/non PVC), pour les matières plastiques, les peintures, les encres ou les cosmétiques.
Substance cancérigène
Le 4,4′-diaminodiphénylméthane Dans les adhésifs
Substance persistante, bioaccumulative et toxique (PBT)
L’hexabromocyclododecane (HBCDD) Dans le polystyrène
Substance très persistante et très bioaccumulative (vPvB)
Le musc xylène Dans des détergents et des produits assouplissants
Substances PBT et vPvB
Les paraffines chlorées à chaînes courtes (ou PCCCs) Dans le caoutchouc ou le textile
Rappelons que Reach (en français, Enregistrement, évaluation et autorisation des substances chimiques), qui entre progressivement en vigueur depuis 2007, impose aux entreprises en Europe de prouver la sécurité des substances chimiques qu’elles produisent ou qu’elles importent (pour plus d’une tonne par an). Les substances non enregistrées seront interdites. La phase de pré-enregistrement est terminée et les échéances pour l’enregistrement varient de 2010 à 2018 selon le nombre de tonnes.La recommandation de l’ECHA : echa.europa.eu (pdf)

Agenda
Mardi 30 juin 2009 : Nouvelles exigences du risque chimique : comment être en règle ?
Une conférence organisée par les Editions Techniques de l’ingénieur, en partenariat avec Quick FDSEn savoir plus : www.editions-ti.com

Le carbone nanoporeux, une solution pour le stockage de l’hydrogène

Le problème pour le stockage est bien évidemment que le H2 aux conditions de température et de pression ambiante, contrairement à l’essence et d’autres combustibles à alcool, a une très faible densité d’énergie par unité de volume. Sous des conditions extrêmes à très basse température ou très haute pression, la difficulté de stockage est trop importante pour l’utilisation en automobile, donc les regards se tournent vers des matériaux absorbants. Malheureusement aucun matériau actuellement ne rejoint les objectifs de 2010 fixés parle DoE : 60g H2/kg du réservoir et 45g H2/Litre du réservoir.Les matériaux carbone ont longtemps été considérés pour la physisorption, grâce à leur faible coût et poids, mais ils apparaissent relativement inefficaces à température ambiante. Cependant, leurs capacités de stockage peuvent être grandement améliorées grâce à une fonctionnalisation de surface.

Stocker l’hydrogène par physisorption
L’objectif est de créer à la fois des pores nanométriques qui augmentent drastiquement la surface du matériau et créent des puits de potentiel plus profonds, et de doper le carbone avec des éléments (Boron, Fer, Nitrogène…) qui renforcent les énergies de liaisons. C’est ce que des chercheurs de l’University du Missouri à Columbia de l’Alliance for Collaborative Research in Alternative Fuel Technology ont fait.En combinant à la fois un très fort ratio surface poids et en trouvant le moyen d’augmenter les énergies de liaison entre les molécules de H2 et le substrat, l’équipe de chercheurs menée par Carlos Wexler et Peter Pfiefer a montré d’excellents résultats pour le stockage de l’hydrogène par physisorption.Les chercheurs ont développé des petites granules de carbone nanoporeux basé sur un déchet agricole qui permet d’atteindre des capacités de stockage de 100g H2/kg (90 baret 83K, soit -190°C) et de 20g H2/kg (90 bar, 303K soir 29°C).

Des capacités de stockage très intéressantes
L’équipe de chercheurs a montré expérimentalement que la surface qu’ils ont atteinte sur ces granules est de 3.100 mètres carrés par gramme, parmi lesquels 40 % de la surface est comprise dans les pores de 0.7nm et 60 % dans des pores supérieures à 1nm, avec deux énergies de liaison distinctes et importantes suivant la taille des pores (9kJ/mol et 5kJ/mol).Les objectifs fixés par le DoE sont en bonne voie d’être atteints. Dans leur étude, les chercheurs mettent aussi en évidence grâce à des simulations informatiques et la théorie de la thermodynamique, deux conditions de l’absorption de l’hydrogène différentes : une absorption mobile et une localisée, c’est-à-dire deux situations opposées dans lesquelles les molécules de H2 bougent ou ne bougent pas sur la surface.La compétition entre ces deux situations affecte la capacité de stockage, et en les contrôlant par fonctionnalisation de surface, les chercheurs pensent pouvoir doubler ces dites capacités. 

Sources :
  • Publication : accès gratuit – http://www.iop.org/EJ/abstract/0957-4484/20/20/204026
  • Article sur Physorg, 22 Mai 2009 – http://www.physorg.com/news162195986.html
 

Origine :
BE Etats-Unis numéro 168 (8/06/2009) – Ambassadede France aux Etats-Unis / ADIT –http://www.bulletins-electroniques.com/actualites/59402.htmAlban de Lassus est rédacteur du bulletin électronique de l’ambassade de France aux Etats-Unis.

Biocarburants : un impact sur la réduction des émissions néfastes pour la santé humaine ?

L’Analyse du Cycle de Vie (ACV ou Life CycleAnalysis) est une méthode permettant de quantifier de manière exhaustive les flux d’énergie et de matière générés au cours du cycle de vie d’un produit. Un inventaire précis de la dépense en énergie primaire non-renouvelable et de toutes les substances émises dans l’environnement pour parvenir à la réalisation de ce produit ou service est réalisé pour chaque étape du cycle de vie, qui débute avec l’extraction des matières premières nécessaires à sa fabrication jusqu’à sa destruction et au stockage des déchets qu’il génère.Cet inventaire est ensuite interprété en termes d’impacts environnementaux, c’est-à-dire de dommages sur la santé humaine, sur les écosystèmes, sur le réchauffement global et sur les ressources naturelles. Cette phase est appelée l’évaluation de l’impact du cycle de vie (Life Cycle Impact Assessment ou LCIA). Le point critique de l’interprétation en termes de dommages environnementaux est la mise en place d’indicateurs précis permettant de convertir les flux de matière et d’énergie en impacts quantitatifs.

Des contraintes liées aux risques sur la santé
« Bien que le succès du développement des biocarburants nécessite encore des recherches pour surmonter les obstacles techniques, il existe d’autres obstacles qui peuvent également imposer des contraintes souvent plus difficiles, c’est le cas des contraintes imposées par les risques sur la santé », explique Thomas McKone, un expert en évaluation des risques pour la santé au laboratoire « Environmental Energy Technologies » de la School of Public Health de l’Université de Berkeley en Californie.Il ajoute que « si l’on avait fait une étude de cycle de vie et une évaluation de l’impact sur la santé humaine des effets des carburants fossiles, nous ne serions pas dans la situation à laquelle nous devons faire face aujourd’hui ».Le professeur Thomas McKone est le co-leader de ce programme avec Arpad Horvath, professeur agrégé de génie civil et environnement à l’Université de Berkeley. Les travaux sur l’impact du cycle de vie des biocarburants sur la santé humaine ont été présentés lors du 31ème Symposium sur les biotechnologies pour les carburants, organisé par « the Society for industrial microbiology and held » qui s’est tenu à San Francisco le 6 mai dernier.

Tenir compte de la production de biomasse
L’étude a été financée dans le cadre d’un partenariat entre l’université de Berkeley, l’université de l’Illinois et la Société BP, qui sponsorise le programme à hauteur de 500 millions de dollars.Dans sa présentation, le professeur Mc Khone explique que la démarche du LCIA pour les biocarburants vise à examiner les impacts sur la santé humaine et l’environnement en tenant compte de la production de la biomasse, de sa transformation en combustible, de son stockage, de son transport et de sa distribution, et enfin lors de son utilisation donc de sa combustion.Pour analyser l’impact de ces émissions sur la santé humaine, les chercheurs ont déterminé le facteur « desability adjusted life years » (DALY), qui représente l’espérance de vie humaine dans un environnement pollué par les émissions des carburants. Un DALY correspond à une année perdue de « vie en bonne santé ». Dans cette analyse, le total annuel de DALY aux Etats-Unis serait de 30 millions.

Obtenir davantage de données
Pour cette étude, les chercheurs ont mesuré directement le niveau des émissions de certaines particules polluantes telles que le nitrite, le sulfate, l’ammoniac, provenant aussi bien de l’air, de l’eau et du sol. Les résultats montrent que le remplacement de 10 % de l’utilisation de carburants fossiles par des biocarburants permettrait une diminution du facteur DALY de 5.000 à 20.000.Cependant, les chercheurs précisent que le prolongement de ces travaux nécessite une résolution spatiale plus précise et davantage de données sur les facteurs des émissions, pour l’essence et pour les biocarburants, afin de lever certaines incertitudes sur l’influence précise des combustibles sur la santé humaine. Cette étude a cependant permis une prise de conscience de la nécessité d’intégrer cette composante dans les décisions politiques futures concernant les carburants.  

Sources :
  • The coming of biofuels: study shows reducing gasoline emission will benefit human health, 27 mai 2009 : http://newscenter.lbl.gov/feature-stories/2009/05/27/biofuels-and-human-health/
  • Sébastien HAYE, 2005. IMPACT ASSESSMENT OF TOXIC SUBSTANCES UPONTERRESTRIAL ECOSYSTEMS IN COMPARATIVE APPROACHES (LIFE CYCLE ANALYSIS) : http://www.unige.ch/sciences/mesne/ResumeTD/HAYE_fr.HTM
Origine:
  • BE Etats-Unis numéro 168 (8/06/2009) – Ambassadede France aux Etats-Unis / ADIT –http://www.bulletins-electroniques.com/actualites/59394.htm
 Lila Labordeest attachée adjointe pour la Science et la Technologie au Consulat Général de France à Chicago.

Vers la production industrielle de nanodiamants fluorescents

Le laboratoire Structure et activité des biomolécules normales et pathologiques – SABNP de l’Inserm, en collaboration avec d’autres centres (cf. notes), vient de découvrir un moyen de fabriquer en grande quantité des nanoparticules de diamant fluorescent, de quelques nanomètres de diamètre, à partir de diamants de synthèse. Leur production se fait en deux étapes. Il s’agit dans un premier temps de rendre fluorescent des micro-diamants par irradiation électronique à haute énergie et recuit. Il faut ensuite réduire la taille des micro-diamants pour obtenir des nanoparticules calibrées (pouvant aller jusqu’à 4 nm) sans altérer la structure cristalline ni les propriétés de fluorescence du diamant. On pourra ainsi produire en grande quantité des nanoparticules fluorescentes parfaitement stables dans le temps, alors que les corps fluorescents sont généralement des molécules dont la durée de vie est très limitée. De tels marqueurs pourraient servir à de nombreuses applications, notamment en biologie et en médecine, pour suivre des protéines ou des acides nucléiques (ADN, ARN).

Protéines-médicaments et traçabilité des billets

Dans le cadre du projet de recherche européen Nano4Drugs, le SABNP tente de mettre au point un système innovant de délivrance de protéines-médicaments en utilisant des diamants nanométriques pour transporter des protéines thérapeutiques au cœur des cellules. Les premiers résultats montrent que les nanoparticules de diamant présentent une très bonne tolérance cellulaire, et que leur irradiation électronique induit une fluorescence stable permettant le suivi des molécules dans la cellule. L’objectif des travaux en cours est de réduire la taille des nanoparticules de diamant pour atteindre un diamètre inférieur à 40 nm, et d’adapter leurs propriétés de surface afin de pouvoir greffer des biomolécules d’intérêt thérapeutique à transporter dans les cellules malades.Dans le domaine des matériaux, les nanodiamants pourraient permettre la détection de champs électromagnétiques, le stockage optique ou encore la traçabilité, par exemple pour éviter la falsification de billets. Les nanodiamants pourront aussi être utilisés pour la fabrication de composites (alliages diamant-polymères ou diamant-métaux) pour en modifier les propriétés optiques, mécaniques ou thermiques. Ces nanoparticules ouvrent également d’autres perspectives dans le domaine de la détection opto-électronique ou de la chimie analytique.

Notes

Référence : « High yield fabrication of fluorescent nanodiamonds », Jean-Paul Boudou, Patrick A. Curmi, Fedor Jelezko, Joerg Wrachtrup, Pascal Aubert, Mohamed Sennour, Gopalakrischnan Balasubramanian, Rolf Reuter, Alain Thorel and Eric Gaffet, 2009, Nanotechnology 20 235602 (11pp) Laboratoire Structure et activité des biomolécules normales et pathologiques – SABNP, Inserm / UEVE U829 (Genopole d’Evry, France) En collaboration avec le Centre des matériaux de l’Ecole des Mines (Evry, France), l’UTBM (Université de technologie de Belfort-Montbéliard) et l’Institut de physique de l’université de Stuttgart (Allemagne)

Vers des panneaux solaires gérés individuellement

Dernière société en date à proposer un tel système, l’entreprise israélienne SolarEdge, qui vient d’annoncer que les fabricants BP Solar, filiale solaire de BP, ainsi que l’allemand Schott Solar, autre grand fabricant de panneaux photovoltaïques, testent son système de monitorage électronique (grâce à des capteurs et des logiciels) qui régule le voltage de chaque panneau avant d’envoyer son électricité dans un onduleur centralisé. De quoi accroître la production électrique de 15 %, selon la société. Une power box est insérée dans chaque panneau posé sur un toit, et les performances sont transmises par Internet sur un moniteur central.Principal bénéfice : cela permet non seulement de gérer chaque panneau mais aussi de repérer les panneaux défectueux. SolarEdge affirme que le coût de l’installation n’est pas vraiment plus cher car il ne s’agit pas de micro-onduleurs.Une voie qui est pourtant suivie par de nombreuses sociétés comme la société américaine Enphase Energy, qui vient de lever 22,5 millions de dollars (lire l’article de GreenUnivers). Les micro-onduleurs, intégrés à chaque panneau, remplacent alors l’onduleur central. Sur le même terrain, on peut citer également la belle levée de fonds de la société californienne Tigo Energy (10 millions de dollars), qui propose des systèmes d’optimisation des systèmes solaires par monitorage électronique, capable selon la société d’accroître le rendement de 20 %.SolarEdge a déjà levé pour sa part au total 34,8 millions de dollars dont 23 millions en décembre auprès de Vertex Venture Capital, Walden International, Opus Capital et Genesis Partners.SolarEdge a été créé en 2006 par un ancien directeur technologique de l’armée israélienne, Guy Sella et emploie 60 personnes. Il teste son système auprès d’une dizaine d’autres fabricants de panneaux européens et américains mais n’est pas passé encore en phase de production industrielle. Il prévoit de le faire en 2010 avec de quoi équiper 60 MW de panneaux. Le groupe n’a pas encore utilisé tous les fonds levés mais compte cependant encore procéder à un nouveau tour de table.Par Laurence Benhamou, auteur du site Green Univers

En France, la LTE se développera tout en douceur

Dans quelques mois, les habitants de Stockholm pourront bénéficier du très haut débit mobile. Ericsson et TeliaSonera viennent en effet d’implanter le tout premier site LTE (Long term evolution) commercial. En France, Ericsson a inauguré en novembre 2008 un réseau pilote, l’occasion d’atteindre un débit descendant de 167 Mb/s.Les débits théoriques offerts par la LTE sont de l’ordre de 150 Mb/s en descendant et 40 Mb/s en montant. A titre de comparaison, la 3G+ se situe aujourd’hui en France à des débits maximum de l’ordre de 7 Mb/s en descendant et 1,4 Mb/s en montant. Le Wimax mobile ne permet pas pour l’instant d’atteindre de tels débits. En effet, la norme IEEE 802.16e garantit des débits pics de 40/50 Mb/s. La norme 802.16m, en cours de normalisation, promet des débits de centaines de Mb/s mais elle n’a pas encore fait ses preuves. Le fait que la LTE s’impose face au Wimax, comme l’indique la tendance (lire l’article), va permettre des économies d’échelle lors du déploiement du réseau et une harmonisation internationale. Concernant les terminaux, on devrait voir apparaître les premiers appareils compatibles en 2010.

La 3 G+ a encore du potentiel
Malgré le succès du réseau pilote à Paris et le déploiement en Suède, la LTE ne va pas se développer prioritairement en France. Contrairement aux Etats-Unis qui ont besoin d’une rupture technologique (la technologie CDMA2000 ne dispose pas de composante très haut débit), la France va pouvoir bénéficier de la 3G+. « Il existe un potentiel de modernisation important, explique Philippe de la Fortelle, responsable marketing d’Ericsson France. En 2010 on pourra atteindre 42 Mb/s, toujours avec la 3G+. » L’Arcep (Autorité de régulation des communications électroniques et des postes) a lancé une consultation publique en mars dernier au sujet de l’attribution de la bande 2,6 GHz et de la bande 800 MHz. Les licences seront attribuées en 2010 pour une commercialisation possible en 2011. Les opérateurs ont annoncé qu’ils proposeraient une offre commerciale en 2011, 2012 ou 2013 selon les cas, mais la crise pourrait retarder certains projets. Et dans tous les cas, il s’agira d’une évolution et non d’une rupture. « La LTE ne constitue pas une révolution, elle va s’intégrer dans les réseaux 3G+ existants », indique Philippe de la Fortelle. Le constructeur équipe les nouveaux sites en multistandards, ce qui offre la possibilité d’activer le GSM, la 3G+ ou la LTE. Si le passage à la LTE ne représente pas une rupture technologique, il va cependant induire une révolution dans les usages. L’inauguration du réseau pilote d’Ericsson en France a été l’occasion de mettre en avant différentes applications. Le test a permis de télécharger l’équivalent d’un DVD en 2 ou 3 minutes et d’effectuer une téléconférence avec des zooms très précis. De quoi imaginer de nouveaux services comme la e-santé. 

Photo : Eric Besson lors de l’inauguration du réseau pilote LTE par Ericsson, @ Augustin Detienne

Les 20/30 ans : le besoin d’agir

Les jeunes ayant participé à l’enquête ont été répartis en deux groupes : les « profanes » (étudiants en troisième année de psychologie) qui ne possèdent pas de culture scientifique et technologique, et les « techniciens » (étudiants travailleurs en cours du soir) spécialistes en thermodynamique, pour identifier l’éventuelle influence d’une culture « spécialisée » sur les sensibilités, les comportements, les propositions ou les aspirations. Au final, le sentiment d’inquiétude dont témoignent les jeunes interrogés contraste avec l’insouciance dont on les affuble généralement. D’autant qu’ils sont loin d’être en reste en matière d’initiatives et de propositions. La moitié d’entre eux ont évoqué les pratiques qu’ils mettent en place dans leur vie quotidienne.Des « petits riens au quotidien », qui paraissent parfois dérisoires, voire « mesquins » mais qui peuvent d’autant plus surprendre qu’ils sont pratiqués par des jeunes, là où on les attendrait plutôt de la part de personnes âgées. Or, comme nous le verrons plus loin, les pratiques des uns et des autres ne sont pas les mêmes et n’expriment pas les mêmes préoccupations concernant l’environnement.

Une génération consciente et volontaire
Pour les jeunes générations, ne pas gaspiller renvoie certes au budget restreint qui est le leur, mais traduit aussi un réel souci des problèmes de l’environnement et le désir d’être actifs face à ces problèmes. Nous verrons que pour les personnes âgées, une démarche qui peut se révéler en apparence identique, ne revêt pas le même sens. Tous n’ont pas adopté, individuellement, l’ensemble des mesures qu’ils énoncent. Mais ceci témoigne d’une certaine vigilance, alors même qu’étant donné leur rythme de vie trépident, tout les pousse à s’en écarter dans un contexte où le gaspillage de l’énergie est une tendance naturelle. Mais ces jeunes se révèlent particulièrement vigilants sur quelques fronts privilégiés, comme le tri des ordures et l’eau qu’ils sont soucieux de ne pas gaspiller. Beaucoup privilégient les douches par rapport aux bains, et prennent soin de fermer le robinet pendant qu’ils se savonnent, ou tout simplement lorsqu’ils se brossent les dents… Ils essaient également d’économiser l’électricité.

Les « profanes » plus vigilants que les « techniciens »
Une constatation a de quoi surprendre : les jeunes « profanes » ont tendance à être plus vigilants que les jeunes « techniciens ». Ces derniers font en effet moins mention de pratiques spécifiques. On attendait plutôt l’inverse. Et si rares sont les jeunes qui s’avouent réfractaires à des pratiques spécifiques, on les trouve toujours parmi les « techniciens ». Lorsque c’est le cas, ils se réfèrent à une vision pessimiste de la situation avec l’idée de modifier leur « habitude, lorsque tout le monde le fera. Car sinon, c’est comme si on ne faisait rien et ça dégoutte » (Fabrice, 21 ans). Tout se passe comme si une vision plus aiguë des problèmes acquis par une culture plus spécialisée et justement axée sur les problèmes technologiques ne favorisait pas la vigilance individuelle au quotidien.

Une jeunesse très pragmatique
Alors que faire pour que la planète aille mieux ? Les jeunes ne semblent pas en peine de propositions, contrairement à l’image qui leur est communément renvoyée, d’insouciance, d’indifférence, de « mollesse », « d’intégration au système ».Ainsi, ils préconisent, pêle-mêle, de rendre obligatoire le tri des ordures dans chaque immeuble, mais aussi d’installer des vides ordures sélectifs dans chaque logement, pour ne pas descendre trois poubelles à chaque fois.Ils souhaiteraient que soient installées des déchetteries bien organisées, appellent au boycott des entreprises les plus polluantes et demandent à ce que soient sanctionnés les dégazages. Côté transports, ils proposent de construire des voitures « qui ne vont pas au-delà des limites de vitesses », de vérifier le taux de pollution des véhicules, d’interdire les voitures au centre de Paris. Il est aussi question d’éviter les accélérations brutales, d’améliorer et de développer les transports publics et de circuler en vélo.

Un foisonnement d’idées
Mais si certains prônent des mesures systématiques, d’autres sont plus nuancés. Ainsi, en ce qui concerne le vélo, il peut n’être préconisé que pour des courts trajets. La gratuité des transports en commun est envisagée. L’utilisation des voitures selon l’alternance des jours pairs, impairs. Certains attendent une alternative écologique aux moteurs à essence, aimeraient rouler à l’électricité, recommandent de transporter les marchandises par train ou par voie fluviale, plutôt que par camion, de privilégier le train à l’avion quand c’est possible, de développer les transports collectifs aux heures de pointe pour que « les gens laissent » leur voiture chez eux, de favoriser le covoiturage.La liste s’allonge avec la série de propositions suivantes : imposer des matières recyclables pour les emballages et les sacs, dédommager les personnes qui remettent leurs emballages, leurs piles et leurs sacs plastiques inutilisables. Il est aussi suggéré de rendre obligatoire l’utilisation de l’énergie solaire, d’encourager la recherche sur les nouvelles énergies, sur le recyclage, que les jeunes souhaitent inciter par ailleurs en rendant obligatoire, par exemple, l’édition des livres scolaires et universitaires avec du papier recyclé.

Des discours d’intention, et un vrai désir d’action
Les jeunes ayant une culture technique expriment une sensibilité spécifique. Ils attachent, par exemple, une grande importance à la pollution liée aux transports. Aussi préconisent-ils des mesures qui visent à diminuer le flux des voitures au centre ville, avec l’instauration d’une taxe à l’entrée, et à développer davantage en contrepartie, les transports en commun.Certains expriment leur méfiance ou leur scepticisme à l’égard du nucléaire et aimeraient le « limiter ». D’autres, au contraire, voudraient le développer davantage. En tout état de cause, le nucléaire est plus sujet à polémique chez les spécialistes que chez les profanes.Les spécialistes font plus souvent référence à la géothermie, au GPL, à la cogénération, aux hydrocarbures, aux piles à combustible que le grand public « profane ». Ils n’ignorent pas que la France est en retard dans le domaine des énergies propres. Leurs connaissances techniques ne les empêchent de faire des propositions qui peuvent paraître contradictoires. Ainsi, ils évoquent la fermeture des centrales nucléaires mais souhaitent en même temps que se développent les voitures électriques, et n’hésitent pas à préconiser « l’abandon du pétrole ».

Les « profanes » plus préoccupés par la vie quotidienne
Un clivage est perceptible dans la vision que les « profanes » et les esprits plus « techniques » peuvent avoir de l’agriculture. Car si tous aspirent à faire payer les pollueurs, seuls les jeunes qui ont une culture technique pensent à y inclure les agriculteurs. Comme si le mythe de la campagne pure, bienfaitrice, perdurait et continuait chez le jeune grand public. Les « techniciens » témoignent cependant d’une sensibilité particulière à l’égard des paysans, d’autant plus que certains d’entre eux ont des grands-parents eux-mêmes agriculteurs. Ils peuvent ainsi prôner « l’agriculture traditionnelle, plutôt qu’intensive », se soucient de supprimer les engrais, de développer « le bio et de ne pas transplanter la nature (OGM) ».En toute logique, les « techniciens » formulent des recommandations en général plus spécifiques et précises. Ils évoquent ainsi la manipulation de fluides frigorigènes dans le « respect des textes et des lois en vigueur (interdiction du dégazage dans l’atmosphère) », mais ils peuvent aussi proposer des mesures très générales, à l’échelle de la planète, comme l’évaluation des quotas d’émission de CO2 pour tous les pays.En fait, les étudiants profanes expriment davantage des préoccupations liées à la vie quotidienne, avec le souci de freiner le gaspillage de l’énergie et la surconsommation marchande. Alors que les techniciens, de par leurs connaissances spécifiques dans le domaine de l’énergie, ont une vigilance plus ciblée dans le domaine professionnel et plus sélective en ce qui concerne leur vie privée.Par Christine Castelain Meunier, chercheur au CNRS, auteur de Adieu Pétrole! Vive les énergies renouvelables, Dunod

Anaconda : succès des tests sur toute la vague

Je rappelle qu’Anaconda est une technologie de type serpent de 200 mètres de long et 7 mètres de diamètre, en caoutchouc (110 tonnes environ) qui applique la théorie des battements ondulatoires, inspirée des travaux des experts médicaux sur la façon dont le sang circule dans le corps humain.La circulation sanguine par impulsion due aux battements cardiaques est le principe de fonctionnement d’Anaconda, qui se sert du mouvement ondulatoire des vagues (son impulsion cardiaque en quelque sorte) pour produire de l’énergie. On peut donc dire qu’Anaconda est un récupérateur de vagues biomimétique inspiré d’un modèle physiologique humain.La tête rigide de chaque dispositif est disposée à la surface de la mer juste sur la crête des vagues alors que le corps en caoutchouc souple ondule dans la mer. L’ensemble est positionné au large des côtes avec un ancrage à une profondeur comprise entre 40 et 100 mètres. Le mouvement des vagues répercute à l’intérieur du tube en caoutchouc une onde qui, en créant des bosses, transmet une énergie.

Des résultats qui confirment la théorie
Cette énergie, en se déplaçant vers le bas du tube où se trouve un système de chambres de pression, alimente un générateur. L’électricité produite est acheminée sur terre par un réseau habituel de câbles ensouillés.L’expérimentation d’un prototype de 270 mètres de longueur testé dans un réservoir de Gosport, Hampshire, a confirmé de façon impressionnante les résultats des essais déjà réalisés sur des maquettes et encouragé son inventeur, le Professeur Rod Rainey, à poursuivre l’aventure jusqu’à son terme. Rod Rainey a déclaré : « Ce test a été extrêmement important parce qu’Anaconda est un système si novateur qu’il n’était pas évident que cela fonctionne en grandeur réelle. Les résultats confirment totalement la théorie ».Le Professeur Rainey n’est pas un nouveau venu dans le domaine des énergies de la mer et participe aux travaux sur les récupérateurs d’énergie des vagues depuis maintenant dix ans. Il a assisté à la naissance de beaucoup de projets qui, une fois testés en mer, se sont heurtés à l’hostilité du milieu marin et ont soulevé des problèmes insolubles (même dans l’eau de mer !) d’entretien sur site. « J’ai très vite compris alors, ajoute-t-il, que le fait de capter l’énergie des vagues avec des technologies utilisant des matériaux rigides et corrosifs (comme le métal) causerait de gros problèmes.

Fonctionner sans subventions
L’industrie a besoin d’une solution beaucoup plus novatrice et réaliste que les propositions faites jusque-là pour affronter les exigences du marché. Pour moi, il était évident que le corps de tout dispositif devant séjourner et travailler en mer devait être en caoutchouc ».La technologie Anaconda développée par Checkmate Seaenergy, filiale de Checkmate Group, est soutenue par Carbon Trust et a récemment été double lauréate des Queen’s Awards. Paul Auston, Président de Checkmate Seaenergy a déclaré : « beaucoup de projets de récupérateurs d’énergie des vagues fonctionnent aujourd’hui grâce aux subventions. Ce n’est pas notre ambition pour Anaconda. Notre technologie devra atteindre sa raison d’être économique avec zéro subvention. Les résultats des expérimentations ont été impressionnants et l’énergie produite par Anaconda laisse supposer que cette technologie est en mesure de fournir l’électricité à un coût qui sera très faible, offrant ainsi une alternative efficace et rentable à la fourniture d’énergie propre. La première des unités de production devrait être mise en place dans trois ans ».Par Francis Rousseau, rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les énergies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique. Les énergies de la mer 

Combien faut-il de miracles pour que la voiture à pile à combustible devienne réalité ?

Le Dr. Chu classe ces obstacles en quatre catégories. La première concerne la principale source d’hydrogène (H2) aujourd’hui disponible, produit à partir de gaz naturel. Cette option met à mal la revendication de zéro émission souvent attachée aux piles à combustible. En pratique, cela signifie zéro émission par les tuyaux d’échappement. Quant à zéro émission en tout, on est loin du compte. Cela vaut pourtant le coup de réfléchir aux autres utilisations possibles du gaz naturel. Nous pourrions le comprimer et le brûler dans un moteur à combustion interne modifié. L’idée n’est pas aussi folle que certains le suggèrent dans la mesure où elle peut réduire la consommation pétrolière et réduire les émissions de 15 à 20 % par rapport à une voiture conventionnelle, sur la base de well-to-wheels (du puits à la roue), sur un cycle de vie. Nous pourrions aussi utiliser le procédé Fischer-Tropsch pour transformer le gaz naturel en diesel synthétique de première qualité, mais la réduction des émissions serait moindre car l’efficacité supérieure d’un moteur diesel est largement compensée par l’énergie perdue dans la synthèse du carburant.

Le problème du stockage de l’hydrogène
Nous pourrions également produire de l’hydrogène, ce qui, comme le relève le Dr Chu, suppose de gaspiller près d’un tiers de l’énergie originelle dans le gaz lorsque l’hydrogène est comprimé. Cette dernière solution est pourtant la seule, en dépit du coût énergétique élevé payé lors de la production d’hydrogène, qui permet de réduire de moitié les émissions au cours d’un cycle de vie complet du véhicule, dans la mesure où produire de l’électricité dans une pile à combustible est de loin plus efficace que brûler du carburant dans un moteur à combustion interne. Ce n’est pas parfait mais c’est loin d’être catastrophique, et aucun miracle n’est requis pour fabriquer de l’hydrogène.Le miracle n° 2 concerne le stockage de l’hydrogène et là, c’est une autre paire de manches. Je ne suis pas très enthousiaste à l’idée de transporter du gaz comprimé à 5.000 ou 10.000 PSI dans une voiture où se trouve ma famille, et cette peur n’a rien d’irrationnel. De plus, je ne pense pas que le Dr Chu ait entièrement raison lorsqu’il dit que « l’hydrogène comprimé est le meilleur mécanisme ».ECD, une entreprise dans laquelle mon ancien employeur avait investi, possède une technologie de stockage d’hydrogène sous forme d’hydrures métalliques et on trouve aujourd’hui des canettes qui utilisent cette technologie. L’avantage de ce système, c’est qu’il ne demande pas une pression élevée. Le désavantage, c’est que ces hydrures sont lourds, un inconvénient partagé par les batteries NiMh (nickel métal hydrure) utilisées dans la Toyota Prius et d’autres hybrides non rechargeables. Aucun de ces systèmes ne stocke l’énergie à une densité équivalente à l’essence, pas plus d’ailleurs que les batteries Lithium-ion.

Le défi de la distribution
Le troisième défi concerne la distribution et il est pour le coup décourageant. Transporter l’hydrogène dans des camions citernes tube-trailers convient parfaitement pour des stations de ravitaillement d’essai, mais ne peut être étendu à des millions de voitures. Cela peut être évité, car les reformers qui extraient l’hydrogène du gaz naturel peuvent être construits à l’échelle d’une station service qui tire sa matière première des conduites de gaz locales.Installer un tel équipement dans des milliers d’endroits peut sembler une tâche gigantesque, mais la même chose est vraie de l’installation de pompes à E85 dans 10 % des stations services, contre 2.000 aujourd’hui. Pour moi, une distribution efficace de l’hydrogène en termes de coût relève de l’ingénierie et de l’économie, non de la science.Reste le seul point dans la liste du Dr Chu qui puisse effectivement rentrer dans la catégorie de miracle : ramener le prix d’une pile à combustible à un niveau comparable à celui d’un moteur à combustion interne, ou du moins à un prix qui ne soit pas inabordable pour une voiture à pile à combustible. Les piles à combustible coûtent encore aujourd’hui plus de 1.000 $/kW, ce qui signifie que les seules piles à combustible pour une voiture coûteraient plus cher qu’une voiture de luxe aujourd’hui.

L’hydrogène n’est qu’un vecteur d’énergie
Les prévisions selon lesquelles ce prix tomberait plus ou moins au niveau des 35 $/kW auxquels revient aujourd’hui une voiture restent toutes théoriques et s’appuient principalement sur une analogie avec la courbe d’apprentissage dans les autres industries. Etant donné l’état actuel de l’industrie automobile, les fabricants seront déjà suffisamment à la lutte, ne serait-ce que pour absorber le coût initial élevé pour produire des voitures hybrides rechargeables sur une petite échelle, sans endurer des pertes de dizaines de milliers de dollars comme pour la Honda FCX Clarity. Sans innovation majeure, un tel investissement relèverait pour le coup véritablement du miracle.Qu’un ou plusieurs miracles soient nécessaires pour que les voitures à pile à combustible deviennent une réalité, je ne peux qu’être d’accord avec le Dr Chu lorsqu’il conclut que leur commercialisation n’est ni imminente ni tenue pour assurée. Il est important de rappeler que l’hydrogène n’est qu’un vecteur d’énergie, comme l’électricité, et non pas une source d’énergie comme le pétrole ou les biocarburants.Les voitures à batterie électrique, y compris les hybrides rechargeables, constituent aujourd’hui une valeur sûre. Pour les battre, les piles à combustible pour automobiles doivent coûter moins cher qu’une batterie avec une autonomie de 400-480 km, car sous tous les autres aspects, une voiture à pile à combustible est une voiture électrique.Toutefois, nous devons garder en tête qu’une valeur sûre n’est pas toujours la bonne solution. Réduire la R&D fédérale pour les piles à combustible pour permettre de donner la priorité à d’autres options intelligentes à plus brève échéance semble prudent, à condition de ne pas abandonner totalement l’option des piles et de ne pas nous laisser dépasser par d’autres dans la compétition.Par Geoffrey Styles, gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il a également un blog : Energy Outlook.Lire l’interview de Stephen Chu dans Technology review

Comment l’économie deviendra verte

Signe des temps, l’environnement était au cœur des débats lors du SERI la semaine dernière. Le Salon de la recherche et de l’innovation lui a consacré différentes conférences, dont « La mutation environnementale de l’économie » (mercredi 3 juin), avec autour de la table Yves Bamberger (directeur R&D EDF), Didier Roux (directeur R&D Saint-Gobain), Claire Tutenuit (déléguée générale du Think tank Entreprises pour l’environnement) et Philippe Van de Maele (président de l’Ademe). Les participants ont insisté sur la nécessité d’une concertation entre les entreprises et les pouvoirs publics, que ce soit au niveau national ou international. L’économie se transformera si la réglementation et les incitations poussent les entreprises dans cette direction. « Il faut rendre l’environnement économique, a complété Claire Tutenuit d’EPE. Il faut que les entreprises voient des perspectives de rentabilité. » D’après une enquête de l’Ademe, sur 30 entreprises ayant entrepris une démarche d’éco-conception, 28 ont baissé leurs coûts de production.

Atteindre le facteur 4
Rappelons que la France s’est engagée à diviser par quatre les émissions nationales de gaz à effet de serre calculé sur le niveau de 1990 d’ici à 2050. « Pour respecter le facteur 4, il faut agir rapidement, a prévenu le nouveau président de l’Ademe. Il faut chercher des améliorations technologiques. » L’organisme accompagne financièrement des projets en ce sens via des appels à manifestations d’intérêt. Les premiers ont porté sur les véhicules propres, sur le captage et le stockage de carbone et sur les biocarburants de troisième génération. L’Ademe lance deux nouveaux appels en juin pour l’énergie marine et les réseaux intelligents (connexion de l’énergie solaire au réseau, compteurs très intelligents…) Viendront ensuite le solaire deuxième génération ou encore les bâtiments à énergie positive. D’après les recherches d’EPE, le facteur 4 est un objectif atteignable, et cela sans sacrifier la croissance. « Il faut en priorité changer le mix transport, explique la déléguée générale. En 2050, on devra atteindre la moitié de véhicules électriques, hybrides ou à hydrogène. Cela suppose d’aller très vite. » Il faudra aussi compter sur des progrès dans le bâtiment, les énergies renouvelables et le charbon propre.

Une industrie locale du photovoltaïque
La mutation environnementale de l’économie conduit à l’apparition de nouvelles filières. Ainsi, une industrie du photovoltaïque devrait se développer en France, avec à la clé des milliers d’emplois. EDF travaille en ce sens, tout en insistant sur la nécessité d’accélérer la connexion au réseau électrique existant. Lorsque le prix de l’électricité augmentera et que celui de cette technologie baissera, il sera plus rentable de couvrir les toits dès la construction des bâtiments. « On aura alors besoin de matériel d’une longue durée de vie et d’un fabricant de proximité comme garantie, a indiqué Claire Tutenuit. Les matériaux de construction voyagent moins facilement. »Pour le consommateur, également moteur de cette mutation économique, c’est la même problématique : il faut s’appuyer sur un mélange de contrainte et de gain financier. « Le payback énergétique est le moteur le plus puissant », d’après le directeur R&D de Saint-Gobain.

Chiffre clé : beaucoup d’euros pour les nano

Aux Etats-Unis, le budget alloué à la National nanotechnology initiative vient d’être précisé : 1,64 milliard de dollars pour 2010, soit 7,3 % de plus que la proposition budgétaire de 2009. En France, le gouvernement vient d’annoncer à quelques jours d’intervalle deux programmes de soutien aux nanotechnologies : Nano 2012 en avril et Nano-Innov en mai. Ce secteur est soutenu via les pôles de compétitivité, en particulier Saclay, Grenoble et Toulouse (voir encadré). Les financements sont assurés par l’Etat, les collectivités territoriales et de grands acteurs comme STMicroelectronics ou IBM. Voici un récapitulatif des principales aides au niveau national et au niveau européen.

Le plan Nano-Innov

Présenté en mai 2009, Nano-Innov correspond à une enveloppe globale de 70 millions, principalement destinés à l’amélioration des sites de Saclay, Grenoble et Toulouse (Lire l’article : La France mise sur les nanotechnologies)

Le plan Nano 2012 

Baptisé Crolles III, ce programme a été lancé en avril. Il s’agit d’un investissement de 2,3 milliards d’euros sur 5 ans de la part de l’Etat (477 millions), des collectivités territoriales (180 millions), du CEA, de STMicroelectronics et d’IBM (Lire l’article : Le programme Nano 2012 est officiellement lancé)

Les appels à projets de l’ANR

L’Agence nationale de la recherche bénéficie, pour l’année 2008, d’une capacité d’engagement de 955 millions d’euros pour des projets de recherche d’une durée maximale de quatre ans. A travers ses appels à projets de recherche, l’ANR est l’un des principaux financeurs des pôles de compétitivité avec un soutien global en 2008 de 177,7 millions d’euros.L’ANR soutient les nanotechnologies par l’intermédiaire du programme Nanosciences, nanotechnologies, nanosystèmes (P3N) dont le budget a atteint 139 millions d’euros entre 2005 et 2008. Les appels à projets de 2009 sont clos, pour un montant de 35 millions d’euros, auxquels il faut ajouter 12 millions d’euros d’équipements de recherche. (En savoir plus : www.agence-nationale-recherche.fr)

Le 7e programme cadre de recherche et développement (PCRD)

Les budgets alloués au programme cadre vont passer de 20 milliards d’euros (entre 2002 et 2006) à 53,2 milliards (pour la période 2007 à 2013). Les nanotechnologies font partie des priorités au sein de la catégorie Coopérations avec un budget de 3,475 milliards d’euros (pour les Nanosciences, nanotechnologies, matériaux et procédés). L’Union européenne compte ainsi favoriser la création de partenariats entre différentes équipes de recherche européenne, ainsi que développer des recherches pluridisciplinaires et transversales.En savoir plus : www.aides-entreprises.fcordis.europa.eu/fp7 Les pôles de compétitivité dans les nanotechnologies en France– Minalogic à Grenoble- SCS (Solutions communicantes sécurisées) avec un pôle près de Marseille et un autre à Sophia Antipolis- S2E2 (Sciences et systèmes de l’énergie électrique) à Tours- POP Sud (Pôle optique et photonique) à Marseille- Pôle des microtechniques à Besançon

Raphaël Ménard (Elioth) : « Les éoliennes à axe vertical intégrées aux pylônes électriques ont un avenir »

Raphaël Ménard est directeur d’Elioth, filiale du groupe IOSIS. Les ingénieurs d’Elioth ont imaginé une éolienne, wind-it, de type Darrieus, à axe vertical, qui s’intègre dans l’exosquelette des pylônes électriques. Il nous explique le principe de fonctionnement de wind-it ainsi que le potentiel de ce nouveau type d’éolienne.

Techniques de l’ingénieur : Quels sont les défis techniques inhérents à wind-it ? Quelle est l’efficacité des éoliennes intégrées, par rapport aux éoliennes à hélice verticale ?
Raphaël Ménard : Du point de vue théorique, les éoliennes à axe vertical de type Darrieus présentent des courbes de puissance peu éloignées des rotors à axe horizontaux, qui sont celles que nous connaissons mieux et qui bordent nos autoroutes ! Toutefois, les expériences menées sur des Darrieus de moyenne et grande puissance ont parfois montré des problèmes de vibration de la structure porteuse et des instabilités mécaniques dans les pâles. Mais il faut rappeler que les Darrieus n’ont sans doute pas connu le même investissement en R&D que leurs cousines à axe horizontal… Le défi majeur sur cette technologie réside donc dans le développement de la filière industrielle des éoliennes Darrieus de moyenne et grande puissance. Au-delà des images présentées, nous avons effectué un gros travail de recherche. Nous avons notamment déposé un brevet qui propose des solutions technologiques de fabrication à bas coût de pales de grande portée pour les Darrieus. Nous sommes très confiants dans cette innovation pour donner un nouvel essor aux Darrieus de moyenne et grande puissance.

Le fait que l’éolienne soit intégrée au pylône électrique nuit-il au rendement de celle-ci ?
Nos simulations montrent que les pertes engendrées par la présence de l’exosquelette restent très faibles (moins de 3 % de pertes sur le flux de puissance incident). L’effet corollaire est que l’exosquelette fabrique une cage réduisant les risques de collisions avec les oiseaux. L’intégration d’une résille très fine, tendue entre les membrures de l’exosquelette, permettrait d’évacuer définitivement ce risque pour la faune. Enfin, l’exosquelette est une chance pour rendre la structure porteuse extrêmement résistante et rigide pour un faible poids de structure.

Le courant produit pourra-t-il être directement transmis aux lignes à haute tension des pylônes ?
Oui, modulo les critères de puissance avant réinjection. Pour la très haute tension, cela pourra notamment supposer de « grapper » plusieurs Wind-it par un câble supplémentaire avant transmission.

Où vous situez-vous dans le développement des prototypes et qu’attendez-vous maintenant pour commercialiser wind-it ?
Nous sommes des ingénieurs et architectes et avons donné naissance à Wind-it sur nos fonds propres. L’investissement dans un prototype réclame un investissement que nous ne pouvons malheureusement pas nous autoriser ! Aussi, nous souhaitons ardemment rendre concret et réel ce projet sans transformer notre métier, celui de concepteur et non d’industriel. Pour cela, nous cherchons très rapidement un partenaire industriel qui pourra poursuivre l’effort d’investissement dans le développement du projet. Je pense qu’avec un investissement d’études raisonnable, et un partenaire industriel crédible, Wind-it XL pourra être très rapidement industrialisé. En savoir plusEn 2015, la France comptera dix fois plus d’éoliennes qu’aujourd’hui. En s’intéressant à la production électrique par éoliennes, « Wind-it » traite la question de leur implantation. Le projet mise sur une accumulation de petits générateurs éoliens plutôt que sur des infrastructures ponctuelles mais très volumineuses.Il propose donc de superposer un réseau d’éoliennes au réseau existant de transport et de distribution de l’électricité soit en venant greffer un « plug-éolien » aux pylônes électriques existants soit en implantant de nouveaux pylônes électriques qui intègrent une unité de production éolienne.Les pylônes électriques deviendraient producteurs d’une énergie renouvelable directement raccordée au réseau. Selon les premières estimations, l’équipement d’un tiers des pylônes sur le territoire français permettrait de générer l’équivalent de deux tranches nucléaires soit environ 15 térawatt-heure ou 15 milliards de kWh. 

Un groupe d’experts pour les calculs de fusion à Garching

L’objectif de la recherche sur la fusion est de gagner de l’énergie à partir de la fusion de noyaux d’atomes de façon similaire au soleil. Pour cela, les chercheurs doivent réussir à confiner le combustible sous sa forme de gaz ionisé appelé plasma à l’aide de champs magnétiques, de façon stable et isolée, et à le chauffer à plus de 100 millions de degrés.Le comportement du plasma complexe est sujet à de nombreux travaux expérimentaux dans de nombreuses installations de fusion. La prochaine grande étape sera marquée par le réacteur expérimental thermonucléaire international ITER (le chemin en latin [1]), en cours de construction à Cadarache.La description des plasmas de fusion par le calcul a également évolué ces dernières années. L’objectif à plus long terme est de réaliser des simulations informatiques complètes des processus se déroulant dans un plasma de fusion, parmi lesquels les mouvements de turbulence dans le plasma, les processus dans la couche marginale ou l’effet des différentes procédures de chauffage du gaz.

Simuler les processus se déroulant dans un plasma en fusion
Pour pouvoir effectuer de telles simulations, des super calculateurs sont nécessaires : ainsi, le HPC-FF (High Performance Computer for Fusion), atteignant des vitesses de calcul de 100 Téraflop/s (100 milliards d’opérations par seconde), sera prochainement mis à disposition des chercheurs spécialisés dans le domaine de la fusion au Centre de recherche de Jülich (FZJ). Un supercalculateur pétaflopique, fruit d’une coopération entre le Japon et l’Europe, devrait ensuite être mis au service du Centre international de recherche sur la fusion (International Fusion Energy Research Center, IFERC [2]) à Rokkasho, à partir de 2012. Les supercalculateurs dont les vitesses dépassent le pétaflop/s seraient capables de simuler des volumes entiers de 800 mètres cubes du plasma d’ITER.Les codes utilisés actuellement par les chercheurs de l’IPP ne sont cependant pas adaptés à de telles architectures massivement parallèles (ou Massive Parallel Processing). Afin de pouvoir exploiter correctement la puissance du supercalculateur HPC-FF, les spécialistes de Garching doivent ajuster leurs calculs par le biais de méthodes mathématiques ingénieuses.« Cinq membres du groupe d’experts, ayant tous deux une longue expérience dans le domaine de la physique informatique, vont travailler au sein de l’IPP et du centre de calcul de Garching (RZG [3]). Quatre autres experts travailleront dans d’autres laboratoires européens de fusion »,explique le Prof. Dr. Sybille Günter, directrice du département théorie des tokamak à l’IPP et Présidente du conseil de l’HPC.Le conseil de l’HPC a pour objectif, entre autres, de garantir l’utilisation optimale du supercalculateur de Jülich : « Avec HPC-FF à Jülich et le groupe d’experts à l’IPP, la recherche européenne dans le domaine de la fusion est équipée des outils et connaissances nécessaires pour préparer et interpréter de façon efficace les expériences d’ITER. Et nous pourrons élaborer des modèles numériques pour concevoir une centrale de démonstration », estime le Professeur Günter.L’objectif est également de préparer les théoriciens européens spécialisés dans le domaine de la fusion à la prochaine génération informatique de supercalculateurs pétaflopiques : « Pour cela, nous devons débuter par la préparation des chercheurs et le développement des codes informatiques. »Pour le moment, le projet HPC est financé dans le cadre du European Fusion Development Agreement (EFDA) sur une durée de 4 ans.Par Nadia Heshmati, rédactrice pour les Bulletins électroniques de l’ambassade de France en Allemagne Origine: BE Allemagne numéro 438 (27/05/2009) – Ambassadede France en Allemagne / ADIT –http://www.bulletins-electroniques.com/actualites/59255.htm
Notes
[1] Site Internet d’ITER : http://www.iter.org[2] Plus d’informations sur le projet IFERC à l’adresse : http://www.bull.com/fr/bulldirect/N34/hot.html[3] Rechenzentrum Garching (RZG) : http://www.rzg.mpg.de 

Comment sécuriser ses bases de données ?

En décembre 2001, un événement a fait réagir les acteurs du marché de l’informatique : le scandale Enron et ses conséquences, à savoir la loi Sarbanes Oxley ou les nouvelles règles comptables IAS IFRS. Désormais, les documents financiers doivent être faciles à retrouver et ils ne doivent pas pouvoir être détruits ou corrompus. De fait, la sécurité et la bonne maîtrise du système de gestion de base de données (SGBD) sont devenues indispensables. Car n’oublions pas que celui-ci contient bien souvent toutes les informations financières ou/et de production d’une entreprise. Un problème d’autant plus crucial que beaucoup d’applications dépendent de bases de données qui reposent sur des produit clés en main, et les entreprises ne le savent pas toujours, toutes les vulnérabilités qui vont avec. Mais comment parvenir à sécuriser ses bases de données ? Voici quelques conseils à respecter.

Veiller à la formation des utilisateurs et de l’administrateur

La formation des utilisateurs et leur sensibilisation aux bonnes pratiques est indispensable et la politique de sécurité doit être adaptée en fonction du contexte selon que les utilisateurs ont un accès direct via un client standard SQL ou par l’intermédiaire d’une application frontale.Mais l’administration et la sécurisation des SGBD reste une affaire de spécialiste où l’administrateur a sa part de responsabilité. Son rôle est de maintenir le SGBD sous toutes ses formes, tant au niveau de la création et de la gestion de comptes mais aussi en maintenant la bonne marche ainsi que les performances et l’intégrité du système. Pourtant, il est rarement précisé que son rôle est prépondérant dans la gestion de la sécurité, sauf dans des sociétés travaillant dans le domaine financier/assurance ou de la défense. Il n’a donc souvent aucune conscience de sécurité, est mal préparé dans la plupart des cas et n’a souvent suivi aucune formation en ce sens. Une fois formé, il faut aussi gérer l’aspect documentation. Il faut la créer, la maintenir mais aussi la partager. Souvent, un seul administrateur sur toute une équipe est envoyé en formation pour ensuite transmettre l’information en interne. Malheureusement, cette pratique montre qu’une personne a tendance à centraliser toutes les connaissances. Si celle-ci quitte la société, la connaissance part avec elle. Il est donc primordial que tous les administrateurs soient au même niveau de connaissance grâce à une bonne circulation de l’information.

Détecter et corriger les failles de sécurité les plus courantes

Les failles les plus fréquemment rencontrées sont loin d’être anodines. Les risques peuvent être extrêmement élevés et les dégâts associés importants. Des données, par exemple, peuvent être modifiées, ce qui peut nuire gravement à la stabilité d’une société. Ce point peut se résoudre par une stratégie de sauvegarde et de restauration ou encore DRP (1) complète et bien maîtrisée. Mais encore faut-il s’en rendre compte si aucune mesure d’audit n’est mise en place ! Quant aux mises à jour aléatoires, elles peuvent engendrer une détection trop tardive, rendant inutile les sauvegardes effectuées.Plusieurs failles classiques ont été répertoriées depuis les 10 dernières années. Dans l’univers des systèmes de gestion de grandes bases de données, le nom d’Oracle est traditionnellement associé à celui d’une référence. Mais, lorsque l’on parle de sécurité, le résultat n’est pas le même. A ce jour, plus de 250 failles ont été répertoriées chez Oracle, 130 sur MySQL et 80 sur Microsoft SQL Server. Parmi celles-ci, il n’est pas rare de trouver des failles permettant la prise de contrôle à distance du SGBDR par le réseau. Celles-ci doivent obligatoirement être corrigées.En plus des faiblesses découlant d’une mauvaise installation du système d’exploitation, socle du SGBDR, telles des services réseaux à risque ou l’utilisation abusive de privilèges excessifs, il est fréquent de constater que des fichiers du SGBDR sont accessibles à tout compte utilisateur ayant accès à la machine hôte, démontrant que les administrateurs n’ont pas conscience que cela permet de corrompre le SGBDR ou ses données.Il y a aussi toutes les petites faiblesses longtemps cachées par les éditeurs comme les mots de passes codés en dur dans des fichiers systèmes non chiffrés. Les mots de passe sont bien souvent peu ou pas complexes et non modifiés lors d’une première installation du produit. Lors de l’installation d’une base Oracle, plusieurs comptes très sensibles ont des mots de passe génériques comme SYS, SYSTEM ou encore APPS. La mise en place de règles pour vérifier automatiquement la complexité des mots de passe, le blocage des comptes génériques, la fixation d’un nombre défini d’authentifications ratées, l’interdiction de réutiliser un mot de passe déjà utilisé par le passé, ou de mettre un mot de passe sur le module d’écoute de la base de données doit faire partie des règles de base.Nous avons aussi affaire à des failles sur les contrôles d’accès aux données. Il s’agit de n’autoriser l’accès aux données stockées qu’aux personnes autorisées (principe des vues). Ce contrôle doit permettre de distinguer différents modes d’accès, au moins lecture ou écriture, et une granularité variable, par exemple au niveau d’une base, d’une table ou encore d’une colonne. Une bonne politique d’attribution de droits doit être étudiée et validée.De nos jours, les bénéfices de la cybercriminalité ont dépassé ceux de la drogue. Le vol de numéros de cartes bancaires ou encore de données personnelles sont souvent à la une des journaux. Ce qui démontre bien que le SGBD est bien au centre de ces évènements. Protéger une base de données est une tâche simple, mais qui peut s’avérer complexe si on veut le faire de manière exhaustive et sans impacter la stabilité. Mais cette sécurisation passe avant tout par la prise en compte des particularités et des spécificités de la base par les Directions des Systèmes d’Information de l’entreprise.

Ce qu’il faut retenir

  1. La sensibilisation du personnel est une des choses les plus importantes au sein de l’entreprise car les principales erreurs sont souvent d’origines humaines.
  2. Une bonne maîtrise du produit et des formations adaptées permettent aux administrateurs de réduire considérablement les problèmes de sécurité.
  3. L’administration de SGBD reste l’affaire de spécialistes qui doivent obligatoirement suivre l’évolution de leur produit.
  4. La plupart des produits disponibles sur le marché disposent de mécanismes permettant de mettre très simplement en place des règles de sécurité. Il est important d’installer les mises à jour proposées par les éditeurs et de ne pas attendre qu’un problème arrive.
  5. Mettre en place des règles de gestion des mots de passe.

Par Sébastien Berrue

Notes  : Le DRP (disaster recovery plan) est le processus prévoyant les mesures à mettre en oeuvre en cas de sinistre informatique et pour s’en prémunir.

Une lentille à métamatériaux pour l’imagerie médicale

En 2000, J. B. Pendry, pionnier des métamatériaux, a montré que la limite de résolution en λ/2, où λ désigne la longueur d’onde du champ électromagnétique incident, pouvait être repoussée par l’utilisation d’une superlentille, c’est-à-dire d’une lentille présentant un indice de réfraction proche de -1 [1]. Cet indice de réfraction négatif est obtenu par la superposition de milieux à permittivité et perméabilité effectives négatives.Du point de vue de la conception, de tels milieux doublement négatifs sont réalisés par des structures métallo-diélectriques dont les dimensions sont petites devant la longueur d’onde de travail. Sur le plan pratique, cette superrésolution est conditionnée par l’isotropie des propriétés de dispersion de la structure et par la maîtrise des pertes. Pour contourner cette difficulté, en condition de champ très proche, il est possible de travailler avec un milieu simplement négatif, plus facile à mettre en œuvre. À partir de cette idée, M. J. Freire et al. de l’université de Séville ont réalisé une lentille à perméabilité négative pour amplifier l’image IRM recueillie par l’antenne réceptrice [2]. Ce dispositif est composé d’un réseau de boucles de courant résonnant autour de la fréquence de 63,85 MHz.L’expérience menée consiste à comparer l’image obtenue en absence ou en présence de la lentille insérée entre les genoux d’un patient lorsque l’antenne réceptrice est placée en contact extérieur d’un des genoux. Le résultat obtenu avec la lentille à perméabilité négative montre une spectaculaire amélioration de l’imagerie qui permet de visualiser la coupe transverse des deux genoux. Par comparaison, en absence de lentille, seule la coupe transverse du genou au contact de l’antenne peut être visualisée. Cette application, qui améliore la résolution en temps réel, permet de simplifier la procédure de traitement des données, inhérente à l’analyse IRM qui repose sur l’acquisition d’un grand nombre de mesures.Par Éric Lheurette, maître de conférences à l’université de Lille 1, IEMN

Notes
[1] J. B. Pendry, Phys. Rev. Lett. 85, 3966 (2000)[2] M. J. Freire, R. Marques et L. Jelinek, Experimental demonstration of a µ=-1 metamaterial lens for magnetic resonance imaging, Applied Physics letters, 93, 231108 (2008)Image © Utilisée avec la permission de M. J. Freire, R. Marques et L. Jelinek, Experimental demonstration of a µ=-1 metamaterial lens for magnetic resonance imaging, Applied Physics letters, 93, 231108 (2008). Copyright (2008), American Institute of Physics.

L’apport des métamatériaux à ingénierie de perméabilité : exemples de l’imagerie et de l’invisibilité

Le travail précurseur de V. Veselago a révélé, dès 1968, les potentialités d’un matériau qui présenterait un indice de réfraction négatif [1]. En 1999, J. B. Pendry a proposé de synthétiser un milieu à indice négatif en superposant deux métamatériaux à permittivité et perméabilité effectives négatives [2].

On peut montrer que seul un milieu doublement négatif ou doublement positif autorise un régime de propagation. À l’inverse, les milieux qui présentent uniquement une permittivité ou une perméabilité négative sont évanescents. À partir de ce constat, un grand nombre de travaux ont visé la définition de métamatériaux doublement négatifs à même de couvrir l’ensemble du spectre électromagnétique, depuis les microondes jusqu’à l’optique [3-5]. Cette activité a été notamment motivée par la quête de la superlentille dont le concept a été proposé par J. B. Pendry en 2000 [6]. Le principe de la superlentille, qui consite à focaliser avec des détails très inférieurs à la longueur d’onde se heurte, en pratique, à l’effet néfaste des pertes. Par ailleurs, le métamatériau doublement négatif, qui doit présenter des propriétés de dispersion isotropes, peut être difficile à réaliser. Pour contourner cette difficulté, dans des conditions de champs très proches, un matériau simplement négatif peut-être utilisé.

Imagerie par milieu simplement négatif

Cette idée a fait l’objet d’une première démonstration expérimentale en 2005 par l’équipe de Fang et al. [7]. Le dispositif utilisé est une simple lame d’argent dont la permittivité, régie par la loi de Drude, présente une valeur négative avec un module proche de l’unité dans le domaine des ultraviolets. La résolution obtenue est de l’ordre de λ/6 à la longueur d’onde de 365 nm. Pour les fréquences faibles, on préfère généralement travailler sur la perméabilité plutôt que la permittivité afin de définir une structure de dimensions réalistes pour des valeurs de paramètre effectif proche de -1.Cette idée a été récemment exploitée avec succès par des chercheurs de l’université de Séville [8]. En effet, M. J. Freire et al. ont développé une lentille pour l’Imagerie par Résonnance Magnétique (IRM). Ce travail est présenté dans l’article intitulé : « Une lentille à métamatériaux pour l’imagerie médicale » (voir le dispositif ci-dessous).

Si, dans le domaine de l’imagerie, on cherche à travailler avec un milieu quasi-homogène de perméabilité constante et égale à -1, avec l’émergence récente de l’optique de transformation, on utilise des gradients d’indice, de permittivité ou de perméabilité. Ici encore les métamatériaux à ingénierie de perméabilité sont très attractifs en raison de leur souplesse de conception. C’est à partir de telles structures qu’ont été proposés des capes d’invisibilité pour les domaines des hyperfréquences et de l’infrarouge lointain.

Cape d’invisibilité

Le principe de la cape d’invisibilité consiste à masquer un objet en l’enveloppant d’une couche de matériau dont le gradient des paramètres constitutifs favorise le contournement et la reconstruction du front d’onde en aval de cet objet. Ce concept, proposé par J. B. Pendry en 2006 [9], a été immédiatement suivi d’une démonstration expérimentale à la fréquence de 8,5 GHz par l’équipe de D. R. Smith [10]. Du point de vue de la conception, cette cape est constituée de plusieurs couches de diélectriques incluant des résonateurs métalliques. À la différence de la lentille précédemment décrite, on ne cherche pas à travailler avec une perméabilité négative mais plutôt avec des valeurs comprises entre 0 et 1. La variation des dimensions géométriques des motifs résonnants sur chaque couche permet de traduire le gradient de perméabilité. Lorsque l’on s’approche du domaine de l’infrarouge, afin de s’affranchir du problème des pertes métalliques, on peut utiliser des résonateurs diélectriques qui tirent parti de la concentration des champs dans un matériau à haute permittivité tel que le BaxSr1-xTiO3 (BST) [11]. Dans de telles structures, la perméabilité effective est la conséquence de la résonance d’un courant de déplacement encore appelée résonance de Mie.

Par Éric Lheurette, maître de conférences à l’université de Lille 1, IEMN

Notes
[1] V. G. Veselago, « The electrodynamics of substances with simultaneously negative values of epsilon and mu, » Soviet Physics Uspekhi, pp. 509, 1968.
[2] J. B. Pendry, A. J. Holden, D. J. Robbins, and W. J. Stewart, « Magnetism from conductors and enhanced nonlinear phenomena, » Microwave Theory and Techniques, IEEE Transactions on, vol. 47, pp. 2075-2084, 1999.
[3] R. A. Shelby, D. R. Smith, and S. Schultz, « Experimental verification of a negative index of refraction, » Science, pp. 77-79, 2001.
[4] F. Zhang, D. P. Gaillot, C. Croenne, E. Lheurette, X. Melique, and D. Lippens, « Low-loss left-handed metamaterials at millimeter waves, » Applied Physics Letters, vol. 93, pp. 083104, 2008.
[5] J. Valentine, S. Zhang, T. Zentgraf, E. Ulin-Avila, D. A. Genov, G. Bartal, and X. Zhang, « Three-dimensional optical metamaterial with a negative refractive index, » Nature, vol. 455, pp. 376-379, 2008.
[6] J. B. Pendry, « Negative Refraction Makes a Perfect Lens, » Physical Review Letters, vol. 85, pp. 3966, 2000.
[7] N. Fang, H. Lee, C. Sun, and X. Zhang, « Sub-Diffraction-Limited Optical Imaging with a Silver Superlens, » Science, vol. 308, pp. 534-537, 2005.
[8] J. F. Manuel, M. Ricardo, and J. Lukas, « Experimental demonstration of a mu = -1 metamaterial lens for magnetic resonance imaging, » Applied Physics Letters, vol. 93, pp. 231108, 2008.
[9] J. B. Pendry, D. Schurig, and D. R. Smith, « Controlling Electromagnetic Fields, » Science, pp. 1125907, 2006.
[10] D. Schurig, J. J. Mock, B. J. Justice, S. A. Cummer, J. B. Pendry, A. F. Starr, and D. R. Smith, « Metamaterial Electromagnetic Cloak at Microwave Frequencies, » Science, vol. 314, pp. 977-980, 2006.
[11] D. P. Gaillot, C. Croënne, and D. Lippens, « An all-dielectric route for terahertz cloaking, » Opt. Express, vol. 16, pp. 3986-3992, 2008.Image © Utilisée avec la permission de M. J. Freire, R. Marques et L. Jelinek, Experimental demonstration of a µ=-1 metamaterial lens for magnetic resonance imaging, Applied Physics letters, 93, 231108 (2008). Copyright (2008), American Institute of Physics.

Body Area Networks : les réseaux à la conquête du corps humain

Après la frénésie dont les réseaux « ad-hoc » (ou sans infrastructure) ont fait l’objet ces dernières années, il est désormais temps de passer aux applications concrètes. Profitant de la miniaturisation des équipements, les réseaux de capteurs ont ouvert la voie. Les applications sont nombreuses, dans des domaines allant de l’embarqué au militaire ou à la domotique. D’un point de vue technique, Zigbee semble être le grand gagnant, fort de ses couches basses IEEE 802.15.4.Un nouveau domaine applicatif s’est fait jour récemment introduisant de nouveaux enjeux : le domaine médical. Les « Body Area Networks » (BAN, terme apparu en 2006) ont montré les limites de la généricité de Zigbee et suscité la création du groupe IEEE 802.15.6, berceau d’une réflexion de standardisation.

Les applications

Ce groupe a défini une classification des besoins selon deux axes : le type d’application et le débit. Le contrôle du diabète ou la délivrance de médicament sont des applications médicales à bas débit. Celles nécessitant l’envoi de signaux de type audio, électro-encéphalogramme, suivi de grossesse sont à débit moyen alors que le haut débit correspond à l’envoi de vidéo (endoscopie). Dans le domaine non médical, citons le fitness, l’utilisation de casques audio ou vidéo.Mais au delà du débit, ce sont également des besoins en fiabilité, sécurité et confidentialité qui distinguent ces applications.Les communications médicalesGrâce à une standardisation des protocoles, les BAN devraient permettre des économies d’échelle sur les capteurs, prothèses et autres équipements miniaturisés ; ils en faciliteront l’intéropérabilité. Le suivi de diverses constantes vitales (températures, fréquence cardiaque, taux d’insuline, …) pourrait être centralisé afin d’assurer un suivi efficace de pathologies diverses (alzheimer, diabète, suivi post-opératoire). Au delà du suivi, la communication avec des équipements actifs (pacemaker, pompe à insuline, …) peut permettre de maintenir l’état du patient.Les communications intra-corporelles ne sont pas les seules à prendre en compte, car un tel suivi médical ne saurait être longtemps autonome. Une passerelle (de type Smartphone) permettra de relayer les informations vers/depuis d’autres réseaux tels des services d’urgence. Ces communications n’entrent pas dans le cadre des BAN mais en conditionnent l’organisation.

Les communications non médicales

Le groupe 802.15.6 s’est également intéressé à des applications moins dramatiques, voire plus farfelues.Un premier exemple est le suivi d’activités sportives, par le biais de capteurs de rythme cardiaque, de température, … dont les informations seraient centralisées sur un lecteur MP3 pour une analyse en temps réel ou en différé.Le marché des jeux vidéo est un autre domaine dans lequel l’utilisation de casques audio ou vidéo, de capteurs de mouvements et autres dispositifs profitera pleinement de la standardisation des BAN. De nombreux jeux pourraient être développés autour du fitness, des arts martiaux, de la chorégraphie, …De façon plus anecdotique, des services de partage d’émotion, fondés sur des capteurs (de conductivité de la peau, d’ECG, …) pourraient permettre aux réseaux sociaux de s’enrichir d’informations personnelles collectées en temps réel (humeur). Ils permettraient également la mise en place de « mood based messaging » pour envoyer automatiquement à des proches des messages liées à l’humeur, la joie, la déprime.

Les besoins applicatifs

Comme nous venons de le voir, l’éventail applicatif est vaste. Il en est de même du spectre des besoins en qualité de service. Si un débit de 1 Kbit/s peut suffire à un suivi de taux d’oxygène, un électrocardiogramme nécessitera jusqu’à 500 Kbit/s et une endoscopie 1 Mbit/s. L’échelle des délais est large également, de 20 à 200 ms pour des applications de suivi médical jusqu’à quelques minutes pour les réseaux sociaux.La fiabilité doit être élevée pour presque toutes les applications hormis celles de confort. De la même façon, des taux d’erreur binaire très faibles sont nécessaires aux applications médicales. Des études doivent donc être mises en œuvre pour caractériser ce canal de transmission particulier qu’est le corps humain et proposer des techniques de codage adaptées.La sécurité et la confidentialité, enfin, doivent faire l’objet d’une attention particulière étant donnés les enjeux. De récents travaux montrant la fragilité d’équipements de type pacemakers face à des attaques, le sujet n’est pas à prendre à la légère.

L’heure des premiers choix

Des solutions techniques existent déjà : Bluetooth pour les jeux, les réseaux sociaux, et Zigbee pour le médical.L’intérêt des BAN sera d’améliorer les applications dans le premier cas et dans le second de dépasser les faiblesses de Zigbee. Ce dernier n’a pas convaincu le groupe 802.15.6 du fait de sa faible qualité de service (couche MAC faible, délai fort et variable), et de l’absence de différenciation de services. De plus, le cahier des charges des BAN est plus contraignant ; il introduit la nécessité de coexister avec les réseaux existants, ainsi que des considérations de type reprogrammation, ergonomie et calibrage à distance. En conclusion, le standard Zigbee est incomplet.Des premiers choix technologiques se dessinent d’ores et déjà :

  • Bande de fréquences médicales (402-405 MHz) pour les communications intracorporelles et bande ISM pour les communications extracorporelles ;
  • Antennes électriques pour les communications extracorporelles et antennes magnétiques pour les communications intracorporelles ;
  • Utilisation de la technique Ultra Wide Band (faible puissance sur un large spectre, donc faible portée et peu d’interférences) pour les communications extracorporelles.

Le travail du groupe IEEE 802.15.6 n’en est qu’à ses balbutiements en terme de choix technologiques. Les solutions apportées devront être particulièrement ambitieuses en raison de la diversité des besoins applicatifs.Trouver des protocoles fiables et peu consommateurs d’énergie reste un défi largement ouvert. L’enjeu est important car les besoins sont forts et le domaine vital. De plus, les débouchés commerciaux réels et le spectre des applications ne pourront que s’étoffer au fur et à mesure des développements technologiques.Par Nazim Agoulmine, professeur à l’Université d’Evry Val de Seine, laboratoire Lip6-CNRS

Routage dynamique dans les réseaux de capteurs : on progresse !

Après avoir consolidé les besoins et contraintes caractéristiques du déploiement de réseaux de capteurs sans fil dans des environnements domestiques, urbains et industriels, les travaux du groupe ROLL (routing over low power and lossy networks) de l’Internet Engineering Task Force (IETF) portent désormais sur la spécification d’un protocole de routage dynamique capable de prendre en compte ces besoins et contraintes exprimés sous forme de métriques qui font également l’objet d’un travail de caractérisation.

Vers l’établissement dynamique d’arbres de collecte
Les arbres de collecte [1] sont l’une des composantes fondamentales des applications exploitant les ressources de réseaux de capteurs. Ces arbres sont utilisés pour acheminer les données collectées par des capteurs vers un ensemble de contrôleurs qui vont ensuite les traiter et, le cas échéant, transmettre de nouvelles informations (commande, configuration) vers les capteurs en exploitant les mêmes structures arborescentes.Les discussions engagées au sein du groupe ROLL portent en particulier sur une contribution [2] qui propose un protocole capable d’établir et de maintenir dynamiquement de telles structures. L’algorithme utilisé est de type « distance vectorielle » et utilise un mécanisme de balisage pour transmettre de proche en proche les informations topologiques caractéristiques des arbres de collecte.La figure 1 ci-dessous décrit la manière dont un nœud N se raccorde à un arbre en fonction des balises qu’il a reçues de ses voisins.Le tableau suivant décrit le contenu des balises reçues par le noeud N et envoyées par ses voisins A, B et C :
Emetteur Contenu de la balise (extraits)
A  Arbre flottant Profondeur de l’arbre = 2
B  Arbre non flottant Profondeur de l’arbre = 2
C  Arbre non flottant Profondeur de l’arbre = 3
Tableau 1 : Exemples de contenus de balises.
La formation d’arbres de collecte s’appuie sur les principes suivants :
  • Le protocole localise le point de sortie le plus proche (e.g. le point d’accès au réseau Internet) sur la base des informations véhiculées dans des balises, dont le format correspond à une extension des messages RA (Router Advertisement) et RS (Router Solicitation) utilisés par le protocole de découverte de voisins pour IPv6 (« Neighbor Discovery for IPv6« , [3]). Cette extension permet de minimiser l’overhead introduit par la volumétrie du trafic caractéristique du protocole de routage.
  • Le protocole de routage permet en outre à chaque routeur de décider à quel arbre il va se rattacher selon les informations consignées dans les balises.
Un arbre est dit « non flottant » lorsqu’il est connecté à un backbone (e.g. l’un des routeurs du réseau de capteurs est raccordé au réseau Internet). La profondeur d’un arbre se définit par le nombre maximal de nœuds qui doivent être traversés pour atteindre la racine de l’arbre depuis n’importe quel nœud rattaché à l’arbre. Chaque nœud va donc déterminer la valeur de sa profondeur en fonction de la valeur de la profondeur du nœud parent auquel il est connecté (le nœud parent étant le nœud par lequel il peut atteindre la racine de l’arbre). Dans l’exemple de la figure 1, N va se raccorder sur le nœud B parce que (1) l’arbre est non flottant et (2) le niveau de profondeur est plus faible que celui du nœud C.Le principe de formation des arbres de collecte répond ainsi à trois lois fondamentales :
  1. Un nœud qui n’est pas rattaché à un arbre non flottant est la racine de son propre arbre (flottant), et la profondeur d’un tel arbre est de 1.
  2. Un nœud rattaché à un arbre peut se déplacer à n’importe quel moment pour se rapprocher de la racine de l’arbre, de façon à réduire la valeur de sa profondeur. Par contre, un nœud ne doit pas se déplacer de telle sorte que la valeur de sa profondeur augmente (i.e. qu’un nœud ne doit pas s’éloigner de la racine de l’arbre auquel il est rattaché).
  3. Un nœud peut se détacher de l’arbre de collecte auquel il est rattaché à n’importe quel moment pour se raccorder à un autre arbre de collecte. Une nouvelle greffe n’a de sens que lorsqu’elle améliore un ou plusieurs paramètres de connectivité (plus grande bande passante, plus faible profondeur, etc.), qui constituent donc autant de métriques susceptibles d’être prises en compte par le protocole de routage.

Quelles métriques de routage ?
Les réseaux de capteurs sans fil se distinguent en particulier par un nombre de composants pouvant atteindre plusieurs milliers d’unités qui disposent de faibles ressources énergétiques. Le calcul et la sélection de routes au sein de tels environnements doivent donc prendre en compte de telles contraintes. Celles-ci devront être exprimées sous la forme de métriques qui peuvent être classées en deux catégories :
  • Les métriques caractéristiques de l’état des nœuds du réseau ;
  • Les métriques caractéristiques de l’état des liens du réseau.
Le tableau 2 ci-dessous présente un résumé de l’inventaire actuel [4].
Métriques noeud
Ressource mémoire L’une des principales contraintes de nature à affecter la stabilité du routage dans un réseau de capteurs sans fil.
Ressource CPU Les applications actuelles des réseaux de capteurs indiquent une sollicitation moyenne du CPU de l’ordre de 10 %, tandis que la technologie embarquée est de plus en plus performante.
Energie résiduelle Lorsque la valeur de cette métrique est faible, le nœud ne devrait pas être pris en compte comme élément de routage, d’où la nécessité d’un routage à contraintes de nature à sélectionner des routes traversant des éléments capables de récupérer de l’énergie (alimentation par batterie solaire, par exemple) plutôt que des éléments qui ne fonctionnent que sur accus. Quitte à ce que les routes sélectionnées soient plus longues (en termes de nœuds traversés).
Etat de surcharge La surcharge d’un nœud est de nature à affecter le temps de convergence, ce qui peut se révéler incompatible avec certains trafics. La métrique correspondante pourrait être équivalente à l’utilisation du bit « overload » dans le protocole IS-IS [5].
Agrégat de données Lorsque les données d’une application donnée peuvent être agrégées afin de réduire le volume de trafic acheminé dans le réseau de capteurs, la durée de vie de certains éléments du réseau (ceux alimentés par accus, typiquement) peut ainsi être prolongée. De telles applications sont souvent caractérisées par des flux majoritairement unidirectionnels et prédictibles, tels que la collecte de données mesurant la pollution atmosphérique à heures fixes.
Métriques liens
Bande passante Exprimée en bits ou paquets par seconde, cette métrique doit refléter la bande passante effectivement disponible.
Latence Cette métrique va de pair avec la métrique « bande passante ».
Fiabilité Dans les réseaux de capteurs, la fiabilité des liens est souvent affectée par des phénomènes d’interférences. L’échelle de temps peut varier de quelques millisecondes à plusieurs jours selon la nature de l’interférence (e.g. intervention humaine) et la métrique peut être exprimée en termes de taux d’erreur paquet ou bit.
Couleur Métrique affectée de manière statique et susceptible de refléter une politique de routage différente selon le type de trafic, par exemple.
Tableau 2 : Métriques de routage pour les réseaux de capteurs.
Compte tenu de leur nature, la plupart des métriques décrites dans ce tableau nécessitent d’être mises à jour d’une manière dynamique, de façon à ce que les décisions de routage soient toujours adaptées.De façon à maîtriser l’impact de ces mises à jour sur la stabilité du routage (fréquence de diffusion des messages de mise à jour, notamment), le protocole de routage devra s’appuyer sur des algorithmes de calcul déclenchés selon des seuils multiples (reflétant la diversité des échelles de temps associées à chacune de ces métriques). En outre, la manipulation de plusieurs métriques impose de s’assurer de la cohérence des mécanismes de calcul de leurs valeurs.

Prochaines étapes
Le meeting IETF de juillet prochain sera l’occasion pour le groupe ROLL de soumettre une version consolidée de la spécification des métriques (avec publication du RFC dans la foulée), tandis que la spécification du protocole de routage devrait conduire à la publication du RFC correspondant dans le courant du premier semestre de l’année prochaine. Le chemin vers la standardisation est encore long, mais le travail bénéficie d’une collaboration active et efficace des principaux acteurs du marché (industriels, fournisseurs de services et opérateurs) !Par Christian Jacquenet, France Télécom ITNPS/NAD

Notes
[1] Levis, P., et al., « Collection Tree Protocol », http://www.tinyos.net/tinyos-2.x/doc/html/tep123.html, Février 2007.[2] Thubert P, et al., “LLN Routing Fundamentals”, draft-thubert-roll-fundamentals-01.txt, Work in Progress, Avril 2009.[3] Narten, T. et al., “Neighbor Discovery Protocol for IPv6”, RFC 4861, Septembre 2007.[4] Kim, M., et al. “Routing Metrics used for Path Calculation in Low Power and Lossy Networks”, draft-mjkim-roll-routing-metrics-03.txt, Work in Progress, Mars 2009.[5] Oran, D., et al., “OSI IS-IS Intra-Domain Routing Protocol”, RFC 1142, Février 1990.