L’avenir de l’Ultra Large Bande passera par DAA

La technologie Ultra Large Bande (UWB), acronyme désignant tout signal de communication sans fil [1] dont la bande passante est supérieure à 500 mégahertz où représente 20 % de la fréquence centrale, a tout pour avoir un bel avenir. En tant que solution à faible puissance, elle peut fournir de très hauts débits de données sur des courtes portées. Elle est d’ailleurs déjà utilisée pour des solutions d’USB sans fil (Wireless USB avec le forum USB-IF) ou est étudiée dans de futures évolutions par le Bluetooth SIG (Specific Interest Group). Pourtant, malgré son avance technologique et scientifique indéniable, cette technologie a fait l’objet de nombreux débats en particulier auprès des régulateurs. Et ceci pendant plusieurs années, accumulant ainsi des retards sur les autorisations de mise sur les marchés européens et asiatiques des produits et empêchant un réel décollage industriel. Ces discussions portaient notamment sur les risques d’interférence avec les systèmes de communication conventionnels, avec lesquels des systèmes UWB pourraient partager les bandes de fréquences due à son large spectre d’émission. Pourtant, des systèmes de communication conventionnels comme GSM/UMTS ou le WiMax sont habituellement autorisés sous-licence et leurs fournisseurs ont donc payé pour l’usage du spectre de fréquences. Par conséquent, les technologies même innovatrices comme UWB ne peuvent pas nuire ou dégrader la qualité de ces systèmes de communication autorisés. D’autre part, les bandes de fréquences disponibles étant différentes suivant les pays, les industriels étaient confrontés à la difficulté de trouver une solution globale, acceptée à un niveau mondial, garantissant la masse critique nécessaire au déploiement d’une technologie visant également un usage de masse sur le « tout sans fil, haut débit, courte portée ».

Les apports de DAA et les avancées en terme de régulation

Il semble que la technique appelée DAA pour Detect And Avoid apporte une solution à ces problèmes et permette enfin un déploiement mondial. Un pays comme la Chine vient d’ailleurs d’autoriser l’UWB avec DAA et affiche une grande ambition sur cette technologie en soutenant des programmes de recherche dédiés à l’UWB.Cette technique de limitation de brouillage pour des dispositifs UWB est en effet proposée comme une solution potentielle pour diminuer les risques d’interférence radio. Les régulateurs radio ont proposé l’adoption du DAA dans certains domaines de normalisation et pour des bandes spécifiques de radiofréquences. En Europe, les conditions d’utilisation de la technique de limitation de brouillage d’UWB DAA sont présentées dans le rapport 120 [4] de CCE édité en juin 2008.Au-delà, le DAA est également considéré comme une première avancée vers une approche dynamique pour utiliser le spectre de radiofréquences et pourrait donc avoir des répercussions dans d’autres domaines. Le DAA peut être considéré une forme simple de radio cognitive, où les dispositifs d’UWB sondent la présence de systèmes de communication autorisés (tel que WiMax ou un Radar) et émettent uniquement s’il n’y a pas d’émissions de ces autres systèmes. Principal avantage : un dispositif d’UWB peut ainsi augmenter sa puissance d’émission quand aucun autre système de communication n’est ni dans les mêmes secteurs, ni sur les mêmes bandes de fréquences.

Le DAA est donc une technique innovante qui permet la cohabitation des différents réseaux sans fils. Elle divise la puissance d’émission en zones dans lesquelles on peut transmettre un signal UWB. Pour cela, les dispositifs DAA UWB détectent les changements de la configuration RF (i.e. modification de la zone d’opération) et basculent au nouveau niveau d’émission dans un temps maximal [ETSI EN 302 065].Les constructeurs d’UWB ont d’ailleurs commencé à déployer les premiers prototypes ces derniers mois. Trois zones (Zone 1,2 et 3) ont été définies pour les BWA (Broadband Wireless Access) dans la bande 3.4-4.2 GHz et seulement deux zones (Zone A et B) pour la radiolocalisation dans la bande 3.1-3.4 GHz et 8.5-9 GHz.Pour éviter les risques d’interférences produits par l’UWB vis-à-vis d’autres services, les régulateurs ont défini des limites sur la puissance d’émission des dispositifs d’UWB. Dans la plupart des cas, la limite est décrite comme masque d’émission d’EIRP (Equivalent Isotropically Radiated Power). Les masques d’émissions d’EIRP ont été définis par la FCC en 2002, l’Union européenne en 2006, la Chine en 2008, le Japon et la Corée en 2006. Le schéma suivant décrit le comportement d’un dispositif UWB avec DAA. Quand il détecte la présence d’un signal de BWA (Broadband Wireless Access comme WiMax) dans le spectre de fréquences, le dispositif UWB cesse de transmettre dans la bande BWA et déplace son émission dans bande adjacente (voir les flèches pointillées) ou se maintient simplement dans la même bande BWA mais arrête d’émettre (voir les flèches pleines).

Les défis à venir

Reste un défi significatif à relever : comme les régulateurs radio du monde entier définissent différents bandes de fréquences et masques d’émission pour l’activation du DAA, il faut concevoir des méthodes d’essais flexibles permettant d’évaluer les diverses configurations DAA à travers le monde. Or, le fait que DAA soit une forme de radio cognitive avec des paramètres de transmissions pouvant changer, que les niveaux de puissance soient extrêmement faibles, certains spécialistes parlent d’impossibilité de tester le DAA dans son concept global. Des approches pragmatiques et réalistes devront donc être mises en œuvre tant au niveau de la technique DAA elle-même que pour l’évaluation de conformité, étape incontournable avant de mettre un produit sur le marché. C’est précisément un des sujets étudié dans le cadre du projet de recherche européen WALTER [5], cofinancé dans le cadre du 7ème programme-cadre de la Commission européenne. Son principal objectif est de développer un réseau de services d’essais UWB avec des moyens en Chine (TMC du Ministère MII), en Espagne (AT4Wireless) et en Italie (le Centre Commun de Recherche de la Commission européenne) , le tout étant au service de la recherche, de la régulation et de l’industrie. Plus concrètement, le projet WALTER définit des procédures d’essais et des campagnes de mesures pour valider les techniques de limitation de brouillage UWB ainsi que des mécanismes de coexistence utilisant des protocoles de DAA. L’expérience acquise dans la définition d’un banc d’essai d’UWB DAA pourra aider l’étude d’autres essais de radios cognitives. Les défis liés aux essais DAA seront d’ailleurs abordés dans un second article.

Par Philippe Cousin, ETSI (Institut Européen de Normalisation des Télécommunications), chef du projet de recherche européen WALTER

Notes
[1] Il faut noter des différences sur la définition précise UWB entre ETSI[2] et FCC[3] ainsi que sur les techniques utilisés comme MB-OFDM (Multi-Band Orthogonal Frequency division) ou la version impulsion DS-UWB (Direct Sequence Ultra Wideband)
[2] ETSI EN 302 065 v1.1.1, “Electromagnetic compatibility and Radio spectrum Matters (ERM); Ultra WideBand (UWB) technologies for communication purposes; Harmonized EN covering the essential requirements of article 3.2 of the R&TTE Directive”. European Standard Telecommunication Institute (ETSI), February 2008.
[3] FCC CFR Title 47 Part 15 Subpart C, “Intentional Radiators”. Federal Communications Commission, October 2007.[4] ECC Report 120 ( June 2008) on Technical requirements for UWB DAA (Detect And Avoid) devices to ensure the protection of Radiolocation in the bands 3.1 – 3.4 GHz and 8.5 – 9 GHz and BWA terminals in the band 3.4 – 4.2 GHz.[5] FP7 WALTER (Wireless Alliance for Testing, Experiment and Research) project. http://www.walter-uwb.eu/

LTE : nous avons besoins de garanties en matière de performance

La technologie 3G a eu du mal à démarrer mais depuis 18 mois, elle connaît une croissance exceptionnelle. D’ailleurs, dans les zones où le taux de pénétration est faible (Amérique du Sud et Afrique), la pénurie de lignes fixes en haut débit devrait servir à accélérer la demande de services haut débit sans fil. Côté technologie, l’avenir de l’industrie repose sur la solution de dernière génération, le LTE. Long Term Evolution (LTE) de 3GGP annonce un changement majeur dans la connexion mobile : des vitesses de connexion équivalentes à 100/50Mbps, davantage de services, une latence plus faible, une expérience de meilleure qualité (QoE), une structure simplifiée et une optimisation du réseau pour les échanges de données sans séparation du canal audio à commutation de circuit. Deux éléments plaident en faveur d’une développement du LTE. Le premier relève de la performance : bande passante massive pour les appareils mobiles et meilleure qualité d’expérience grâce à une latence plus faible du réseau IP fixe de bout-en-bout. Le deuxième concerne la flexibilité de l’application, autre avantage d’une structure orientée vers un service IP de bout-en-bout. Le LTE peut également déployer de nouveaux services en lien avec la vitesse et la flexibilité, comme s’y attendent les internautes. L’intelligence du système LTE se loge en début de réseau (les décisions liées à la mise en application de la politique sont prises en début de réseau au lieu de les renvoyer au centre comme dans les technologies précédentes) et le LTE travaille indépendamment de la technologie d’accès, ce qui ouvre un champ plus large pour les futurs appareils et applications révolutionnaires.

De nouvelles opportunités mais aussi un casse tête
Une telle flexibilité fait la joie de l’utilisateur mais représente un casse-tête pour les fournisseurs de services. Anticiper les besoins et mettre en place des solutions pour y répondre est déjà une tâche suffisamment complexe, même pour les clients titulaires de contrats fixes. Or les analystes prévoient un avenir encore plus chargé. Les appareils photo, les consoles de jeux, les appareils de navigation et autres appareils mobiles seront tous vendus avec des puces LTE intégrées, tout comme les processeurs doubles intégrés dans les ordinateurs portables haut de gamme, qui représentaient une véritable innovation et qui font désormais partie intégrante des smartphones tels que le Motorola Q9H. Le réseau est-il capable de gérer autant d’appareils puissants, sans parler des milliers de téléphones-appareils photo qui se déclenchent subitement lors d’événements sportifs majeurs ? Comme on pouvait s’y attendre, de nombreux débats ont été engagés sur la nécessité des réseaux  » backhaul  » pour gérer la forte croissance du trafic et sur leur capacité à faire face aux pics de demande. L’utilité du réseau  » backhaul  » Ethernet est acquise pour un service IP de bout-en-bout. Mais pour les structures sur fibre, en cuivre ou sans fil, elle soulève la question du coût et des fonctionnalités. D’où le besoin de tests approfondis basés sur une simulation répétitive et réaliste du trafic et sur leur capacité à tracer un flux de trafic au-delà des attentes.

Mettre en place de nouveaux tests
Les critères de tests du LTE ne sont pas si différents des critères requis pour les services 2 ou 3G. Mais en tant que nouvelle technologie, le LTE requiert des tests plus rigoureux qui révéleront des failles inattendues et permettront de gagner la confiance du marché. La mise en place de tests préalables assurera une qualité d’expérience optimale dès le premier jour. Puisque le nombre d’utilisateurs ne cesse de croître, de même que la pression qui pèse sur le système, ces mêmes tests seront par la suite maintenus afin de s’assurer que les normes liées au parc d’utilisateurs sont les mêmes et de contrôler les causes de détérioration du service. De même que l’opérateur teste, entre autres, la performance du haut débit, du débit, de la fiabilité, de la reprise et de la perte de paquets, il doit anticiper les zones à problème et effectuer ces tests dans des conditions difficiles telles qu’une surcharge du réseau, une transmission vers et à partir d’un train grande vitesse, un environnement urbain encombré et une détérioration du signal sous faible couverture RF.De même, s’il est nécessaire de tester l’infrastructure et de s’assurer qu’elle sera capable de gérer la demande à venir, il ne faut pas négliger de tester les appareils actuellement mis en place pour accéder aux services LTE. Sur ce thème, signalons l’apport du récent rapport rédigé par Broadband-Testing, un laboratoire d’analyse européen basé à Andorre. Six des smartphones haut de gamme les plus prisés d’Europe y ont été testés. Or les résultats montrent clairement que tous les téléphones portables ne jouissent pas d’une  » fabrication égale  » lorsqu’il s’agit d’établir un appel vocal ou de ne pas couper un appel vocal dans certaines conditions d’utilisation.Les tests ont été menés dans des conditions de réseau en début de cellule, pendant le transfert intercellulaire et le transfert entre réseaux 2G et 3G. Ils comprenaient notamment une émulation des conditions réelles représentant le combiné en position stationnaire, mais également en mouvement, à la vitesse d’un piéton et à la vitesse d’un véhicule. De grandes différences ont été relevées au niveau de la fiabilité des appels vocaux et les résultats ont montré qu’aucun combiné ne pouvait offrir une performance optimale dans toutes les conditions. Enfin, certains avaient du mal à s’adapter aux conditions de réseau pourtant courantes dans la vie quotidienne, telles que passer un appel professionnel depuis un train en circulation par exemple.Ce rapport retiendra certainement l’intérêt du responsable des achats d’une société qui déploiera des téléphones portables pour les cadres. Les smartphones sont de plus en plus reconnus comme étant des outils commerciaux productifs. Les négociations commerciales ne sont pas moins importantes parce qu’elles s’effectuent en mouvement, et si la ligne vient à couper lors d’une conversation, cela est préjudiciable aussi bien pour la négociation que pour l’état d’esprit de l’appelant. Les sociétés peuvent s’en trouver affectées et la réputation endommagée !Dans ses commentaires sur le rapport de Broadband-testing, l’analyste Dean Bubley, de Disruptive Analysis, suggère que les tests de performance effectués sur les combinés seront dans l’avenir une condition de plus en plus importante, la conformité actuelle à la certification ne mettant pas la barre suffisamment haute en termes de tests :  » Le développement d’une méthodologie qui permettrait aux opérateurs (ou aux utilisateurs finaux) d’évaluer les performances des téléphones et de les différencier est très largement justifié. « Le LTE propose bien d’autres fonctions et services. Mais les utilisateurs professionnels ne souhaitent pas uniquement connaître ces fonctions ; ils souhaitent également savoir en quoi ces téléphones leur seront vraiment utiles dans des conditions normales et quel type de conditions exceptionnelles sont susceptibles de se produire lorsqu’ils travaillent sous pression. Une enquête récente a démontré que cinq fois plus de recherches sur Google étaient effectuées à partir de l’iPhone plutôt qu’à partir de téléphones 3G standard, ce qui met l’accent sur le rôle essentiel de l’interface utilisateur et du facteur de forme lorsqu’il s’agit d’influencer la façon dont le téléphone est déployé. En ce qui concerne les fonctions, ce qui compte n’est  » pas ce que vous faites, mais la façon dont vous le faites  » et les plus grandes décisions liées aux achats des effectifs mobiles de demain devront se justifier par des tests rigoureux, réalistes et renouvelables. Les tests de conformité ne suffisent plus, nous avons besoin de garanties en matière de performance. Par Nigel Wright, vice-président de la commercialisation des produits, Spirent Communications

La cogénération trouve une large application parmi les industriels

L’offre d’installations de cogénération est en augmentation constante et active la tendance à la décentralisation de l’approvisionnement électrique. Même si les moteurs à combustion sont encore au centre des intérêts, bientôt pourraient se développer de nouvelles solutions associées aux moteurs à cycle Stirling [1], générateurs linéaires ou piles à combustible.

http://www.bulletins-electroniques.com/actualites/61115.htm

L’offre d’installations de cogénération est en augmentation constante et active la tendance à la décentralisation de l’approvisionnement électrique. Même si les moteurs à combustion sont encore au centre des intérêts, bientôt pourraient se développer de nouvelles solutions associées aux moteurs à cycle Stirling, générateurs linéaires ou piles à combustible.Dans ce contexte, les entreprises Lichtblick et Volkswagen ont signé un partenariat énergétique en septembre 2009. Volkswagen livre des centrales de chauffage à distance (Blockheizkraftwerke, BHKW) sur la base de ses propres moteurs à gaz, avec une puissance électrique de 20 kW (kWe) et une puissance thermique de 34 kW (kWt). Lichtblick commercialise ces « centrales à domicile » pour un approvisionnement combiné en électricité et chaleur.

Produire du courant en quasi-simultané

« Il faut se représenter les centrales à domicile comme un banc de poisson : de nombreuses petites unités forment une grande communauté performante qui produit de l’électricité en masse », explique Christian Friege, directeur général de Lichtblick. Ainsi 100.000 mini-centrales thermiques décentralisées représentent quasiment une centrale au gaz d’une puissance électrique de 2 GW.Pour compenser l’énergie en provenance des éoliennes ou de panneaux photovoltaïques, fluctuante en fonction de la météorologie, les installations électriques doivent produire du courant en quasi-simultané selon la demande et l’injecter sur le réseau. Un accumulateur de chaleur doit ainsi permettre d’adapter l’activité à la demande sur le marché électrique et de la découpler de la consommation en chaleur actuelle des bâtiments. Grâce à la cogénération, le rendement de l’accumulateur s’élève à 92 %, selon Lichtblick. Face à la production habituellement découplée de chaleur et d’électricité, l’installation de gaz naturel produira jusqu’à 60 % de CO2 en moins. Le gaz naturel « à haute neutralité climatique » devrait être de plus en plus employé.Les centrales de chauffage à distance ne sont pas nouvelles. Un millier d’entre elles sont commandées chaque année. Cependant, les installations sont habituellement de taille plus grande. Des petites installations de puissance électrique comprise entre 3 kWe et 5 kWe sont proposées à des habitations collectives et des exploitations industrielles. Afin d’ouvrir des débouchés auprès des habitations particulières, l’entreprise Vaillant a conclu une coopération avec Honda, pour développer des micro-installations de cogénération pour le marché européen.

Un rendement électrique de 60 %

L’entreprise australienne Ceramic Fuel Cells Limited (CFCL) a ouvert dans le parc industriel d’Oberbruch à Heinsberg une unité de production en série de piles. Dans un premier temps, 10.000 piles devraient être produites annuellement, puis leur nombre devrait s’élever jusqu’à 160.000. Les piles produites en série par CFCL constituent le cœur des mini-centrales de chauffage à distance, destinées à des habitations collectives et individuelles, elles atteignent des puissances de 2 kWe et seulement 1,2 kWt, avec un rendement électrique de 56 %.

En fonctionnement optimal (1,5 kWe, 0,7 kWt), le rendement électrique pourrait atteindre 60 %. Le rendement du système atteint jusqu’à 85 % grâce à la cogénération. Le produit principal est l’électricité, la chaleur n’étant qu’un sous-produit.

D’autres solutions utilisables dans les habitations particulières sont par exemple l’appareil de chauffage producteur d’électricité basé sur la technologie Stirling, qui sera produit en série en 2011 grâce à la technique thermique de Bosch, ou la micro-centrale à cogénération d’Otag, qui combine une chaudière à gaz à condensation avec un générateur linéaire, commandé par un circuit fermé de vapeur d’eau. La puissance atteint 2 kWe et 19 kWt.

La part de cogénération dans l’électricité doit augmenter en Allemagne de sa valeur actuelle de 12 % à 25 % d’ici 2020.

[1] Le moteur Stirling est un moteur à combustion externe, le fluide principal étant un gaz soumis à un cycle comprenant 4 phases : chauffage isochore, détente isotherme, refroidissement isochore puis compression isotherme. Informations supplémentaires sur Wikipédia.

Claire Vaille est rédactrice pour la rubrique énergie des bulletins électroniques de l’ambassade de France en Allemagne

Origine :

BE Allemagne numéro 458 (5/11/2009) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/61115.htm

L’impact de la politique photovoltaïque allemande

Dans une précédente tribune, j’appelais les responsables politiques à baisser très rapidement les aides au solaire photovoltaïque (PV), celles-ci risquant de provoquer une « bulle » incontrôlable comme ce fut le cas en Espagne l’an passé. Avec les aides actuelles, les flux financiers correspondant risquent en effet de se chiffrer en dizaines de milliards d’euros pour les seuls engagements des 3 prochaines années.

Un rapport du très sérieux Rheinisch-Westfälisches Institut fûr Wirtschaftsforchung (RWI) sur les conséquences réelles du soutien massif apporté au solaire PV (et à l’éolien) en Allemagne depuis quelques années vient compléter et conforter cette analyse. Après avoir rassemblé les données sur les coûts engagés et sur la réduction des émissions de CO2 dus au développement du solaire, l’étude analyse les impacts de la politique allemande (telle que définie par la loi dite EEG [1]) dans cinq domaines :

  •  La protection du climat ;
  •  Le prix de l’électricité ;
  •  Les emplois ;
  •  La sécurité énergétique ;
  •  La promotion de technologies innovantes.

Aucune des vertus supposées du système allemand n’échappe à sa critique. Nous en résumons ci-après les points essentiels :

1. La protection du climat

Le paradoxe allemand : alors que les ENR remplacent effectivement des énergies fossiles pour la production d’électricité, le « bilan carbone » est quasi nul. Ceci est dû à la coexistence du système d’aides et du European Trading System (ETS) [2] : les producteurs d’électricité renouvelable peuvent vendre leurs permis d’émissions à d’autres « pollueurs », avec comme résultat un transfert des émissions vers ceux-ci [3]. Pire, selon l’étude, l’abondance des permis fait chuter les cours et incite les industriels européens à acheter des permis plutôt qu’à réduire leurs émissions.

2. Le prix de l’électricité

L’étude RWI calcule le coût sur 20 ans de la promotion du solaire photovoltaïque (PV) pour les engagements 2000/2010 (en €, 2007) : 53 milliards d’euros (et de 11 à 18 milliards d’euros pour l’éolien). Elle en déduit un surcoût de l’électricité vendue aux consommateurs de 3 % [4].

3. Les emplois

L’étude souligne le nombre élevé d’emplois créés par le développement massif des ENR : 280.000 en 2008, 400.000 prévus d’ici 2020 selon le ministère de l’industrie allemand (BMU). Mais elle note que ces bilans omettent systématiquement les pertes d’emploi liées à la baisse de pouvoir d’achat des ménages et des profits des industriels.

Elle cite un certain nombre d’études qui laissent penser que le bilan net ne pourrait être légèrement positif, que si l’industrie allemande arrivait à exporter massivement ses produits [5], ce qui est loin d’être le cas du fait de la très vive concurrence des pays asiatiques, au premier rang desquels la Chine. Elle critique particulièrement la politique de promotion du PV, qui reviendrait, pour la seule année 2008, à créer 48.000 emplois subventionnés à hauteur de 175.000 € chacun.

4. La sécurité énergétique

Les ENR devraient normalement réduire les besoins d’énergies fossiles. L’étude conteste cet atout, du fait du caractère intermittent du vent et du soleil. Les centrales thermiques nécessaires en « back up » entraînent des surcoûts de maintenance non négligeables (évalués à 590 millions d’euros en 2006) et, paradoxalement, une augmentation des importations de gaz naturel [6] (dont 36 % provient de Russie, « qui n’a pas convaincu au cours des dernières années qu’elle était un partenaire fiable »).

5. La promotion des technologies innovantes

Le soutien aux ENR est censé favoriser les progrès technologiques. L’étude est extrêmement sévère sur ce chapitre, considérant que les tarifs d’achat très élevés, particulièrement pour le solaire PV, favorisent des effets d’aubaine pour les « gros » industriels, et pas du tout pour les « start ups ». Elle note également que la dégressivité des tarifs d’achat, définie dans la loi EEG et destinée à inciter à l’innovation, a l’effet contraire et encourage le développement massif à court terme des technologies éprouvées. Ceci « permet aux industriels de s’assurer pendant 20 ans des revenus aux tarifs favorables actuels, sans avoir à rechercher de nouvelles technologies ».

Conclusions de l’étude

Après avoir montré les graves défauts du système allemand, l’étude conclut sur trois recommandations :

  •  Eviter la coexistence de deux systèmes, tels que l’ETS et le système EEG.
  •  Privilégier le système ETS, car celui-ci crée une situation permettant aux différents acteurs de rechercher l’optimum économique [7], ce qui n’est pas le cas du système allemand actuel.
  •  Investir dans la recherche et développement : « dans les phases de démarrage de technologies non compétitives, il est plus efficace d’investir dans la R&D que de promouvoir la production de masse ».

De toute évidence, les mêmes recommandations sont valables pour la France. Les avatars espagnol et allemand doivent nous permettre d’éviter de commettre les mêmes erreurs. Il est urgent que nos responsables politiques en prennent conscience.

 

[1] Cette loi régissant le développement des énergies renouvelables a été révisée en octobre 2008 par des amendements, notamment pour l’éolien et le PV, d’application au 1er janvier 2009.

[2] Rappelons que les rejets de CO2 par les industries les plus polluantes font l’objet de « permis de rejets » négociables sur un « marché carbone » européen, l’ETS.

[3] Paradoxe déjà relevé dans un article de Der Spiegel dans son numéro du 10 février 2009.

[4] Selon nos recoupements, environ 5 €/MWh

[5] Les auteurs citent une étude commanditée par le BMU qui conclut que le bilan net pourrait être de 56.000 emplois créés d’ici 2020, à condition que l’exportation joue à plein.

[6] Cet argument n’est pas expliqué : peut-être est-ce dû au fait que les centrales au charbon se prêtent mal à la reprise en secours rapide nécessaire pour faire face aux caprices de l’éolien ?

[7] L’étude cite le rapport 2007 de l’Agence Internationale de l’Energie (OCDE), qui recommande à l’Allemagne de chercher d’autres moyens que les tarifs d’achat élevés pour promouvoir le solaire PV, et rappelle « que le gouvernement devrait toujours rechercher les moyens les plus efficaces... »

 

Pierre Bacher, ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur.

Premier hangar photovoltaïque en tôle solaire de France

Le premier hangar agricole de France équipé de tôles spécialement conçues pour produire de l’énergie solaire grâce à une membrane photovoltaïque a été inauguré jeudi à Vaudrey dans le Jura.Le bâtiment, est constitué d’une structure métallique et d’un toit composé de tôles spécialement profilées pour permettre d’y poser une membrane souple et fine de silicium amorphe, ont indiqué les fabricants. « L’innovation est d’avoir conçu, avec l’entreprise Ravoyard SA de Vaudrey (spécialiste européen des constructions métalliques), le profilage de la tôle pour y coller des panneaux », a déclaré Roland Barthez, PDG de Photon Technologies, filiale d’EDF ENR (Energies nouvelles réparties).Financé par EDF ENR, ce hangar est destiné au stockage de matériel agricole. En échange de son financement, EDF ENR exploite la centrale, encaisse les revenus générés et assure la maintenance pendant 20 ans (durée du bail). « A la fin du bail, l’agriculteur devient propriétaire du hangar et des retombées financières de la centrale photovoltaïque qui a une durée de vie de 25 à 40 ans », a précisé EDF ENR. La puissance du hangar de Vaudrey (700 m2), qui permet d’économiser 16,2 tonnes de CO2 par an, est d’environ 38 kilowatts-crête (kWc, puissance fournie sous un ensoleillement-standard), pour une recette annuelle estimée à 22.600 euros. Cette nouvelle technique n’est pas adaptée aux particuliers qui possèdent une surface de toiture limitée et pour qui les panneaux solaires habituels à base de silicium cristallin sont plus rentables, a précisé M. Barthez.EDF ENR, qui souhaite garder le coût de l’investissement confidentiel, estime néanmoins la revente d’un tel hangar entre 250.000 et 350.000 euros. 

Source :
environnement-info

13 ème édition du guide de Greenpeace pour une high-tech responsable

Greenpeace a publié le mois dernier la treizième édition de son classement « Pour une high-tech responsable » qui classe les dix-huit plus importants constructeurs mondiaux d’électronique en fonction de leur politique et de leurs pratiques environnementales.Ce guide attribue une note sur 10 aux dix-huit plus gros fabricants mondiaux de téléphones mobiles, d’ordinateurs, de téléviseurs et de consoles de jeu, selon trois critères : consommation énergétique des appareils, politique en matière de substances chimiques et gestion des déchets/recyclage.Pour cette nouvelle édition, Apple et Hewlett Packard ont gagné des points : le premier grâce à une plus grande transparence concernant ses émissions de gaz à effet de serre, le second grâce à la mise sur le marché d’un PC pratiquement exempt de PVC (chlorure polyvinylique ou de plastique vinyle) et de RFB (retardateurs de flamme bromés).

Les entreprises concernées… et les autres
Nokia reste toujours en tête du classement, avec une note de 7,5 sur 10, suivi de Samsung avec 6,9, de Sony Ericsson avec 6,5 et de Philips qui grimpe de la 7ème à 4ème place avec 5,9 points. Sony progresse également dans le classement passant de la 12 ème à la 8 ème place.Parmi les mauvais élèves du classement, on retrouve LG qui chute de la 4ème à la 11ème position pour avoir retardé la suppression des substances dangereuses de ces produits.Fujitsu n’obtient que 2,7/10 et rattrape Lenovo aux dernières places du classement.Nintendo demeure bon dernier avec un score de 1,4/10. Il faut dire que ses émissions de gaz à effet de serre ne cessent d’augmenter depuis 2 ans… la prise en compte de son impact environnemental ne semble pas encore être sa priorité ! 

Source :
environnement-info

Quels financements pour le Plan Stratégique pour les Technologies Energétiques ?

http://www.bulletins-electroniques.com/actualites/61258.htmDans le cadre de la présidence suédoise de l’Union européenne, la Commission européenne et l’Agence suédoise de l’énergie (ASE) ont organisé une conférence dédiée au Plan Stratégique pour les Technologies Energétiques (SET-Plan) à Stockholm les 21 et 22 octobre 2009. Outre les plans d’actions, ce sont les questions posées par le financement qui ont été abordées.1. La conférence sur le Plan Stratégique pour les Technologies EnergétiquesInaugurée par la ministre suédoise de l’énergie, des entreprises et des communications et Vice-premier ministre, Mme Maud Olofsson, en présence du Commissaire européen en charge de l’énergie, M. Andris Pielbalgs, et du Commissaire européen chargé de la recherche, M. Janez Potocnik.La conférence a porté principalement sur la compétitivité européenne en matière de technologies énergétiques à faible émission de carbone. La session de Stockholm était principalement axée sur la question du financement. Leurs interventions faisaient suite à la communication présentée par la commission au parlement le 7 octobre dernier sur ce sujet.Elle avance notamment le chiffre de 50 milliards d’euros pour financer la nécessaire transition énergétique de l’Europe d’ici à 2020. La commission a proposé dans ce document une répartition de ces investissements par secteur technologique.Les quelques 250 participants se sont repartis l’après-midi en huit groupes de travail : bioénergies, solaire photovoltaïque, solaire à concentration, capture et stockage du CO2, éolien, nucléaire, réseaux intelligents, villes intelligentes. Au sein de chacun des groupes, les intervenants sont revenus sur les objectifs, et les moyens et les feuilles de route proposées ont été présentés plus en détail. Lors de la dernière demi-journée, chaque groupe a rendu compte des travaux et avancées faits lors de la séance de travail. Des propositions et suggestions originales sont apparues mais le cœur du processus reste maintenant la décision de financement de ces feuilles de route.2. Atelier bilatéral : une large mobilisation côtés français et suédoisEn marge du sommet du SET-Plan, un atelier franco-suédois portant sur les enjeux de la recherche dans le domaine des énergies bas carbone s’est tenu a Stockholm le vendredi 23 octobre. Afin de développer la coopération entre la France et la Suède dans un domaine scientifique et technologique jugé stratégique, l’Ambassade de France en Suède et le délégué régional du CEA basé a Helsinki ont organisé un atelier bilatéral sur le thème des technologies énergétiques faiblement émettrices de dioxyde de carbone.Préparée en partenariat avec l’ASE, cette rencontre scientifique, qui a réuni une centaine de participants, a permis aux chercheurs et aux acteurs de la R&D d’échanger afin de développer les réseaux et d’identifier des possibilités de collaboration. Du côté français, l’ADEME et l’IFP se sont également associés à cet évènement. Un des objectifs de cet atelier était de permettre aux acteurs des deux pays de développer des synergies dans le cadre des feuilles de route définies par le SET-Plan.3. Des politiques énergétiques française et suédoise tournées vers la réduction des émissions de GESLes acteurs français et suédois de la recherche ont par ailleurs présenté des priorités technologiques assez similaires dont le développement doit être accéléré pour créer une société « décarbonée ». Il en ressort naturellement que les possibilités de coopération sont nombreuses. Chacun des deux pays a ainsi mis en place un programme spécial pour aider au développement et à la construction de démonstrateurs industriels. Ces fonds sont gérés par l’ADEME (400 millions d’euros dans le cadre du Grenelle de l’environnement) et l’ASE (environ 85 millions d’euros).Le message qu’a fait passer le professeur Styring, spécialiste de la photosynthèse artificielle à l’Université d’Uppsala, est aussi à souligner. La recherche fondamentale ne doit pas être délaissée, car c’est elle qui fournira les nouvelles solutions énergétiques de demain.La matinée du 23 octobre a été consacrée à des exposés généraux avec en particulier une intervention de Hervé Bernard, administrateur général adjoint du CEA et de Lars Guldbrand, directeur R&D de l’ASE. La Suède a depuis longtemps une politique très volontariste dans le domaine de l’énergie. De nouveaux objectifs ont cette année encore renforcé les ambitions suédoises. l’ASE est en charge de leur réalisation.4. Quatre types de technologies offrant des possibilités de synergiesLes travaux de l’après-midi se sont articulés autour de quatre thèmes : bioénergies, solaire, réseaux intelligents, capture et stockage du CO2 (CCS). Ces thématiques ont été choisies parmi les huit thématiques du sommet SET-Plan en considérant les spécificités énergétiques de nos deux pays. Les discussions ont permis des échanges très fructueux. En guise de conclusion, les modérateurs de chaque table ronde ont présenté les résultats des discussions à la résidence de l’Ambassadeur et en sa présence : Le directeur de l’ASE a estimé que les acteurs du domaine des bioénergies se connaissaient peu. Une liste de points de contact que l’ASE pourrait identifier en Suède, permettrait de développer ensuite des projets communs.En outre, la France aurait beaucoup à apprendre de la Suède en matière de gestion des ressources et de collecte de biomasse telle que le bois. Les deux pays pourraient également mieux coordonner leurs efforts pour les biocarburants de seconde génération, en particulier dans le domaine de la gazéification.Dans le groupe de travail sur l’énergie solaire animé par Mans Lönnroth, ancien secrétaire d’état à l’environnement et ancien directeur de la fondation suédoise pour la recherche environnementale stratégique (MISTRA), les participants suédois ont été impressionnés par l’étendue des possibilités de l’INES (Institut national de l’énergie solaire) situé à Chambery. Côté suédois, les industriels comme Solibro AB se sont montrés intéressés par les possibilités de test de panneaux. L’approche « carburants solaires », développée à KTH (Ecole royale polytechnique de Stockholm), peut être une voie de développement en synergie à explorer entre nos deux pays.En France et en Suède, l’augmentation de production d’électricité renouvelable, souvent intermittente et décentralisée, oblige à repenser et moderniser nos réseaux électriques conçus pour distribuer l’énergie produite par les centrales nucléaires ou les grands barrages hydroélectriques. Rajeev Thottappillil, professeur à KTH et modérateur de cette session, a donc insisté sur l’importance des réseaux intelligents pour rendre plus efficace notre utilisation de l’énergie.La technologie CCS est habituellement présentée comme une solution pour rendre propre la production électrique à base de charbon. La France et la Suède sont deux cas particuliers de par leur mix énergétique. François Kalaydjian, directeur de la direction des technologies de développement durable de l’IFP, a ainsi insisté sur l’application du CCS pour les bioénergies ou pour les industries comme la sidérurgie. L’énergéticien suédois Vattenfall AB, représenté par Bjarne Korshoj, Vice-president en charge du CCS, compte beaucoup sur cette technologie pour atteindre son objectif de neutralité en carbone en 2050.De manière plus large, les panélistes ont souligné qu’il était important d’envisager des programmes conjoints de formation des futurs ingénieurs et chercheurs dans le domaine des énergies renouvelables et d’accorder une importance accrue au dialogue avec la société civile pour mieux faire comprendre les défis auxquels nous sommes confrontés et les solutions qui se dessinent (cas du CCS).

Pour en savoir plus :

– Les présentations des intervenants sont accessibles sur les pages scientifiques du site internet de cette ambassade : http://ambafrance-se.org/france_suede/spip.php?article2645- Site de l’Agence suédoise de l’énergie : http://redirectix.bulletins-electroniques.com/qyoCP

Origine :

BE Suède numéro 9 (18/11/2009) – Ambassade deFrance en Suède / ADIT -http://www.bulletins-electroniques.com/actualites/61258.htmAntoine Baudoin est chargé de mission scientifique/CEA à l’ambassade de France en Suède

Test de circulation de particules réussi au LHC

Après plus d’un an d’inactivité, le grand collisionneur de hadrons (protons ou ions de plomb), situé entre la France et la Suisse et exploité par le CERN, a été redémarré dans la nuit du 20 au 21 novembre 2009. Sur ces trois derniers jours, deux injections de particules ont eu lieu dans les deux sens dans les anneaux du Large hadron collider (LHC). Objectif à moyen termes : parvenir à faire entrer en collision, à une vitesse proche de la lumière, les particules de ces deux faisceaux afin de faire jaillir des particules élémentaires encore jamais observées. Comment ? Grâce à un puissant champ magnétique, généré par des électroaimants supraconducteurs baignés dans un froid intense de – 271degrés Celsius. En fait, ce redémarrage était préparé depuis la fin de l’été. Le 8 octobre dernier, le LHC atteignait sa température de fonctionnement de 1,9 Kelvin, soit environ – 271 degrés Celsius. Le 23 octobre, des particules étaient injectées dans la machine, sans circuler toutefois. Le 7 novembre, un faisceau était amené dans trois octants de la machine, mais ce n’est que le 20 novembre, que des faisceaux ont de nouveau circulé dans l’anneau.Prochaine étape : les collisions à basse énergie. Elles devraient se dérouler dans une semaine et livreront les premières données qui permettront de mener à bien un travail d’étalonnage. Cette étape sera marquante, car, jusqu’à présent, toutes les données enregistrées par les détecteurs viennent des rayons cosmiques. Il s’agira ensuite de faire monter en énergie les faisceaux, afin de préparer, en 2010, des collisions à 7 TeV (3,5 TeV par faisceau).

Tenter de répondre à des questions fondamentales
D’une circonférence de 26.659 mètres, le LHC qui est composé de structures accélératrices qui augmentent l’énergie des particules qui y circulent et qui contient au total 9.300 aimants, dont 1.234 aimants dipolaires de 15 m de long utilisés pour courber la trajectoire des faisceaux, et 392 aimants quadripolaires de 5 à 7 m de long qui concentrent les faisceaux, est à ce jour le plus grand accélérateur de particules au monde. Les expériences qui y seront menées tentent de répondre à des questions fondamentales telles que :
  • Comment les particules acquièrent-elles leur masse ? Pourquoi certaines n’en ont-elles pas ? Les expériences ATLAS (Toroidal LHC ApparatuS) et CMS (Compact Muon Solenoid) traqueront à cette fin les signes de l’existence du Boson de Higgs, une particule essentielle à la cohérence du modèle standard mais que personne n’a jamais pu observer jusqu’à ce jour.
  • De quoi sont constitués les 96 % de l’Univers invisible ? Encore une fois, les expériences ATLAS et CMS entrent en jeu. Elles chercheront des particules supersymétriques afin de tester une hypothèse plausible sur la nature de la matière noire.
  • Pourquoi la nature préfère-t-elle la matière au détriment de l’antimatière ? L’expérience LHCb, pour Large Hadron Collider beauty, cherchera les différences entre matière et antimatière et contribuera à répondre à cette question.
  • Comment la matière a-t-elle évolué au tout début de l’existence de l’Univers ? L’expérience ALICE pour Large Ion Collider Experiment tentera de répondre à cette question en étudiant les particules qui n’existent plus. Comment ? En recréant, grâce au LHC, des conditions similaires à celles qui régnaient juste après le Big Bang.
Le LHC a fait circuler ses premiers faisceaux le 10 septembre 2008. Mais neuf jours plus tard, en raison d’une connexion électrique défaillante ayant entraîné des dommages majeurs sur 53 de ses aimants, le CERN a été contraint d’arrêter l’accélérateur. Par la suite, il a consacré plus d’un an à réparer et à consolider la machine afin qu’un tel incident ne puisse se reproduire.  En savoir plusLe site du CERN consacré au LHC Photo © CERNA.L.B

Préparer le virage énergétique : quelles alternatives ?

L’isolation est le centre névralgique d’une habitation, puisque c’est à ce niveau là que les plus importantes économies d’énergies peuvent être réalisées. Mais comme le rappelle Didier Roux, directeur recherche et développement chez Saint-Gobain, il est vital de préparer la transition énergétique en consommant dès aujourd’hui des énergies renouvelables. Trois exemples permettent de comprendre que l’utilisation des énergies renouvelables n’est pas uniquement un sacerdoce. En effet, des techniques anciennes, utilisant des énergies propres, ont fait la preuve de leur efficacité, et reviennent aujourd’hui au goût du jour. Ces trois exemples sont le puits canadien, la pompe à chaleur et la pile à combustible.

L’efficacité dans la simplicité
Le puits canadien : il a une fonction de régulateur. Dès que l’on descend à quelques mètres sous terre (deux mètres suffisent), la température est à peu près constante, de l’ordre de 12 à 14 °C, en hiver comme en été. Le but est d’utiliser les propriétés de réservoir thermique inerte du sol pour prendre l’air extérieur et le faire passer par le sol avant de le faire rentrer dans l’habitation. Ainsi, en été, le puits canadien agit comme un climatiseur, et l’hiver le puits a une fonction de chauffage. Ce système est bien sûr tout à fait naturel.Les calculs font état d’une baisse potentielle de la température d’une habitation individuelle de l’ordre de 5 à 8 °C lors des jours de canicule. Le coût d’installation d’un tel système est dérisoire, mais une contrainte persiste. L’installation d’un puits canadien est beaucoup plus facile si sa conception est prévue avant la construction effective de l’habitation. Cela permet de rendre le système de répartition et de distribution de l’air dans l’habitation optimal. La pompe à chaleur fonctionne « comme un réfrigérateur à l’envers ». Couplée avec un puits canadien, la pompe à chaleur permet de récupérer de la chaleur, de façon mécanique, mais avec un rendement tout à fait exceptionnel. Ainsi, pour 1 Kwh consommé, la pompe va produire entre trois et cinq Kwh. Ces performances, tout à fait remarquables, ont permis au marché des pompes à chaleur de se faire une place au sein du secteur ultra concurrentiel de la climatisation. Ainsi, la France était l’année dernière le second marché européen pour ce type d’appareils, derrière la Suède. De plus, jusqu’à la fin de l’année 2009, un crédit d’impôt (à hauteur de 16.000 euros pour les couples mariés) a été mis en place pour favoriser encore plus cette tendance. Cependant, la France fait (une fois n’est pas coutume) état d’un retard dans ce domaine par rapport à certains de ses voisins européens. Un chiffre permet de réaliser le retard français. Dans les pays nordiques, 95 % des maisons neuves sont équipées de pompes à chaleur. En France, ce sont seulement 10 % des maisons neuves qui en sont équipées (voir ci-dessous).

La pile à combustible : une technologie à fort potentiel
La pile à combustible fonctionne à partir d’une combustion contrôlée. Cette combustion provoque de la chaleur, mais aussi de l’électricité. Ainsi, l’idée est de récupérer à la fois l’électricité et la chaleur. Les rendements peuvent donc être très intéressants. Mais la maîtrise de cette technique, notamment au niveau de la récupération de l’énergie, n’est pas au point. Les piles à combustible restent cependant un sujet sur lequel la recherche travaille activement, et des solutions innovantes sortent des laboratoires de recherche régulièrement. Il n’y a aucun doute sur le fait que cette technologie, dans un avenir proche, constituera une solution efficace et à fort potentiel commercial. Au-delà des solutions utilisant des énergies renouvelables, la question de la production d’électricité à partir de ces mêmes énergies renouvelables se pose. Des technologies existent, qui doivent absolument accroître leur efficacité et savoir se rendre concurrentiel pour se faire une place le plus vite possible sur le marché des énergies. La recherche est à pied d’œuvre depuis des années pour rendre les énergies renouvelables concurrentielles, et les résultats sont déjà probants. De plus, il convient de souligner que les énergies renouvelables basent leur technologie sur la transformation d’énergies naturelles, et donc inépuisables. Voyons quelles sont ces énergies, et les performances des technologies mises en place pour transformer cette énergie en électricité. Les énergies hydroélectriques, qui représentent en France 12 % de l’électricité produite, sont depuis longtemps une technologie maîtrisée. Le processus est simple, puisqu’il s’agit de transformer l’énergie cinétique de l’eau (cette énergie cinétique est maximisée en acheminant l’eau à la centrale hydroélectrique par chute) en énergie mécanique. Cette énergie mécanique est ensuite transformée en électricité. De plus l’avantage de cette technique est la possibilité de stocker l’électricité pour la rendre disponible selon la demande.

L’énergie solaire : vers des projets d’exploitation gigantesques
L’énergie solaire, est certainement la seule énergie qui soit à la hauteur, potentiellement, des besoins, en termes de consommation, de la planète. En effet, aujourd’hui, la consommation de la planète en énergie correspond à 0,1 % de l’énergie solaire reçue par la terre. Il s’agit donc d’un réservoir immense, le problème est de la capturer efficacement. Mais on peut également produire de l’électricité à partir de cette énergie. Les centrales à concentrateur sont les systèmes de récupération de l’énergie les plus prometteurs, et des projets très importants sont à l’étude, notamment dans les pays du Maghreb. Par exemple, le projet « Desertec » (voir photo ci dessous) prévoit de couvrir le Sahara de panneaux solaires, sur une superficie équivalente à celle de l’Autriche.L’énergie photovoltaïque, enfin, transforme directement l’énergie solaire en électricité, par l’intermédiaire de « l’effet photovoltaïque ». L’énorme avantage de l’énergie photovoltaïque est qu’elle est diffuse, et peut être transportée directement et facilement. C’est pour cette raison que les panneaux solaires sont une solution d’avenir, notamment dans l’équipement des habitations. Le problème persistant, pour l’instant, du photovoltaïque reste son coût. « Il faudrait diviser les coûts de fabrication et de pose par deux pour rendre cette énergie vraiment compétitive, » ajoute Didier Roux. Au niveau visuel, les progrès sont constants, et les fabricants proposent désormais des solutions intégrées aux bâtiments de plus en plus esthétiques.La biomasse, enfin, fait partie des solutions à l’étude, bien que de nombreux obstacles se dressent encore devant une généralisation de son utilisation. En transformant l’alcool à partir du sucre, on obtient des substances directement utilisables comme carburant. Mais les surfaces à cultiver, la compétition avec l’agriculture restent des contraintes pour l’instant trop fortes.Au final, les solutions existent. Bien sûr, elles ne sont encore ni assez compétitives, économiquement, ni assez aisées à produire pour pouvoir en généraliser l’usage. Pourtant, ces énergies, dont les sources sont inépuisables à l’échelle humaine, sont les seules dont nous disposerons quand les ressources fossiles auront disparu. Au final, la rapidité des progrès faits dans le domaine des énergies renouvelables au niveau de l’exploitation et la quantité de projets lancés depuis quelques années, pourraient rendre les énergies propres rapidement concurrentielles économiquement, au-delà des subventions étatiques qui boostent aujourd’hui un peu artificiellement la consommation d’énergies propres. Par Pierre Thouverez

L’habitat du futur : un retour aux recettes les plus simples ?

Didier Roux, directeur recherche et développement chez Saint-Gobain, le résume très bien : « l’habitat du futur sera très sophistiqué, même si les techniques utilisées seront très anciennes. » Car en raison de l’épuisement des ressources fossiles, la problématique est la même aujourd’hui qu’hier. Il s’agit en fait de copier des techniques qui ont été développées par des populations qui n’avaient pas accès à une énergie peu chère et facile d’emploi. « Par exemple, les maisons troglodytes se servaient déjà de la technique du puits canadien. Construites contre la montagne, qui a une inertie thermique énorme, ces maisons profitent de cette inertie, qui régule la température intérieure de l’habitation en hiver comme en été », explique Didier Roux. Il s’agit là d’un avantage énorme. Le principe des maisons enterrées est similaire et il est encore plus efficace car la terre, en quantité suffisante, est le meilleur isolant thermique et phonique qu’il soit. En fait, l’aspect thermique va bien au delà de la simple isolation.

Des technologies anciennes très efficaces
Le mot isolation, souvent, implique (en hiver) qu’un système de chauffage produit de la chaleur, et que l’habitat est conçu pour la conserver, en gaspiller le moins possible. Dans le cas des maisons enterrées (voir illustration ci-dessous), la couche superficielle de terre de la croûte terrestre a une propriété extrêmement intéressante : à une certaine profondeur (variable selon les régions), sa température est constante, elle agit donc comme un système de chauffage propre !Autre avantage, elle agit comme un système de climatisation durant les chaleurs de l’été. Une maison enterrée est de plus quasi-invulnérable aux tornades et autres évènements climatiques, autrefois « exceptionnels », mais qu’il faut s’attendre à voir devenir de plus en plus violents avec le réchauffement climatique. En Afrique, les habitations en argiles utilisent le principe des matériaux à transition de phase. Ainsi, l’eau, pendant la nuit, se condense à l’intérieur de l’argile, et pendant la journée, lorsque le soleil tape, l’eau s’évapore en rafraichissant l’intérieur de l’habitation. Cette technique fait les preuves de son efficacité depuis des milliers d’années. Aujourd’hui, les connaissances que nous avons sur les matériaux à transition de phase nous permettent, en copiant ces techniques, de les rendre beaucoup plus efficaces énergétiquement.

Le meilleur exemple : l’igloo
Enfin, l’exemple le plus sophistiqué, et de loin, est l’igloo. Sa conception met en avant plusieurs principes très intéressants. Tout d’abord, l’igloo est une habitation isolante. La couche de neige immobilise de l’air et permet d’avoir à l’intérieur une température viable, alors que la température extérieure est souvent proche des -40 °C.Mais cela ne suffit pas, car les propriétés poreuses de la neige ont un défaut, elles permettent au vent de passer à travers la couche isolante. Il faut donc ajouter une membrane « coupe vent » : en fait, quand l’igloo est habité, la chaleur dégagée par les occupants fait fondre légèrement la paroi interne de l’igloo. Ainsi, la neige se transforme en glace et empêche le vent de pénétrer à l’intérieur de l’igloo. « Les techniques d’isolations novatrices d’aujourd’hui utilisent ce principe de membrane », précise Didier Roux. Ce n’est pas tout. Notre corps émet un rayonnement à 37°C. Les parois blanches de l’igloo réfléchissent ce rayonnement, ainsi que les rayons infrarouges. La forme ronde de l’igloo fait le reste, en renvoyant ce rayonnement directement sur les occupants.Dans un igloo, on peut donc dire que l’occupant est son propre radiateur. Le principe en cause ici est celui utilisé pour les fenêtres équipées de couches d’argent qui empêchent le rayonnement de s’échapper. Dans un igloo, même si l’air est à 0°C, le corps a l’impression de subir une température de 15°C, uniquement à cause du rayonnement, ce système est donc des plus efficaces.

Trouver des solutions alternatives concurrentielles
Au final, on remarque que des techniques assez simples permettent, avec une efficacité remarquable, de limiter sa consommation d’énergie. Mais il faut aller au-delà. Les énergies fossiles sont de plus en plus rares, et même si les questions d’approvisionnement ne se posent pas pour le moment, l’homme doit penser sa consommation énergétique différemment, pour mieux préparer l’avenir. Mais le problème ne concerne pas que l’épuisement des ressources fossiles. Les rejets de CO2 dans l’atmosphère, inhérents à la consommation des énergies fossiles, sont à la base d’un processus biologique qui voit la température terrestre moyenne augmenter avec une rapidité jamais observée auparavant. Ainsi, il ne s’agit plus uniquement de préparer la transition énergétique, mais de limiter au maximum les émissions de CO2 liées à l’activité humaine. La compétitivité des énergies propres n’est pas encore optimale. Et malgré la bonne volonté affichée par les Etats, il est certain que la consommation des énergies fossiles ne diminuera pas tant qu’une solution propre alternative, compétitive économiquement, et au rendement comparables à celui obtenu grâce au pétrole, ne sera pas généralisée.Par Pierre Thouverez

Prévoir l’évolution du climat

Les modèles informatiques de prévision du climat sont nombreux. Souvent appliqués à un écosystème particulier, ils sont de plus en plus précis, mais sur une échelle de temps les résultats sont souvent peu fiables. Dès qu’une nouvelle version est élaborée et avant qu’elle ne soit utilisée pour simuler les changements climatiques futurs, elle est soumise à une batterie de tests d’évaluation, qui consistent à confronter ses résultats aux observations. Pour ce faire, on intègre le modèle sur quelques décennies en séparant ses différentes composantes ou en les couplant. L’un des tout premiers tests est la vérification de l’équilibre radiatif au site calculé au sommet de l’atmosphère et la comparaison des différentes composantes radiatives (dans les domaines visible et infrarouge) à des données issues de satellites. Les moyennes des variables atmosphériques ou océaniques calculées sur la période simulée sont aussi comparées aux moyennes des données fournies par les réseaux d’observations in situ ou satellitaires.Des analyses plus poussées permettent de vérifier si le modèle reproduit les principales caractéristiques des variations connues, telles que les épisodes El Niño, les moussons ou les oscillations de pression aux moyennes latitudes. On tente aussi de reproduire une chronologie en contraignant le modèle par des conditions aux limites. Dès lors, on peut analyser finement la variabilité interannuelle, comme le contraste entre le climat de l’année 1987, marquée par un épisode El Niño important, et l’année 1988, qui a connu un épisode froid dans le Pacifique Est-équatorial. Par ailleurs, au niveau international, on compare les modèles entre eux et aux mêmes observations. Cela permet de multiplier les analyses et de mieux identifier l’origine des erreurs.

Différents scénarios de changement climatique
Pour répondre aux questions posées par le changement climatique et ses impacts, le GIEC utilise les modèles du système climatique et des études économiques et démographiques. Ils composent, non pas des prévisions, irréalisables à l’échelle de plusieurs décennies, mais des scénarios d’évolution du climat, supposés couvrir un large éventail d’évolutions possibles.Dans un premier temps, on élabore des scénarios d’émissions anthropiques des principaux gaz à effet de serre (gaz carbonique, méthane, protoxyde d’azote, etc.) entre 1990 et 2100. On propose aussi des scénarios d’émissions de particules dans l’atmosphère dont les conséquences sur le climat sont inverses de celles des gaz à effet de serre : ils sont en effet responsables d’une absorption du rayonnement solaire, de l’augmentation du pouvoir réfléchissant des nuages et de la durée de vie de ces derniers, effets allant dans le sens du refroidissement du climat.Grâce à des modèles de transport et d’échanges à la surface terrestre, ces scénarios d’émissions sont transformés en scénarios de concentration de gaz à effet de serre et d’aérosols sulfatés dans l’atmosphère. Ces derniers servent alors d’entrée aux modèles du système climatique qui calculent leurs impacts sur le climat. Partant de ces résultats, le GIEC a réalisé en 2001 une synthèse qui évalue le réchauffement climatique entre 1990 et 2100 dans une fourchette de 1,4°C à 5,8°C. La largeur de la fourchette est due quant à elle aux incertitudes inhérentes à ces évaluations, d’une part, les différences entre les scénarios d’émission de gaz et de particules utilisés dans les projections climatiques et, d’autre part, les incertitudes de la modélisation climatique elle-même. On classe ces dernières en trois catégories.
  • Dans la première se trouvent les incertitudes sur les paramètres d’entrée des modèles ;
  • La deuxième catégorie comporte les incertitudes liées à la conception des modèles, qu’elles proviennent des équations utilisées, ou du traitement numérique de ces données. On y inclut aussi l’absence de représentations de certains processus, négligés ou mal connus ;
  • Une troisième source d’incertitude est le caractère en partie chaotique du climat qui se traduit par le fait qu’un même modèle partant de deux états climatiques proches calcule deux évolutions climatiques notablement différentes.

Les dernières simulations
Un nouvel exercice de simulation du climat futur, coordonné au niveau international, a été réalisé dans le cadre de la préparation d’un rapport du GIEC. Une quinzaine de groupes, mettant en œuvre une vingtaine de modèles différents, ont simulé le climat du XXe et du XXIe siècles suivant les scénarios recommandés par le GIEC. Pour la première fois, on a considéré des scénarios de stabilisation de la concentration des gaz à effet de serre à partir de 2100, préfigurant les conséquences du protocole de Kyoto et de ses suites éventuelles. Deux groupes français de recherches climatiques, le Centre national de recherches météorologiques (CNRM) de Météo-France et l’Institut Pierre Simon Laplace (IPSL) du CNRS et du CEA ont participé à cet exercice.Malgré les différences entre les modèles utilisés, le réchauffement planétaire moyen calculé est voisin de 4°C en 2100 pour le scénario le plus pessimiste présenté. Les scénarios de stabilisation indiquent que le système climatique continuerait à se réchauffer de 0,5°C à 0,7°C entre 2100 et 2300, ce qui souligne l’inertie du système. Les répartitions des changements de température ou de précipitation calculées par les deux modèles sont comparables à très grande échelle spatiale. Cependant les différences sont sensibles à l’échelle d’une région particulière de la planète (par exemple les régions de mousson ou l’Atlantique Nord).Cela montre l’intérêt d’utiliser plusieurs modèles et d’en analyser les résultats de manière combinée pour mieux interpréter l’origine des incertitudes sur les changements climatiques simulés. Les modèles du système climatique ne sont qu’un maillon d’une longue chaîne d’études du changement climatique et de ses impacts socio-économiques. Les progrès de la modélisation du système climatique dans son ensemble sont essentiels pour améliorer notre compréhension des observations récentes, et pour affiner les scénarios d’évolution future. Ces progrès ont permis au GIEC d’être plus affirmatif en 2001 qu’il ne l’était quelques années auparavant concernant l’influence humaine sur le réchauffement climatique des 50 dernières années.

Des modélisations qui progressent sans cesse
Les voies de progrès de ce type de modélisation sont multiples. Une première voie consiste à introduire dans le modèle des processus dont l’impact sur le changement climatique a été jusque-là négligé ou pour lesquels les connaissances étaient insuffisantes : l’effet des aérosols carbonés, le rôle des processus biologiques dans le cycle du carbone, entre autres. Le caractère multidisciplinaire de la construction des modèles du système climatique est donc encore appelé à se renforcer. Une deuxième voie de progrès est l’amélioration de la résolution des composantes, en particulier atmosphériques et océaniques, afin de mieux représenter les phénomènes extrêmes.On utilise actuellement des modèles climatiques de plus forte résolution sur des régions d’étendue limitée, pour étudier les impacts régionaux du changement climatique. Une troisième voie devrait consister à élargir l’ensemble des simulations réalisées pour un même scénario afin de mieux prendre en compte les incertitudes de la modélisation. L’objectif est d’affecter une probabilité aux changements climatiques calculés sur les différentes régions de la planète. Il nous faudra pour cela progresser dans la connaissance du fonctionnement du système climatique, et accroître les moyens de calcul alloués à la modélisation.

Source :
Revue Pour la science (numéro de juillet/septembre)

L’isolation : trouver les réponses dans l’innovation

Certes, il faut améliorer l’efficacité énergétique des bâtiments, car un tiers de la facture énergétique mondiale s’y raccroche. Mais quels sont les principaux réservoirs d’économie d’énergie ?

« Un des premiers axes de travail concerne l’isolation des bâtiments. C’est une des voies privilégiées », explique Didier Roux, directeur recherche et développement chez Saint Gobain.

Cependant, il est indispensable de garder à l’esprit qu’adopter des techniques d’isolation a un coût. En effet, les travaux sont en général conséquents pour refaire l’isolation d’un bâtiment, « mais les économies postérieures en termes de chauffage sont souvent si importantes que l’équilibre financier est assez rapidement atteint », insiste le directeur recherche et développement de Saint-Gobain.

Le futur passe par l’utilisation d’isolants minces

Le bois est un matériau intéressant. Mais les solutions d’isolation pour la rénovation se révèlent insuffisantes, au regard des contraintes imposées lorsqu’on travaille sur un bâtiment ancien. Les solutions actuelles, comme la laine de verre par exemple, font en effet appel à des épaisseurs importantes, afin de créer une couche d’air suffisante pour être efficace. Or, diminuer cette épaisseur est très difficile. C’est pourquoi, les chercheurs travaillent aujourd’hui sur de nouveaux matériaux. Ces solutions mettent la plupart du temps en œuvre des isolants minces dont les performances sont similaires aux matériaux d’isolation plus conventionnels.

Mais isoler les murs ne suffit pas. Il faut également isoler les vitrages et pour cela, plusieurs techniques existent. Ainsi, il est possible d’apposer une série de fines (quelques nanomètres) couches d’argent, qui empêche les radiations émises par la chaleur de s’échapper du bâtiment. Un double vitrage couplé à de fines couches d’argent (souvent 17 ou 18 couches sont apposées les unes sur les autres, sans altérer la transparence de la vitre), permet déjà d’avoir des performances d’isolation intéressantes.

La meilleure solution reste néanmoins le triple vitrage (toujours avec des couches d’argent), qui permet également de chauffer l’habitat, et dont les performances isolantes sont supérieures à celles d’un mur.

Inventer des systèmes d’isolation nouveaux

Mais inventer des matériaux nouveaux ne suffit pas toujours. Il faut également inventer de nouveaux systèmes. En effet, il est très difficile de rénover l’isolation de certains bâtiments. C’est le cas, par exemple, des immeubles d’habitations. « On ne peut pas demander aux habitants de refaire totalement l’ensemble de leur intérieur, rappelle Didier Roux. Des nouvelles technologies, venues des pays nordiques, permettent d’isoler les bâtiments par l’extérieur, sans rien modifier de l’intérieur. »

C’est la solution qui a été adoptée pour rénover la gare de Strasbourg (photo ci-dessous). Une coque de verre, entoure désormais l’édifice et améliore fortement l’efficacité énergétique du bâtiment, tout en en augmentant la capacité au sol.

large

Les matériaux plastiques permettent aussi de recouvrir des surfaces importantes. Cette technique a été notamment utilisée pour recouvrir la piscine olympique des JO de Pékin avec des polymères fluorés :

large

Enfin, les murs végétaux, même si leur utilisation est et restera exceptionnelle, constituent également une méthode d’isolation pertinente et efficace, même si elle est plus complexe à mettre en œuvre et donc à généraliser.

Passer de l’isolation statique à l’isolation dynamique

Côté recherche, la période est charnière, puisque d’une isolation statique, nous sommes en train de passer à une isolation dynamique. Dans le détail, les scientifiques n’essaient plus de protéger un système en l’isolant, mais privilégient plutôt « des systèmes dits réactifs, jouant un rôle actif dans l’isolation du bâtiment », précise Didier Roux.

Deux évolutions vont dans ce sens. La première intègre l’utilisation des matériaux à transition de phase. L’eau, par exemple est un matériau à transition de phase, car elle peut passer d’un état liquide à un état solide ou gazeux. Les changements de phase s’accompagnent d’un stockage d’énergie. La phase inverse restituera cette énergie. Les matériaux à transition de phase sont donc utilisés pour stocker de l’énergie.

Un système mis en place à Vienne permet de cette manière d’isoler des murs de façon dynamique. Concrètement, il s’agit d’un mur constitué d’une plaque de verre, avec un système optique qui filtre les rayons du soleil selon leur angle d’impact sur la plaque de verre.

Derrière ce dispositif, côté intérieur, se trouve une couche constituée de matériaux à transition de phase. En été, les rayons du soleil ne pénètrent pas jusqu’à la couche de matériau en transition de phase (à cause de leur angle d’impact). En revanche, l’hiver, en raison d’une inclinaison différente de ces mêmes rayons, c’est le contraire qui se produit. Les matériaux en transitions de phase sont alors chauffés par les rayons du soleil, passent de l’état solide à l’état liquide, et diffusent cette chaleur accumulée pendant la nuit, dès que la température baisse. Ce système, complètement naturel, est tout à fait innovant.

Deuxième évolution, remarquable d’ingéniosité, le verre électrochrome (voir exemple sur la photo ci-dessous), qui change de teinte selon le courant électrique qui le traverse, grâce à des capteurs. Ainsi, en fonction de l’intensité lumineuse, on peut doser la teinte du verre et ainsi la quantité de lumière qui traverse la vitre.

large

Ces deux exemples ne constituent pas une liste exhaustive des solutions innovantes en matière d’isolation, mais elles montrent que l’alternative à la consommation d’énergies fossiles existe. L’isolation est un enjeu majeur pour l’habitat du futur, et même si les contraintes sont multiples, notamment en ce qui concerne la rénovation des anciens bâtiments, aujourd’hui les réponses existent.

L’éclairage, un secteur à réviser dans son ensemble

Dans une moindre mesure, l’éclairage est un domaine où les économies d’énergies sont réalisables en masse et qui aujourd’hui est en pleine transformation. « Historiquement, l’éclairage est une technique peut économe au niveau énergétique : en effet, 98 % de l’énergie produite par une ampoule à incandescence l’est sous forme de chaleur, seulement 2 % de l’énergie produite sert à l’éclairage à proprement parler. Cet état de fait devient problématique aujourd’hui, devant l’augmentation continue des besoins en électricité », glisse Didier Roux.

De fait, un nouveau type d’éclairage est apparu : l’éclairage électronique. Le principe reprend à l’inverse celui du photovoltaïque. L’électricité, en traversant un matériau luminophore, va produire de la lumière. On trouve deux types d’éclairage électronique : les LED, de plus en plus répandues, qui équipe entre autres les éclairages automobiles, produisent de la lumière grâce à des cristaux.

Le deuxième, qui n’existe pas encore dans le commerce, est l’OLED. Au lieu des cristaux, c’est de la peinture qui va permettre de produire de la lumière. Grâce à l’application de couches de peintures luminophores entre deux couches d’un matériau permettant de faire la jonction électronique, on obtient des surfaces éclairantes.

Bien sûr, les applications pour l’habitat sont légions. On peut tout à fait imaginer des sols, ou des murs éclairants. La possibilité d’intégrer l’éclairage aux matériaux de construction, et celle de choisir les couleurs voulues, à volonté, offrent des perspectives esthétiques novatrices.

Par Pierre Thouverez

WiFi ? WiMax ? Guerre de normes dans le smartgrid américain

Le Wi-Fi espère profiter de sa prépondérance actuelle dans l’informatique pour s’imposer dans le smartgrid, alors qu’il est concurrencé par d’autres technologies, dont le WiMax, capable de transmettre des données sur de plus grandes distances.La WI-FI Alliance veut convaincre l’agence des normes américaines, la National Institute of Standards and Technology, qui doit aider le gouvernement à établir des normes d’interopérabilité pour le smartgrid.Les sociétés du secteur du smartgrid, elles, sont pour l’instant divisées entre les différentes normes : la start-up américaine Grid Net, par exemple, a mis au point une solution de transmission des données en WiMax, qui vient d’ailleurs d’être choisie pour un chauffe-eau intelligent lancé par General Electric, un partenaire de Grid Net.Un chauffe-eau qui est l’un des premiers appareils électroménagers intelligents lancés aux Etat-Unis, et prend de vitesse Whirlpool qui compte vendre un million de sèche-linge intelligents aux Etats-Unis l’an prochain. GE promet aussi d’autres appareils électroménagers à grande échelle à l’horizon 2012, à partir de tests qu’il mène actuellement à Louisville.La norme Zigbee en embuscadeMais la technique qui semble avoir le vent en poupe est une alternative au Wi-fi, une norme de communications sans fil destinée à être utilisée à l’intérieur des logements, et qui reste la plus souvent adoptée par les nouvelles start-up du secteur: la norme Zigbee, fer de lance des sociétés de prises électriques intelligentes ou de compteurs intelligents comme EnergyHub ou Ember.Selon le cabinet de recherche In-Stat, le marché mondial des compteurs sans fil à transmission ZigBee atteindra 292 millions d’unités en 2012. Et ce même si pour l’instant, ces appareils ne peuvent manifester aucune intelligence puisque les foyers américains ne sont pas encore équipés des compteurs intelligents avec lesquels ils doivent communiquer – leur déploiement se fera surtout à partir de l’an prochain – et qu’en outre la majeure partie des Etats américains ont des tarifs uniques d’électricité, sans distinguo heure creuse/heure pleine, et que donc le plus intelligent de ces appareils serait bien en peine de choisir entre des tarifs. 

Source :
Green Univers

IBM fait un pas de plus vers le cerveau virtuel

Penser différemment le fonctionnement des ordinateurs pour les rendre plus performants en rapprochant leur modus operandi de celui d’un cerveau… tel est l’objectif d’un groupe de chercheurs d’IBM aux Etats-Unis. Or, d’après la présentation qu’ils ont faite lors de « Super computing Conference » le 18 novembre 2009, il semblerait que ces derniers aient fait un pas de plus sur cette voie. Après avoir simulé 40 % du cerveau d’une souris en 2006, le cerveau complet d’un rat en 2007, ceux-ci sont parvenus à simuler le fonctionnement en temps réel d’un cerveau dont les capacités sont celles d’un chat, soit environ 1 milliard de neurones et 10.000 milliards de synapses. L’objectif de leurs travaux étant moins pour l’instant de reproduire la vitesse de traitement des informations, puisque leur prototype fonctionne 100 fois moins vite que le cerveau d’un chat, mais d’étudier la manière dont se forment les pensées. Pour y parvenir, les chercheurs d’IBM ont utilisé des moyens hors normes. En plus d’un simulateur incorporant un certain nombre d’innovations en termes de calcul, de mémoire et de communication, ils ont développé, en collaboration avec des chercheurs de l’université de Stanford, un algorithme capable de demander à un superordinateur d’imiter le fonctionnement présumé d’un cerveau. Cette machine, basée au laboratoire national Lawrence Livermore et baptisée BlueGene/P, est elle-même surdimensionnée, puisqu’elle contient 147.456 processeurs et 144 téraoctets de mémoire.Quant au principe de l’expérience, il s’agissait de présenter à la machine des images et des logos afin de cartographier avec précision les différentes parties du cerveau virtuel impliqué dans la reconnaissance de ces objets. L’objectif final étant d’accumuler des connaissances pour construire des ordinateurs capables de gérer l’ambiguïté d’une situation et d’intégrer des sens comme l’ouïe, la vue ou encore le toucher, dans leur mode de fonctionnement.Au delà, ces travaux pourrait avoir une autre application étroitement liée au développement de l’Internet du futur : à savoir, disposer d’ordinateurs capables de traiter et surtout d’interpréter une masse croissante d’informations en provenance d’une multitude de capteurs (lire Internet du futur : ce que l’Europe est prête à financer). Un défi qu’une meilleure compréhension des mécanismes d’apprentissage du cerveau pourrait contribuer à relever.  » Etant donné que les mondes numérique et physique ne cessent de s’interpénétrer, et que l’informatique est de plus en plus présente dans notre vie quotidienne, il devient impératif de créer des systèmes informatiques plus intelligents qui puissent nous aider à comprendre la quantité d’informations de plus en plus importante à notre disposition, un peu à la manière de notre cerveau qui est capable d’interpréter et d’agir rapidement sur des tâches complexes,  » commente Joséphine Cheng, directrice du laboratoire de recherche d’IBM.Un champ d’investigation qui en tout cas a retenu l’intérêt des investisseurs. IBM ainsi que ses partenaires universitaires ont en effet obtenu un financement additionnel de la DARPA (Defense Advanced Research Projects Agency) d’un montant de 16,1 millions de dollars. Mais ce champ d’investigation n’en demeure pas moins ardu, la complexité du cerveau étant telle, qu’il faudra peut-être du temps avant d’en percer les mystères, même avec l’aide de superordinateurs.  La valse des supercalculateursLes choses vont très vite dans le petit monde des supercalculateurs. L’édition de novembre 2009 du Top 500 des supercalculateurs les plus puissants au monde bouleverse la donne par rapport à celle de juin. RoadRunner d’IBM, basé au Los Alamos National Laboratory (Etats-Unis), qui dominait le classement de juin 2009 (lire Les Etats-Unis champions du monde des supercalculateurs), a été détrôné par le Cray XT5 baptisé Jaguar de l’Oak Ridge National Laboratory (Etats-Unis). Celui-ci affiche désormais une performance de 1,75 pétaflops au test Linpack (pour une puissance-crête théorique de 2,3 pétaflops). La suite du classement est elle aussi quelque peu bouleversée.En troisième position, apparaît désormais un autre système Cray XT5 implanté, lui, à l’Université du Tennessee (832 téraflops). Ce qui relègue en quatrième position le système IBM BlueGene/P de 825,5 téraflops installé au Forschungszentrum Juelich (FZJ) en Allemagne. Ce dernier arrive tout juste devant un nouveau venu, la machine d’origine chinoise (le Tianhe-1) qui fonctionne au Centre national de calcul hautes performances de Tianjin (lire Le supercalculateur Tianhe dépasse le pétaflop)Malgré ces changements, les Etats-Unis restent toujours en tête des plus gros superordinateurs. Voir la liste du Top 500 : http://www.top500.org/lists/2009/11 A.L B 

Le supercalculateur Tianhe dépasse le pétaflop

http://www.bulletins-electroniques.com/actualites/61252.htmRéalisé par l’Université Nationale des Technologies de Défense de Changsha (Province du Hunan), le superordinateur Tianhe (Voie Lactée en mandarin) a été proposé pour figurer sur la liste des 500 plus puissants supercalculateurs au monde. Il devrait se classer parmi les 10 calculateurs les plus rapides.« Voie Lactée » pèse 155 tonnes et occupe une superficie de 1.000 m². Il est composé de 103 « armoires », 6.144 processeurs Intel et de 5.120 processeurs graphiques AMD. Sa vitesse de pointe théorique devrait excéder le pétaflop (1.015 opérations en virgule flottante par seconde). Les 600 millions de yuans (88,24 millions de dollars US) nécessaires à sa construction ont été financés par le programme chinois de recherche et développement des hautes technologies (863) et par la Nouvelle Zone de Binhai. Actuellement situé à Changsha, il devrait être installé avant la fin de l’année au Centre National des Superordinateurs à Tianjin.Sa vitesse de pointe théorique est de 1,206 pétaflop, mais seulement de 563,1 téraflops lors du test Linpack. Ce dernier, basé sur le temps mis par un ordinateur pour résoudre un système de n équations à n inconnues, permet d’estimer son comportement face à des problèmes mathématiques complexes. Pour « Voie lactée », le rapport R = N_Linpack / N_Max = 563,1/1206 soit environ 47 % est toutefois bien inférieur à la moyenne des supercalculateurs, qui atteignent en général 75 %.D’après les déclarations officielles, il servira au traitement de données sismiques pour l’exploration du pétrole, à réaliser des calculs pour des applications biomédicales, des prévisions météorologiques à long terme et pour des analyses financières ; il pourrait aussi être utilisé pour du contrôle de pollution.La Chine devient le 3ème pays après les Etats-Unis et le Japon (utilisant aussi des processeurs Intel) à développer un superordinateur atteignant le pétaflop, à un coût moindre que ses concurrents aux performances similaires. Si ses performances actuelles plutôt moyennes en limitent l’utilisation, des microprocesseurs de fabrication chinoise lui seront ajoutés ultérieurement, témoignant de la volonté chinoise de se doter d’une puissance de calcul de niveau mondial, déjà affichée par la mise en service en juin 2009, à Shanghai, du Magic Cube (230 Téraflops de pointe).  Pour en savoir plus : BE 69, le superordinateur  » Magic Cube « , http://www.bulletins-electroniques.com/actualites/59507.htmSource : Xinhua, 29/10/09, http://news.xinhuanet.com/english/2009-10/29/content_12356478.htmRédacteur : Anthony Nowocien [email protected]Origine : BE Chine numéro 79 (17/11/2009) – Ambassade de France en Chine / ADIT – http://www.bulletins-electroniques.com/actualites/61252.htm  

Quel est le coût des énergies renouvelables ?

Alors que les énergies éoliennes et solaires ont le vent en poupe, une récente étude du Centre d’observation économique et de Recherche pour l’Expansion de l’économie et le Développement des Entreprises remet de nouveau en question leurs avantages.

Pas de surcoût de l’énergie éolienne

Le Grenelle de l’environnement prévoit dans son plan de développement des énergies renouvelables une production de 59 TWh d’électricité d’origine éolienne. Pour réaliser ce programme, les investissements s’élèveraient à 22 milliards d’euros pour l’éolien terrestre et à 14 milliards d’euros pour l’éolien maritime.

La rentabilité de ces nouvelles énergies est liée aux prix du baril de pétrole. Plus le baril est cher et plus les nouvelles énergies sont rentables. Avec l’hypothèse d’un baril de pétrole à 150 $ en 2020, le prix de l’électricité serait d’environ 85 $/MWh. Ainsi, l’énergie éolienne couterait 4,9 milliards d’euros de plus que l’énergie produite d’une manière conventionnelle puisque le mégawatheure éolien couterait encore 82 $/MWh en 2020.

Heureusement, l’éolien est une énergie propre : cette production éviterait le rejet de 5,4 millions de tonnes de CO2 par an. Ces émissions de gaz à effet de serre ont un coût (30 € par tonne aujourd’hui, 100 € en 2030). L’avantage environnemental se chiffrerait donc à 3,9 milliards d’euros.

Avec l’hypothèse d’un baril de pétrole à 150 $, le bilan global de l’énergie éolienne est donc légèrement négatif (perte de 1 milliard d’euros par rapport à une production classique). Compte tenu des incertitudes, on peut considérer que l’énergie éolienne n’est pas rentable mais qu’elle n’entraîne pas non plus de surcoût.

Un bilan global négatif de l’énergie solaire

Cette fois, pour réaliser le programme de développement préconisé par le grenelle, les investissements seraient de 19 milliards d’euros pour produire 5,3 TWh d’origine photovoltaïque. Comme un mégawatt électrique d’origine solaire couterait 290 € (moyenne entre 2007 et 2020), le surcoût de cette production serait de 10,8 milliards d’euros, avec la même hypothèse que précédemment sur le prix du baril de pétrole (150 $). Or l’avantage environnemental se chiffrerait à 0,5 milliard d’euros. Ainsi, le bilan global du photovoltaïque est très fortement négatif.

Le tableau ci-dessous résume l’analyse coûts-bénéfices selon trois hypothèses d’environnement économique :

original

En résumé, si cette production favorise la création d’emplois et minimise notre impact sur l’environnement, elle imposera un surcoût aux consommateurs et à l’économie française. Cela se traduira par une hausse des tarifs ainsi que par une baisse du pouvoir d’achat. Mais, plus le prix du pétrole augmentera et plus ce choix sera légitime. C’est une manière d’augmenter notre indépendance énergétique.

Sources :

Evaluation socio-économique duprogramme de production d’électricité éolienne et photovoltaïque, Michel Didier, Gilles Koléda, octobre 2009, Coe-Rexecode.
Qui paye pour l’électricité éolienne, pour quel bénéfice ?, Pierre Bacher, août 2009, Techniques de l’Ingénieur.

Laurence Royer est étudiante à l’Ecole Centrale de Paris. Elle a été primé au concours organisé par SIA-Conseil, L’Expansion et RTE sur le thème Energies et Avenir.

Les Etats-Unis envisagent des échanges avec l’Union Européenne en matière d’éolien offshore

Un nouveau rapport cité le 11 novembre dernier par le ministère américain de l’Energie (US DOE), appelle à une meilleure coordination entre les organismes gouvernementaux, les universités et les entreprises de façon à développer l’énergie éolienne offshore aux Etats-Unis.En fait, ce rapport est l’étude publiée à la fin du mois d’octobre 2009 par l’US Collaborative Offshore Wind (USOWC) sous le titre « U.S. Offshore Wind Energy : A Path Forward » (« L’énergie éolienne en mer aux Etats-Unis : un pas à franchir ») et qui se voulait une sorte d’exhortation à l’action dans le domaine de cette ressource renouvelable.Citant une enquête du DOE précisant que les États-Unis possèdent un potentiel de 900.000 MW à partir des ressources éoliennes en mer, le rapport passe en revue tous les sites possibles pour faire de l’éolien sur les côtes américaines une réalité. Parmi les recommandations : outre cette meilleure et nécessaire collaboration déjà prônée mille fois entre les entités gouvernementales, les universités, les entreprises et toutes les parties prenantes dans le développement éolien (collaboration qui ne se manifeste toujours pas), l’étude recommande la création d’une mégabase de données informatiques sur l’éolien offshore ; la convocation de réunions entre les divers Etats des Etats-Unis ayant des intérêts communs dans l’éolien offshore ainsi que la convocation de réunions entre les États-Unis et les pays de l’Union Européenne impliqués dans le développement de l’éolien offshore ; la mise en place d’un leadership américain pour bâtir la confiance du grand public et conforter la confiance des investisseurs dans le potentiel éolien offshore.Le DOE confirme que les efforts actuels déployés pour développer l’énergie éolienne offshore aux États-Unis comprennent plus que jamais les 468 MW du projet Cape Wind , proposé pour Horseshoe Shoal à Nantucket Sound, à environ 4.7 miles au large des côtes de Cape Cod et qui devrait être le tout premier parc éolien offshore américain construit (bien que, je le rappelle encore, ce projet soit en attente d’un permis fédéral et doive faire face à l’opposition de tribus indiennes). En liste prioritaire aussi : le projet signé dans l’Etat du Delaware par Bluewater Wind pour fournir 200 MW d’énergie éolienne offshore à Delmarva Power, qui devrait être effectif autour de 2012. Dans le Maryland, le Maryland Energy Administration (MEA) a récemment lancé une nouvelle initiative visant à explorer méthodiquement le potentiel de développement des ressources éoliennes offshore de l’État. En Caroline du Nord, Duke Energy Corporation et University of North Carolina at Chapel Hill ont récemment annoncé leur intention d’implanter trois turbines de démonstration à l’est du détroit de Pamlico, à 7/10 miles de l’OuterBanks.J’ai également longuement écrit à propos des efforts déployés tant côté canadien qu’américain pour développer l’énergie éolienne offshore sur les Grands Lacs (Lac Supérieur, Lac Michigan, Lac Huron, Lac Erie, Lac Ontario). L’an dernier, le Land Policy Institute (LPI) University of Michigan a publié un rapport sur l’énergie éolienne en mer selon lequel un potentiel de près de 322 GW (gigawatts) serait disponible au large des rives de l’État du Michigan.En septembre 2009, le Michigan Great Lakes Wind Council (GLWC) a remis au gouverneur de l’État, un document relevant les 587 miles carrés appartenant à l’État du Michigan dans les Grands Lacs qui sont considérés comme « les plus favorables au développement de l’énergie éolienne » et a répertorié les modifications législatives et juridiques nécessaires pour encourager le développement des ressources extra-côtières (la plupart de ces lacs sont traversés par une frontière avec le Canada et par d’importantes voies de navigation).En septembre dernier aussi, Great Lakes Energy Development Task Force, structure basée dans l’Ohioqui agit pour le développement énergétique sur l’ensemble des Grands Lacs américains, avait publié une étude de faisabilité cofinancée par l’université indépendante Case Western Reserve University (CWRU), concernant l’installation d’un parc éolien dans le lac Érié, au large de Cleveland. Cette étude de faisabilité révélait qu’un projet pilote de 20 MW, situé à 3-5 miles de la côte, serait possible à installer et coûterait 92 millions de dollars. Case Western Reserve University (CWRU) a contribué à financer le rapport.Manifestement, et malgré les lenteurs administratives désormais légendaires des Etats-Unis (qui n’ont rien à envier à celles de tous les autres pays du monde), une volonté de prendre le leadership du développement éolien offshore avant 2020 voire avant 2015 se dessine clairement. Le souhait d’une collaboration avec les pays concernés de l’Union Européenne constitue, si elle est suivie d’effets, une déclaration majeure.L’étude de US Collaborative Offshore Wind (USOWC), à laquelle se réfère le DOE, peut être téléchargée dans son intégralité (PDF 619 ko) sur le site de l’USOWC ICI. 

Source :
Les énergies de la merPar Francis Rousseau, rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les énergies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

Salon des Maires : l’informatique et l’électronique à l’honneur des prix de l’innovation

Le palmarès 2009 des prix de l’innovation du salon des Maires et des Collectivités Locales, récompensant des produits, matériels, procédés, systèmes, techniques ou services innovants, est tombé ce matin. Un bon cru selon les organisateurs du salon. Au total, 155 dossiers ont été retenus et classés en huit catégories : accessibilité (10), aménagement urbain (19), bâtiment, travaux publics / voirie (16), environnement / énergie (44), informatique / télécommunications (14), institutionnel, finances, services aux collectivités (21), matériel, transport, véhicules (10), et prévention, sécurité (21). » Il a eu beaucoup de propositions intéressantes, admet Jacqueline Gourault, vice-présidente de l’Association des maires de France (AMF), sénateur-maire de la Chaussée Saint Victor (41), et présidente du jury des prix de l’innovation. Mais dans cette période d’inquiétude pour les élus, nous avons été particulièrement sensibles au fait que les projets soient chiffrés, car cela nous aide à imaginer comment ils peuvent être appliqués dans nos collectivités,  » poursuit-elle. En d’autres termes, si le slogan « Dépenser moins, dépenser mieux » a été le leitmotiv de l’édition 2008 du salon, il demeure d’actualité en 2009.Mais concrètement, comment cela s’est-il répercuté sur le choix des innovations intégrant informatique, électronique et télécommunication ? Au final, le bilan est plutôt positif puisqu’au total, trois projets appartenant à ce segment ont été récompensés.

Le premier d’entre eux est l’automate Distriplis. Conçu par la société éponyme, Distriplis SAS, basée à Saint-Brieuc, ce guichet automatique a pour objectif d’améliorer l’accessibilité aux services d’une collectivité, qu’il s’agisse de documents administratifs (certificats, attestations, cartes d’identité, courrier, etc.) ou de produits culturels (livres, cd, DVD, etc.) proposés par une médiathèque par exemple. Disponible 24h/24 et 7j/7, cette machine permet aussi bien le retrait que le dépôt d’objets tout en veillant à la sécurité de la transaction et à sa traçabilité grâce à une carte à puce, un code confidentiel et un code barre. Par ailleurs, afin d’éviter les déplacements inutiles, l’automate prévient le destinataire par courrier électronique ou par SMS lorsque sa demande est prête.
 
Le deuxième projet récompensé appartient quant à lui à la catégorie Institutionnel, finances, services aux collectivités. Il s’agit du kiosque universel. Réalisé par Azimut Communication (56), cette borne interactive qui délivre des informations mais aussi des billets pour des activités de loisirs ou des spectacles est couplé à un terminal de paiement qui permet de gérer la commande de bout en bout sans avoir à passer par un site Internet ou un guichet. Comme pour l’automate Distriplis, la promesse est la même : accroître l’accessibilité d’un service tout en réduisant les coûts. Autre avantage de cette borne qui a nécessité 3 ans de développement : la possibilité de s’en servir pour diffuser en temps réel de l’information grâce à l’ajout d’un écran additionnel.
 
Enfin, le dernier projet a avoir retenu l’attention du jury est le module GPS embarqué sans abonnement. Conçu et fabriqué par Erla Technologies (88), société spécialisée dans la fabrication de matériel technique pour le stockage et la distribution de produits pétroliers, biocarburants et chimiques, ce GPS permet non seulement de gérer facilement un parc de véhicules en sachant exactement où chacun d’entre eux se trouve et de suivre et d’optimiser leur consommation de carburant. Baptisée Epack, cette solution est composée d’un petit boîtier alimenté en 12 ou 24 V à installer dans le véhicule. Equipé d’une connexion Bluetooth, il permet de transmettre au distributeur de carburant lors du ravitaillement des informations telles que le kilométrage effectué (plus de saisie manuelle par le chauffeur) et les données relatives aux parcours réalisés (vitesses, localisation et durée des arrêts, alarmes sur points d’intérêt, etc …).
  Le Palmarès completAu delà, cinq autres projets ont été récompensés.
  • Le système d’éclairage urbain basé sur des LED Perla réalisé par la société Comatelec ;
  • La patinoire synthétique ecologique Xtra ICE ® de Grands Stades SAS ;
  • Pasamano, élément de signalétique avec inscription en braille à fixer sur une rampe d’escalier conçu par Marcal Signalétique ;
  • Le raccord Kameleo produit par Saint Gobain Pam ;
  • La borne de sécurité multifonctions pour la sécurisation des bords de mer Safety Point réalisée par SEIMI.

  A.L B

Les promesses du marché de la « smartwater »

Après les systèmes intelligents de distribution de l’électricité, les systèmes intelligents de distribution de l’eau débarquent ! Le marché mondial pourrait grimper à 16.3 milliards de dollars en 2020, contre 530 millions aujourd’hui, selon un nouveau rapport du cabinet américain Lux Research.Une meilleure information sur l’utilisation de l’eau pourrait faire économiser beaucoup d’argent et préserver cette ressource rare. L’enjeu est de taille : l’eau douce représente à peine 2.5 % de l’eau disponible à la surface de la terre. 2,8 milliards d’habitants, soit 44 % de la population mondiale, vivent dans des zones souffrant de stress hydrique, selon l’OCDE.Et ce chiffre pourrait atteindre 3.9 milliards en 2030 sous l’effet du réchauffement climatique. Dans les pays industrialisés, la situation est beaucoup moins dramatique mais elle est néanmoins fragile. Et les conséquences du réchauffement climatique pourraient vite devenir inquiétantes. Déjà, en 2007, la sécheresse a coûté 1 point de croissance du PIB à l’Australie !

Plus de 30 % de pertes dans la distribution de l’eau
Les systèmes de distribution d’eau, même dans les pays développés, sont souvent vétustes, avec des canalisations usagées et en mauvais état qui entrainent une perte allant jusqu’à plus de 30 % de l’eau disponible. Des systèmes électroniques, comme des capteurs pour repérer les fuites, les pics de demande ou encore tester la qualité de l’eau, seraient précieux.Lux Research a identifié cinq domaines clés dans lesquels les technologies de l’information peuvent agir : la cartographie des réseaux, les infrastructures, le suivi de la consommation, les compteurs à eau intelligents et les dispositifs d’irrigation. De quoi réduire le gaspillage, optimiser la consommation et éviter de la pollution. De quoi aussi diminuer la consommation d’énergie liée à l’eau, qui est loin d’être négligeable : environ 3 % de la production électrique américaine totale, par exemple, sert uniquement à pomper de l’eau.De nombreuses start-up s’engagent sur ce marché et lèvent des fonds. Mais, selon Lux Research, elles ont souvent du mal à convaincre les grands de la distribution de l’eau à travailler avec elles et seules celles qui apporteront les technologies les plus innovantes réussiront à se développer.

IBM en pointe
Les vrais gagnants pourraient être ceux qui apportent des solutions intégrées, agissant sur les différents leviers : suivi de l’état des canalisations, collecte et analyse des données des compteurs. Une opportunité pour les géants de l’informatique, qui commencent à s’intéresser à la « smartwater ». IBM fait partie des plus en pointe : le groupe a signé un partenariat avec Intel sur l’application de l’informatique à l’utilisation optimale de l’eau douce.Il teste aussi des compteurs d’eau intelligents qui donneraient des informations plus précises aux utilisateurs en cas de fuite, et réfléchit à de nouveaux types de capteurs capables de détecter le niveau de produits contaminants, provenant par exemple des médicaments.IBM estime que le marché des solutions pour améliorer la gestion de l’eau pourrait atteindre 20 milliards de dollars d’ici à 5 ans, un chiffre beaucoup plus optimiste que celui avancé par Lux Research. 

Source :
Green Univers

Des cellules solaires à l’intérieur de fibres optiques

Des chercheurs du Georgia Tech Institute of Technology ont développé un nouveau type de cellules photovoltaïques à l’intérieur même de fibres optiques à l’aide de nanostructures d’oxyde de zinc tri dimensionnelles, produites au sein des fibres et couvertes de matériaux à pigments photosensibles. L’approche pourrait permettre aux systèmes photovoltaïques de ne plus être cantonnés à des panneaux solaires sur le toit des maisons, en bref d’être « invisibles ».Avec cette technologie, les générateurs photovoltaïques sont pliables, camouflables et mobiles, d’après Zhong Lin Wang, professeur de Sciences des Matériaux au Georgia Techet directeur de la recherche. Les fibres optiques pourraient conduire la lumière du soleil dans les murs des bâtiments où les nanostructures la convertissent en électricité.Le principe adopté pour créer ces nanostructures à pigments photosensibles (ou cellules de graetzel, en anglais dye-sensitized solar cell), consiste en un système photochimique capable de générer de l’électricité. Elles sont moins chères à fabriquer que les cellules classiques à base de silicium monocristallin et même polycristallin, flexibles et robustes, mais leur efficacité de conversion de la lumière en énergie électrique est moindre. Cela n’inquiète pas l’équipe de chercheurs, qui avance que la surface active de conversion peut être très importante et donc que le système pourrait être tout à fait viable. Cette technologie permettrait aussi aux architectes et designers d’inclure les cellules dans les murs des bâtiments, véhicules et même équipements militaires.

Convertir la lumière en électricité

Les fibres optiques utilisées sont celles-là mêmes qu’utilise l’industrie des télécommunications pour le transport de données. Elles sont constituées d’un cœur où se propage la lumière par successions de « rebonds » sur les bords, entouré d’une gaine et d’une protection. Les chercheurs retirent la gaine et couvrent le cœur d’une couche conductrice d’oxyde de zinc à partir de laquelle ils font pousser des nanofils d’oxyde de zinc en brosse, un peu comme une brosse pour tuyaux. Les nanofils sont ensuite recouverts avec des pigments photosensibles pour convertir la lumière en électricité.La lumière qui entre dans les fibres optiques passe à travers les nanofils, où ils interagissent avec les pigments photosensibles pour produire le courant électrique. Un électrolyte liquide entre les nanofils collecte les charges électriques. Le résultat est un hybride nanofil/fibre optique qui est d’autant plus efficace que la fibre est longue : en effet, plus la fibre est longue, plus les chances que les photons entrent en contact avec les pigments photosensibles pour libérer un électron est importante.Le problème auquel l’équipe fait face est de faire entrer suffisamment de lumière à l’intérieur de la fibre, et l’équipe se penche sur l’utilisation de lentilles concentrant la lumière sur les extrémités des fibres. Wang et ses collègues ont pour le moment atteint une efficacité de 3.3 % avec leur prototype et espèrent atteindre les 7 ou 8 % en utilisant d’autres matériaux pour les fibres, comme le quartz, même si le but est de réduire les coûts et donc d’utiliser des fibres en polymères. Même si ces résultats sont inférieurs aux cellules solaires à base de silicium, ces cellules sont toujours bien moins chères à fabriquer et constituent une solution pour de multiples applications sur les véhicules ou les équipements militaires, complémentaires des applications actuelles des panneaux solaires.

Sources : 3-D system based on optical fiber could provide new options for photovoltaics, 2 novembre 2009- Wrapping Solar Cells around an Optical Fiber, 30 Octobre 2009- Publication dans Angewandte Chemie (en anglais) Optical Fiber/Nanowire Hybrid Structures for Efficient Three-Dimensional Dye-Sensitized Solar Cells, 22 Octobre 2009

Origine : BE Etats-Unis numéro 183 (6/11/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/61131.htm – Alban de Lassus est rédacteur du bulletin électronique de l’ambassade de France aux Etats-Unis.

Le cargo solaire prend la mer

L’Auriga, qui peut transporter 6.400 véhicules, fait deux fois par semaine le trajet entre le Japon et la Californie. Il est équipé de 328 panneaux photovoltaïques (PV) sur le pont supérieur, connectés au réseau électrique du bord de 440 V. Ces panneaux représentent un investissement de 1.7 millions de dollars pour les propriétaires du bateau, Nippon Yusen Kaisha et Nippon Oil.

Les panneaux sont réputés avoir une capacité de 40 kW dans des conditions optimales (typiquement, en plein midi ensoleillé). Ils couvrent environ 0.3 % des besoins énergétiques du cargo et 7 % des autres appareils électriques comme les pompes et l’éclairage. L’économie totale d’énergie est estimée à 13 tonnes de carburant sur une année, ce qui correspond à une réduction de 40 tonnes des émissions de CO2.

De façon surprenante, les panneaux ont généré 1.4 fois plus d’électricité en mer qu’à terre. On peut donc penser que la brise de mer fraîche améliore l’efficacité énergétique des panneaux photovoltaïques.

Trouver des solutions énergétiques alternatives

Alors que le coût du carburant et les émissions de CO2 du secteur des transports sont de plus en plus sous les feux des projecteurs, on note une soudaine activité pour trouver des solutions énergétiques alternatives dans la navigation. Ces solutions incluent le MSBeluga’s Sky Sail, un cargo à voile, le Solar Sailor, un bateau hybride alimenté au solaire et à l’éolien, ainsi que l’Auriga.

Mais aucune n’est bon marché, ce qui rend leur justification difficile alors que l’économie n’est pas assez solide pour supporter de tels investissements.

Christer Agren, du Air Pollution & Climate Secretariat en Suède, qui a une grande expérience dans l’industrie maritime, refuse de décourager les technologies renouvelables susceptibles de réduire la consommation de carburant des bateaux : « Les cellules solaires, la voile, tout est bon à prendre. Plus ces technologies deviendront populaires, plus elles seront utilisées ». Mais Agren ajoute que la mesure la plus rentable, la plus économique et la moins polluante que les cargos peuvent prendre, est tout simplement de ralentir.

Source : Green Futures

April Streeter est une journaliste freelance spécialisée dans l’environnement. Elle collabore notamment à Green Futures, un magazine indépendant publié par Forum for the Future.

Energie propre : la Commission européenne se contente de fixer une feuille de route

Le mois dernier, une fuite de l’Agence Reuters laissait penser que l’Union Européenne prévoyait d’investir 50 milliards d’euros dans les énergies vertes. Il y a trois semaines, le communiqué officiel de la Commission européenne a dévoilé une feuille de route pour l’investissement, sans toutefois accorder de budget. Pourtant, si l’UE veut être compétitive dans la course aux énergies vertes, elle doit mettre davantage l’accent sur l’investissement public.Le Plan stratégique européen pour les technologies de l’énergie (SET) de la Commission européenne, qui été dévoilé mercredi 14 octobre, fixe néanmoins une feuille de route proactive pour la décennie à venir, à destination de l’UE, des Etats membres et du secteur privé.

Un défi pour l’UE
Dans ce rapport, la Commission européenne reconnaît que l’UE doit relever un vrai défi : réinventer son système énergétique. Le rôle du secteur public est primordial, explique-t-elle, dans la mesure où le marché est incapable, par lui-même, d’assurer une transition rapide vers une économie propre :« Les marchés et les entreprises énergétiques ne sont pas, seules, à même de fournir à court-terme le progrès technologique indispensable à l’Europe pour tenir ses objectif en matière d’énergie et de changement climatique… La seule voie crédible pour tenir nos objectifs, établis pour le bien public, est la collaboration entre les politiques publiques et le secteur privé. »Alors que la feuille de route plaide pour un investissement total de 50 milliards d’euros dans les 10 prochaines années, elle appelle le secteur privé à supporter près de 70 % du financement de la recherche non nucléaire et attribue les 30 % restant au secteur public au plan à la fois national et communautaire. Selon la Commission européenne : « En règle générale, le soutien public est d’autant plus nécessaire que les incertitudes technologiques sont grandes. »

Une opportunité pour le secteur privé
On note que le rapport décrit cet investissement comme une « opportunité » pour le secteur privé et un « fardeau » pour le secteur public. Mais quel que soit son nom, la capacité de l’UE à répondre aux objectifs exposés dans ce plan, dépend de l’investissement public. Ainsi que la Commission européenne le reconnaît elle-même, le secteur privé ne peut porter sur ses épaules l’incertitude, les risques et les défaillances du marché inhérents au premier stade de la R&D.Si la Commission Européenne, et donc l’UE, a sérieusement l’intention de devenir un leader mondial des énergies vertes et peut se permettre d’investir 50 milliards d’euros, elle doit reconsidérer, sinon inverser complètement, le ratio de l’investissement. L’UE, en tant qu’organe de gouvernance, doit non seulement mettre en place des politiques publiques qui ont pour but de favoriser l’investissement privé, mais elle doit aussi financer le processus.Le Plan témoigne néanmoins d’une position proactive de l’UE pour la transition vers une économie propre en rendant les énergies vertes bon marché et abondantes et, peut-être, en devenant un acteur majeur du secteur. Alors que les Etats-Unis débattent actuellement de la version du Sénat du projet de loi sur le climat et l’énergie, la feuille de route de la Commission européenne, qui reconnaît l’ampleur du défi technologique auquel le monde est confronté et le niveau d’investissements nécessaire, devrait servir d’exemple. Mais la course aux énergies vertes n’en passera pas moins pour les deux parties par une part accrue de l’investissement public, si elles veulent avancer de front avec la Chine. 

Source :
The Breakthrough InstituteFraîchement diplômée en développement humain de l’université de Cornell aux Etats-Unis, Yael Borofsky est membre du Breakthrough Institute. En cette qualité, elle effectue des recherches et analyses sur la décarbonisation de l’énergie. Elle contribue régulièrement aux Breakthrough Blog, Breakthrough Generation, CleanTechnica et WattHead.

Et la lumière fût… superfluide !

http://www.bulletins-electroniques.com/actualites/61176.htmUn nouveau « super » vient enrichir la liste des effets extraordinaires dans la physique : la lumière superfluide, capable de traverser des matériaux semi-opaques, des verres rayés ou des suspensions comme le brouillard, sans aucune dispersion.Une découverte extraordinaire issue d’une collaboration franco-italienne entre Iacopo Carusotto, du centre BEC de l’INFM (Institut National pour la Physique de la Matière – CNR) de Trente, le groupe théorique de Cristiano Ciuti à l’Université Paris VII et le groupe expérimental guidé par Alberto Bramati et Elizabeth Giacobino au sein du laboratoire Kastler Brossel de l’Université Paris VI.Dans son voyage à travers l’air et les matériaux les plus variés, la lumière commune est déviée et dispersée. Après un orage, par exemple, elle forme des arcs-en-ciel. Dans la brume, elle se reflète sur les gouttes d’eau en suspension créant un mur lumineux aveuglant. Dans les cristaux, elle est déviée par les imperfections internes qui la déforment et la dispersent. La lumière superfluide, au contraire, selon la prédiction faite par Carusotto et Ciuti dès 2004, serait en mesure de traverser tous ces matériaux sans la moindre difficulté : les photons qui la composent auraient des interactions tellement fortes que la lumière elle-même commencerait à se comporter comme un vrai fluide. Un état similaire à celui d’autres « super » comme l’hélium superfluide, qui de liquide normal -comme l’eau- se transforme en un superfluide capable de s’écouler sans aucun frottement.Pour tester cette hypothèse, les scientifiques se sont mis à la recherche d’une lumière capable de traverser un matériel opaque sans la moindre dispersion ou déviation. Pour la découvrir, ils ont utilisé une lumière et une cible à lui faire traverser. La lumière est un laser extrêmement stable, la cible est un minuscule semi-conducteur d’arséniure de gallium, capable de faire passer la lumière mais dont les imperfections la dégradent en général. Les paramètres de la lumière ont été modifiés selon les indications de la physique théorique, en modifiant la couleur et l’intensité, jusqu’à ce que la lumière apparaisse telle que prévue : le laser a traversé le semi-conducteur – qui, peu de temps auparavant, en dégradait le faisceau – sans la moindre interférence : un comportement qui n’avait jamais été observé. » Les comportements superfluides ont une extraordinaire importance théorique et pratique, selon Iacopo Carusotto, il suffit de penser aux aimants superconducteurs à la base de l’accélérateur LHC de Genève (CERN). De la même façon, pour la lumière superfluide, on peut déjà prévoir de brillantes applications : une lumière capable de traverser un matériel, sans être altérée, peut apporter d’énormes bénéfices dans le développement des fibres optiques (qui ont valu à leur inventeur, Charles Kao, le prix Nobel de Physique 2009). Elle pourrait permettre non seulement le transport d’information, comme c’est déjà le cas, mais aussi son élaboration : d’énormes quantités de données pourraient être traitées par voie optique par des puces opto-électroniques, à une vitesse impossible à atteindre pour l’électronique actuelle. De nouvelles puces hyper rapides, mais aussi capables d’économiser beaucoup d’énergie par rapport à aujourd’hui. Une petite économie mais énorme si l’on pense que chaque jour, ce sont des milliards de puces qui sont utilisées dans le monde, entre ordinateurs, téléphones, téléviseurs et automobiles. «   Contacts– Iacopo Carusotto (INFM-CNR) – Email : [email protected] – Tél : +39 0461 883925– Cristiano Ciuti (Paris VII) – Email : [email protected] – Tél : 01 57 27 62 37– Alberto Bramati (Laboratoire Kastler Brossel, Paris VI) – Tél : 01 44 27 43 93/ 47 47– Elizabeth Giacobino (Laboratoire Kastler Brossel, Paris VI) – Tél : 01 44 27 43 95Source : Communiqué de Presse de l’INFM (Institut National pour la Physique de la Matière), CNR.Rédacteur : Sonia GRIGT – [email protected]Origine : BE Italie numéro 76 (9/11/2009) – Ambassade de France en Italie / ADIT – http://www.bulletins-electroniques.com/actualites/61176.htm 

Le Cloud Computing ne représente que 10 % du marché de l’hébergement

Pour des raisons de flexibilité, de réactivité à l’évolution des besoins informatiques et de réduction des coûts d’exploitation, la virtualisation s’impose progressivement sur le marché de l’hébergement informatique (lire La virtualisation, déjà une réalité en matière d’hébergement). Mais qu’en est-il du  » Cloud Computing « , dernier concept à la mode qui consiste pour les entreprises, à externaliser leurs ressources informatiques (infrastructures, serveurs, réseau, stockage, etc.) ainsi que leurs diverses applications (logiciels de messagerie, de paie, etc.) et à y accéder en ligne et à la demande via le réseau ?Pour la société d’études Markess International, le recours à ce type de service dans le domaine de l’hébergement des infrastructures et des applications informatiques est encore marginal. En 2009, moins de 10 % des 150 entreprises qu’elle a interrogé (voir méthodologie de l’enquête) déclarent utiliser déjà ce type de prestation. Et ceci, quel que soit la forme que prenne ce service. A savoir :

  • un cloud privé interne à l’organisation ou partagé ou encore mutualisé en mode privatif avec d’autres entités de l’organisation (cas de groupes et de leurs filiales) ;
  • un cloud dédié / privé externe à l’organisation (hébergé chez un tiers et non dans les data centers de l’organisation) mais entièrement dédié à celle-ci et accessible via des réseaux sécurisés de type VPN ;
  • Un cloud public, externe à l’organisation, accessible via Internet et géré par un prestataire externe. Dans ce cas, les ressources peuvent être partagées entre plusieurs entités clientes.
 Ce qui ne signifie pas pour autant que les sociétés s’en désintéressent. Mais elles envisagent plutôt y recourir d’ici deux ans voire plus et privilégient, sécurité oblige, la forme du Cloud privé interne (53 % des réponses), puis celle du Cloud privé externe (44 %). La confidentialité des données est d’ailleurs l’enjeu majeur que devra résoudre le  » Cloud Computing  » pour se développer (31 % des réponses), devant la garantie de continuité du service et la qualité du service (28 % chacune).  En savoir plusCette enquête a été réalisée entre juin et septembre 2009 par Markess International. Celle-ci repose sur l’interview de 150 responsables et décisionnaires d’organisations publiques et privées basées en France répartis dans les secteurs suivants : 29 % IT/Télécoms, 19 % secteur public, 15 % banque/assurance, 13 % industrie, 6 % distribution, 18 % autres. 37 % représentaient des entreprises de plus de 2.000 salariés, 24 % des sociétés entre 250 et 1.999 salariés et 39 % des structures de moins de 250 employés. A cela s’ajoute l’interview de 23 prestataires actifs sur le marché des services d’hébergement et de cloud computing, dont 38 % d’hébergeurs, 22 % de SSII intégrateurs, 13 % de constructeurs, 9 % de fournisseurs de solution SaaS, 9 % d’opérateurs de télécoms et 9 % autres.Télécharger la synthèse de l’étude. A.L B

La fibre optique en entreprise oui… mais pas à n’importe quel prix

THD, FFTB, FTTO, FTTH… le marché de la fibre optique est en pleine ébullition et il est parfois difficile d’y voir clair sur les tarifs.Les débats sur le déploiement et l’accès aux réseaux de fibre optique sont nombreux et montrent l’intérêt que suscite cette technologie. La fibre optique ou la connexion à Très Haut Débit (THD) présente de multiples avantages : temps de réponse proches de zéro, bande passante quasi-illimitée, débit symétrique (upload et download sont donc possibles), poids écologique moins lourd… Il n’en reste pas moins que les tarifs des différentes offres commerciales suscitent des nombreuses questions.

Attention à la fiabilité et au débit
Il est tout d’abord nécessaire de distinguer les offres Grands Public (FTTH) et celles professionnelles. La différence essentielle est la fiabilité. Cela se traduit par les garanties de temps de rétablissement qui sont exigées par les entreprises, souvent de 4 heures. Cela implique une organisation et une technologie spécifique. Les offres pour les particuliers, comme pour l’ADSL, peuvent être indisponibles plusieurs jours, voire plusieurs semaines.Une autre différence entre ces offres est la garantie de débit. Le débit ou la bande passante proposée pour le grand public est en général de 100 Mégabits par seconde, donc une capacité extraordinaire. Cependant, ce débit n’est pas garanti, c’est-à-dire réservé. Cela implique que si tous les habitants d’un quartier ou immeuble se connectent en même temps, ils partagent la connexion et donc la bande passante…qui est donc divisée par autant d’utilisateurs. Pour les entreprises, c’est justement le critère de débit garanti qui fait la différence, même si certaines offres du marché ne sont pas toujours explicites sur cet engagement. Les entreprises ont donc avantage à payer un service exclusif répondant à leurs besoins et ne souffrant pas de variation de la disponibilité de leur bande passante (sauvegarde de données, partage de logiciels centralisés…).

Les critères de choix à retenir
Pour décrypter les divergences entre les offres destinées aux entreprises, les critères de sélection sont nombreux : délai de rétablissement garanti, gestion de la qualité de service (QoS), utilisation de la connexion pour la téléphonie et la gestion multi-site, matériel d’extrémité ou routeur, gestion du support, tarifs des options…Une connexion professionnelle sert souvent en premier lieu à accéder à Internet et aux outils de communication tels que le groupware (bureau collaboratif), le stockage des mails, l’hébergement Web ou FTP… De plus, elle peut permettre de téléphoner ou de connecter des sites distants pour une utilisation centralisée des ressources de l’entreprise. Or pour ces usages, la QoS est nécessaire. En effet, les flux entre les différents usages doivent être priorisés afin qu’ils ne se  » gênent  » pas entre eux. Dans le cas de la téléphonie, on perçoit bien les avantages d’un tel service. Il peut aussi être intéressant de prévoir un système de back-up automatique entre différentes connexions.On peut aussi noter que certaines offres de fibre optique ne sont pas utilisables dans le cadre de réseaux privés d’entreprise ou de Virtual Private Network (VPN). Le VPN est utile pour la mise en place de standard téléphonique centralisé, l’hébergement des applications métier, la sauvegarde centralisée… Or, la technologie des réseaux et des routeurs de certains opérateurs n’est pas adaptée à ce service. Les technologies de type  » box  » ne permettent pas ce type de service.Le dernier critère de choix est évidemment le prix de la solution. Attention, à la lecture du devis professionnel, le prix de nombreuses options sont à comparer : coûts cachés de raccordement (frais de génie civil, frais de desserte interne), volume de stockage de données, communications téléphoniques vers les fixes, les portables et l’étranger, postes de téléphone (et leur maintenance), standard téléphonique, noms de domaines… et même support technique. En conclusion, avant de sélectionner une offre de fibre optique, il est nécessaire de réfléchir aux utilisations de cette connexion, les contraintes de disponibilité et de sécurité du réseau de l’entreprise et de bien calculer la facture globale.Par Nicolas Aube, président de Celeste  Fibre optique : l’Europe valide le choix de l’ArcepAprès l’avis rendu fin septembre par l’Autorité de la concurrence, c’est au tour de la Commission européenne de valider, en ce début du mois de novembre, l’option architecture multifibres défendue par l’Arcep pour le déploiement de la fibre optique dans les zones denses en France (lire Fibre optique : l’Arcep plaide pour un déploiement multifibre).  

Le Congrès américain s’intéresse aux déchets électroniques

http://www.bulletins-electroniques.com/actualites/61137.htmDerrière les fastes des arrivées de nouveaux ordinateurs, smartphones, télévisions HD ou lecteurs de musique se cache le peu reluisant destin des gadgets électroniques de la génération précédente et la triste réalité qui conduit ces derniers à terminer leur parcours dans une déchetterie de produits toxiques à des milliers de kilomètres de leurs derniers propriétaires.Afin de remédier à cette indifférence vis-à-vis des options de recyclage et des impacts environnementaux des e-déchets un projet de loi est né au Sénat pour aider les Etats-Unis à développer de nouvelles méthodes de gestion du flot croissant de déchets électroniques. De la recherche sur les méthodes de traitement des déchets à la prise en compte des problématiques de recyclage lors de la conception des produits, le projet de loi s’intéresse aux solutions qui permettraient aux Etats-Unis de suivre le rythme des mesures appliquées dans les autres pays industrialisés.
Un constat inquiétant
Les déchets électroniques sont une source d’inquiétude depuis bientôt deux décennies en termes de santé publique et de protection de l’environnement et la toxicité des matériaux utilisés en électronique est particulièrement en cause, qu’il s’agisse de produits retardateurs de flamme ou du bon vieux plomb. Malgré une bonne place parmi les plus gros producteurs de déchets électroniques, les Etats-Unis sont loin de montrer l’exemple et ne disposent d’aucune politique fédérale imposant le recyclage des e-déchets ou l’élimination des substances dangereuses des appareils électroniques. Le gouvernement fédéral a jusqu’à présent largement délégué les décisions aux Etats et seuls 19 d’entre eux ont légiféré sur le sujet.  » Lorsque différents Etats mènent des politiques différentes, il est très difficile de rassembler les fabricants autour d’une ligne de conduite concernant la réflexion autour des cycles de vie de leurs produits,  » averti Oladele Ogunseitan, chercheur au département de prévention des maladies et santé publique de l’Université de Californie à Irvine dans une étude [1] publiée le 30 octobre dernier.L’équipe du professeur Ogunseitan s’inquiète par ailleurs d’une possible détérioration de la situation sans une politique nationale cohérente. Les centaines de milliers de tonnes d’e-déchets des Etats-Unis sont actuellement destinées à atterrir en Afrique, Chine ou Inde où des marchés s’organisent pour récupérer et revendre le cuivre et le fer. Le recyclage n’y est cependant pas organisé et expose les populations locales à une multitude de produits chimiques toxiques.

Le retard des Etats-Unis
En Europe, un ensemble de lois régissent l’utilisation et le traitement des matériaux toxiques contenus dans les produits électroniques. Une directive de l’Union européenne sur la restriction de l’usage des substances dangereuses impose des seuils maximaux de quantités de mercure, plomb, cadmium, chrome hexavalent, polybromobiphényle ou polybromodiphényléther dans les nouveaux appareils électroniques. Le programme REACH (Registration, Evaluation, Authorization and Restriction of Chemicals) impose aux fabricants des responsabilités de gestion des risques quant aux produits chimiques utilisés dans leurs produits et la directive WEEE (Waste Electrical and Electronic Equipement) organise la gestion des e-déchets. La Chine de son côté a également préparé un certain nombre de régulations sur le sujet qui devraient entrer en application en 2011.Les Etats-Unis sont quant à eux le dernier pays de l’OCDE à n’avoir pas ratifié la Convention de Bâle régulant les mouvements transfrontaliers de déchets dangereux et leur élimination.

Le projet de loi
Le texte S. 1397 étudié au Sénat a été baptisé : « Electronic Device Recycling Research and Developpement Act« . Introduit par les sénatrices Amy Klobuchar (D-Minnesota) et Kristen Gillibrand (D-New York) le projet de loi souligne les nombreux problèmes actuels concernant les e-déchets et, notamment, la production d’appareils électroniques qui n’est pas près de ralentir couplée à l’absence d’effort concerté de gestion de ces éléments une fois leur utilisation terminée. Le texte constate par ailleurs que la population est apathique sur le sujet et qu’elle n’exploite pas au mieux les solutions existantes de recyclage.Les objectifs de recherche du projet de loi se répartissent en trois catégories : trouver la meilleure façon de traiter les e-déchets déjà présents, mettre en évidence et développer des alternatives respectant l’environnement pour remplacer les matériaux dangereux et potentiellement dangereux et reconsidérer la conception et l’assemblage des produits pour faciliter la remise à neuf, la réutilisation et le recyclage des appareils électroniques. Le texte mentionne que la recherche permettrait de « contribuer au développement professionnel » de nombreux scientifiques et ingénieurs dans les matières concernées et suggère la mise place de financements pour développer des filières d’études d’ingénieurs spécialisés sur la question des e-déchets. Les rédacteurs du projet de loi appellent également le National Institute of Standards and Technology (NIST) à créer une base de données des matériaux verts pouvant se substituer aux matériaux toxiques et demandent aux National Academies of Sciences de publier un rapport sur l’état du recyclage des produits électroniques, les opportunités de régulation et les barrières légales entravant l’adoption ou l’implémentation de bonnes pratiques ou innovations technologiques.Le texte représente un grand pas en avant en amenant le problème des e-déchets à la lumière au Congrès et propose des solutions concrètes pour avancer. La version actuelle du projet de loi ne prévoit cependant pas de financements directs de la recherche sur les e-déchets et ne met en place aucune législation requérant l’action des consommateurs ou des compagnies.  En savoir plus : – [1] Le rapport The Electronics Revolution: From E-Wonderland to E-Wasteland Suivi de l’évolution du projet de loiSourcesScientists urge action on e-waste, 29 Octobre 2009U.S. Senate Considering Bill to Slow the Impacts of e-Waste, 3 novembre 2009 Legislation seeks to deal with growing piles of e-waste, 1er novembre 2009 Rédacteur : Franz Delpont [email protected]Origine : BE Etats-Unis numéro 183 (6/11/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/61137.htm 

Internet du futur : ce que l’Europe est prête à financer

Le 28 octobre dernier, la Commission européenne a dévoilé sa stratégie pour favoriser le développement d’infrastructures intelligentes alimentées par Internet. Objectif : encourager le déploiement d’un Réseau capable de relier des objets physiques (compteurs électriques, réseau de capteurs, voitures, matériel médical, etc.) à des infrastructures comme le système de santé, la distribution d’énergie ou la gestion du trafic, et de les faire communiquer entre eux afin d’optimiser la distribution d’énergie, de mieux réguler le trafic routier, ou encore de pouvoir gérer à distance des traitements médicaux de pointe. Ce qui suppose :

  • des objets communicants intégrés à Internet ;
  • des objets capables de diffuser mais aussi de recevoir de l’information de divers utilisateurs (système de santé, communauté scientifique, consommateur final, etc.) qui ne sont pas ceux qui les ont créés ou installés ;
  • des systèmes capables de lire, interpréter et restituer les informations livrés par les objets ;
  • des systèmes capables d’agir pour optimiser, par exemple, la distribution d’électricité ou envoyer des secours ;
  • la transmission sécurisée des données personnelles qui circuleront sur le réseau.
Deux mesures phares
Pour ce faire, la Commission européenne a arrêté deux mesures phares :
  • le lancement d’un partenariat entre les pouvoirs publics de chaque Etats membres et les principaux acteurs des TIC. Baptisé PPP pour Public Private Partnership, celui-ci a pour objectif de favoriser le développement de plates-formes de services Web multi-sectorielles, ouvertes et standardisées sur des segments tels que le contrôle des dépenses énergétiques, la santé, la mobilité et l’environnement. Dans cette optique il s’agit de mobiliser les industriels autour de la partie technologique et les autorités publiques nationale, locale ou régionale pour définir les besoins, mais aussi créer les conditions optimales tant d’un point de vue infrastructures que légale pour accompagner le développement de ces innovations.
  • l’allocation de 300 millions d’euros entre 2011 et 2013 dans le cadre du 7ème programme de recherche financé par l’Union européenne, les entreprises devant fournir un montant équivalent. Objectif : soutenir des travaux de recherche visant à développer des infrastructures intelligentes ainsi que les technologies afférentes (capteurs, RFID, système de radionavigation par satellite, etc.) et dont les premiers résultats devraient tomber avant 2015. Dans ce cadre, un premier appel à projets sera lancé en 2010.
 

Une nouvelle stratégie pour l’Internet du futur
Mais ses ambitions ne s’arrêtent pas là. Au delà, la Commission européenne a également repositionné sa stratégie globale de soutien à l’Internet du futur. Objectif : faire de cette thématique une priorité stratégique, c’est-à-dire tout à la fois un levier pour répondre à de nouveaux besoins (économie d’énergie, population urbaine croissante, vieillissement de la population), une opportunité pour affirmer et développer le savoir-faire européen en matière de technologies et d’applications concernant l’Internet du futur, et un moyen d’aider l’économie européenne à sortir de la crise. Ce qui suppose une démarche différente de celle adoptée jusqu’à présent.  » Cela nécessite une approche cohérente pour fédérer et piloter les multiples efforts déjà engagés au niveau européen et par les différents Etats membres,  » souligne la Commission dans son rapport de présentation. Une volonté qui se matérialise par cinq principales actions :
  • maintenir les efforts en matière de Recherche et Développement dans le domaine des TIC dans le cadre du 7ème programme de recherche financé par l’Union européenne : soit un budget de 200 millions d’euros par an entre 2011 et 2013 qui servira à financer des travaux de recherche à moyen ou long terme sur l’Internet du futur ;
  • adopter une politique de recherche et de régulation d’ensemble afin de lever les principaux freins technologiques ;
  • faire de la Future Internet Assembly (FIA) l’instrument clé autour duquel consolider la communauté de Recherche et Développement, mais aussi un moyen de diffusion des résultats et d’exploration de nouveaux déploiements ;
  • faire des Future Internet Forum (FIF) des plates-formes d’information au sujet programmes nationaux sur l’Internet du futur et un moyen pour éviter la fragmentation des efforts de recherche et coordonner les initiatives ;
  • encourager la coopération internationale sur des projets de recherche clairement identifiés comme prioritaires pour l’Europe et favorisant l’élaboration de standards globaux ainsi que l’interopérabilité.
Un programme ambitieux qui n’aura pas trop des quatre années de financement prévue par la Commission européenne pour être mis en oeuvre. Bien consciente de cette limite, la Commission étudie d’ailleurs la possibilité de transformer ce PPP en Initiative Technologique Conjointe (JTI – Joint Technology Initiative) dès que le cadre légal et les structures d’administration de ces grands programmes de recherche auront été amendés. Dès lors, l’Internet du futur pourrait venir s’ajouter à la liste actuelle des cinq programmes existants dans le cadre de JTI (Artemis pour les systèmes informatiques embarqués, IMI pour les médicaments innovants, Clean Sky pour l’aéronautique et le transport aérien, ENIAC pour les Technologies nanoélectroniques et Fuel Cell pour l’Hydrogène et les piles à combustible). L’UE et l’Internet du futurLa Commission européenne finance déjà des travaux de recherche visant à rendre l’Internet plus intelligent. 400 millions d’euros ont ainsi été investis dans plus de 90 projets européens impliquant plus de 500 entités. Parmi ceux-ci, figure le programme Future Internet Research ans Experimentation (FIRE). Lancé en septembre 2008, il fédère 14 projets sur des sujets aussi variés que les architectures, le protocole réseau, la validation dans des environnements de test à grande échelle ou encore l’interconnexion. Autre exemple : le réseau très haut débit à usage scientifique GEANT (Gigabit Europeen Academic Network) qui après l’interconnexion de tous les réseaux européens s’ouvre aux autres réseaux dans le monde.Tous ces projets ont d’ailleurs contribué à la création de l’Assemblée sur l’Internet du Futur (FIA) Liens utilesLa communication de la Commission européenne sur l’Internet du FuturL’appel de l’industrie pour créer un PPP sur l’Internet du futur A.L B 

AXYS révolutionne l’évaluation de la ressource éolienne en mer

Les compagnies canadiennes Axys Technologies basée à Sidney en Colombie Britannique, spécialisée dans la surveillance marine à distance, et la compagnie Catch The Wind Ltd. ont mis au point un système conjoint de recherche et de mesure de ressources éoliennes en mer, WindSentinel, permettant de situer plus rapidement et à moindre coût les lieux d’implantations possibles d’éoliennes. Au cœur de la WindSentinel se trouve le laser Vindicator de Catch the Wind Ltd., capable de mesurer en temps réel les vitesses horizontale et verticale des vents à partir de plates-formes en mer en mouvement. L’ensemble a été installé le 26/10/2009 pour un essai sur site au large de Race Rocks Island, en Colombie-Britannique. En cas de succès, cette bouée et son capteur laser pourraient constituer un système d’évaluation du vent tout à fait révolutionnaire permettant d’économiser plusieurs millions de dollars au moment de la prospection des sites éoliens offshore potentiels.En effet, à l’heure actuelle, l’évaluation des sites classiques pour des exploitations éoliennes de grande envergure s’opère en construisant une tour permanente en mer, tour dont le coût peut facilement grimper jusqu’à 10 millions de dollars. S’il tient ses promesses lors des essais, WindSentinel pourrait permettre d’ouvrir la prospection éolienne offshore à tous ceux qui n’ont pas une pareille somme à investir avant même de savoir s’il s’avèrera rentable d’implanter des éoliennes ici ou là ! Les petits territoires insulaires, les municipalités côtières, certaines bases militaires et, d’une façon générale, toutes les structures plus modestes que les méga-parcs éoliens en mer commandités par des États et des consortiums d’industriels pourraient être les premiers bénéficiaires de la technologie WindSentinel.Comment ça marche ? Grâce à ces trois faisceaux laser fixes, ce capteur peut prendre des mesures soit sur un seul point bien déterminé soit sur plusieurs points à la fois jusqu’à une distance maximale de 300 mètres et ceci en mouvement et aussi bien à la verticale qu’à l’horizontale. De quoi faire tourner la tête de n’importe qui ! Les données recueillies sont alors immédiatement transmises et traitées via une sélection d’options télémétriques par l’AXYS Controller Watchman 500.Tous ces composants sont embarqués dans la bouée AXYS Nomad, une plate-forme aux propriétés déjà bien éprouvées lors d’exploitations dans des environnements maritimes extrêmes. L’avantage de ce système, contrairement aux tours de collectes de données fixées en mer est, bien entendu, la mobilité : pouvoir recueillir des données sur la ressource éolienne en plusieurs points d’un territoire maritime sans qu’il soit besoin à chaque déplacement de demander une autorisation administrative d’implantation pour le faire s’avère évidemment très appréciable en terme de gain de temps. C’est l’ensemble de la procédure d’évaluation qui s’en trouve ainsi considérablement simplifiée. Axys Technologies fait remarquer que, pour le coût d’une seule tour fixe traditionnelle, il est possible de déployer une véritable armée de WindSentinel en plusieurs points d’un futur parc éolien à installer. La réactivité du système le rend imparable ! 
Source :
Les énergies de la mer Par Francis Rousseau, rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les énergies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

250 millions de compteurs communicants en 2015

Alors que l’industrie du smartgrid est en ébullition avec la naissance d’un lobby d’un côté et une pluie de subventions américaines et européennes de l’autre, une nouvelle étude de l’institut américain PikeResearch estime le chiffre d’affaires mondial pour les seuls compteurs communicants à 3,8 milliards de dollars en 2015. C’est quatre fois plus en qu’en 2008.Les  » smart meters  » ou compteurs communicants vont progressivement remplacer les compteurs électriques traditionnels et former un large réseau intelligent, dit smartgrid. Ils permettront de mieux suivre et contrôler l’utilisation de l’énergie dans les bâtiments.

L’Europe et l’Amérique du Nord en pointe

PikeResearch prévoit que la part de marché des compteurs communicants passera de 3,5 % actuellement à 18 % dans six ans. Autrement dit, 200 millions de ces compteurs vont être installés d’ici à 2015, s’ajoutant aux 46 millions actuels.La croissance sera tirée par les Etats-Unis et l’Europe. Le marché asiatique ne deviendra significatif qu’à l’horizon 2015. PikeResearch pronostique un pic d’installation à 15 millions en 2012 en Amérique du Nord. Pour l’Europe, le pic devrait arriver plus tardivement vers 2014-2015. Une autre étude de Capgemini prévoit que 25 à 40% des foyers européens seront équipés de compteurs intelligents d’ici 2012.

Des zones d’ombre

Mais la généralisation à marche forcée de ces systèmes laisse entrevoir de nombreux risques inhérents aux industries de réseau, selon le cabinet. L’enjeu des standards va ainsi devenir prépondérant, puisque les compteurs doivent communiquer avec l’extérieur (réseau de voisinage, réseau des réseaux …) et l’intérieur (appareils électriques de la maison…).Avec la multiplication des technologies et des produits, la mise en place de normes d’interopérabilité représente autant d’opportunités que de menaces. D’où une course de vitesse entre les acteurs, qui veulent tous imposer leur système, à l’image de Microsoft ou Cisco.La sécurité des communications va aussi devenir un enjeu majeur, ajoutant une pression supplémentaire pour l’adoption rapide d’un environnement réglementaire adapté.

De nouveaux entrants comme Google

L’industrie des compteurs électriques est en train de vivre sa plus grande transformation depuis son invention il y a plus d’un siècle. Industriels et distributeurs d’électricité seront forcés de s’adapter ou disparaîtront, selon PikeResearch. Et de nouveaux entrants vont apparaître.Illustration de cette analyse avec Google, qui vient de faire son entrée sur le marché du smartgrid. Début octobre, le géant américain a dévoilé son logiciel Google PowerMeter qui permet de suivre les consommations d’énergie de sa maison sur Internet et Internet mobile. En prenant la mesure de son utilisation de l’énergie, un consommateur pourrait réduire sa facture de 10 à 20 %.Ce service de Google n’est disponible qu’au travers d’un compteur communicant d’un opérateur. Aux Etats-Unis, des partenariats ont été signés avec différents distributeurs d’électricité, et également au Canada avec Toronto Hydro Electric System et en Inde avec Reliance Energy.En France, selon la lettre spécialisée Domotique News, Google aurait approché ERDF et son compteur communicant Linky, celui là même qui doit remplacer les 35 millions de compteurs traditionnels français.En Europe, Google PowerMeter est déjà compatible avec les compteurs des distributeurs d’énergie anglais first:utility et Glasgow EPB etallemand Yello Storm. Et en Italie, Enel travaille sur un projet pilote depuis septembre. A suivre donc.

Source :

Green Univers

REACH : l’actualité du 20 août au 31 octobre 2009

Chaque mois, le CNRI fait une sélection des évènements qui ont marqué l’actualité de REACH et impactent l’usage des produits chimiques. Sur ces deux derniers mois, du 20 août au 31 octobre 2009, huit faits marquants sont à retenir et à examiner avec attention.1.928 SIEF (FEIS / Forum d’échange d’informations sur les substances)Le 28/10/2009, l’ECHA (Agence européenne sur les produits chimiques) comptabilisait 1.928 SIEF formés. Chaque SIEF couvre une substance.

Vous pouvez retrouver la liste des substances sur le site de l’ECHA.
 Des guides pour l’application du règlement CLP (Classification, Emballage et Etiquetage)L’ECHA a publié, le 28/08/2009, sur son site internet, des guides pour aider les entreprises et les autorités dans l’application du règlement CLP.
Ces guides peuvent être retrouvés sur la page suivante.
 Consultation publique sur l’harmonisation de trois substances chimiquesL’ECHA a lancé, le 2 septembre dernier, une consultation publique sur l’harmonisation de la classification et de l’étiquetage de trois substances chimiques. Cette consultation fait suite à une demande des autorités Irlandaise, française et allemande. Cette consultation, qui s’est achevée le 17/10/2009, concernait les produits suivants :
  • Tris[2-chloro-1-(chloromethyl)ethyl] phosphate (TDCP) (Irlande),
  • Tetrahydrofuran (France)
  • Abamectin (Combination of Avermectin B1a and Avermectin B1b) (Hollande).
Pour plus d’information sur cette consultation, consultez la page suivante
 Des guides sur REACH traduits en 22 languesL’ECHA a publié, en septembre dernier, des guides dans 22 langues. Ces traductions doivent ensuite être validées par les Etats membres qui utilisent telle ou telle langue. Les guides concernés sont :– le guide des exigences d’information et d’évaluation de la sécurité chimique : description des exigences découlant de REACH concernant les propriétés des substances, l’exposition, l’utilisation et les mesures de gestion des risques ainsi que l’évaluation de la sécurité chimique. Le guide couvre :
  • la collecte des informations disponibles sur les propriétés intrinsèques des substances à enregistrer ;
  • l’évaluation de ces informations par rapport aux exigences découlant de REACH ;
  • l’identification des lacunes des données ;
  • la production d’informations supplémentaires pour combler les lacunes des données.
– le guide technique sur l’enregistrement : quand et comment procéder à l’enregistrement (obligations, dossier technique …)– le guide sur les articles : pour assister les producteurs et les importateurs d’articles à identifier s’ils ont des obligations envers REACH. Attention, date limite de transmission des usages d’une substance d’un utilisateur en aval à son fournisseur !Le 30/11/2009 est la date limite de transmission d’information sur les usages d’une substance pour les utilisateurs aval dans le cas où cette dernière doit être enregistrée par leur fournisseur avant le 01/12/2010 (art.37.3 du titre V). Si l’utilisation de la substance n’est pas répertoriée dans le dossier d’enregistrement, l’utilisateur risque de devoir faire lui-même un dossier d’évaluation de la sécurité après l’enregistrement.Cette limite passe au 31/05/2012 pour un enregistrement avant le 31/05/2013 ; et au 31/05/2017 pour un enregistrement avant le 31/05/2018.
Pour plus d’information sur les dates limite de transmission de ces informations, consultez cette page
 Date limite de pré-enregistrement fixée au 30/11/2009 pour certaines substances chimiques et entreprisesCette échéance s’applique aux entreprises pour les 6 premiers mois de production, d’importation et d’utilisation de substances phase-in, substances qui doivent être enregistrées pour le 30 novembre 2010.
Pour plus d’information sur ce pré-enregistrement, consultez cette page
 Atelier sur l’identité des substancesLe 1er décembre 2009, à Helsinki, l’ECHA organise le 1er atelier sur l’identité des substances. Cette manifestation est destinée aux personnes en charge de REACH et ayant des questions sur l’identité de leurs substances. Attention, le nombre de places est limité à 100.
Pour plus d’information sur cette manifestation, consultez cette page
 Un nouveau réseau …Chaque pays de l’Union Européenne a mis en place un helpdesk national pour REACH et le CLP. Ce helpdesk fournit des informations sur REACH et le CLP et est le 1er point de contact.De son côté, l’ECHA a crée un réseau des helpdesks REACH (REACH help Net) et CLP (CLP Help Net). Un des objectifs de ces réseaux est de pouvoir harmoniser les conseils donnés par les helpdesks REACH et CLP.
Pour plus d’information sur ces helpdesk, consultez la page suivante
 Invitation de l’ECHA le 7 décembre 2009L’ECHA organise le 7 décembre 2009, à Helsinki, la 3è journée pour les parties prenantes. Plus de 500 participants sont attendus. Cette journée pourra également être suivie sur Internet en direct et même après la manifestation. Trois sessions sont programmées :
  • classification et étiquetage ;
  • application de REACH ;
  • dossier d’enregistrement et conformité.
 Par Céline Nectoux, ingénieur Environnement CNRI Les précédents articles sur l’actualité de REACH 
  • Actualités du 15 juillet au 20 août 2009
  • Actualité du 15 juin au 15 juillet 2009