Comment atteindre la haute disponibilité d’un service online ?

Dans de plus en plus d’entreprises, Internet ce situe au cœur de l’activité. En effet, ce média est utilisé tout autant pour communiquer vers l’extérieur, que comme support à de nombreuses applications de l’entreprise (CRM, ERP, etc.) ou encore pour la téléphonie. Le besoin de disponibilité des services Web est donc constant et multiple. D’où l’apparition de la notion de haute disponibilité qui se matérialise par la mise en place de systèmes permettant d’assurer la continuité opérationnelle d’un service sur une période donnée. Pour mesurer la disponibilité, on utilise une échelle qui est composée de 9. Un service hautement disponible est à 99 % disponible, c’est-à-dire que la rupture de service est inférieure à 3,65 jours par an. Afin de calculer la disponibilité, on utilise les métriques suivantes :1. MTBF (Mean Time Between Failure) : mesure du temps estimé entre 2 défaillances d’un système ;2. MTTR (Mean Time to Resolution) : mesure du temps estimé pour restaurer la fonctionnalité.La formule de calcul de la disponibilité est : Disponibilité = MTBF / (MTBF + MTTR)

Internet et la haute disponibilité
Cette démarche nécessite toutefois de distinguer deux types d’exigences :
  • le besoin de l’entreprise de garder ses services disponibles pour ses clients ;
  • et celui de préserver les besoins internes de l’entreprise.
Examinons successivement chacun de ces cas de figure et ce qu’ils impliquent en terme d’équipement.

La disponibilité des services vers les clients
L’un des exemples les plus parlant à ce niveau est un site Web d’entreprise, car il est au centre de la communication et du métier de celle-ci.La haute disponibilité des sites Web est organisée autour de différents axes qui peuvent être primordiaux :
  • la redondance des matériels,
  • les localisations des matériels,
  • la sécurisation du réseau de l’entreprise,
  • la disponibilité permanente de solution de sauvegarde/secours/reprise sur incident,
  • le dimensionnement en puissance des matériels.
La redondance…
Revenons sur la notion de redondance. Il s’agit d’un mécanisme qui permet de dupliquer un ou plusieurs composants d’une architecture par un ou plusieurs éléments identiques. Avoir n serveur sur x site permettra une redondance de l’information, avec un risque de panne divisé par x+n…Toutefois, il faut des systèmes qui permettent de basculer automatiquement d’un site à l’autre. Les systèmes les plus couramment mis en œuvre afin d’assurer cette redondance sont les clusters.Les clusters peuvent être actif/passif ou actif/actif. Le premier cas représente un groupe de machines de secours sur lequel on basculera l’infrastructure, alors qu’un système actif/actif permettra d’avoir deux systèmes qui fonctionnent en parallèle, sachant qu’un seul des deux systèmes peut fonctionner en solo.

Le maintien des applications
Passons maintenant au deuxième cas de figure cité plus haut : préserver les besoins internes de l’entreprise. A ce niveau, les défaillances sont souvent dues aux bugs des applications. La mise à jour régulière de celles-ci permet de corriger leurs défauts et ainsi d’éviter que des personnes malveillantes explorent une faille qui permettrait l’accès aux informations de l’entreprise. Mais cette mesure ne suffit pas. Elle doit être accompagnée d’autres dispositifs.

La reprise sur incident
Il s’agit d’un plan qui permet de reprendre une activité totale ou partielle suite à un sinistre survenu sur le système d’information. Le but de ce plan est de minimiser l’impact du sinistre sur l’activité de l’entreprise. Les points essentiels d’un plan de reprise sont :
  • la sauvegarde des équipements ;
  • la disponibilité de machines de secours
  • des solutions de secours, avec un mode dégradé (en qualité de service) ex.: un lien de backup avec un débit plus petit.
Mise en application
Plus concrètement, quel dispositif faut-il mettre en place ?

Avoir n connections Internet
Avoir deux connections Internet passant par deux localisations terrestre différentes peut permettre de sécuriser les connexions Web. En cas de panne d’une des lignes, le trafic est routé/redirigé automatiquement sur la seconde. La présence de deux routeurs en mode actif/passif est un plus pour la redondance du système.

Avoir un plan de secours
En cas de panne du matériel, le fait que celui-ci soit redondé dans l’infrastructure de l’opérateur permet de maintenir le service de manière transparent. Comme précédemment, la présence de deux routeurs est un plus pour la redondance du système.

Mettre en place une GTR
La GTR est la  » garantie du temps de rétablissement  » d’un lien de données suite à une interruption de service. Cette GTR doit garantir le temps de rétablissement optimum pour que l’interruption de service soit la moins pénalisante pour l’entreprise. Une GTR de 4 heures sera l’option idéale pour de la téléphonie ou un VPN d’entreprise qui servira de support pour un ERP/CRM.

Avoir un débit garanti
Même si le service Internet n’est pas totalement interrompu, mais se trouve très fortement altéré, il faut s’assurer auprès de son fournisseur de service d’avoir un débit garanti. Cela est d’autant plus important en cas de téléphonie IP. Une altération de la qualité du lien aura comme conséquence directe une baisse de la qualité de la communication téléphonique.Même s’il est évident d’avoir un débit garanti pour une lien fibre ou SDSL, pour un lien ADSL, un canal prioritaire peut être configuré afin de s’assurer d’avoir un minimum de bande passante pour une application telle que la téléphonie.Afin de fournir un service hautement disponible, il faut enfin s’assurer que l’infrastructure permettant la fourniture de ce service soit fonctionnelle 100 % du temps. Dans cet article nous nous sommes essentiellement concentré sur les liens Internet, mais il ne faut pas oublier l’énergie, la climatisation, les serveurs, etc.In fine, la criticité ou le taux de disponibilité nécessaire d’une application ou d’un service guide le choix de la stratégie pour la mise en œuvre de la solution haute disponibilité. A ce titre, il n’y a pas de norme en ce qui concerne la durée d’une interruption de service. Cela dépend du contexte et de la criticité de l’application. Un système de navigation embarqué dans un avion sera conçu pour avoir une période d’indisponibilité de 5 minutes par an, alors que le site de l’application de facturation d’une entreprise sera conçu pour une période d’indisponibilité d’une journée par an.Par Thomas Lopez, Ingénieur Systèmes et Frédéric Favelin Responsable R&D chez Céleste

Une plante génétiquement modifiée pour la phytoremédiation des sols pollués au plomb

http://www.bulletins-electroniques.com/actualites/61620.htm

Une collaboration entre la faculté de bioressources de l’université de Mie (préfecture situé vers le centre de Honshu, l’île principale du Japon) et Chubu Electric Power (entreprise de production et de fourniture d’électricité active dans la même région) a abouti à la production d’une variante transgénique de Arabidopsis thaliana (une espèce de plante fréquemment employée comme modèle en recherche génétique) utilisable pour la phytoremédiation [1] des sols pollués au plomb. Rappelons que ce dernier est un métal particulièrement toxique pour l’être humain.Les chercheurs se sont intéressés à un gène du sarrasin, qui confère à cette plante une bonne tolérance au plomb,ainsi qu’une capacité à stocker une concentration élevée de ce métal dans ses tissus : il s’agit d’une plante hyperaccumulatrice. Cependant, le sarrasin est loin d’être une plante idéale pour la pratique de la phytoremédiation : ses racines ne peuvent pas atteindre des sols contaminés en profondeur, et il est trop sensible à certains autres métaux lourds, comme le nickel, pour être utilisé efficacement sur des sols contaminés par plusieurs polluants.Pour pallier ces difficultés, l’équipe de recherche a transféré le gène du sarrasin chez Arabidopsis thaliana. Par la suite, des plants transgéniques d’Arabidopsis, ainsi que des plants de type sauvage, ont été cultivés dans un milieu riche en plomb. Il s’est avéré que les racines des plants transgéniques ont atteint une longueur 2,5 fois plus importante que celles des plants de type sauvage. De plus, les plants possédant le gène du sarrasin ont accumulé trois fois plus de plomb dans leurs feuilles et 14 fois plus dans leurs racines.Une caractéristique particulièrement intéressante de la méthode est que le plomb accumulé dans les plantes peut ensuite être récupéré puis recyclé. Par ailleurs, l’application de la technologie à des plantes à croissance rapide comme le colza ou le tournesol pourrait permettre une production de masse de plantes pour la phytoremédiation. Les chercheurs souhaitent maintenant proposer leur technologie à des entreprises. [1] La phytoremédiation désigne la dépollution des sols ou des eaux par les plantes.

Jean-Baptiste Bourdin est rédacteur pour la rubrique environnement des bulletins électroniques de l’ambassade de France au Japon

Origine :
BE Japon numéro 524 (18/12/2009) – Ambassade de France au Japon / ADIT – http://www.bulletins-electroniques.com/actualites/61620.html

L’antimatière optique pourrait rendre les objets invisibles

http://www.bulletins-electroniques.com/actualites/61876.htmCe n’est pas le scénario d’un film de science fiction, mais bel et bien le fruit d’une étude publiée sur la revue Physical Review Letters par une équipe de chercheurs de l’Imm-Cnr de Naples en collaboration avec des collègues américains de Berkeley Labs.Ils sont parvenus à réaliser un matériau capable d’annuler les propriétés de la lumière, rendant ainsi invisible les objets. L’équipe de chercheurs de l’Institut de Microélectronique et Microsystèmes du CNR (Imm-Cnr), coordonnée par Vito Mocella, a réalisé son étude au sein des laboratoires de l’Université de Berkeley. Le matériau composite artificiellement créé, appelé métamatériau, possède des propriétés contraires à celles auxquelles nous sommes habitués du fait de la modification de sa structure. Dans le cas de cette étude, les chercheurs sont parvenus à lui conférer les propriétés nécessaires pour annuler la propagation de la lumière dans l’air et rendre ainsi l’objet invisible. » Notre métamatériau a été réalisé en modifiant à l’échelle nanométrique la structure du silicium dans lequel nous avons effectué des micro perforations, explique Vito Mocella. Nous avons ensuite alterné un millier de petites bandes de ce métamatériau qui présente des caractéristiques opposées à celles de l’air, avec des portions d’air de même longueur d’onde. Quand la lumière passe à travers ce système fait d’air et ‘d’anti-air’, c’est comme si il n’avait traversé ni l’un ni l’autre des deux matériaux.  » C’est comme si cet espace, du moins du point de vue de la lumière, n’existait pas. » En effet, le métamatériau a un indice de réfraction opposé a celui de l’air (-1) tandis que l’air est assimilé à du vide et possède par convention un indice de réfraction de 1, poursuit Vito Mocella. En ce sens, le métamatériau est de ‘l’anti-air’. En les juxtaposant, air et anti-air s’annulent, du moins en ce qui concerne la propagation de la lumière. Le résultat est que air et anti-air mis côte-à-côte sont rendus invisibles, du moins pour une certaine longueur d’onde. « Pour le moment, le prototype réalisé mesure à peine 4 millimètres sur 4, on est donc encore loin de créer des capes d’invisibilité, mais l’étude a montré que les métamatériaux fonctionnent et peuvent être utilisés pour des applications réelles, en contrôlant la lumière à un niveau encore impensable il y a quelques années. En savoir plus : – L’étude : « Self-Collimation of light over millimeter-scale distance in a quasi-zero-average-index metamaterial« , Vito Mocella, Stefano Cabrini, A.S.P. Chang, P. Dardano, L. Moretti, I. Rendina, Deirdre Olynick, Bruce Harteneck et Scott Dhuey– Vito Mocella, Imm-Cnr – Email : [email protected]– Rosanna Dassisti, Service de Presse du CNR – Tél : (+39) 0649933588 – Email : [email protected]Source : Communiqué du CNR : http://www.cnr.it/cnr/news/CnrNews?IDn=2030Rédacteur : Jean-Charles Tropato – [email protected]Origine : BE Italie numéro 78 (15/01/2010) – Ambassade de France en Italie / ADIT – http://www.bulletins-electroniques.com/actualites/61876.htm 

JEC Innovation Awards Paris : les lauréats 2010 sont…

JEC Composites vient d’annoncer les lauréats 2010 du programme JEC Innovation Awards Paris. Cette année, 11 entreprises et leurs partenaires se verront remettre leur trophée sur le Salon JEC Composites qui se déroulera à Paris du 13 au 15 avril 2010.

 

La liste de la sélection internationale des lauréats 2010 est la suivante :

 

Catégorie : Environnement et Recyclage
Gagnant : 3XN architects (Danemark) et ses partenaires

 

Catégorie : Biomatériaux
Gagnant : Lineo (Belgique) et ses partenaires

 
Catégorie : Aéronautique
Gagnant : Fokker Aerostructures (Pays-Bas) et ses partenaires

 

Catégorie : Construction et BTP
Gagnant : D’Appolonia S.p.A. (Italie) et ses partenaires

 

Catégorie : Sports et Loisirs
Gagnant : Corima S.A. (France) et ses partenaires

 

Catégorie : Transports
Gagnant : Lomold Pty Ltd. (Afrique du Sud) et ses partenaires

 

Catégorie : Energies éoliennes
Gagnant : LTP (France) et ses partenaires

 

Catégorie : Matières Premières
Gagnant : Advanced Fiber Materials Technologies Co., Ltd. China (Chine) et ses partenaires

 

Catégorie : Processus
Gagnant : S.A.B.C.A. (Belgique) et ses partenaires

 

Catégorie : Automatisation
2 innovations à égalité pour la première place !

 

Gagnant : Magestic Systems Inc. (Etats-Unis) et ses partenaires
Gagnant : EADS Deutschland GmbH (Allemagne) et ses partenaires

 

original

Pour plus de détails : consultez le site Jeccomposites.com

 

AEGIR : PELAMIS et VATTENFALL, le plus grand projet houlomoteur d’Europe.

C’est le 16 décembre 2009, jour de l’ouverture à Edimbourg du premier bureau écossais du géant européen Vattenfall que ce dernier et Pelamis Wave Power Ltd ont choisi pour annoncer conjointement (ici et ici) leur association sur le projet houlomoteur le plus important d’Europe nommé AEGIR du nom du géant qui personnifie la mer dans la mythologie nordique.L’Ecosse qui, jour après jour, ne cesse d’affirmer par des actes concrets son intention de devenir le numéro un européen et peut être mondial de l’exploitation des énergies renouvelables de la mer, vient de franchir avec cet important projet d’énergie des vagues un nouveau pas décisif.C’est au large des Îles Shetland, devenues avec les Iles Orcades, un point névralgique d’exploitation des énergies marines en Europe, que le projet sera installé pour un coût estimé par les deux parties autour de 100 millions de dollars. Ce projet, dont je souligne encore une fois qu’il est le plus important d’Ecosse et d’Europe en matière d’exploitation d’énergie houlomotrice, utilisera 26 machines PELAMIS de nouvelle génération, les Pelamis P2 qui mesurent 180 mètres chacune et sont capables de générer jusqu’à 200 MW, soit de quoi fournir de l’énergie à environ 13.000 foyers par an (chiffres constructeur).Ainsi, Pelamis, qui porte lui-même le nom d’un serpent de mer mythologique est reparti de plus belle après les déboires du printemps dernier qui l’avaient laissé presque pour mort ! (cf. notre article ICI à propos de son prototype 001 exploité au large d’Aguçadoura (Portugal) et cf. aussi la video du Pelamis 001 en exploitation ICI).La première partie de ce grand projet sera mise en place d’ici à 2014 et fait partie de l’engagement du gouvernement Ecossais de réduire ses émissions de gaz à effet de serre de 42 % d’ici à 2020. C’est l’objectif officiel annoncé par le gouvernement écossais, mais qui serait très en dessous de la réalité puisque le World Wildlife Fund (WWF) et d’autres ONG pensent que l’Écosse serait en mesure d’assurer entre 60 et 143 % de ses besoins prévus à partir de sources renouvelables d’ici à 2030 !Pour une fois qu’un pays sous-estime sa capacité en matière d’objectifs renouvelables, cela vaut la peine d’être souligné ! On ne félicitera donc jamais assez l’Ecosse pour le pari pris dès le début par le gouvernement d ‘Alex Salmond concernant les Energies de la mer et en particulier l’exploitation de l’énergie des vagues dans le but de produire de l’électricité.  

Source :
Les énergies de la mer

Débat sur les nanotechnologies : où en est-on ?

Lancé officiellement mi-septembre, le débat public national sur le développement et la régulation des nanotechnologies vient de boucler, à Lyon, sa douzième réunion publique sur un total de 17. Après trois mois de débats, où en est-on ? Côté chiffres d’abord. Au 4 janvier 2010, la Commission recensait 2.602 participants aux réunions publiques, soit nettement moins que les 10 à 15.000 attendus sur l’ensemble des 17 cessions d’information. Un constat en demi-teinte qui a sans doute incité les organisateurs à retransmettre le débat simultanément sur Internet. En effet, depuis son ouverture, le 23 septembre 2009, le site debatpublic-nano.org totalise plus de 80.000 visites, ce qui représente un potentiel considérable d’audience et un vecteur non négligeable d’information et d’interaction. Aussi, depuis le 15 décembre, le public extérieur peut-il participer aux réunions locales et poser des questions à l’avance ou pendant les débats depuis son ordinateur ou par téléphone. Sur le fond, en revanche,  » les échanges ont été très riches, commente Jean-Pierre Chaussade, membre de la Commission particulière du débat public (CPDP), l’instance chargée d’organiser les débats sur les nanotechnologies. Beaucoup de sujets ont été approfondis et alimenteront le compte-rendu du débat.  » Mais dans ce domaine, toutes les réunions n’ont pas été d’égale qualité. Parfois trop techniques, les interventions des experts n’ont pas su, comme à Strasbourg, suscité le débat dans la salle. A l’inverse, à Toulouse, celui-ci s’est prolongé tard dans la nuit. Enfin, de temps en temps, les réunions ont tourné court, comme à Grenoble où des opposants au débat ont perturbé la discussion. Car le sujet est pour le moins compliqué et polémique et, tout comme les sciences et les technologies du numérique, il suscite à la fois beaucoup d’espoirs, notamment en terme de progrès pour la science et la société, et de nombreuses craintes.Le débat sur l’impact de l’usage des nanotechnologies sur l’environnement en est un parfait exemple. Certains, insistent sur leurs bénéfices. Pour le CNRS, par exemple,  » les nanotechnologies limitent considérablement la consommation de matériaux de base et de matériaux précieux ; elles permettent de mettre sur le marché des produits « verts ». Grâce à elles, les capteurs ne nécessiteront plus ni batterie, ni pile, ni électronique embarquée « , limitant ainsi les rejets. Une argumentation également reprise par le Centre de Recherche sur les Ions, les Matériaux et la Photonique (CIMAP), mais dans le domaine de l’énergie.  » Les nanotechnologies devraient permettre de diminuer la consommation de matière première et d’énergie, de développer à moindre coût des cellules photovoltaïques et d’augmenter leurs rendements ». Mais dans le même temps, d’autres organismes appellent à la vigilance. En cause ici, les risques pour la santé et l’environnement. Une question qu’il ne faut pas négliger en raison des carences en matière de traçabilité des produits, notamment pour les articles d’importation provenant de pays situés en dehors de la Communauté européenne, de l’insuffisance des recherches sur le risque toxicologique ( 5 % de la recherche selon le ministère du Développement Durable et 3 % pour les amis de la terre), et des lacunes dans l’application du principe de précaution. Pour France Nature Environnement (FNE) et l’AFSSET,  » un grand nombre de molécules est relargué dans l’environnement sans que l’on en connaisse les risques, l’évaluation même du risque se heurtant aux difficultés d’identification et de traçabilité. » D’où la nécessité pour beaucoup d’organismes, comme le Centre d’études techniques de l’Equipement (CETE), de développer des outils pour optimiser la traçabilité des nanotechnologies. Plusieurs interventions ont également souligné l’importance de créer une instance indépendante d’évaluation des risques, qu’elle soit française ou européenne. Une instance, qui dans la pratique existe déjà dans le cadre de la législation REACH, mais qui, étant donné l’ampleur de la tâche, n’évaluera que les dossiers les plus préoccupants. Un autre modèle reste sans doute à créer pour accompagner cette industrie, qui en 2010 devrait représenter un marché de 1.000 milliards d’euros. Rendez-vous en mars ou avril pour la remise effective cette fois-ci du rapport final. REACH et les nanotechnologiesLa réglementation REACH, qui impose la charge de la preuve de la non-toxicité au fabriquant de produit chimique, s’applique aux nanomatériaux ou aux nanoparticules. Mais cela pose plusieurs questions. D’une part, les quantités produites doivent atteindre la tonne et les nanoparticules en sont, de fait, exclues. D’autre part, il revient aux industriels, dont les intérêts sont en jeu, de faire une analyse objective des risques. REACH est-il la bonne réponse et qu’est-ce qu’il existe d’autre en terme de législation ? Sur ce point, le ministère du Développement Durable rappelle l’application du principe du  » pollueur-payeur « . En matière de cosmétiques, un règlement de 2009 impose la déclaration six mois avant la mise sur le marché d’un produit contenant un nanomatériau au niveau de la CE et son étiquetage en tant que tel. Concernant le recyclage du photovoltaïque, une directive européenne sur le recyclage des déchets d’équipements électriques et électroniques est en cours de révision au sein du Conseil et du Parlement européen et la France milite pour y inclure les nanotechnologies, avec l’objectif de mettre en place une filière de recyclage comparable à celle de la collecte et du recyclage des emballages et des véhicules.Pour plus d’information, consultez le site debatpublic-nano.org A.L B

Londres vend aux enchères ses côtes pour y installer 32 GW d’éoliennes offshore

Le gouvernement britannique a annoncé vendredi dernier les noms des groupes choisis pour installer sur neuf sites plusieurs milliers d’éoliennes au large de ses côtes : 6.400 éoliennes seront plantées en mer dans les 10 prochaines années.Elles devraient fournir près d’un quart de l’énergie du pays, un projet presque aussi ambitieux que le développement de la recherche de pétrole en mer du Nord dans les années 70.Le Crown Estate, le domaine royal propriétaire des côtes, est allé plus loin que prévu, en annonçant l’attribution de sites pour développer 32 gigawatts d’éolien, au lieu des 25 GW attendus. Il estime qu’il faudra aux promoteurs choisis investir au total 100 milliards de livres pour y parvenir, sachant que la construction des parcs ne démarrera pas avant 2014.

Un effort massif et 100% européen
Les gagnants de la plus vaste enchère éolienne jamais organisée dans le monde sont tous européens, et comprennent les grandes compagnies d’énergie du continent, mais aucune française, dont les allemandes RWE et E.ON, les britanniques Centrica et Scottish and Southern Energy(SSE), l’espagnole Iberdrola, la suédoise Vattenfall, la portugaise EDPRenovaveis, la néerlandaise Eneco, ou d’autres grands groupes comme le norvégien Statoil, l’allemand Siemens et Fluor Corp.En annonçant les résultats des enchères, le Premier ministre GordonBrown a estimé que ces projets apporteraient des investissements de 75 milliards de livres à l’industrie britannique et créerait 70.000 emplois d’ici 2020.Le Crown Estate évalue le montant des investissements nécessaires à 75 milliards de livres pour installer les éoliennes, 15 milliards pour les infrastructures de transmission électrique et 5 à 10 milliards pour étoffer les industries et autres éléments de la chaîne d’approvisionnement du secteur éolien, notamment en renforçant la capacité de production d’éoliennes en Grande-Bretagne.Pour l’instant, l’éolien offshore coûte environ 3 millions d’euros ou livres par mégawatt installé, mais ce coût devrait baisser si les industries se multiplient.La plus grande parcelle vendue aux enchères, située dans le DoggerBank, et où 9 GW d’éoliennes sont prévus, a été attribuée à un consortium détenu à part égale par Scottish and Southern Energy, RWENpower Renewables (groupe RWE), Statoil et Statkraft.

Un défi technique majeur
Ces vastes projets s’annoncent difficiles, car la plupart des éoliennes (de 3 MW chacune) devront être installées par 30 mètres de profondeur et très loin des côtes, jusqu’à 285 km du rivage, alors que la plupart des éoliennes projetées par les deux premiers tours d’enchères organisés par Londres depuis 2000 sont plantées au plus à 20 mètres.Selon le PDG du groupe éolien Mainstream Renewable Power, Eddie O’Connor, il faudra pour épauler ces immenses projets installer sur la côte est du Royaume-Uni un nouveau site portuaire, des installations manufacturières ainsi que des services financiers et un centre de recherche. Mainstream Renewable Power allié à Siemens Project Ventures, ainsi que Hochtief Construction, ont remporté la parcelle de la zone de Hornsea, où doivent être installés 4 GW.Autre défi pour l’opérateur du réseau électrique National Grid, il faudra gérer l’intermittence de la production des parcs éoliens. Mais National Grid s’est dit confiant de pouvoir gérer les pics et les creux.

Un supergrid européen s’impose
Selon O’Connor, un nouveau supergrid, un réseau de câbles sous-marins reliant la Norvège, la Grande-Bretagne et le Danemark–sera également vital pour la réussite des projets de ces enchères.Justement en décembre, neuf pays d’Europe ont conclu un accord pour installer en mer du Nord et en mer d’Irlande un réseau de transmission mais aucun investisseur ni plan concret n’est encore annoncé. Les pays concernés doivent tenir des réunions régulières dès février.Il faudra enfin que Londres mette en place des mécanismes financiers qui attireront les investisseurs et sécuriseront leurs apports, estiment les milieux financiers.

Voici les résultats des enchères :
1. Zone Moray Firth : attribuée à Moray Offshore Renewables,consortium détenu à 75 % par EDP Renovaveis et à 25 % par SeaEnergyRenewables = 1,3 GW2. Zone Firth of Forth : attribuée à SeaGreen Wind Energy, consortium détenu à parts égales par SSE Renewables (groupe SSE) etFluor = 3,5 GW3. Dogger Bank Zone : attribuée au Forewind Consortium, qui est détenu à parts égales par SSE Renewables (groupe SSE), RWE Npower Renewables (groupe RWE), Statoil et Statkraft = 9 GW4. Hornsea Zone : attribuée à Siemens Project Ventures et Mainstream Renewable Power, avec Hochtief Construction = 4 GW5. Norfolk Bank Zone : attribuée à East Anglia OffshoreWind, Scottish Power Renewables (filiale d’Iberdrola), VattenfallVindkraft (groupe Vattenfall = 7,2 GW6. Hastings Zone : attribuée à Eon Climate and Renewables UK (groupe E.ON) = 0,6 GW7. Zone de l’Ime de Wight ouest : attribuée à Eneco New Energy (groupe Eneco) = 0,9 GW8. Bristol Channel : attribuée à RWE Npower Renewables (groupe RWE Innogy) = 1,5 GW9. Mer d’Irlande : attribuée à Centrica Renewable Energy, avec RES Group = 4,2 GW 

Source :
Green Univers 

Plus d’éthique dans les STIC

 » La jeunesse de l’informatique est terminée. Désormais, elle a atteint l’âge de raison et des responsabilités.  » Tels étaient les mots utilisés par Michel Cosnard, PDG de l’INRIA, pour conclure son allocution, lundi 12 janvier 2010, lors de la réunion de présentation des rapports de l’INRIA et du CNRS sur la nécessité d’examiner attentivement les questions éthiques soulevées par la recherche en sciences et technologies du numérique et par ses applications. Et d’ajouter :  » Lorsque j’ai rejoint le comité de direction de l’INRIA en 1997, la question se posait déjà. 13 ans plus tard, force est de constater que la situation ne s’est pas améliorée. Au contraire, il y a urgence à créer un comité d’éthique de la recherche dans ce secteur pour examiner et donner des avis, au nom de la société, sur l’opportunité de conduire tels ou tels travaux… Ce sujet dépasse d’ailleurs l’INRIA, poursuit-il. Il englobe toute la problématique de la recherche dans ce domaine et concerne non seulement la France, mais aussi l’Europe. « 

Des questions éthiques nombreuses et complexes
Car le sujet est vaste ! Aujourd’hui, les sciences et technologies du numérique occupent une place de plus en plus importante dans la société ainsi que dans la vie privée et professionnelle des individus. Il est donc normal, qu’au fil du temps, cette question se pose avec de plus en plus d’acuité et qu’elle mobilise, progressivement, des institutions généralistes comme le COMETS, le comité d’éthique du CNRS, qui s’est auto-saisi sur cette question il y a un an.Le résultat est un rapport qui vient renforcer et compléter celui de l’INRIA. A commencer par l’inventaire des questions éthiques soulevées par les technologies numériques. Et force est de constater qu’elles sont nombreuses et complexes. Pour les identifier de manière systématique, le COMETS a d’ailleurs élaboré une cartographie. Celle-ci part des questions afférentes à la personnalité (protection de la vie privée, impact sur l’homme, droits des robots), pour s’étendre à celles ayant trait à la société et à l’environnement au sens large (risques sanitaires, environnementaux et techniques – impact sur la formation et l’accès au savoir – impact sur les relations de travail, les relations économiques, la vie collective et les institutions qui la régulent, – impact sur l’information et la connaissance. Un travail qui rejoint d’ailleurs les différents exemples présentés par le rapport de l’INRIA puisqu’y sont abordés le développement des outils de profilage, la bioinformatique et la détection des maladies génétiques, la médecine numérique l’étude des virus informatiques, la gouvernance d’Internet, les échanges internationaux de données sur l’humain ou encore le droit de la société numérique. Autant de domaines où les technologies de l’information et de la communication sont en train, progressivement, de changer les conditions de vie des hommes en société et où il est nécessaire de repenser ce qui est bien et juste pour définir le nouveau système de règles auquel chercheurs et industriels devront dans l’avenir se conformer.De ce constat, les deux entités, COMETS et INRIA, tirent la même conclusion et la même recommandation : l’urgence de créer un comité d’éthique sur la recherche en sciences et technologies du numérique.

Le rôle et la mission de ce comité d’éthique
Certes, les recommandations des deux organismes sur cette question ne sont pas stricto sensu identiques, mais elles se rejoignent sur de nombreux points. Toutes deux insistent sur la composition pluridisciplinaire du comité d’éthique afin d’intégrer des chercheurs en sciences et technologies du numérique, mais aussi des chercheurs en sciences humaines et sociales ainsi que des représentants du monde politique et industriel. Objectif : prendre en compte toutes les dimensions d’une problématique, mais aussi sensibiliser et faire adhérer les diverses parties à la décision. A ce titre, plusieurs voix se sont élevées pour proposer que ce comité soit intégré au sein de l’alliance pour les sciences et technologies du numérique, Allistene (voir l’article Les sciences et technologies du numérique ont leur Alliance du 21 décembre 2009).Ils recommandent également d’intervenir très en amont des technologies, c’est-à-dire, au niveau de la recherche et des laboratoires. Car dans ce secteur, comme les développements sont très rapides, intervenir a posteriori, lorsque les problèmes surgissent, est souvent inefficace. La mission du comité d’éthique est également largement partagée. Elle consisterait, en premier lieu, à mieux identifier les incidences éthiques des recherches menées dans le domaine, de sensibiliser les chercheurs mais aussi les décideurs et la société civile à ces enjeux, et de s’assurer que les recherches menées satisfont aux critères éthiques qu’il aura mis en avant. Au delà, il aurait également pour rôle de donner à l’ensemble de la société une information objective sur l’avancée des recherches et leurs conséquences potentielles afin d’éviter les effets d’annonces ou encore la propagation de rumeurs.Le comité d’éthique pourrait également encourager, en France, les recherches en STIC permettant de prendre en compte ces questions éthiques, y compris s’il s’agit de projets de recherche communs STIC-SHS.Enfin, il aurait également un rôle à jouer en terme de formation des jeunes chercheurs à l’éthique des sciences et technologies du numérique.Un vaste chantier, mais qui pour le COMETS et l’INRIA ne souffre plus d’attendre. Tous deux préconisent une mise en place dès 2010. Une mise en oeuvre qui aujourd’hui est entre les mains de la ministre de l’Enseignement supérieur et de la recherche Valérie Pécresse à qui ces deux rapports ont été transmis en octobre et novembre 2009.  En savoir plusLe rapport du COMETS :  » Pour une éthique de la recherche en Sciences et Technologies de l’Information et de la Communication « . Voir le site du CNRSLe rapport de l’INRIA :  » Rapport sur la création d’un comité d’éthique en sciences et technologies du numérique « . Voir le site de l’INRIA  A.L B

Energie et architecture : le solaire intégré au bâtiment

http://www.bulletins-electroniques.com/actualites/61602.htm

Le défi consiste à inventer de nouvelles enveloppes de bâtiments, où l’air extérieur côtoie l’air intérieur. Pour le moment, il s’agit surtout d’un problème d’isolation, facile à résoudre dans les nouveaux bâtiments optimisés au niveau énergétique, mais plutôt difficile et coûteux d’un point de vue technique et esthétique. Comme l’épaisseur des façades des bâtiments est amenée à augmenter du fait de la directive sur les économies d’énergie (EnEV), selon les chercheurs de l’institut Fraunhofer des systèmes énergétiques solaires (ISE) à Fribourg, ces façades assument de nouvelles tâches, non seulement en matière d’isolation thermique, mais aussi en terme de production d’énergie – les techniques énergétiques solaires couvrent ainsi un large champ d’application.

Un nouveau schéma architectural se dessine dans la branche solaire, entraîné davantage par des énergéticiens que par des architectes eux-mêmes. Désormais, l’enveloppe classique du bâtiment doit remplir des fonctions supplémentaires : production d’énergie à l’aide du photovoltaïque (PV) ou de la thermie solaire, chauffage, réfrigération, aération, distribution de l’électricité et services de communication – tout ce qui se passe traditionnellement en profondeur dans des gaines et cheminées doit à présent être intégré au revêtement multifonctionnel de la maison.

Le BIPV soutenu en France

La production d’énergie intégrée aux bâtiments et ses applications fonctionnelles apparaissent sous le concept spécialisé BIPV (building integrated photovoltaic). L’utilisation énergétique intégrée aux bâtiments ne doit pas être un à-côté, mais une part conceptuelle intégrée de la planification des bâtiments, selon Hans-Martin Henning, vice-directeur de l’ISE, responsable du secteur des installations thermiques et des techniques de construction. Il serait selon lui judicieux que le BIPV reçoive une attention particulière. Cependant, les directives de soutien s’orientent en Allemagne plutôt dans l’autre sens : jusqu’à fin 2008, l’intégration du PV aux façades s’accompagnait d’une indemnité supplémentaire pour la mise en réseau de 5 c euros/kWh, s’ajoutant aux 46,74 c euros/kWh reversés usuellement aux producteurs d’électricité solaire.

Aujourd’hui, cette somme s’est réduite à 43,01 c euros/kWh. En France au contraire, le BIPV est soutenu en priorité avec 57 c euros/kWh et les autres installations PV avec 31 c euros/kWh. Le monde politique ne peut pas continuer à nier cette erreur d’orientation, selon M. Henning, car « sinon les objectifs européens de lutte contre le changement climatique ne pourront pas être atteints ».

Allier production d’électricité et thermie solaire

La transformation des anciens et nouveaux bâtiments en maisons à énergie-zéro fonctionne avec des façades de garde multifonctionnelles fabriquées industriellement et standardisées, qui doivent évidemment se conformer aux dessins industriels individuels. Willi Ernst de Centrosolar, spécialiste en installations PV à Paderborn, affirme que « lorsqu’un module ne produit que de l’électricité, les coûts sont comptés selon le prix du kWh. En revanche, si nous remplaçons en même temps un volet, la structure de coûts change considérablement ». A partir des modules de toit typiques qui représentent actuellement 99 % des installations PV, le chemin est long vers l’intégration des façades verticales.

La production d’électricité solaire doit s’effectuer sur des surfaces transparentes de fenêtres, la thermie solaire plutôt dans des éléments de façade opaques. Les éléments de construction de façade actuels assurent déjà la production énergétique PV et thermique solaire. Ils intègrent l’aération avec récupération de chaleur et le chauffage, éventuellement avec des pompes à chaleur aux dimensions adéquates. En même temps, leur ombre sert de protection contre le soleil d’été. Des bâtiments modèles d’avenir pour des logements collectifs assainis sur la base du standard 55 KfW [1] et du standard de maison à énergie zéro existent déjà à Fribourg, Francfort, Heidelberg, Ludwigshafen, Mannheim et Ulm.
Le BIPV est encore un marché de niche, dont le manque de normes et la production en petites séries pourraient limiter la croissance ; le phénomène est accru par les déficits d’information et l’insécurité en ce qui concerne la garantie de construction, selon Lux Research, groupe américain spécialiste de l’étude de marché. La standardisation pourrait réduire les coûts. Le BIPV sortira de la niche lorsqu’il comblera les lacunes entre le PV et le secteur de la construction, ce qui exige des normes, des innovations et des investissements.

[1] La KfW est la banque publique allemande. Le standard KfW 55 désigne le niveau de nouvelles constructions (KfW 100) moins 45 % : une maison efficace selon le standard 55-KfW nécessite ainsi 45 % de moins d’énergie de chauffage qu’un nouveau bâtiment selon le décret d’économie d’énergie EnEV actuel.

 

Origine :

BE Allemagne numéro 464 (17/12/2009) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/61602.htm
Claire Vaille est rédactrice pour la rubrique énergie des bulletins électroniques de l’ambassade de France en Allemagne

« Les bioplastiques représentent une vraie alternative »

Certes les bio polymères ont encore des limites. Mais les travaux des chercheurs et des industriels portent leurs fruits. Leurs propriétés se rapprochent de plus en plus des polymères standards. Jan Switten, consultant indépendant revient sur leurs contraintes, mais aussi les caractéristiques et les opportunités qu’offrent ces produits. Autant de points qu’il abordera plus en détail dans la formation intitulée « Bioplastiques : caractéristiques, applications et limites« , organisée par les Techniques de l’Ingénieur le 12 février 2010.

ETI : Les bioplastiques sont-ils beaucoup plus chers ? Quels sont les critères de comparaison ?

Jan Switten :  » Les bio polymères sont effectivement plus chers que les polymères standards. Il faut compter entre 1 et 2 euros pour un polymère standard contre 2 à 7 euros pour un bio polymère comme le PLA [ndlr : Polyacide lactique]. Mais ce prix peut-être encore plus élevé. Il faut compter 10 à 12 euros pour le PHA [ndlr : Polyhydroxyalkanoate]. Ce coût est dû à deux principaux facteurs : un processus de transformation et une chaîne de production complexes qui intègre de nombreuses étapes ; et des volumes qui ne représentent encore qu’une fraction des polymères obtenus par voie pétrochimique. On ne fabrique que 220.000 tonnes de PLA par an dans le monde, 80.000 tonnes de PHA et 320.000 tonnes de biomatériaux basés sur l’amidon. Les économies s’échelle sont donc moins importantes que pour un polymère standard.

De fait, lorsqu’un industriel opte pour un bio matériau, son critère de choix n’est pas le prix, mais la durabilité. Or il y a fort à parier, qu’à l’instar de ce qui se passe aux Etats-Unis, les fabricants de plastiques du futur, sous la pression de la législation, devront indiquer l’empreinte carbone [ndlr : émission de CO2] de leurs matériaux. Ce qui, à terme, fera pencher la balance en faveur des bio matériaux car leur empreinte est en principe proche de zéro.

Les bioplastiques ont-ils toutefois des limites ?

Oui. Les caractéristiques des bioplastiques ne sont pas encore au même niveau que les plastiques standards. Les utiliser implique certaines contraintes. La plupart des bioplastiques n’offrent pas une barrière suffisante à l’humidité. Ils ne sont donc pas adaptés pour emballer des biscuits. Leur stabilité thermique doit également être améliorée, surtout pour les PLA. Jusqu’à 50 °C, ces produits sont stables, mais au delà, ce qui peut arriver dans les entrepôts de stockage, ils se déforment. Enfin, ils ont des limites mécaniques. Ils peuvent être trop durs ou trop flexibles. Résultat, ils cassent. C’est particulièrement vrai du PLA.

 Parvient-on à y remédier et à se rapprocher des propriétés des polymères habituels ?

Tout à fait. Certes, les propriétés des bio polymères restent différentes de celles des polymères traditionnels, mais elles se rapprochent de plus en plus. Les bioplastiques, par exemple, offrent une excellente barrière à l’oxygène. Par ailleurs, en mélangeant un bio polymère et un polymère standard, comme l’écoflex de BASF, on parvient à obtenir des propriétés mécaniques similaires à celles des plastiques obtenus par voie pétrochimique, avec une empreinte carbone très faible. Même chose pour le PHA : ses propriétés mécaniques sont excellentes. Enfin, les bioplastiques, comme matériaux polaires, sont faciles à imprimer. Autant d’avancées qui offrent à ces produits de nouveaux débouchés, comme, par exemple, dans le flaconnage en cosmétique ou dans l’automobile. Un constructeur comme Toyota emploie des bioplastiques pour ses voitures. Cela renforce son positionnement de constructeur vert et justifie des prix plus élevés.

Et qu’en est-il du vieillissement des bioplastiques ?

Il est très variable d’un produit à l’autre. Le choix du bioplastique se fera en fonction de la durée de vie du produit et si l’on désire, ou non, qu’il soit compostable. Si l’on veut qu’un produit soit biodégradable, il faut choisir un plastique dont le vieillissement sera rapide. C’est souvent le cas dans l’emballage, mais aussi pour les récipients jetables comme les gobelets. En revanche, si l’on veut un produit avec une longue durée de vie, mais qui soit recyclable, comme dans l’automobile, il faut opter pour certains matériaux renouvelables ou pour des mélanges avec des matériaux d’origine fossile.

Quels sont les produits de base pour obtenir les bioplastiques ?

La première génération de bioplastiques était fabriquée avec des produits alimentaires tels que le maïs, le sucre de canne ou encore la pomme de terre. Ce qui pose des problèmes de déontologie. Aujourd’hui, les industriels et les chercheurs travaillent sur une deuxième génération de bioplastiques, obtenue, cette fois-ci, avec des déchets de l’agriculture ou de l’industrie forestière. Ces produits existent déjà et sont fabriqués aujourd’hui essentiellement par des entreprises américaines et japonaises. Les européens sont plus en retraits et en sont davantage au stade de la recherche. En France, l’université de Strasbourg est assez en pointe dans ce domaine, tandis qu’en Hollande, c’est l’université d’Utrecht.

Les bioraffineries sont-elles assez nombreuses aujourd’hui ?

La réponse est clairement non. Il n’y en a que quelques unes. Les plus connues sont au nombre de trois : Novamont en Italie, Cargill aux Etats-Unis et Stora Enso en Suède. Ces structures sont l’équivalent des raffineries de pétrole. Elles sont capables de fabriquer toute la palette de produits dérivés depuis les bioplastiques en passant par les biocarburants. Mais la situation devrait rapidement évoluer. Il y a une grande activité dans ce domaine en ce moment et très certainement, de nouvelles entités vont rapidement se développer.

Où en est ce marché aujourd’hui ? A quelle vitesse croît-il ?

Actuellement, le volume de production double tous les ans. C’est un marché qui croît très vite et ceci pour plusieurs raisons. Il y a la pression législative bien sûr, mais aussi celle qu’exerce les consommateurs. Par ailleurs, en raison de l’évolution des propriétés de ces produits, la distribution mais aussi l’industrie deviennent des débouchés de plus en plus importants. Aujourd’hui, les biomatériaux sont utilisés dans l’emballage, mais aussi dans l’industrie automobile, dans l’électronique et la téléphonie. »

Propos recueillis par Gautier Bernard et Anne-Laure Béranger

 

 

Formation Techniques de l’Ingénieur

12 février 2010 : Bioplastiques – Caractéristiques, applications et limites

Intervenant : Jan Switten, consultant indépendant spécialisé dans le conseil et la formation sur les plastiques et l’emballage. A ce titre, ses domaines d’expertise sont : les bio polymères, la transformation des bio polymères en film, les systèmes de cellage et d’ouverture facile, ainsi que les systèmes de barrière pour tenir au frais.

Le programme complet de la formation.

Dans la base documentaire Techniques de l’Ingénieur

[Base doc] Bioprocédés

[Base doc] Plastiques et composites

[Article base doc] : Les biopolymères : différentes familles, propriétés et applications

 

Dossier éolien : où en est-on ?

Que ce soit au niveau national ou international, la production d’énergie éolienne augmente de façon régulière. Ainsi, ce mode de production d’électricité, au point techniquement, rentable, possède l’immense avantage de pouvoir être mis en œuvre sur terre et sur mer. Ainsi, au niveau technique, le poids des éoliennes installées a été divisé par deux en cinq ans, et surtout, la production électrique annuelle éolienne a été multipliée par 100 en quinze ans. Et ce n’est pas fini. Le point avec notre dossier.

L’éolien en France
Chiffres clés : photographie du parc éolien français en 2009Après vous avoir présenté l’état du parc photovoltaïque français, voici quelques chiffres sur la situation de l’éolien en France début 2009. Lire la suite
 Qui paye pour l’électricité éolienne, pour quel bénéfice ?La loi Grenelle I a fixé des objectifs ambitieux pour le développement de l’électricité éolienne en France. Alors que le Programme Pluriannuel d’Investissement (PPI) de 2006 avait visé 15 000 MW en 2015, la loi Grenelle I et le PPI 2009 prévoient 25 000 MW en 2020, dont 6 000 MW en mer. Pour encourager le développement de l’éolien, les pouvoirs publics ont garanti son achat par EDF à un tarif imposé. Mais au final, qui devra payer l’addition : le consommateur d’électricité ou le contribuable ? Raphaël Ménard (Elioth) : « Les éoliennes à axe vertical intégrées aux pylônes électriques ont un avenir »Elioth, filiale du groupe IOSIS, a imaginé une éolienne à axe verticale, baptisée wind-it, qui s’intègre au sein de l’exosquelette des pylônes électriques. Ainsi valorisés, les pylônes électriques deviendraient producteurs d’une énergie renouvelable directement raccordée au réseau. Raphaël Ménard, directeur d’Elioth, fait le point sur ce projet.
Dans les bases documentaires
[Base doc] Génie énergétique[Rubrique Base doc] Sources d’énergie primaires[Article Base doc] Énergie éolienne pour la fourniture d’électricité[Article Base doc] Contexte actuel [Article Base doc] Ressource : gisements éoliens [Article Base doc] Aérogénérateurs [Article Base doc] Insertion de l’électricité éolienne dans les réseaux [Article Base doc] Gestion de l’énergie éolienne
Et aussi dans l’actualité…
Bretagne : troisième projet éolien offshore proposé par Nass & WindL’énergie éolienne en substitution à d’autres sources d’électricité

L’Eolien européen a le vent en poupe
10 parcs éoliens offshore dans le monde… et tous en EuropeSelon un rapport du dernier congrès de l’EWEA (European Wind Energy Association), il existe 10 parcs éoliens offshore actuellement en fonctionnement dans le monde et tous sont situés en Europe. Ce qui fait du vieux continent le premier producteur mondial d’électricité produite par les énergies renouvelables de la mer. En savoir plus
 Supergrid : un réseau éolien offshore européenLe développeur irlandais de projet Mainstream Renewable Power a élaboré le projet de créer un super réseau électrique maritime pan-européen. Le directeur général et fondateur de Mainstream, Eddie O’Connor, n’a pas hésité à déclarer à la presse que ce projet, qui en était encore au stade de la conception, pourrait nécessiter des investissements financiers estimés à un trillion d’euros.Allemagne : un parc éolien offshore de 1.000 MW pour 2015Le fabricant d’éoliennes REpower Systems et RWE viennent de signer un contrat de fourniture de 250 éoliennes pour construire un gigantesque parc éolien offshore de 150 Km². Innogy Nordsee doit voir le jour au large de l’île Juist au nord de l’Allemagne et doit atteindre 960 MW de puissance.L’éolien en Espagne, ce n’est pas du ventAu mois de novembre dernier, 44 provinces espagnoles (les équivalents des départements français) étaient en alerte météo, du fait d’une vague de froid et des forts vents attendus. Et les vents ont été au rendez-vous sur les côtes nord et en Méditerranée, pour le pire (routes coupées, ports ou aéroports fermés…) mais aussi pour le meilleur : le dimanche 8, entre 3h20 et 8h40 du matin, plus de 50 % de l’électricité produite en Espagne ont été générés par les éoliennes, avec une pointe à 52,4 %.
Et aussi dans l’actualité…
L’UE fait la part belle à l’éolien offshoreEnergies renouvelables : l’UE n’atteindra pas les objectifs fixés pour 2010

La mondialisation de l’éolien
La Chine détient un potentiel éolien majeurUne étude publiée en septembre dans la revue Science indique que le potentiel éolien chinois est très largement suffisant pour répondre à la totalité de la demande électrique du pays jusqu’en 2030, soit deux fois la demande actuelle. Encore faut-il que la Chine se donne les moyens d’exploiter ce potentiel en modernisant son réseau d’électricité. Explication avec Xi Lu, co-auteur de l’étude. En savoir plus
 Les Etats-Unis envisagent des échanges avec l’Union Européenne en matière d’éolien offshoreUn nouveau rapport cité le 11 novembre dernier par le ministère américain de l’Energie (US DOE), appelle à une meilleure coordination entre les organismes gouvernementaux, les universités et les entreprises de façon à développer l’énergie éolienne offshore aux Etats-Unis. Explications.140 compagnies éoliennes offshore demandent à l’UE d’agirLa conférence de l’EWEA (Association européenne de l’énergie éolienne), qui s’est tenue a Stockholm ce mois-ci, n’en finit pas de faire des vagues. Dernière en date cette déclaration commune signée par plus de 140 entreprises d’énergie éolienne de 38 pays, appelant l’Union Européenne et ses gouvernements nationaux à apporter plus de soutien politique et législatif pour développer l’industrie éolienne au large des côtes du continent européen. 10 parcs éoliens offshore dans le monde… et tous en EuropeSelon un rapport du dernier congrès de l’EWEA (European Wind Energy Association), il existe 10 parcs éoliens offshore actuellement en fonctionnement dans le monde et tous sont situés en Europe. Ce qui fait du vieux continent le premier producteur mondial d’électricité produite par les énergies renouvelables de la mer.
Et aussi dans l’actualité…
Chiffre clé : 100 GW d’éolien en Chine en 2020L’Alaska : nouvel eldorado des énergies renouvelables ?
 

L’éolien ou l’innovation à tout-va
Ces éoliennes qui produisent de l’eauBoirons-nous un jour de l’eau captée dans l’air par des éoliennes ? La question n’a rien de saugrenu : plusieurs prototypes d’éoliennes produisant de l’eau douce grâce à l’humidité présente dans l’air, sans rejet de CO2 et sans consommation d’énergie externe, sont en cours de développement. La suite
AXYS révolutionne l’évaluation de la ressource éolienne en merLes compagnies canadiennes Axys Technologies basée à Sidney en Colombie Britannique, spécialisée dans la surveillance marine à distance, et la compagnie Catch The Wind Ltd. ont mis au point un système conjoint de recherche et de mesure de ressources éoliennes en mer, WindSentinel, permettant de situer plus rapidement et à moindre coût les lieux d’implantations possibles d’éoliennes.Nouvelle centrale hybride en Allemagne : produire de l’hydrogène pour stocker de l’électricité éolienneLa Chancelière allemande a inauguré, le mardi 21 avril 2009, une centrale innovante à l’échelle mondiale : la centrale thermique hybride de Prenzlau (Brandebourg) devrait élargir considérablement le domaine d’utilisation des énergies renouvelables. Explications. Dossier réalisé par Pierre Thouverez

« La réalité virtuelle se démocratise »

Début décembre 2009, l’Institut National de Recherche en Informatique et en Automatique (INRIA) organisait à Ecully, près de Lyon, la première édition de la « Joint Virtual Reality Conference ». Une première qui a rassemblé environ 220 experts mondiaux de la réalité virtuelle. Sabine Coquillart, directrice de recherche à l’INRIA, revient sur cet évènement, sur les suites qui lui seront données, ainsi que sur les avancées de la recherche et la diversité des applications.

ETI : Il s’agissait de la première édition de la Joint Virtual Reality Conference. Quels étaient les objectifs de cette nouvelle manifestation ?

Sabine Coquillart :  » En tant que telle, il s’agissait bien de la première édition de cette manifestation. Mais en fait, elle est le fruit de la réunion de trois conférences existantes : l’Eurographics international symposium on Virtual Environment (EGVE) dont c’est la 15ème édition, l’International Conference on Artificial Reality and Telexistence (ICAT) qui est la plus ancienne puisqu’il s’agit de la 19ème édition, et EuroVR qui en est à sa 6ème édition. Nous devons cette évolution en partie à la volonté d’un certain nombre de personnes de mêler plus intimement la recherche académique et l’expérimentation industrielle, et pour l’autre, aux circonstances, l’ICAT ayant décidé cette année d’organiser sa conférence en Europe. La fusion des trois conférences n’aura lieu qu’en 2009 puisque l’ICAT se déroulera en 2010 dans une autre partie du monde. Mais étant donné l’intérêt qu’a suscité l’association de l’EGVE et de l’EuroVR, il a été décidé de renouveler l’expérience l’année prochaine. La prochaine édition sera donc européenne et elle se déroulera en septembre 2010 en Allemagne à Stuttgart.

Concrètement, comment êtes-vous parvenus, tout au long de cet évènement, à associer recherche académique et expérimentation industrielle ?

Nous avons organisé trois cessions en parallèle. La première était dédiée à la présentation de papiers académiques. Au cours de la deuxième, nous avons donné la parole à des industriels qui ont expliqué leur projet et leur démarche en matière de réalité virtuelle ou d’interfaces 3D. La troisième cession, elle, était une journée réservée aux présentations des laboratoires, l’objectif étant ici de brosser une vue globale des travaux d’une équipe. Pour les deux autres journées, différents thèmes avaient été retenus tels que les neurosciences et la réalité virtuelle, ou encore les systèmes informatique et haptique. A cela s’ajoutait des posters, une dizaine de démonstrations réalisées par des laboratoires et des produits présentés par des industriels.

Manipulation d’objets déformables par contrôle d’une main virtuelle de grande dextérité. © INRIA
Au vu des travaux présentés lors de cette conférence et des avancées réalisées, quelles sont aujourd’hui les finalités de la réalité virtuelle ? Ont-elles évolué ?

Aujourd’hui, nous savons faire de plus en plus de choses dans un domaine qui est encore très immature. Les applications sont elles aussi de plus en plus variées. Elles concernent aussi bien l’éducation, que la médecine, la formation, le prototypage et la réalisation de tests d’assemblage industriels ou encore, les applications collaboratives. Enfin, les réalisations sont de plus en plus réalistes et leur coût est de moins en moins élevé ce qui conduit à démocratiser ces technologies. Mais de manière générale, la finalité de la réalité virtuelle reste la même. Il s’agit de simuler une tâche et de mettre une personne dans une situation, que celle-ci existe ou non, comme dans le cas d’entraînements en milieu hostile.

Vous parlez d’une certaine démocratisation. Mais jusqu’où va-t-elle ?

Il reste il est vrai de fortes dominantes. L’usage de la réalité virtuelle reste très attaché à des industries spécifiques comme l’automobile ou l’aéronautique, avec, en particulier, un intérêt actuel fort pour les produits haptiques, permettant la simulation du retour d’effort, et pour le travail collaboratif. Mais il existe de nombreuses autres applications, notamment dans le domaine médical pour simuler, par exemple, des interventions chirurgicales. Au delà, nous l’utilisons également pour faire de la recherche sur les perceptions humaines et notamment pour tenter de comprendre certaines pathologies neurologiques.

Manipulation 3D virtuels permettant à plusieurs utilisateurs d’interagir sur un même élément. © INRIA
Quels sont les défis qu’il reste à relever ?

Mêmes si les avancées scientifiques et techniques sont importantes, la réalité virtuelle reste un domaine encore très récent. Un des principaux objectifs à atteindre serait de parvenir à simuler n’importe quelle tâche réelle. Nous en sommes encore très loin et ce, sur de multiples domaines. Sur l’aspect visuel, il y a encore des choses à faire évoluer pour obtenir des configurations plus légères, plus collaboratives ou moins intrusives. Au niveau restitution d’efforts et restitution tactile, les défis sont encore plus nombreux. L’information haptique est souvent ponctuelle ou locale, et les systèmes encore très volumineux et intrusifs. Enfin, au niveau de la collaboration à distance, l’objectif est de faire en sorte que tous les intervenants aient l’impression d’être sur place en train de travailler sur une tâche donnée.   video

© newscientist.com. Les innovations en matière de réalité virtuelle
Hormis l’organisation d’une conférence européenne de la réalité virtuelle en Allemagne en 2010, cette manifestation aura-t-elle d’autres suites ?

Oui. Nous allons créer, dans les six mois qui viennent, une association européenne de la réalité virtuelle. L’objectif étant de structurer ce domaine au niveau européen. Car si l’Europe, dans sa globalité, a une assez bonne place, ce sont le Japon et les Etats-Unis qui tiennent le haut du pavé dans ce domaine. Au delà, l’idée est toujours la même. Il s’agit de rapprocher la recherche académique et les industriels.  »     Le parcours de Sabine Coquillart Après une thèse en science de l’informatique et un post doc aux Etats-Unis dans l’informatique graphique, Sabine Coquillart intègre le centre de recherche INRIA de Rocquencourt où elle travaille pendant de nombreuses années en informatique graphique. Un poste qu’elle quitte, dans le cadre d’une année sabbatique, pour rejoindre Thomson avant d’être affecté, quelques années plus tard, en détachement en Allemagne au sein du groupe Visualization and Media Systems Design (VSMD) du GMD institute. De retour en France, elle crée en 1997 le groupe de recherche consacrée à la réalité virtuelle et à l’interaction 3D (I3D pour 3 dimensional interaction) au sein de l’INRIA. Aujourd’hui, elle y occupe le poste de directrice de recherche. Ses travaux portent sur l’interaction 3D, prioritairement en réalité virtuelle. Liens utiles Groupe de recherche I3D – INRIA Grenoble Site de la Joint Virtual Reality Conference, ed 2009     Propos recueillis par Anne-Laure Béranger

Plastique et caoutchouc à la fois

http://www.bulletins-electroniques.com/actualites/61712.htmDes matériaux polymères aux propriétés remarquables ont été mis au point à l’Institut des combinaisons organiques élémentaires Nesmeyanov (INEOS) de l’Académie des sciences russe. Ces matériaux ont un coefficient d’élasticité leur permettant de prendre facilement les caractéristiques de rigidité voulues. Plus concrètement, le même matériau allie les propriétés d’un plastique solide et d’un caoutchouc souple.Ces matériaux sont dits « à gradients ». Leur module d’élasticité peut varier progressivement, dans une large plage, au sein d’un même matériau ou d’une même pièce confectionnée, sans aucune couche ou séparation intermédiaire. Pour réguler les propriétés des matériaux polymères, on utilise traditionnellement la combinaison de différentes couches. On recourt pour ce faire à des fusions ou des collages coûteux. Outre le volume de travail additionnel que ces techniques requièrent, elles ont pour inconvénient que la liaison (l’adhérence) entre les couches de matériaux n’est pas satisfaisante.Les chercheurs de l’INEOS proposent, pour obtenir de tels matériaux aux propriétés ajustables dans différentes directions, de synthétiser des matériaux polymères à gradients sur la base de compositions reposant sur deux polymères – un polymère très élastique et un autre vitreux. Il s’agit en l’occurrence non pas simplement de mélanger deux polymères – il ne serait pas possible d’obtenir ainsi un changement régulier des propriétés – mais de réaliser une synthèse de deux types de structures polymères réticulées, présentes dans des proportions diverses au sein d’un même matériau.Les expériences ont montré que les matériaux polymères à gradients élaborés par l’INEOS peuvent fonctionner, sans se ramollir ni se détruire, dans un intervalle de températures compris entre -50° et +330°. Ils présentent par ailleurs une solidité, une élasticité et une résistance à l’usure très élevées. Ces nouveaux matériaux offrent des perspectives réelles d’utilisation en médecine, dans l’industrie de la chaussure, pour les appareils domestiques, pour la production industrielle.Le laboratoire de l’INEOS a ainsi déjà entrepris des premiers tests avec l’Usine de prothèses de Moscou pour créer une chaussure orthopédique dans laquelle la répartition de la charge est absorbée par la partie caoutchouc du matériau, tandis que la pression est absorbée par la partie plastique. Sous le talon de la semelle, le matériau est dur, et au fur et à mesure que l’on se rapproche de la pointe du pied, il devient de plus en plus souple.En médecine, les matériaux à gradients peuvent être utilisés comme des implants – un matériau dur imite le tissu osseux, tandis qu’un matériau de consistance caoutchouteuse peut imiter le cartilage. Les tests de tels implants effectués sur des lapins ont montré la sûreté et la bonne biocompatibilité du matériau.Dans la construction automobile et aéronautique, de même que dans l’industrie textile, ces matériaux peuvent être utilisés comme des vilebrequins et des pignons, fonctionnant sans bruit et pratiquement sans s’user. La zone centrale des pignons peut avoir une résistance élevée, alors qu’à leur périphérie, là où les dents viennent « mordre », le module d’élasticité peut être adapté en conséquence. Le tout pouvant être réalisé au sein d’un même processus.Il est également possible, à l’aide de ces matériaux à gradients, de fabriquer des éléments absorbant les vibrations, tels que des bases pour divers appareils (appareils radio, électroménager). Pour ces éléments, le gradient du module varie, en fonction de l’épaisseur, de la rigidité du plastique à la souplesse du caoutchouc. Ainsi, le dessous d’un appareil peut être à la fois rigide et élastique. L’appareil peut être solidement fixé sur son socle grâce à sa partie rigide, tandis que la partie souple de sa construction souple lui permet d’absorber les vibrations indésirables. En savoir plus : Institut des combinaisons organiques élémentaires Nesmeyanov (INEOS) – Tel: 007 499 135 92 02 – Fax: 007 499 135 50 85 – E-mail : [email protected] – Site web : http://www.ineos.ac.ruSource : nkj.ru – 11/10/09Rédacteur : Nicolas QuenezOrigine : BE Russie numéro 26 (21/12/2009) – Ambassade de France en Russie / ADIT – http://www.bulletins-electroniques.com/actualites/61712.htm 

L’INRIA et ses partenaires cassent une clé RSA de 768 bits

Depuis 1998 et l’affaire Serge Humpich, on sait que les clés RSA (Rivest Shamir Adleman) peuvent être cassées. Mais comme souvent en matière de sécurité informatique, seul l’exemple est probant. En 1998, Serge Humpich avait cassé les clés RSA 320 bits utilisées à l’époque dans les cartes bancaires. Un an plus tard, en septembre 1999, c’était au tour d’un groupe de chercheurs de l’INRIA de casser une clé numérique de 155 chiffres et 512 bits. Depuis, les paliers tombent les uns après les autres. En décembre 2003, c’est au tour d’une clé RSA de 576 bits, soit 174 chiffres d’être violer, puis, en mai 2005, les chercheurs de l’INRIA parviennent à casser un clé de 663 bits soit une clé numérique de 200 chiffres. Aujourd’hui, un peu plus de quatre ans après leur précédent exploit, ces derniers récidivent. Ils sont parvenus, avec leurs partenaires, à démontrer la vulnérabilité d’un clé RSA de 768 bits, soit une clé numérique de 232 chiffres.

Mais comment ont-ils fait ?
Revenons tout d’abord sur le mode de fonctionnement du cryptosystème RSA. Chaque utilisateur possède une clé publique connue des autres utilisateurs et une clé privée connue de lui seul. La clé publique est constituée d’un couple (n,e) où n est le produit de deux grands nombres premiers p et q (la taille de n est dans le cas présent de 768 bits), et e est un nombre premier, plus petit que n, avec (p-1)*(q-1).La clé privée, quant à elle, est le couple (n,d) où d a la particularité que pour tout nombre M compris entre 0 et n-1 : (M^e)^d = M mod n. Ce cryptosystème permet alors deux fonctionnalités, le chiffrement et la signature. Ainsi, pour chiffrer un message M à destination d’un utilisateur dont la clé publique est (n,e), on calcule : C = M^e mod n, et on lui envoie C. Le destinataire peut alors retrouver M en calculant : M = C^d mod n.Ce système rend ainsi difficile l’obtention de la clé privée d à partir de la clé publique (n, e). Cependant si l’on peut factoriser n, alors on peut obtenir la clé privée d. C’est ce que sont parvenus à faire les chercheurs de l’INRIA. Nancy – Grand Est regroupés au sein de l’équipe CACAO (pour Courbes, Calculs, Arithmétique des Ordinateurs) avec leurs partenaires suisses, japonais, hollandais et allemands (EPFL, CWI, NTT, Université de Bonn).

Un record de calcul
Cet exploit a toutefois nécessité la mise en œuvre de moyens hors du commun. Pour parvenir à casser cette clé de 232 chiffres et à retrouver les facteurs premiers qui la composent, les chercheurs de l’INRIA et leurs partenaires ont dû mettre en commun différentes capacités de calcul. L’INRIA a utilisé une partie de l’infrastructure Grid’5000 qui relie en France 1.544 machines, soit plus de 5.000 cœurs. A cela, est venu s’ajouter la puissance de calcul de ses partenaires. Au total, ce sont l’équivalent de 1.700 coeurs qui ont ainsi été utilisés pendant un an, soit 425 PC quadri coeurs pendant un an.Parallèlement, différentes étapes ont été nécessaires pour mener à bien ce projet, rapporte le communiqué de presse de l’INRIA.  » La première a consisté à collecter plus de 64 milliards de relations [1]. Cela a nécessité plusieurs espaces disque (5 Tera-octets, copies de sauvegarde et espace de travail). Pour garantir la bonne exécution du calcul, l’intégrité des données, qui ont circulé d’un bout à l’autre de la planète, a dû être vérifiée en permanence.  » Au total, le calcul aura mis 2 ans et demi pour aboutir. Une tâche d’envergure à laquelle l’INRIA a contribué à hauteur de 37 % du résultat global (en ressources de calcul). L’équipe a notamment apporté son expertise pour élaborer un protocole d’utilisation des machines et rassembler le nombre nécessaire de relations. Selon Paul Zimmermann, directeur de recherche au sein de l’équipe CACAO,  » réaliser un tel calcul en recourant à un outil comme Grid’5000 montre l’efficacité de solutions de calcul distribué ou grilles de calcul. Ces dernières représentent une alternative très sérieuse aux supercalculateurs. En rassemblant des ressources simples, à l’échelle d’un PC, elles sont efficaces à moindre coût.. « , ajoute-t-il dans le communiquer.

En dessous de 2.048 bits, attention danger
Si l’on avait de sérieux doutes sur la solidité de cette clé RSA de 768 bits, preuve est faite aujourd’hui que ces soupçons étaient fondés. De fait, même si un tel décryptage n’est pas à la portée de n’importe qui, il est recommandé, ainsi que le fait l’Agence nationale de la sécurité des systèmes d’information (ANSSI), de ne pas utiliser de clé de taille inférieure à 2.048 bits pour une utilisation au-delà de 2010. Tout système utilisant des clés sous-dimensionnées serait donc inadapté.  Notes[1] Une relation est une factorisation d’un entier de quelques dizaines de chiffres. Il faut en rassembler un grand nombre pour mener à bien la factorisation initiale, soit parvenir à casser la clé.La factorisation de RSA-768 (cf http://fr.wikipedia.org/wiki/RSA-768) est :RSA-768 = 33478071698956898786044169848212690817704794983713768568912431388982883793878002287614711652531743087737814467999489 * 36746043666799590428244633799627952632279158164343087642676032283815739666511279233373417143396810270092798736308917Pour plus d’informations, l’article scientifique  » Factorization of a 768-bit RSA modulus  » est téléchargeable depuis l’adresse http://eprint.iacr.org/2010/006.pdf. Il détaille les aspects techniques de ce calcul. Par A.L Béranger

Conduite de projets informatiques : l’apport des « méthodes agiles »

Les chefs de projet d’ingénierie logicielle ont souvent cherché à concilier le besoin de définir le plus précisément possible l’application à développer et l’évolution continue, parfois contradictoire, des besoins utilisateurs.Les méthodes agiles sont des procédures de conception de logiciel qui se veulent plus pragmatiques que les méthodes traditionnelles. En impliquant au maximum le demandeur (client), ces méthodes permettent une grande réactivité à ses demandes, visent la satisfaction réelle du besoin du client, et non des termes du contrat de développement.

Les différentes méthodes de projet informatique

Mais revenons, dans un premier temps, sur les méthodes qui existent pour conduire des projets informatiques en entreprise ainsi que sur leurs avantages et inconvénients.

  • Le premier d’entre eux est le modèle en « cascade » : il présente un problème d’effet tunnel et de non prise en compte des évolutions des utilisateurs pendant le développement.
  • Le modèle en « V » : cette méthode plus souple reste la méthode la plus courante. Le haut du V correspond au niveau fonctionnel et le bas au développement (technique). Dans un premier temps, il permet d’aller du fonctionnel au technique. Dans un deuxième temps, il permet de remonter au fonctionnel pour compléter les développements. La visibilité et la réactivité sont réduites à la taille d’un V qui peut quand même être de plusieurs mois. Cette durée peut être considérée trop longue pour des décideurs ou des gestionnaires qui ont besoin de lancer des projets rapidement (budgétairement). Elle fait appel aux utilisateurs uniquement au début et à la fin du cycle en V.
  • Le modèle agile : les phases sont simplifiées afin d’en raccourcir la durée. Les méthodes agiles se basent sur la notion de communauté de projet dans laquelle les développeurs et les utilisateurs sont présents en permanence pour exprimer ou répondre à une question liée au projet.
Les points forts de ces  » méthodes agiles « 
  • Elles permettent la réduction au maximum des écarts entre le produit développé et les besoins métiers ;
  • Elles entraînent une réduction des coûts d’étude qui est réalisée conjointement avec les développements ;
  • Elles écartent la possibilité d’effet tunnel pour les utilisateurs et la direction qui sont impliqués dans le projet ;
  • Elles font naître une grande souplesse et une réactivité pour les projets courts à forte valeur ajoutée.
Les limites des méthodes agiles
  • Un des premiers problèmes est celui de la disponibilité. Celle-ci s’avère plus difficile à obtenir dans les équipes réduites, notamment pour la rédaction de la documentation du projet, car tout est fait au fur et à mesure ;
  • Un manque de planification prévisionnelle car le projet avance à vue ;
  • Un besoin de concertation avec les autres projets, car le fait de mettre des collaborateurs ensemble ne crée pas toujours une équipe réceptive au changement.
Est-il possible d’appliquer les méthodes agiles à d’autres projets IT que l’ingénierie logicielle ?

Dans le cadre de l’évolution des infrastructures, il peut y avoir des cycles et des itérations, mais l’utilisateur n’intervient ni n’est sollicité pendant la réalisation. L’agilité peut résider dans les choix d’architecture (clouding, clustering, virtualisation) et des solutions de financement (leasing, asp).Pour des projets en dehors de la DSI, il faudra retenir deux points forts des méthodes agiles qui peuvent être adaptés aux méthodes de gestion de projets suivant les besoins :

  • Les itérations, car les objectifs et cibles ne sont jamais figés, l’amélioration continue est constamment présente pour toutes les phases du projet.
  • L’autonomie des équipes projets, sont isolées par le chef de projet, ce qui implique une totale confiance de la direction.

L’agilité des projets informatiques n’est pas à confondre avec les méthodes de projet agiles qui sont strictement utilisées pour les projets d’ingénierie. Le fait de retrouver cette notion dans la littérature IT reflète l’accélération du business et du marché. Elle reflète également le pouvoir des utilisateurs et la nécessité de communiquer toujours plus et toujours mieux. Par William Porret, fondateur et directeur associé d’Enora Consulting

Des dents de scie pour réduire le bruit des éoliennes

http://www.bulletins-electroniques.com/actualites/61348.htmLe bruit des éoliennes peut être réduit de moitié sans que cela ne cause de perte d’énergie. En effet, il est aujourd’hui possible d’équiper les pales des éoliennes de dents de scies. Ces dernières ont été conçues par Stefan Oerlemans, doctorant de l’Université de Twente et employé du laboratoire national d’aérospatial (NLR). Dans un premier temps, Oerlemans a étudié le bruit émis par les éoliennes, puis a utilisé ces observations pour concevoir les dents de scie et réduire de moitié les nuisances sonores.La rotation des pales des éoliennes s’accompagne d’un bourdonnement constant. Or ce bruit est souvent une nuisance pour les populations avoisinantes. De fait, non seulement les éoliennes ne sont jamais utilisées au maximum de leurs capacités, mais de plus, les projets d’implantation de nouveaux parcs sont souvent rejetés. Stefan Oerlemans a cherché les causes du bruit et a mis en place une solution pour réduire ces nuisances sonores de moitié, sans affecter la production énergétique. Pour parvenir à ce résultat, les pales ont été équipées à leur extrémité, sur le dernier quart de leur longueur, de bords en dents de scie.Pour réduire les nuisances sonores liées au fonctionnement des rotors, Oerlemans a d’abord recherché les causes de ce bruit mais également le mécanisme même de production du bruit de souffle des rotors. Pour ce faire, il a utilisé un système d’antenne acoustique, nécessitant de nombreux microphones, fixés sur des surfaces planes.

le bruit des engrenages est minime
En mesurant et en comparant le temps nécessaire au son pour être enregistré par les différents microphones, il a pu calculer l’origine du son avec précision. Ces mesures ont démontré que le bruit de souffle des rotors, pour beaucoup, est produit par la circulation de l’air entre les pales : le bruit mécanique des engrenages est, quant à lui, minime.Plus précisément, cette étude a permis de démontrer que la majeure partie du bruit était produite par les parties extérieures des pales, notamment lors de la partie descendante de leur rotation. Le souffle bruyant est ainsi causé par les brassages d’air autour des pales. Dès lors que des dents sont fixées sur les bords des pales, le bruit diminue de moitié.Cette innovation et les résultats qui en découlent font partie d’un programme plus général de recherche acoustique concernant l’aviation et les turbines. Oerlemans a ainsi prévu de continuer ses recherches et souhaite être en mesure, un jour, de développer des éoliennes silencieuses. Pour ses recherches, il s’inspire principalement du vol de la chouette : en effet, ce dernier est rendu silencieux par les plumes souples fixées à l’extrémité des ailes de l’oiseau. Dès lors, une rangée de dents sur le bord arrière des rotors devrait pouvoir réduire le bruit engendré par leur fonctionnement. Des tests en laboratoires ont déjà été effectués, mais des essais plus poussés sont encore nécessaires.Origine :BE Pays-Bas numéro 34 (25/11/2009) – Ambassade deFrance aux Pays-Bas / ADIT -http://www.bulletins-electroniques.com/actualites/61348.htmMarine Condette est rédactrice pour les Bulletins Electroniques de l’ambassade de France aux Pays-Bas.

Développement d’un spectromètre aux performances inégalées

http://www.bulletins-electroniques.com/actualites/61757.htmDepuis quelques années, la spectroscopie de traces de gaz suscite un vif intérêt. Avec une très grande sensibilité, cette spectroscopie d’absorption permet en effet d’identifier des composés en très faible abondance. Aussi est-elle utilisée aussi bien dans la recherche fondamentale que dans des domaines tels que la métrologie, la détection in situ de traces de pollution atmosphérique, accidentelle ou pas, ou encore le contrôle de procédés industriels. Néanmoins, jusqu’ici, pour développer un spectromètre performant, de nombreuses caractéristiques devaient être réunies. D’où l’absence jusqu’alors d’un instrument présentant simultanément ces caractéristiques. Un défi que viennent de relever des chercheurs du Laboratoire de Photophysique Moléculaire, le LPPM, du CNRS et du Max Planck Institute of Quantum Optics, en Allemagne, dans le cadre de l’European Laboratory for Frequency Comb Spectroscopy, en collaboration avec l’Université de Tokyo, au Japon, et l’Université Ludwig Maximilian de Munich, en Allemagne.Dirigée par Theodor W. Hänsch, prix Nobel de physique 2005, et Nathalie Picqué du LPPM, cette équipe internationale a conçu en effet un spectromètre basé sur une cavité de haute finesse et deux lasers peignes de fréquences femtosecondes. Or ce procédé permet d’enregistrer des spectres avec une grande sensibilité et 1 million de fois plus rapidement que les meilleurs spectromètres actuels.
Partie d’un résonateur de haute finesse, similaire à celui utilisé pour augmenter la sensibilité de la spectroscopie de Fourier par peignes de fréquences femtosecondes. La lumière verte couplée au résonateur provient d’un peigne de fréquence Ytterbium doublé en fréquence. http://www.bulletins-electroniques.com/actualites/61757.htm, Crédits : Max Planck Institute of Quantum Optics
Ainsi durant une démonstration, le spectre de l’ammoniac, molécule d’intérêt planétologique et environnementale, a été mesuré en 18 micro-secondes. La sensibilité obtenue est déjà 20 fois meilleure, pour un temps de mesure 100 fois plus faible que la démonstration de faisabilité qui détenait le précédent record. Doté d’une telle sensibilité, et avec une extension possible à toutes les régions du spectre électromagnétique, cette méthode pourrait explorer de façon dynamique l’infrarouge moyen, région des « empreintes digitales » de molécules, où aucune technique efficace de spectroscopie en temps réel n’existe aujourd’hui. D’autres applications, nombreuses, sont ainsi envisageables dans des domaines comme la chimie analytique, la physique des plasmas, l’astrophysique de laboratoire, la biomédecine, le sondage environnemental et la sûreté.  Pour en savoir plus : Université Paris-Sud 11 – Laboratoire de Photophysique Moléculaire (LPPM) – Nathalie Picqué : tél. +33 (0)1 69 15 66 49 – email : [email protected]Rédacteur : ADIT – Jean-François Desessard – Email : [email protected]Origine : BE France numéro 236 (5/01/2010) – ADIT / ADIT – http://www.bulletins-electroniques.com/actualites/61757.htm 

Saint-Pétersbourg renonce aux lampes au sodium

http://www.bulletins-electroniques.com/actualites/61722.htmLe passage intégral aux lampadaires à LED sur la base des nanotechnologies permettrait de réduire de moitié le budget des villes consacré à l’éclairage des rues et des bâtiments, relevait récemment le vice-Premier ministre russe Sergueï Ivanov. Il ajoutait que 30% environ des dépenses d’électricité du pays étaient consacrées à l’éclairage urbain.C’est à Saint-Pétersbourg [1] que le vice-Premier ministre a tenu ces propos. Et c’est Saint-Pétersbourg qui semble devoir être la première grande ville russe à franchir le pas. D’ici quelques années, la totalité de son système d’éclairage public devrait être passée aux LED. Le coût du projet est évalué à quelque 4 milliards de roubles.Le principal fabricant russe de LED est la société Svetlana-Optoelektronika. C’est probablement elle qui décrochera le contrat, réalisable en trois ou quatre ans. Svetlana-Optoelektronika est détenue à 30 % par la société Svetlana et à 20 % par son ancien directeur, Gueorgui Khije. Mais le plus gros actionnaire en est le trust Rossiiskaya elektronika, qui fait partie de la corporation d’état Rostekhnologuii.

Les investisseurs remboursés en trois ans

Le gouverneur adjoint de Saint-Pétersbourg, Mikhaïl Osseïevski, a déclaré que la proposition avait été faite à la société publique Rostekhnologuia (qui contrôle, donc, l’usine Svetlana) de réaliser ce passage de l’éclairage public aux LED. Pour assurer le retour sur investissements de cette société, on continuera d’affecter sur le budget municipal le montant des sommes octroyées aujourd’hui à l’éclairage des rues, la différence (les économies réalisées) devant aller dans la poche des investisseurs. Saint-Pétersbourg sera ainsi en mesure de rembourser la corporation publique Rostekhnologuii en l’espace de trois ou quatre ans, assure Mikhaïl Osseïevski.Selon la société publique Lensvet en charge du système d’éclairage public actuel de Saint-Pétersbourg, la ville compte 167.000 lampadaires, équipés de lampes standard au sodium. Le responsable marketing de Svetlana-Optoelektronika estime que le prix d’un lampadaire équipé de LED oscille entre 18.600 et 21.500 roubles.

Le marché pas intéressé par les LED ?

De nombreuses années de recherche sur les technologies des diodes ont permis à Svetlana d’en lancer l’an dernier la production industrielle. Mais cette société s’est heurtée à une difficulté : le marché n’est pas intéressé par les LED, ce qui fait que l’usine ne sort qu’une trentaine de milliers de lampadaires à diodes, alors que sa capacité de production lui permettrait d’en fabriquer plusieurs centaines de milliers.Saint-Pétersbourg affecte en moyenne chaque année environ un milliard de roubles à l’entretien de l’éclairage public, une somme à laquelle il convient d’ajouter 200 millions de roubles pour les gros travaux. L’éclairage par LED permettra à la ville de diminuer entre 2,7 et 3,5 fois sa consommation d’électricité par rapport aux technologies employées actuellement. Si bien qu’il est parfaitement réaliste d’escompter amortir les investissements en trois ou quatre ans.Les autorités municipales n’ont pour l’instant pas demandé à Lensvet de remplacer tous les lampadaires à sodium par des LED. Mais à titre de test, il est prévu dans l’immédiat d’installer de tels lampadaires dans l’un des quartiers de la ville ou sur le réseau suspendu de l’éclairage urbain.  [1] Pour ce qui est de l’éclairage des appartements, les ampoules classiques, à incandescence, seront progressivement remplacées en Russie par de nouvelles technologies, à compter de 2013, la date de 2011, initialement retenue, ayant été repoussée. Les ampoules classiques de 75 W et plus pourraient ainsi être interdites à partir de 2013 et céder la place à des ampoules plus économes. Des crédits pourraient être accordés à la population pour favoriser le passage aux nouvelles ampoules, bien plus onéreuses que celles reposant sur les anciennes technologies.

Origine :

BE Russie numéro 26 (21/12/2009) – Ambassade deFrance en Russie / ADIT -http://www.bulletins-electroniques.com/actualites/61722.htmNicolas Quenez est chargé de mission pour la coopération technologique en Russie.

Le Royaume-Uni et les Etats-Unis investissent dans la géothermie profonde

L’heure des énergies enfouies est-elle venue ? Non pas les énergies fossiles mais quelque chose de bien plus ancien, remontant à la création de la Terre et piégé dans les roches en fusion très loin sous la surface. Quoi qu’il en soit, de plus en plus de pays développent des technologies permettant la récupération et l’utilisation de ce type d’énergie.Une ville britannique fait déjà usage de l’énergie géothermique profonde. Pendant 20 ans, Southampton a pompé l’eau chaude naturelle afin d’alimenter le réseau de chaleur local. Mais attention, il ne faut pas confondre cette technologie avec les pompes à chaleur dont l’industrie renouvelable vante, à juste titre, les mérites.La géothermie profonde fait également l’objet d’un renouveau d’intérêt et elle est appuyée aujourd’hui par le gouvernement britannique. Le Plan de transition vers une économie sobre en carbone (UK Low Carbon Transition Plan) du Département de l’Energie et du Changement Climatique doit consacrer 6 millions de livres à l’exploration de sites pressentis pour le forage profond. Le sud-est semble pour l’instant s’imposer grâce au statut de pionnière acquis par Southampton. La région pourrait construire une industrie géothermique profonde capable de fournir 2 % de la demande en électricité du Royaume-Uni, d’après les dires du gouvernement.

338 millions de dollars pour l’énergie géothermique

Mais cela n’est encore rien comparé à l’enthousiasme du Secrétaire américain à l’énergie, Stephen Chu. Celui-ci parle même de son pays comme « béni par ses vastes ressources d’énergie géothermique, avec un énorme potentiel pour chauffer nos foyers et alimenter notre économie ». Joignant le geste à la parole, son Département a récemment annoncé une aide de 338 millions de dollars du Recovery Act for a GeothermalTechnologies Program. De manière confuse, 61 millions de dollars de cette aide sont en réalité alloués à l’autre géothermie, les pompes à chaleur. L’essentiel se partage cependant entre la recherche de nouveaux champs exploitables de roches en fusion (dans le Nevada, en Californie, en Oregon et ailleurs) ; la création d’une base de données nationale des ressources ; la recherche en matière de forage et de conversion d’énergie ; la mise en pratique des techniques de production d’énergie en trois sites identifiés ; et enfin l’exploitation des puits de gaz et de pétrole existants pour la production de chaleur. Roger East est rédacteur conseil pour Green Futures, un magazine indépendant publié par Forum for the future.

OnLive crée une console de jeux virtuelle, économe en énergie

Fondée par une icône de la Silicon Valley, Steve Perlman, la start-up OnLive propose une console sur internet. De quoi jouer en réduisant sa consommation d’électricité.L’industrie du jeu suit une logique de dématérialisation depuis quelques années, grâce au téléchargement et à la lente disparition des supports matériels. Avec la généralisation de l’internet haut débit, OnLive supprime la console elle-même. Son service sera commercialisé durant l’hiver.

Cloud gaming
C’est l’avènement du cloud gaming, où le jeu tourne dans le nuage internet et est restitué en streaming vidéo. Cette technologie naissante permet de réduire les déchets électroniques et la consommation électrique.Les consoles de jeux sont en effet très gourmandes en électricité. Aux Etats-Unis, elles consomment autant en un an que la ville de San Diego, qui compte plus de 1,3 million d’habitants, selon le Conseil de défense des ressources naturelles (NRDC). Soit près de 16 milliards de Kwh par an.Les modèles de dernière génération de Sony et Microsoft sont puissants, donc très énergivores. Et même si celui de Nintendo l’est moins, la production nécessite beaucoup de ressources.

Connexion sur internet
Avec le cloud gaming d’OnLive, l’accès se fait sur n’importe que l’ordinateur, ou sur la télévision via un micro-boîtier. Le joueur se connecte au service en ligne pour démarrer sa partie.OnLive a mis au point une technologie de compression d’images afin de restituer le jeu d’une manière fluide, du serveur vers l’utilisateur. La société travaille aussi sur le temps de latence, délai entre l’action du joueur et la réponse dans le jeu, très important pour les jeux sophistiqués.Un réseau important de serveurs est cependant nécessaire car la distance avec le joueur ne peut excéder quelques centaines de kilomètres. La grande interrogation sera de savoir si la puissance du réseau suffira à satisfaire la demande d’une armée de joueurs, et quelle en sera la consommation électrique à terme.

Nouveau modèle économique ?
Pour le moment, OnLive a convaincu les grands éditeurs de jeux de le suivre (Electronic Arts, Ubisoft, Atari, Take-Two ?). Les fournisseurs d’accès à Internet comme Free sont aussi demandeurs de consoles dématérialisées.D’autres sociétés travaillent sur ce marché comme Otoy et Gaikai aux Etats-Unis, Playcast en Grande-Bretagne ou Game Cluster au Japon.Les modèles économiques pourraient être bouleversés : la suppression de la console touche l’industrie électronique, les éditeurs ? Un enjeu important alors que le marché mondial du jeu vidéo devrait passer de 51,4 milliards de dollars en 2008 à 73,5 milliards en 2013 (+ 40 %) selon PricewaterhouseCoopers. 

Source :
Green Univers

Filière hydrogène : un matériau capable de catalyser sans platine

http://www.bulletins-electroniques.com/actualites/61759.htmL’utilisation de l’hydrogène comme vecteur d’énergie est une solution séduisante. Pour autant, cette filière hydrogène ne peut se développer qu’avec la maîtrise de deux étapes clés : la production d’hydrogène en grande quantité par électrolyse de l’eau dans des dispositifs appelés électrolyseurs et l’utilisation de l’hydrogène dans des piles à combustible pour fournir de l’énergie par une réaction d’oxydation de cet hydrogène. Aujourd’hui, ces processus nécessitent l’utilisation de platine comme catalyseur, qui permet d’accélérer la réaction chimique. Le problème est que ce métal est extrêmement rare sur la planète, de l’ordre de 5 ppm, une abondance équivalente à celle de l’or. Aussi est-il très coûteux. D’où l’impérieuse nécessité de s’affranchir du platine.Les recherches qui sont menées aujourd’hui pour substituer au platine des métaux abondants sur Terre et à bas coût s’inspirent des processus chimiques existants chez certains organismes vivants. Ceux-ci disposent en effet d’étonnants systèmes enzymatiques, appelés « hydrogénases », qui n’utilisent que des métaux abondants comme le fer et le nickel, et leur permettent d’utiliser l’hydrogène comme source énergétique ou de le produire à partir de l’eau. Ces enzymes représentent une véritable source d’inspiration pour le chimiste qui synthétise des composées à base de nickel et de fer, analogues structuraux des hydrogénases, et élabore ainsi de nouveaux catalyseurs. Aussi parle-t-on de chimie bio-inspirée. Reste que pour être utilisables dans des dispositifs technologiques, ces catalyseurs synthétiques doivent, tout comme le platine, être fixés en très grande quantité sur des électrodes. Raison pour laquelle il faut disposer d’une surface importante, ce que n’offrent pas les matériaux classiques. Or du fait de leur géométrie, qui permet d’augmenter considérablement la surface potentielle de liaison du catalyseur, et leur grande conductivité électrique, les nanotubes de carbone représentent une solution pour contourner cette difficulté.C’est dans ce contexte que des chercheurs de différents laboratoires du CEA (1) sont parvenus à immobiliser un de ces catalyseurs bio-inspirés, à base de nickel, via un greffage par liaison covalente, sur des nanotubes de carbone. Le matériau ainsi obtenu présente une activité catalytique prometteuse, à la fois pour la production et l’utilisation de l’hydrogène. De plus, il se révèle extrêmement stable et capable de fonctionner en milieu très acide, ce qui lui permet d’être compatible avec les membranes échangeuses de protons, utilisées de manière quasi-universelle dans les piles à combustible fonctionnant à basse température.
Note
[1] Laboratoires du CEA impliqués :– Laboratoire de Chimie et Biologie des Métaux, le LCBM (CEA/CNRS/Université J. Fourier de Grenoble) de l’Institut de Recherche en Technologies & Sciences du Vivant – Direction des sciences du Vivant du CEA– Laboratoire de Chimie des Surfaces et Interfaces de l’Institut Rayonnement Matière de Saclay (IRAMIS) – Direction des Sciences de la Matière du CEA– Laboratoire d’Innovation pour les Technologies des Energies Nouvelles et les Nanomatériaux (LITEN) – Direction de la recherche technologique du CEA  En savoir plus : CEA – Vincent Artero : tél. +33 (0)4 38 78 91 06 – email : [email protected]Rédacteur : ADIT – Jean-François Desessard – Email : [email protected]Origine : BE France numéro 236 (5/01/2010) – ADIT / ADIT – http://www.bulletins-electroniques.com/actualites/61759.htm 

L’éolien en Espagne, ce n’est pas du vent

http://www.bulletins-electroniques.com/actualites/61403.htmAu mois de novembre dernier, 44 provinces espagnoles (les équivalents des départements français) étaient en alerte météo, du fait d’une vague de froid et des forts vents attendus. Et les vents ont été au rendez-vous sur les côtes nord et en Méditerranée, pour le pire (routes coupées, ports ou aéroports fermés…) mais aussi pour le meilleur : le dimanche 8, entre 3h20 et 8h40 du matin, plus de 50 % de l’électricité produite en Espagne ont été générés par les éoliennes, avec une pointe à 52,4 %.En termes absolus, ce ne sont pas moins de 11,5 GW (65 % de la puissance installée) qui ont été produits à 14h30, autre record. Avec autant d’électricité tout d’un coup disponible, une partie a servi à pomper l’eau pour la remonter dans les barrages réversibles (6,3 % des 52,4 % du pic) et une autre partie a été exportée (7,7 %) : le réseau électrique espagnol, géré par Red Eléctrica Española (REE), dispose maintenant d’un savoir-faire unique dans la gestion de l’absorption de l’électricité éolienne, un savoir-faire souvent présenté comme modèle. A cet égard, un responsable américain visitant le centre de contrôle de REE en octobre dernier n’avait pas hésité à déclarer : « Quand on regarde l’Espagne et son système électrique, on voit le futur », un véritable slogan publicitaire…

Des capacités de production électrique éolienne performantes
Au-delà de l’anecdote du record, l’Espagne a su développer des capacités de production électrique éolienne performantes on vient de l’évoquer, mais aussi importantes : la puissance installée est passée progressivement de 1.585 MW en 1999 à 17.700 MW dix ans plus tard. Et pour dans dix ans, l’Asociación Empresarial Eólica n’hésite pas, quant à elle, à tabler sur 40.000 MW.Elle avertit tout de même : l’absorption de l’électricité ainsi produite nécessitera plus d’interconnexion avec la France (actuellement, les capacités d’import/export plafonnent à 3 % de la demande maximale espagnole) et davantage de capacités de pompage des barrages réversibles.En attendant 2020, signalons que le ministère de l’industrie vient de fixer les puissances à installer pour les trois années à venir, au grand soulagement des industriels du secteur qui ont craint un temps que pour cause de crise, aucune autorisation ne soit donnée, les primes octroyées ayant bien sûr un coût tout sauf négligeable. On aura donc 1.855 MW pour 2010 et 1.700 MW pour 2011 et 2012.L’année n’est pas encore finie, mais REE anticipe une part de production éolienne de l’ordre de 13 % pour 2009 (10,4% en 2008), 9 à 10 % produits par ailleurs par l’hydraulique (7,0 % en 2008) et 2,5 % par le solaire, soit au total, un quart d’électricité renouvelable, un pas de plus dans la direction des 40 % d’électricité renouvelable fixés par l’Union Européenne pour 2020. 

Origine :
BE Espagne numéro 88 (3/12/2009) – Ambassade de France en Espagne / ADIT –http://www.bulletins-electroniques.com/actualites/61403.htmGuy Molénat est attaché scientifique à l’ambassade de France en Espagne.

Fibre optique : le grand malentendu

2 milliards d’euros pour le très haut débit, c’est une très bonne nouvelle. Mais qui va en bénéficier : les citadins ou les ruraux ? Les particuliers ou les entreprises ?Le numérique est un axe clé du grand emprunt. Le Président de la République vient d’annoncer un fonds national pour le numérique, avec un investissement de 2 milliards d’euros pour l’équipement en très haut débit. Par ailleurs, les usages du numérique bénéficieraient de 2,5 milliards.Est-ce que cela signifie que tous, habitants des villes ou des zones rurales, allons être équipés en fibre optique dans les prochaines années ?Il y a une réelle attente des français, depuis les annonces de certains opérateurs il y a 2 ans … mais aujourd’hui, on ne voit pas arriver la fibre. Les opérateurs jouent la « course à l’escargot ». La réglementation n’est pas encore définie, mais n’est-ce pas un prétexte ? En tant que professionnels du secteur, nous pensons que la logique économique ne permet pas d’apporter la fibre optique à tous les Français, ni par l’investissement privé, ni par l’argent public.

La fibre avant tout pour les entreprises
Il y a un premier malentendu. Aujourd’hui, la fibre est déjà présente sur une grande partie du territoire national. Mais elle est « horizontale », c’est-à-dire qu’elle est présente dans la rue. Elle ne monte pas « verticalement » dans les immeubles.La fibre optique reste une nécessité pour la France afin que les entreprises puissent en bénéficier partout sur le territoire. D’ailleurs, la fibre sera indispensable aux entreprises d’ici quelques années ; c’est déjà un critère d’implantation primordial. Pour une collectivité, la présence d’entreprises sur son territoire n’est-elle pas plus important que de fournir la télévision HD à tous ?C’est donc une très bonne nouvelle que l’Etat investisse pour le maillage en fibre du territoire national, aux côtés des collectivités et des opérateurs privés qui le font depuis plusieurs années.La fibre « horizontale » raccorde les grandes entreprises, les centraux téléphoniques et certaines PME. Depuis quelques mois, on assiste à une hausse très forte de la demande de toutes les entreprises pour s’équiper en fibre, car les besoins sont là : les entreprises sont interconnectées, elles dépendent des réseaux pour leurs relations avec leurs clients, fournisseurs, partenaires, agences, télétravailleurs, etc … Au delà, la téléphonie passe désormais sur la fibre, tout comme la visioconférence. Enfin, la virtualisation permet de centraliser les données et les applications sur des sites sécurisés grâce à la fibre. La révolution numérique des entreprises est en marche ! La fibre optique est devenue un critère d’implantation des entreprises. Ce qui induit des réactions comme celles-ci.  » Y a-t-il de la fibre sur telle zone d’activité ? Si non, je vais implanter mon entreprise ailleurs ! « 

Les 3 modèles économiques de la fibre optique
3 types d’infrastructure sont disponibles pour raccorder les entreprises en fibre :

1 – Par le réseau des  » PTT « 
France Télécom a hérité en 2000 d’un capital très important : le réseau de téléphone (en cuivre), mais aussi les cavités, fourreaux, chambres de raccordement qui existent dans toutes les villes en France. Le résultat est que l’infrastructure de l’opérateur historique permet de fournir de la fibre optique à un grand nombre d’établissements en France, sans travaux de génie civil.Les opérateurs alternatifs peuvent utiliser cette infrastructure pour équiper leurs clients, l’autorité de régulation de ce marché (ARCEP) ayant fixé une offre de revente de gros, appelée « collecte ». C’était aussi le cas en 2001 pour l’ADSL, ce qui a permis à des opérateurs comme Free de se lancer sans équiper des millions de foyers en réseau téléphonique. Il est important de noter qu’aujourd’hui l’offre de revente pour la fibre existe pour les offres entreprises, et non pour les offres à destination des particuliers (FTTH).L’offre fibre optique via France Télécom est disponible à ce jour dans 7.500 communes (sur environ 30.000). C’est donc une grande partie du territoire, mais elle concerne davantage les villes que les communes rurales.

2 – Par le réseau des opérateurs alternatifs
Des opérateurs privés ont également investi sur les zones dites « rentables », c’est à dire les grandes villes. Ils peuvent fournir en direct de la fibre optique aux entreprises situées à proximité. Mais dans ce cas de figure, le marché est assez captif car pour passer à la concurrence, le client doit généralement faire réaliser une seconde adduction. Comme pour France Télécom, les opérateurs alternatifs peuvent ouvrir leur réseau à d’autres opérateurs concurrents. Mais, ils n’y sont pas tenus par la réglementation. Tout dépend donc des accords commerciaux. Toutefois, ce marché reste difficile. Certains opérateurs connaissent même des difficultés financières, et ne sont pas en mesure d’investir dans une nouvelle infrastructure.

3 – par les réseaux publics
On a vu apparaître une nouvelle forme d’acteurs depuis quelques années : les réseaux ouverts d’initiative publique. Il s’agit généralement de collectivités qui estimaient que l’offre en haut débit ou très haut débit sur leur territoire n’était pas suffisante, et qui ont investi dans la construction de leur infrastructure. Ces projets sont souvent construits en partenariat avec un acteur privé, dans le cadre notamment de délégation de service public, comme pour les réseaux d’eau par exemple. Ces acteurs privés sont généralement des entreprises de travaux publics, ou des opérateurs eux-mêmes.Un principe fondateur de ces réseaux est la neutralité ; c’est-à-dire qu’ils sont ouverts à tous les opérateurs. Lorsqu’un client y souscrit via un opérateur, celui-ci sous-traite le raccordement à la délégation de service public. Au terme du contrat, le client peut changer d’opérateur et conserver son raccordement.Une quarantaine de départements sont équipés avec des infrastructures de fibre optique d’initiative publique. L’investissement a été de 3 milliards d’euros, dont 50 % proviennent de subventions publiques. Les collectivités qui ont fait le pas sont souvent des départements ruraux, mais pas toujours.L’offre des réseaux d’initiative publique permet souvent aux opérateurs d’équiper les entreprises avec des conditions favorables, même si les tarifs de raccordement pratiqués par les délégataires sont parfois opaques et mériteraient d’être mieux encadrés par les pouvoirs publics. En effet, les intérêts des actionnaires des délégataires, entreprises de travaux publics ou opérateurs privés, sont parfois en contradiction avec les missions de service public. C’est le rôle du délégant de faire respecter le contrat de concession.Ceci dit, la présence des réseaux publics est un vrai succès dans de nombreux cas. Ces réseaux permettent à des territoires d’être plus attractifs pour les entreprises. Les zones d’activité situés en périphérie des villes sont souvent loin des centraux téléphoniques, et ont une mauvaise éligibilité en ADSL ou SDSL (le grand frère de l’ADSL, qui a l’avantage de proposer un débit garanti et d’être réalisable sur plusieurs paires de cuivre). La fibre résout donc la fracture numérique pour les entreprises, et remet dans la course des zones isolées. La rentabilité de ces réseaux n’est toutefois pas immédiate. Elle se fait sur le long terme, et elle se calcule plus en termes d’emplois qu’en termes de bénéfices sur l’activité de télécommunication.

Et la fibre pour les particuliers ?
Aujourd’hui, l’Internet pour les particuliers est dominé par l’ADSL. Nous allons atteindre les 20 millions d’abonnés ADSL en 2010, ce qui est un vrai succès en 10 ans. C’est l’offre de contenu qui a séduit les français : Internet + téléphone + télévision. Pourtant, celle-ci n’est pas encore accessible à tous ! 500.000 lignes téléphoniques ne sont toujours pas éligibles à l’ADSL ; ce sont les fameuses zones blanches. Par ailleurs, une grande partie des abonnés ADSL ne peuvent pas bénéficier du « triple play ».C’est ici que continue le malentendu : la fibre optique ne va pas être proposée aux habitants des zones blanches. Les opérateurs privés ont annoncé le déploiement de quelques milliers de prises … dans les grandes villes. Dans le cadre des réseaux d’initiative publique, la fibre parcourt la campagne, mais raccorde les centraux téléphoniques afin d’inciter les opérateurs alternatifs à les dégrouper et à proposer une offre plus étendue aux habitants. Ces fibres peuvent être utilisées par des entreprises, qui vont payer le raccordement jusqu’au réseau : en moyenne 5.000 euros. Mais il n’est pas prévu de fibrer les particuliers, pour des raisons de coût !Dans une zone dense, le raccordement d’un particulier peut coûter entre 200 et 500 euros ; les opérateurs privés peuvent faire le pari industriel d’équiper des immeubles, et d’obtenir des clients qui vont rentabiliser cet investissement sur une durée acceptable.Dans les zones non denses, les coûts sont bien plus élevés. On peut calculer que le raccordement de la France coûte 30 milliards d’euros, soit 1.000 euros par prise en moyenne. Cela signifie des coûts entre 1.000 et 5.000 euros pour les zones rurales.L’idée du gouvernement est de segmenter les zones non denses en deux : les zones intermédiaires et les zones rurales. Dans les zones rurales, la fibre ne sera pas installée chez les particuliers. Une offre de très haut débit par satellite touchera 750.000 foyers. Dans les zones intermédiaires, l’Etat souhaite aider les opérateurs privés à créer une infrastructure, soit par la création d’un opérateur public, soit par des appels à projets qui constitueraient des monopoles locaux.Comment la fracture numérique sera-t-elle comblée ? On peut voir que le gouvernement insiste sur le fait qu’il n’y a pas que la fibre : il y a aussi le satellite, l’Internet mobile de nouvelle génération. Il y a aussi la « montée en débit », c’est-à-dire le fibrage des sous-répartiteurs téléphoniques, qui permet à plus de communes rurales d’avoir l’ADSL. Les collectivités peuvent avoir leur rôle à jouer dans ce type de projet.

Le FTTH aujourd’hui
La fibre pour les particuliers (FTTH) n’a pas encore démarré. En décembre 2009, 50.000 français sont clients FTTH (fibre à la maison), soit moins de 0,25 % du marché ; et ils sont tous en ville. S’y ajoutent les offres de Numéricable qui sont mixtes fibre + câble, avec 180.000 abonnés. L’intérêt principal du FTTH est la télévision HD ; d’ailleurs les magasins d’électronique vendent les boxs fibre au rayon télé …Certes, les usages vont être inventés et le parc va progresser, car les opérateurs investissent – et l’Etat aussi désormais. Par ailleurs, les réseaux publics en FTTH apparaissent. La ville de Pau est fibrée depuis 2005 ; le département des hauts de Seine avec 830.000 prises à terme est un projet emblématique d’une zone dense à fort potentiel.La loi de modernisation de l’économie de 2008 prévoit un principe de mutualisation de la partie terminale des réseaux de FTTH. Les modalités de cette loi sont encore en discussion à l’ARCEP, mais une décision est en passe d’être prise : 4 fibres devraient être tirées ; utilisables par les 4 gros opérateurs du marché … ce qui exclut les « petits » opérateurs de service. C’est la même idée que pour la téléphonie mobile : la concurrence, c’est un monopole de plusieurs opérateurs dominants. Ce n’est pas une réglementation de ce type qui a permis l’innovation dans le marché de l’ADSL et donc son explosion.L’évolution du marché actuel, la réglementation et les modalités à venir du grand emprunt nous incitent à penser que le marché FTTH sera partagé entre les gros opérateurs. Il se limitera essentiellement aux zones « rentables » ou aux zones « intermédiaires » subventionnées.

2 milliards pour quoi ?
2 milliards pour la fibre, c’est une opportunité pour la France. Pour nous, la priorité est de finaliser le maillage « horizontal » du territoire, notamment en soutenant les projets des collectivités. C’est une infrastructure qui servira de base à tout le reste : raccordement des entreprises, Internet mobile (car il faut fibrer les antennes relais …), montée en débit de l’ADSL sur les sous-répartiteurs, et FTTH à terme. C’est aussi une garantie de neutralité vis à vis des fournisseurs d’accès Internet, ce qui permettra à des acteurs innovants de percer, comme nous l’avons vu sur le marché de l’ADSL.Par Nicolas Aubé, président de Céleste

Le Centre de Sciences et Technologies du Bioethanol étudie la problématique du bioethanol durable

http://www.bulletins-electroniques.com/actualites/61570.htmQuand les gouvernements commencèrent à se préoccuper des émissions de gaz à effets de serre et des changements climatiques globaux, l’ethanol de canne à sucre a été présenté comme un bon candidat pour remplacer l’essence et autres dérivés du pétrole. Cependant, avant d’envisager une exportation possible à grande échelle, plusieurs doutes ont été émis sur la scène internationale au regard du réel caractère durable de l’ethanol brésilien.C’est pour tenter d’apporter des réponses à ces questions que le Centre de Sciences et Technologies du Bioethanol (CTBE) a présenté les 11 et 12 octobre son programme de recherche porté sur le développement durable lors du « deuxième workshop sur l’Impact des nouvelles technologies sur la durabilité du cycle de production du bioethanol/canne à sucre ». Cet événement a conclu en la nécessité de surpasser les modèles mathématiques existants, afin de produire des données expérimentales plus proches de la réalité.Selon le directeur de ce programme de Durabilité du CTBE, Arnaldo Walter, une des difficultés majeures réside en l’évaluation de combien l’usage de la terre influe dans la balance finale des émissions de gaz à effet de serre produits de façon concomitante à l’ethanol. Il explique : « Quand une culture agricole comme la canne à sucre remplace une zone de pâturage ou de forêt primaire, il en résulte un changement dans le stock de carbone présent sur la zone donnée. Dans quelques cas, le carbone qui résidait dans l’arbre, par exemple, se transforme en dioxyde de carbone, en élevant les émissions de gaz à effet de serre ».
L’aide des images satellites
Pour que l’utilisation de l’ethanol à une échelle globale soit opportune, Walter attend des études qu’elles montrent quelles sont les réelles altérations du stock de carbone survenues sur les sols, en sachant que la canne-à-sucre occupe différents types de sols dans différentes régions. Ces données peuvent être générées à l’aide d’images satellites, de façon similaire aux techniques utilisées pour suivre la déforestation en Amazonie.Le système Canasat de l’Institut National de Recherche Spatiale (Inpe), capte déjà les images de l’expansion de la culture de canne dans la région du Centre-Sud du Brésil depuis 2005, et dans l’Etat de São Paulo depuis 2003. Le Professeur Thelma Krug de l’Inpe est intervenue lors du workshop au CTBE afin d’exposer les techniques de monitorage de Canasat. Le système Canasat permet d’identifier avec un certain degré de confiance la localisation des changements dans l’usage de la terre, en plus de pouvoir dire quel type de sol et de biome a été converti en culture de canne, et d’identifier les régions dans lesquelles la canne a été cueillie crue ou brûlée.Une fois connue la réelle altération du niveau des émissions causée par la culture de la canne à sucre, qui ne cesse de s’étendre, il sera nécessaire d’harmoniser les méthodologies utilisées dans différents pays pour que l’on puisse alors comparer le volume des émissions de biocarburants divers. C’est cette conclusion qui a été tirée par les chercheurs brésiliens, nord-américains et argentins lors du workshop réalisé en Août par le programme FAPESP BIOEN, en partie coordonné par le Professeur Marcos Buckeridge, aussi directeur scientifique du CTBE.En plus du projet sur les émissions de gaz à effet de serre, le Programme de Durabilité du CTBE développera d’autres projets sur la question des ressources hydriques, sur la balance énergétique des biocarburants et sur les impacts socio-économiques causés par la production d’éthanol. 

Origine :
BE Brésil numéro 128 (15/12/2009) – Ambassade deFrance au Brésil / ADIT  http://www.bulletins-electroniques.com/actualites/61570.htmFaustine Fourdinier est rédactrice pour la chaîne environnement des Bulletins électroniques à l’ambassade de France au Brésil.

Microscope numérique VHX-1000

Le VHX-1000 est équipé d’un moniteur LCD haute résolution WUXGA (1920 x 1200 pixels). Sa large zone de visualisation offre des images claires quel que soit l’angle d’observation, afin de pouvoir être regardé simultanément par plusieurs personnes. Les boutons de la console de commande permettent d’accéder à toutes les commandes importantes : suppression du halo, composition 3D, décalage ou stabilisation de la lumière, filtres HDR, optimisation de l’image, position de l’objectif sur l’axe Z… Un système motorisé et des algorithmes d’autofocus permettent de trouver très rapidement la position optimale de l’objectif avec une précision au micron. Le mode e-Preview permet d’observer la cible selon neuf éclairages différents, facilitant le choix du meilleur éclairage.Le VHX-1000 offre une autre exclusivité technique : lors d’un zoom, il saisit les images des zones d’observation adjacentes pour reconstituer un champ de vision jusqu’à 50 fois plus large que les systèmes classiques (en 2D et en 3D). Le VHX-1000 offre une performance unique : 54 Méga pixels avec composition 3D. Le traitement HDR est une technologie unique de grande plage dynamique qui permet d’obtenir une image parfaitement exposée. Le codage 16bits permet enfin de visualiser les différences les plus subtiles en offrant 2 puissance 48 nuances /pixel.Il est ainsi possible d’obtenir des images proches de celles obtenues avec les coûteux microscopes électroniques à balayage, mais en couleurs et avec un mode d’observation bien plus rapide et infiniment plus convivial.

2èmes Assises de l’Efficacité Energétique

 Ces 2èmes Assises de l’Efficacité Energétique mettront en lumière les solutions techniques et contractuelles disponibles pour l’atteinte des objectifs d’économies d’énergie fixés par le Grenelle de l’Environnement. Elles seront le lieu de nombreux témoignages présentant des réalisations simples et complexes correspondant à des situations de terrain variées. Les acteurs de ces projets partageront leurs points de vue et expériences sur les sujets suivants :

Le Programme
Les 2èmes Assises seront organisées autour de 3 tables rondes :
Table ronde n°1 : Objectifs Grenelle pour vos bâtiments tertiaires et logements collectifs
Expliquer les enjeux du Grenelle sur les bâtiments, démontrer que des solutions existent et que notre profession est porteuse de solutions-clés

Table ronde n°2 : Des solutions pour la performance énergétique de vos bâtiments : des intentions aux actes !
Démontrer la faisabilité et les bénéfices énergétiques et environnementaux des projets d’efficacité énergétique dans les bâtiments par le biais d’exemples concrets de réalisations petites ou grandes

Table ronde n°3 : Les innovations pour 2015
Plus prospective, cette table ronde sera dédiée aux solutions innovantes et bientôt disponibles sur le marchéCes tables rondes réuniront des acteurs majeurs de l’efficacité énergétique des bâtiments tels que : les fournisseurs de solutions d’efficacité énergétique, EDF, les gestionnaires de parcs immobiliers privés et publics, les bureaux d’études, les investisseurs immobiliers, les collectivités locales, etc.

Informations pratiques
  •  Date & Lieu : 27 janvier 2009 à Lyon, à la Cité Internationale
  • Thème : L’efficacité énergétique dans les bâtiments, des intentions aux actes !
  • Co-présidées par le Gimélec et par EDF et Organisées par Elec-Promotion avec le concours d’AIDELEC
  • Public concerné : Gestionnaires et propriétaires de bâtiments privés et publics, bureaux d’études, institutionnels, collectivités locales, journalistes, etc.

REACH : l’actualité du 1er novembre au 15 décembre 2009

Chaque mois, le CNRI fait une sélection des évènements qui ont marqué l’actualité de REACH et impactent l’usage des produits chimiques. Sur ces deux derniers mois, du 1er novembre au 15 décembre 2009, huit faits marquants sont à retenir et à examiner avec attention.

SIEF (FEIS / Forum d’échange d’informations sur les substances)
En date du 02/12/2009, l’ECHA (Agence européenne sur les produits chimiques) comptabilisait 2.072 SIEF formés. Chaque SIEF couvre une substance.
Vous pouvez retrouver la liste des substances sur le site de l’ECHA 
Guide sur l’évaluation de la sécurité des substances chimiques
L’ECHA a publié, le 03/11/2009, sur son site Internet, un guide sur l’évaluation de la sécurité chimique (CSA – Chemical Safety Assessment). Ce document est destiné aux personnes non expertes qui souhaitent en savoir plus sur le CSA. Il fournit une vision de ce qu’est cette évaluation, comment elle doit être réalisée et documentée.
Plus d’information sur : http://guidance.echa.europa.eu
 

Consultation publique sur l’harmonisation de la classification et l’étiquetage de deux substances chimiques
L’ECHA a lancé, le 4 novembre dernier, une consultation publique sur l’harmonisation de la classification et l’étiquetage de deux substances chimiques. Cette consultation a lieu pendant 45 jours. Les substances concernées sont : hexabromocyclododecane (HBCDD) et cryolite.
Plus d’information sur : http://echa.europa.eu/consultations/harmonised_cl_en.asp
Informations pour éviter les tests sur les animaux
L’ECHA a mis en place une procédure afin de ne réaliser les tests sur les animaux qu’en dernier ressort. Deux appels ont été lancés par l’ECHA afin que toutes les informations disponibles pour les substances suivantes soient transmises avant le 18/01/2010 pour l’ethoxypropyl-hydroxy-hexanamide et le 11/01/2010 pour le 4-((Triethoxysilyl)methyl) morpholine.
Plus d’information sur : http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp
Un plan d’accompagnement pour les PME
Chantal Jouanno, secrétaire d’Etat à l’Ecologie, a annoncé, début décembre, un plan d’accompagnement des entreprises et notamment des PME concernées par la 1ère échéance de REACH en matière d’enregistrement, fixée au 01/12/2010. 

15 nouvelles substances très préoccupantes ajoutées à la liste candidate pour l’autorisation
L’ECHA a identifié, le 7 décembre, 15 nouvelles substances pour la liste candidate à l’autorisation. Ces substances seront ajoutées aux 15 autres substances SVHC (Substances of Very High Concern) en janvier 2010. La liste de ces 15 nouvelles substances est disponible sur le site de l’ECHA.
Pour voir cette liste : http://echa.europa.eu/consultations/authorisation/svhc/svhc_cons_en.asp
L’ECHA rencontre ses parties prenantes
L’ECHA a rencontré, le 7 décembre dernier, ses parties prenantes. Le programme de cette journée avait été divisé en trois sessions : le règlement CLP, l’application de REACH et les dossiers d’enregistrement. 

Attention, moins d’1 an avant la date limite pour les premiers enregistrements
Les substances produites ou importées à plus de 1.000 tonnes / an, les substances CMR 1 et 2 à plus de 1 tonne / an et les substances R50/R53 à plus de 100 tonnes / an devront être enregistrées avant le 1er décembre 2010.  Par Céline Nectoux, ingénieur Environnement CNRI Les précédents articles sur l’actualité de REACH
  • Actualités du 20 août au 31 octobre 2009
  • Actualités du 15 juillet au 20 août 2009
  • Actualités du 15 juin au 15 juillet 2009

 

Le rôle primordial des FDS

Reach donne aux FDS (fiches de données de sécurité) un rôle étendu : la FDS devient désormais l’outil principal de communication et d’échange entre le fournisseur et l’utilisateur aval des différentes substances mises sur le marché. En effet, et c’est tout le sens de la mise en place de Reach, la FDS est aujourd’hui amenée à jouer un rôle primordial, en tant que pierre angulaire du système de communication au sein de la chaîne d’approvisionnement sur la sécurité chimique des produits et substances. Aussi, et c’est un point fondamental au niveau de l’exercice de la responsabilité des acteurs, la fiche de sécurité est rédigée par le fabricant et transmise en aval de la chaîne d’approvisionnement.

Rappel de la règlementation antérieure
Avant la mise en place de Reach, c’est la directive 91-155 qui définissait les différentes obligations relatives aux systèmes d’information des préparations dangereuses. Cette directive stipulait que la FDS était obligatoire pour les produits chimiques dangereux, elle devait également être fournie pour certaines préparations non classées dangereuses, mais contenant des substances chimiques dangereuses. La FDS devait être mise à jour et transmise au sein de la chaîne d’approvisionnement dès que de nouvelles informations sur la substance étaient mises à jour. Elle était composée de 16 rubriques, dont les informations générales, les dangers, les utilisations, l’élimination, les situations d’urgence, entre autres. Certaines modifications liées à REACH sont déjà applicables depuis le 1er juin 2007, notamment l’inversion des rubriques 2 et 3 sur l’identification des dangers et la composition de la préparation. Il faut aussi ajouter les coordonnées (nom et adresse e-mail) de la personne chargée de la réalisation de la FDS. Les numéros d’enregistrement, s’ils sont disponibles, doivent également figurer sur la FDS.

Ce qui va changer
Les autres modifications à venir concernent, en grande partie, la phase d’enregistrement des substances. Il va falloir ajouter les différents scénarios d’expositions en annexe de la FDS si la substance est concernée. Aussi, la réglementation CLP aura également des impacts sur la FDS en raison d’un nouveau système de classification : de nouveaux éléments d’étiquetage devront apparaître sur la fiche de sécurité. Ainsi, le FDS devra, de façon obligatoire, être fournie pour :
  • Une substance PBT (persistante bioaccumulable et toxique) ou vPvB (très persistante et très bioaccumulable).
  • Toute substance incluse dans la liste candidate à autorisation donc les substances prioritaires préoccupantes.
  • Toute substance ou tout mélange classé dangereux selon la réglementation CLP.
  • Les mélanges non classés contenant dans leur préparation soit plus de 1 % en masse de substances dangereuses, plus de 0,1% en masse d’une substance PBT ou vPvB, ou plus de 0,1 % d’une substance candidate à autorisation.
Les FDS doivent être envoyées lors de la première vente du produit. Elles doivent être mises à jour dès la connaissance de nouvelles informations sur la substance et transmises aux utilisateurs aval avec ces nouvelles informations. Les dates de création et de dernière modification doivent également figurer dans la première rubrique de la FDS.

Une redistribution des responsabilités
Ensuite, la fiche de sécurité doit être réalisée par la personne responsable de la mise sur le marché de la substance, c’est-à-dire le fournisseur, le fabricant, l’importateur ou le distributeur. Il n’est pas prévu qu’elle soit envoyée directement aux consommateurs, mais uniquement aux utilisateurs professionnels du produit.Les FDS sont gratuites pour les clients. Aussi, elles doivent être transmises dans la ou les langues officielles de l’État membre où le produit est commercialisé. Elles peuvent être envoyées sous format papier ou électronique (avec, si cela est possible, un accusé de réception). La FDS étendue suite à l’impact de REACHLes substances concernées sont celles pour lesquelles il y a besoin d’un rapport sur la sécurité chimique. Dans ce cas, en annexe de la FDS, les différents scénarios d’exposition devront être renseignés. Ainsi, on devra désormais trouver, contenu dans la FDS :
  • La description de l’utilisation avec un vocabulaire harmonisé de cadres descripteurs selon le secteur industriel ou le procédé technique.
  • Les conditions opératoires c’est-à-dire les temps d’exposition, les températures et les mesures de gestion de risque attachées à chacune des utilisations. L’utilisateur a pour obligation d’appliquer des mesures de gestion de risque au moins équivalentes à celles préconisées dans la FDS.
Pour les substances rattachées à un CSR (Chemical Safety Report), la première question à se poser est de savoir si l’utilisation qui est faite de la substance est couverte. Si ce n’est pas le cas, l’utilisateur aval doit demander une couverture de son utilisation au fabricant. Si son utilisation est couverte, il doit vérifier si les mesures de gestion de risque qu’il applique sont au moins équivalentes à celles préconisées dans la FDS et éventuellement s’y mettre en conformité. De nouvelles interactions entre les acteurs de la chaîne d’approvisionnementLes interactions entre les différents acteurs au sein de la chaîne d’approvisionnement vont également être boulversées suite à la mise en place effective de Reach : ainsi, le fabricant, le distributeur potentiel et les différents utilisateurs des substances voient leurs responsabilités évoluer. Le rôle du fabricant importateur sera de réaliser l’enregistrement de la substance, d’informer sur les dangers, d’évaluer la sécurité chimique et de communiquer ces informations, via la FDS notamment. Les utilisateurs, quant à eux, doivent désormais vérifier l’adéquation entre les mesures de gestion de risques préconisées dans la FDS et celles mises en place sur leur site.  Formation à venir 30 juin 2010 :  » Risque chimique 2010 : comment s’organiser pour tenir les délais ? « Objectifs :
  • Réussir la transition entre le système actuel et l’évolution de la classification et de l’étiquetage
  • S’organiser pour mettre à jour et gérer les FDS
  • Valider les usages et scenarios d’exposition
  • Etre en conformité concernant la Santé Sécurité au Travail
Le programme complet de la formation Techniques de l’Ingénieur

Retour d’expérience : « confronter les point de vue au sein d’un même secteur d’activité »

La mise en œuvre effective de Reach est un casse-tête pour beaucoup d’entreprises. Jérôme Durantet est responsable des affaires réglementaires et HSE produits chez BOSTIK. Il nous explique comment sa société réalise les ajustements imposés par Reach, qui touchent toute la chaîne d’approvisionnement.La mise en place de Reach est, pour beaucoup d’entreprises, un véritable casse-tête. Jérôme Durantet, responsable des affaires réglementaires et HSE produits pour Bostik, nous explique comment sa société a appréhendé ces changements.« Je m’occupe de toutes les affaires réglementaires au niveau de Bostik SA et Reach en fait partie. REACH est un travail très important en ce moment, je vais vous expliquer comment nous vivons l’expérience Reach en tant que formulateurs », commence Jérôme Durantet.Bostik est un des leaders mondiaux dans les adhésifs. Cette société est présente dans 50 pays à travers le monde et possède des usines dans de nombreux pays. Bostik produit 930.000 tonnes d’adhésif par an, utilisant bien évidemment quantité de préparations et substances.

Bostik, acteur important de l’adhésif au niveau mondial
Au niveau français, environ 900 personnes travaillent pour Bostik, numéro un sur le secteur avec 7 usines et 2 centres de recherche. Comme le souligne Jérôme Durantet, Bostik est présent à la fois sur le marché industriel, celui du grand public et dans le bâtiment et la construction, c’est ce qui fait la spécificité et aussi la complexité de cette entreprise.Pour bien comprendre le positionnement de Bostik par rapport aux exigences liées à Reach, il faut tout d’abord comprendre les nécessité et contraintes de la fabrication d’adhésifs, en matière de produits notamment. Un adhésif est une formulation complexe qui mélange plusieurs types de substances ou de préparations. On peut à la fois avoir des substances organiques ou minérales, des substances naturelles comme des résines de pin, des cires et des paraffines, qui sont des substances liées à l’industrie pétrolière, des solvants, dont l’eau, et des polymères. « Nous sommes acheteurs de substances et de préparations. Pour les polymères, nous sommes aussi fabricants. En résumé, de toute façon, nous sommes utilisateur aval », précise Jérôme Durantet, qui reprend : « Pour montrer notre positionnement, il est nécessaire de reprendre toute la chronologie de la chaîne d’approvisionnement, parce que selon le règlement, tout le monde est concerné par rapport à Reach. Concrètement, en reprenant la chaîne d’approvisionnement, Il y a d’abord le fabricant ou importateur. Ensuite, le fabricant va vendre à un fournisseur de matières premières qui va lui-même le vendre à un fabricant de préparations, qui va le vendre à un utilisateur de préparation pour arriver enfin à un utilisateur final qui est un industriel, mais aussi un professionnel ou un consommateur.

Faire remonter les usages
« En utilisation finale, on fabrique une voiture, un téléviseur ou toutes sortes d’objets et d’articles. BOSTIK fabrique des préparations, mais est aussi utilisateur de préparations puisque nous en achetons et nous reformulons. Nos clients représentent la séparation entre la partie de la chaîne d’approvisionnement qui s’occupe de la chimie et la dernière partie qui n’est pas de la chimie. Le dialogue est très important, puisque quand un chimiste parle à un non chimiste ce n’est pas simple », conclut Jérôme Durantet. Par la suite, le fabricant doit évaluer les risques de sa substance. L’utilisateur aval doit identifier toutes les substances qu’il utilise afin de s’assurer d’une utilisation en toute sécurité de chaque substance, donc faire remonter les usages. « Avec REACH, c’est la première fois que nous avons vraiment un règlement qui oblige à une communication à la fois en amont et tous les acteurs ont cette obligation », précise le responsable des affaires réglementaires pour Bostik.Selon l’agenda de REACH, actuellement, en octobre 2009, toutes les substances ont été pré-enregistrées. A titre d’information, pratiquement 150.000 substances ont été ainsi pré-enregistrées, contre 30.000 prévues au départ. Sur ces 150.000 substances, plus de 2.600.000 dossiers de pré-enregistrement ont été déposés par environ 60.000 entités légales. Pour comparaison, l’inventaire européen des substances existantes regroupe environ 100.000 substances.Bostik a donc entrepris des actions concrètes, sur le terrain, vis-à-vis de Reach, pour entrer au mieux en adéquation avec les contraintes du nouveau règlement. Jérôme Durantet les détaille :
  • vérifier si nous sommes fabricants ou importateurs,
  • ensuite, double communication en amont avec nos fournisseurs et en aval avec nos clients,
  • et bien sûr la rédaction des FDS étendues avec un scénario d’exposition, ce dernier concernant les préparations, ce qui représente le futur problème.

L’importation des substances peut poser problème
« Notre première démarche, avant la période de pré-enregistrement, a été de vérifier notre portefeuille de matières premières pour regarder si nous étions fabricants de substances, en l’occurrence non. Mais nous fabriquons ce que l’on appelle des pré-polymères, donc des petits polymères qui vont devoir passer au stade final de polymères durant l’application du produit. Est-ce que ce pré-polymère est une substance ou un polymère ? Dans le premier cas, on doit enregistrer, dans le deuxième non. En l’occurrence, nous ne fabriquions que des polymères », explique Jérôme Durantet, soulignant le véritable casse-tête que peut devenir Reach.Mais ce n’est pas tout. L’importation des substances peut poser problème : « Nous achetons à des fournisseurs des substances telles quelles ou contenues dans des préparations. Ces fournisseurs sont-ils en Europe ou en zone non Europe ? Dans le deuxième cas, cela peut être problématique puisqu’il va falloir avoir un représentant exclusif pour assurer le pré- enregistrement et l’enregistrement. Nous avons également constaté que le problème d’importation des polymères allait être assez important. Jérôme Duranter se réfère alors à l’article six du nouveau règlement :« Si l’on a une quantité de monomères libres ou liés, au dessus de 2 %, si la quantité nominale de ces monomères est supérieure à une tonne et s’il n’est pas enregistré en amont de notre propre chaîne d’approvisionnement, il va falloir enregistrer le ou les monomères du polymère que l’on importe ». Cela peut paraître anodin à priori, mais la différence polymère/monomère pose problème. La société Bostik achète des polymères à la base pratiquement non dangereux (PVC, polyéthylène par exemple), mais ce n’est pas le cas pour les monomères. Le travail et les vérifications ne sont donc pas du tout les mêmes pour le dossier d’enregistrement. Pour la problématique de l’importation de polymères, il faut appréhender Bostik en tant que société mondiale. Quand un produit vient des États-Unis en Europe, même si c’est au sein de la société, la réglementation REACH s’applique.

Un nombre de pré-enregistrements très élevé
Le nombre de pré-enregistrements a été extrêmement élevé et l’agence européenne habilitée à les traiter s’est vue submergée de dossiers ces derniers mois. En effet, beaucoup d’utilisateurs aval, dont la société Bostik fait partie, ont décidé de pré-enregistrer leur substances en préventif afin d’éviter tout risque de rupture d’approvisionnement au cas où un fournisseurs aurait décidé de ne pas les informer. En effet, comme l’explique Jérôme Durantet, « entre la fabrication d’une substance et l’arrivée dans notre adhésif, il peut y avoir une dizaine ou plus d’intervenants et d’étapes. Avant d’arriver à l’origine de la fabrication de la substance, il faut remonter non pas uniquement au fournisseur, mais à plusieurs niveaux intermédiaires. Le temps de monter et redescendre la chaîne, pour éviter tout problème, nous avons pré-enregistré. En cas de rupture, nous pouvons devenir importateurs sans aucun problème ». Une précaution devenue nécessaire depuis que la mise en place du nouveau règlement Reach.

La communication vers l’amont
La communication vers l’amont est particulière à chaque entreprise, selon sa taille, ses ramification et son éclatement géographique. Comme l’explique Jérôme Durantet, le cas de la société Bostik nécessite l’emploi d’une méthode globale : « Nous avons fait une demande initiale, surtout par e-mail parce que nous gérons un nombre de fournisseurs et de matières premières extrêmement important. Nous leur avons demandé leurs intentions de pré-enregistrer ou d’enregistrer la ou les substances qu’ils nous vendent avec l’indication du tonnage si possible, afin de prévoir une date limite d’enregistrement ».C’est alors que Bostik a crée l’intranet de son entreprise, seul moyen de communication adapté à une telle tâche. Ensuite, il y a le suivi d’informations des SVHC. Jérôme Durrantet explique : « Comme nous utilisons des préparations, il va falloir que nous demandions initialement si nos NP ont des substances mentionnées sur la liste candidate dans un premier temps et à l’annexe 14 dans le futur. Sachant que cette responsabilité, sur le règlement Reach, incombe normalement au fournisseur, c’est le fournisseur qui doit de sa propre responsabilité donner cette information au client. Ensuite, nous allons remonter les descripteurs d’usage en nous appuyant sur le dernier guide d’usage qui est encore à l’état de projet, nous y avons travaillé avec des associations de professionnels. Il ne suffit pas d’initier ce dialogue avec nos fournisseurs, le dialogue devra être permanent pendant toute la période où Reach va être applicable. Pour nous, en tant que formulateurs, si nous avons l’abandon d’une substance, les raisons peuvent être variées, dangerosité importante ou raisons économiques. L’enregistrement d’un dossier coûte extrêmement cher, si la substance n’est pas produite en assez grande quantité, le fournisseur va devoir l’arrêter. Il y a ensuite l’inclusion de Reach dans les contrats avec nos fournisseurs afin de nous prémunir ». Le message est clair, mais les contraintes sont lourdes.

Confronter les points de vue
Au final, la société Bostik a mis en œuvre de grands chantiers, pour répondre le plus efficacement possible aux nouvelles exigences qu’impliquent le règlement Reach. Ces chantiers sont au nombre de quatre :
  • Mise en place d’outils informatiques avec des logiciels pour faire les fiches de sécurité à plus grande fréquence sans manquer les mises à jour.
  • Mise en place d’extranets pour les communications amont et aval.
  • Installation d’outils de veille pour être pro actifs au niveau de tout ce qui va se passer par rapport à REACH.
  • Volonté de participations extérieures.
« Pour ce qui est réglementaire, le mieux est de confronter son point de vue avec d’autres personnes ou d’autres entreprises faisant la même chose que nous. Nous faisons partie du groupe Total et un groupe travaille sur Reach à ce niveau. Nous travaillons également avec notre syndicat français. Nous participons à des groupes de travail au niveau européen et à des journées de communication comme aujourd’hui. Reach va représenter beaucoup de travail, et notamment pour les chimistes ». A l’image de Bostik, beaucoup d’entreprises ont d’ores-et-déjà réalisé un travail colossal. Formation à venir 30 juin 2010 :  » Risque chimique 2010 : comment s’organiser pour tenir les délais ? « Objectifs :
  • Réussir la transition entre le système actuel et l’évolution de la classification et de l’étiquetage
  • S’organiser pour mettre à jour et gérer les FDS
  • Valider les usages et scenarios d’exposition
  • Etre en conformité concernant la Santé Sécurité au Travail
Le programme complet de la formation Techniques de l’Ingénieur
 

4ème Sommet allemand des technologies de l’information de Stuttgart

http://www.bulletins-electroniques.com/actualites/61606.htm

Le mardi 8 décembre 2009 s’est tenu à Stuttgart la 4ème édition du sommet national sur les technologies de l’information. Plus de 600 participants étaient attendus au Palais des congrès international de Stuttgart (ICS Stuttgart) pour cette journée de débat regroupant responsables politiques, acteurs économiques et scientifiques. La chancelière fédérale, Angela Merkel, qui avait soutenu la création du premier sommet en 2006, est venue clore la journée de travaux. Plusieurs ministres fédéraux dont Rainer Brüderle (économie et technologie), Thomas de Maizière (intérieur), Annette Schavan (enseignement et recherche) et Sabine Leutheusser-Schnarrenberger (justice) étaient également présents. Le thème central de la manifestation était les « réseaux intelligents ». Mais, d’autres sujets importants ont été abordés, comme la stratégie du gouvernement par rapport à l’Internet haut débit, l’identité électronique ou la carte de santé électronique.

Concernant les réseaux intelligents, l’importance du pilotage du réseau électrique (production, répartition) à l’aide de logiciels dédiés a été de nouveau soulignée. Des compteurs électriques intelligents permettent à l’utilisateur de mieux gérer sa facture électrique en fonction des coûts. L’électromobilité et les énergies renouvelables nécessitent la mise en place de réseaux adaptés. Le président de l’Académie allemande des sciences techniques et ancien PDG de SAP, Henning Kagermann craint toutefois que l’Allemagne ne perde sa place parmi les leaders des e-énergies, et insiste sur la nécessité de maintenir les efforts de recherche et le niveau d’investissement. Il a notamment rappelé le plan d’investissement américain de 8 milliards de dollars dans ce domaine hautement stratégique pour les grands groupes comme Siemens, ABB, mais aussi pour les PME, et pouvant permettre de créer de nouvelles start-ups innovantes. Les économies escomptées grâce à l’introduction des technologies TIC sont estimées à 82 milliards à l’horizon 2020. M. Scheer, président de Bitkom [1] et Karl-Heinz Streibich, PDG de Bitkom [1], ont souligné l’importance de la stratégie d’e-gouvernement [2,3], pour la sécurité de la société allemande. Ils ont confirmé le lancement, en novembre 2010, de pièces d’identité avec puce intégrée [2].

Dans le domaine de l’Internet, une présentation de l’état d’avancement du moteur de recherche sémantique Theseus a été réalisée. Le projet lancé lors du premier sommet en 2006 devrait bientôt rentrer en phase de test. D’autre part, le programme de relance de la conjoncture du gouvernement prévoit un investissement de 300 millions d’euros pour le passage de l’Allemagne au haut-débit.

En raison de défaillances multiples, l’introduction d’une carte de santé électronique accuse de nombreuses années de retard. Elle devra néanmoins bientôt être introduite, sans ordonnance électronique ni de dossier informatisé sur le patient dans un premier temps. En effet, une partie du corps médical s’oppose à l’introduction de ces données tant que les principales failles de sécurisation des données ne seront pas résolues.

En savoir plus

– [1] Bundesverband Informationswirtschaft, Telekommunikation und Neue Medien – Syndicat professionnel allemand des technologies de l’information et de la communication – http://www.bitkom.org/
– [2] eID : s’identifier sur Internet avec la carte d’identité électronique – BE Allemagne 424 – 18/02/2009 – http://www.bulletins-electroniques.com/actualites/57825.htm
– [3] Rencontre franco-allemande d’experts sur le thème des « technologies pour l’identification électronique » à l’Ambassade de France à Berlin – BE Allemagne 422 – 05/02/2009 – http://www.bulletins-electroniques.com/actualites/57576.htm
– Technologies pour l’Internet des services – 1er symposium international pour le programme de recherche THESEUS – BE Allemagne 440 – 10/06/2009 – http://www.bulletins-electroniques.com/actualites/59461.htm
– THESEUS : les outils pour l’Internet des services – BE Allemagne 426 – 04/03/2009 – http://www.bulletins-electroniques.com/actualites/58043.htm
– Le projet de moteur de recherche allemand THESEUS est lancé – BE Allemagne 345 – 26/07/2007 – http://www.bulletins-electroniques.com/actualites/43818.htm

Source
– Articles du journal « die Welt »
– 07/12/2009 et 09/12/2009
– Article du journal « Handelsblatt » – 08/12/2009

Rédacteur
Etienne Balli, [email protected]

Origine : BE Allemagne numéro 464 (17/12/2009) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/61606.htm