Les compteurs de gaz vont être plus intelligents

À l’image des compteurs électriques voici quelques années, le relevé de la consommation de gaz commence également à évoluer, passant des compteurs mécaniques traditionnels à de nouvelles solutions électroniques sophistiquées intégrant des fonctions telles que le relevé automatique des compteurs (AMR). STMicroelectronics, un des premiers fournisseurs de circuits intégrés pour applications de relevés de consommation, évalue à environ 500 millions le nombre de compteurs de gaz mécaniques aujourd’hui en service dans le monde, et les principaux fournisseurs de gaz préparent actuellement des programmes de renouvellement de leurs parcs de compteurs par des modèles électroniques plus précis, plus fiables et plus efficaces.

STMicroelectronicset le japonais Omron, un des leaders mondiaux des technologies d’automatisation, annoncent leur collaboration afin de fournir une solution complète de capteurs pour mesurer et réguler le débit du gaz des compteurs de gaz électroniques. Ce capteur de mesure du débit que les deux sociétés ont développé est un composant clé pour la solution clé-en-main de compteurs de gaz intelligents que développe ST. Dans ces compteurs, des capteurs miniaturisés et des microcontrôleurs ultra-basse consommation sont associés pour collecter des données plus précises et plus fiables et les transmettre aux systèmes hôtes, lesquels fourniront aux particuliers des informations en temps réel sur leurs habitudes de consommation et les coûts associés, en vue de les aider à minimiser l’utilisation de ressources non-renouvelables.

Au cœur de cette coopération se trouvent un transducteur propriétaire développé par Omron et le circuit frontal analogique associé, conçu par ST. Ces technologies ont été intégrées dans un sous-système autonome complet. Le capteur de débit ainsi obtenu, qui intègre des technologies de micro-détection thermique MEMS (microsystèmes électromécaniques) de pointe, est intrinsèquement compensé pour des variations de température et de pression, tandis qu’un circuit embarqué compense la variation de la composition de gaz multiples. Ce capteur résiste à la poussière, conformément aux standards internationaux applicables aux compteurs de gaz.

Monté sur un circuit imprimé de petites dimensions (7,2 x 8,6 cm), le capteur de mesure de consommation de gaz assure un haut niveau de précision avec une très basse consommation, intègre des circuits de commande de moteurs pour le contrôle de vannes, ainsi qu’une protection contre les effets des vibrations et de la température. Le circuit imprimé comprend un microcontrôleur ST ultra-basse consommation avec 32 Ko de mémoire Flash et un circuit de commande d’affichage à cristaux liquides, un capteur de température, un accéléromètre et une horloge temps réel ainsi que des systèmes de commande de moteur et de gestion de l’alimentation.

« Alors que la demande pour des compteurs de gaz plus intelligents commence à décoller, cette collaboration avec Omron nous permettra de répéter le succès obtenu sur le marché des compteurs électriques intelligents » déclare Benedetto Vigna, Group Vice President et Directeur Général de la division MEMS Sensors & High Performance Analog de STMicroelectronics, ajoutant que ce kit de mesures permettra aux fabricants de compteurs de réduire considérablement leurs coûts d’achat et d’accélérer la mise sur le marché de leurs produits.
 

Première canalisation plastique détectable et communicante

Par nature, les canalisations platiques sont inertes et difficilement détectables une fois enfouies. Seuls les relevés topographiques permettent de les situer. Mais l’environnement urbain évolue, rendant difficile une vision rapide, précise et exhaustive du sous-sol. Les techniques de localisation sont complexes et difficiles à mettre en œuvre. Ainsi, chaque année, plusieurs milliers de canalisations sont arrachées accidentellement, avec des conséquences pouvant être importantes.

Afin de répondre à cette problématique, la société RYB collabore depuis trois années avec le CEA-Leti (Laboratoire d’Électronique de Technologie de l’Information), basé à Grenoble. Ce partenariat a permis la conception et la mise au point de la première canalisation plastique détectable et communicante au monde, nommée « Eliot ».

Dédiée à la détection des réseaux de gaz, d’eau, d’électricité et de télécommunication, cette innovation constitue une rupture technologique majeure en matière de suivi et d’entretien des canalisations, de réduction des risques d’accident et des coûts liés à l’arrachement des canalisations, mais également de traçabilité avancée des ouvrages enterrés. Intégrant, en son cœur, un nouveau type de technologie RFID mise au point par les équipes du CEA-Leti et aujourd’hui brevetée, cette canalisation offre plusieurs caractéristiques :

  • une détection jusqu’à 1,50 mètres de profondeur d’enfouissement, avec une précision horizontale de l’ordre de quelques centimètres ;
  • une insensibilité à l’environnement de la canalisation, des opérations de détection, de localisation et de lecture des informations stockées à l’intérieur de la puce : enterrée dans tous types de sols (goudron, sable, terre, cailloux, secs, humides…) et même immergée dans l’eau (en nappe phréatique par exemple) ;
  • un temps de réponse d’un dixième de seconde ;
  • une capacité de stockage d’informations : type de canalisation détectée (application), date de fabrication, date de pose, numéro de série, diamètre, pression nominale… ;
  • un dispositif intégré dans la canalisation autonome qui ne requiert aucune alimentation électrique ;
  • un système de lecture simple pourvu d’une antenne adaptée et compatible avec les produits du marché ;
  • un signal mesuré en surface caractérisant précisément la canalisation détectée, et évitant ainsi la confusion en cas de proximité de plusieurs réseaux.

Concrètement, des tags RFID spéciaux sont intégrés à la canalisation, à intervalles réguliers, selon un procédé breveté. Elles sont ensuite codées pour embarquer les informations propres à chaque canalisation. Cette intégration sur les lignes de production de RYB nécessite des investissements matériels que la société n’a pas hésité à réaliser, malgré la crise, afin de développer les premiers prototypes industriels fonctionnels. « Nous sommes très heureux d’avoir relevé la prouesse technique de développer cette première canalisation plastique détectable et communicante au monde. Plus de trois ans de collaboration avec le CEA-Leti, de nombreuses pistes de recherche suivies et plus d’1 million d’euros d’investissements ont été nécessaires à sa mise au point. C’est une nouvelle ère qui s’ouvre dans le monde des canalisations et des réseaux, qui va permettre de répondre aux besoins des opérateurs de réseaux de gaz, d’eau, d’eaux usées et industrielles, d’électricité ou encore de télécommunications pour faciliter le suivi et l’entretien des ouvrages enfouis, et réduire les risques d’arrachage des canalisations », explique Marc-Antoine Blin, Directeur Général de RYB.

Une fois le prototype mis au point, ses potentialités ont été testées en conditions réelles sur une tranchée équipée de capteurs sur le site du CEA-Leti, puis des essais ont été réalisés avec succès sur des chantiers tests dans la région Rhône-Alpes, dans de multiples conditions in situ.
Des essais ont également été conduits sur la plateforme expérimentale de la recherche du groupe GDF Suez, opérateur majeur dans la distribution de gaz et d’eau, qui a apporté son expertise en termes de maîtrise des enjeux métiers, permettant l’adéquation entre les besoins opérationnels et la réponse technique apportée par le partenariat RYB / CEA-Leti.

Après le prototypage et les essais sur des diamètres de 63 à 125 millimètres, la société RYB passe à présent à une phase d’industrialisation dans un souci d’élargir sa gamme du DN20 au DN1000. La prochaine étape vise à travailler avec les gestionnaires et opérateurs réseaux afin d’intégrer cette technologie au sein de leurs systèmes d’information et selon leurs propres cahiers des charges. Le déploiement d’infrastructures réseaux, à l’échelle de test, permettra également de fournir un retour d’expérience intéressant pour la suite du projet Eliot.

 

Développement révolutionnaire d’un nouveau type de fibre optique

Le cœur de ce nouveau type de fibre optique est constitué de séléniure de zinc (ZnSe), un composé oxydé du sélénium (Se) avec du zinc, de couleur jaune clair, semi-conducteur de son état. Alors qu’il était jusque-là impossible d’insérer ce genre de composé dans la structure même de la fibre, une nouvelle technique de dépôt à haute-pression développée en parallèle a changé la donne.

Les fibres optiques, permettant déjà le transfert de plus d’un téraoctet d’informations à la seconde, ont toujours été limitées par l’utilisation d’un cœur en verre de silice, « dont les atomes sont arrangés de manière moins méthodique, contrastant avec la structure extrêmement ordonnée du séléniure de zinc, la lumière pouvant alors être transportée sur de plus grandes longueurs d’ondes, notamment le moyen infrarouge » (de 1,4 à 3 μm ), nous explique le professeur Badding, qui a dirigé l’équipe ayant fait la découverte.

La lumière transportée dans ce cœur plus ordonné peut ainsi être plus aisément manipulée qu’on ne le peut avec les fibres en silice, notamment grâce une meilleure conversion des couleurs, utilisant un procédé appelé conversion non-linéaire de fréquences. Le transport des infrarouges (rayonnement électromagnétique dont la longueur d’onde est supérieure à celle de la lumière visible) est aussi assuré, laissant entrevoir l’exploitation d’une fibre optique laser à infrarouge.

Les applications de cette nouvelle fibre optique, plus polyvalente, et de ce laser sont multiples, car sa précision est accrue. « Différentes molécules absorbent la lumière de différentes longueurs d’ondes. Par exemple l’eau absorbe ou stoppe la lumière d’une longueur d’onde de 2,6 μm. Mais les molécules de certains polluants ou de certaines substances toxiques absorbent des lumières de plus grande longueur d’onde. Si nous pouvons transporter de la lumière dont la longueur d’onde est plus grande, nous pourrons voir plus aisément les substances présentes. », souligne le professeur Badding, justifiant sa possible utilisation dans le domaine environnemental, dans la détection et la mesure des agents polluants. Notons enfin que cela ouvre des perspectives dans le domaine militaire (des radars plus précis avec de meilleures contremesures) et dans le domaine chirurgical (des lasers plus fins), notamment pour la chirurgie réfractive (chirurgie correctrice de l’œil).

M.R.

Alifel optimise les livraisons de ses produits d’alimentation animale

Créée en 2002, et avec un investissement de plus de 15 millions d´euros, pour une production annuelle de 250 000 t d’alimentation animale, Alifel approvisionne l´ensemble des éleveurs adhérents à la Cafel (groupement des Fermiers de Loué) qui rassemble un millier d’exploitations dans un rayon d’une cinquantaine de kilomètres.

Alifel  travaille selon une organisation spécifique : 95 % des commandes des éleveurs sont passées 48 h à l’avance, principalement par Internet. Cette organisation implique automatiquement la planification quotidienne d’une production « jour » de près de 1 000 tonnes d’aliments à fournir pour les volailles des fermiers de Loué.

Aussi, dans ce contexte de production en flux tendu, l’usine Alifel ne fabrique qu’à la commande et ne dispose d’aucun stock. La gestion quotidienne est donc extrêmement difficile à programmer à l’avance, sans compter les contraintes spécifiques au secteur de l’alimentation animale qui rendent l’optimisation logistique particulièrement complexe.

Dans ce contexte, Alifel a sélectionné Optilogistic pour l’intégration de son progiciel de gestion de la chaîne logistique, L’élaboration des tournées est opérée directement et immédiatement à l’aide du logiciel, l’organisation de la production étant ensuite calée sur les plans de livraison définis par Axiodis, ce qui entraîne des gains de production conséquents.

La mise en œuvre du logiciel prend en compte de multiples paramètres :

  • l’affectation de certains camions à la livraison de produits particuliers… ;
  • l’incompatibilité entre certains produits ;
  • l’intégration des temps de désinfection, de passage aux Mines… ;
  • l’accessibilité à certains silos réservée à des véhicules adaptés spécifiques… ;
  • le suivi des tournées: kilométrage, tonnage livré, durée de la tournée, consommation de carburant.

Ainsi, aujourd’hui, Alifel gère sa production quotidienne d’une manière efficadont ce et aisée, de l’élaboration des tournées jusqu’à la livraison auprès des fermiers de Loué. De plus, grâce à un portail Web, l’entreprise peut accéder en permanence à ses plans de transports prévisionnels qui sont calculé à l’instant « t » par Axiodis,  permettant ainsi d’assurer la livraison au moment souhaité par le client.
 

Furtive-eGT, la première voiture sportive française tout électrique

L’Exagon Furtive e-GT est la création française qui a le plus surpris lors du dernier Mondial de l’Automobile, à Paris. Cette berline GT électrique allie, en effet, hautes performances et respect de l’environnement tout en répondant aux attentes des consommateurs à qui elle plaît aussi bien par son « look » que par ses performances (de 0 à 100 km/h en 3,5 sec., avec une vitesse de pointe pouvant atteindre 250 km/h). Elle est dotée de deux moteurs électriques synchrones à aimants permanents de 125 kW chacun, refroidis par eau, de Siemens Corporate Technology. Très compacts (25 x 28 cm), ils offrent  une puissance cumulée de 340 chevaux disponible de 5 000 à 10 000 tours par minute et un couple maxi de 480 Nm de 0 à 5 000 tours par minute. Quant aux batteries Lithium-ion fournies par Saft, elles ont une capacité de 50 kW/h,mais l’autonomie visée par Exagon imposera l’utilisation d’un petit moteur thermique pour les recharger en roulant. La Furtive-eGT pourrait ainsi parcourir 280 kilomètres en mode 100 % électrique et 734 km/h avec 25 litres d’essence.

Aucun bureau de style connu ne serait à l’origine de ce dessin. Si Siemens PLM Software a fourni les logiciels de conception, de simulation et de calculs, le design est fait maison, tout comme le châssis mixte en nid d’abeille carbone/aluminium/acier.

Cette aventure est née de la rencontre entre Luc Marchetti, fondateur et président d’Exagon Engineering, société de conception, de construction et d’exploitation de voitures de course, et les équipes de Siemens, lors du dernier trophée Andros. Passionné d’automobiles, ancien ingénieur de piste auprès des plus grands pilotes comme Yvan Muller, Alain et Nicolas Prost ou Franck Lagorce, Luc Marchetti était, à l’origine, sceptique quant à la qualité des véhicules électriques mais il a été convaincu par les logiciels Siemens. Tout de suite, il a perçu le niveau de qualité qu’ils pourraient apporter à la conception et au design du véhicule grâce aux logiciels Siemens.

Luc Marchetti a alors relevé le défi de fabriquer une voiture de course tout électrique, qui répond aux mêmes exigences qu’un véhicule thermique. Début 2011, Siemens Industry Software, fournisseur de logiciels et de services dans le domaine du PLM (Product Lifecycle Management) a signé avec la société Exagon Engineering un accord pour concevoir la Furtive-eGT. À ce sujet, Luc Marchetti ajoute qu’il a bénéficié, en plus du savoir-faire et de l’expertise des véhicules électriques, « des outils de conception de Siemens PLM Software : les logiciels NX de conception, de simulation et de calculs tant mécaniques qu’aérodynamiques avec sa solution CFD (Computational Fluid Dynamics), ainsi que Teamcenter pour la gestion collaborative de toutes les données ».

Exagon Engineering peut se prévaloir d’une expérience unique : il a développé les bolides électriques qui, depuis deux hivers, glissent sans bruit sur la glace du Trophée Andros et a ainsi acquis une maîtrise de cette technologie en conditions extrêmes (froid, humidité). Luc Marchetti, qui envisage une production annuelle d’une centaine de coupés, annonce un premier roulage de la Furtive-eGT en mai 2011 pour une commercialisation fin 2012.

La recharge sans fil se démocratise

C’est pour pouvoir résoudre les tracas engendrés par la présence d’un trop grand nombre de chargeurs aux fils emmêlés les uns aux autres, ainsi que par l’encombrement qu’ils occasionnent lors d’un déplacement ou d’un voyage que Maija Itkonen et les autres créateurs de la jeune start-up finlandaise Powerkiss, créée en 2008 et maintenant forte d’une vingtaine d’employés, eurent l’idée pas si saugrenue d’un appareil mobile qui pourrait se recharger en le posant tout simplement sur la surface plane d’un meuble (presque) standard.

Cette technologie sans fil repose sur l’association d’un émetteur, « Heart », et d’un récepteur, « Ring ». Le « Ring » est un petit accessoire (45 x 34 x 7,5 mm) au design assez léché, que l’on branche en lieu et place du chargeur de l’appareil portable que l’on désire recharger, (les connectiques de type Nokia, micro-USB et Apple sont d’ores et déjà disponibles). L’émetteur « Heart » (163 x 132 x 24mm) se fixe sous n’importe quelle surface plane, la transformant en surface intelligente (en dessous d’un meuble, d’un plan de travail, d’une table…), ou bien est fourni déjà installé sur un meuble, dans lequel est dissimulé le branchement secteur. Une fois l’émetteur branché, il suffit de poser les appareils portables munis du récepteur « Ring » sur la surface plane en question comme on pourrait le faire naturellement, dans un rayon toutefois limité, pour que la liaison se fasse, et que l’appareil se charge sans avoir à le relier de manière traditionnelle, au secteur ou à un ordinateur. La consommation électrique est de 12W en chargement, et de 240mW lorsqu’il ne détecte pas de Ring dans son champ d’action. Le chargement s’arrête dès lors que l’appareil est pleinement rechargé.

Des champs d’inductions électromagnétiques pour transmettre l’énergie

L’aéroport international d’Helsinki, le Hilton ainsi que de nombreux autres lieux de la capitale finlandaise ont servi de terrain d’expérimentation aux « Ring et Heart », que certains restaurants et cafés (Pizza Hut, Burger King, Starbucks…) mettaient à la disposition de leurs clients exclusivement, qui pouvaient alors recharger leurs appareils mobiles tout en mangeant, exception faite des ordinateurs portables (ce développement est en cours). Cette expérience s’est avérée fort concluante, selon les créateurs et selon les utilisateurs, tant et si bien que les installations se sont multipliées dans les aéroports et dans certains cafés de Suède, du Danemark et d’Allemagne. L’aéroport de Roissy-Charles-de-Gaulle, ainsi que quelques aéroports espagnols, anglais et norvégiens seront équipés dès le mois prochain, d’après John Lebeau, responsable des Ventes et du Marketing chez Powerkiss, ce qui permettra, entre autres, aux voyageurs en partance de Roissy de s’y essayer.

La transmission d’énergie sans fil entre l’émetteur et le récepteur est rendue possible par l’utilisation des champs d’inductions électromagnétiques par résonance, s’inspirant de l’électroaimant et de l’induction électromagnétique découverte par Faraday (une différence de potentiel électrique est induite dans un fil électrique par un champ magnétique fluctuant), développés par la suite par Nikola Tesla. A l’aide de deux bobines, réglées sur la même fréquence (en résonance), une puissance significative peut être transmise. L’émetteur « Heart » induit une tension qui crée un courant électrique dans le récepteur « Ring » qui, une fois modifié, alimente alors l’appareil auquel il est connecté.

On peut aisément imaginer qu’à terme le récepteur puisse être intégré aux appareils mobiles, facilitant d’autant l’utilisation de cette technologie, de la même manière que les clés USB Wi-Fi ont peu à peu été intégrées aux appareils, sous forme de carte Wi-Fi. Se dirige-t-on vers la fin des innombrables chargeurs aux fils qui s’emmêlent, qui prennent de la place, et qui nécessitent des (multi)prises ? Ne sera-t-il bientôt plus nécessaire de posséder un adaptateur aux normes électriques d’un pays étranger lors d’un voyage, ou de se préoccuper d’avoir ou non de la batterie ? Pas si sûr, à l’heure où plusieurs associations et scientifiques s’inquiètent des effets néfastes des ondes produites par les technologies sans fil (bien que cela concerne essentiellement les ondes radios, et de plus forte intensité), ce qui toutefois ne nous empêche pas (encore) de les utiliser un peu plus chaque jour.
Notons enfin que la start-up Powerkiss est membre du « Wireless Power Consortium », un conglomérat d’entreprises visant à promouvoir et à développer les transmissions d’énergie sans fil.

M.R.

La micro-analyse X au secours des œuvres de Van Gogh

L’utilisation de couleurs vives par Van Gogh dans ses tableaux fut un tournant décisif dans l’histoire de l’art : plutôt que d’utiliser ces couleurs de manière réaliste, c’était pour lui le moyen d’évoquer des humeurs et des émotions. Ceci n’aurait pu être possible sans les innovations majeures intervenues au XIXe siècle dans la fabrication des pigments.  L’éclat des nouveaux pigments industriels, tels que le jaune de chrome, a permis à Van Gogh de parvenir à l’intensité que l’on retrouve, par exemple, dans le tableau intitulé Les Tournesols. L’assombrissement du jaune de chrome, sous l’effet des rayons du soleil, est connu depuis la première moitié du XIXe siècle. Cependant, tous les tableaux d’époque ne sont pas affectés de la même façon et à la même vitesse.

Pour identifier le processus chimique incriminé dans l’assombrissement des toiles de Van Gogh, des chercheurs italiens (CNR di Scienze e Tecnologie Molecolari CNR-ISTM), belges (Universiteit van Antwerpen), hollandais (Delft University of Technology et Van Gogh Museum) et français (Centre de Recherche et de Restauration des Musées de France ou CRRMF) ont tout d’abord recueilli des échantillons issus des restes de trois tubes différents de peinture de jaune de chrome de l’époque. Une fois ces échantillons vieillis artificiellement pendant 500  heures à l’aide d’une lampe à UV, un seul d’entre eux, provenant d’un tube de peinture ayant appartenu à Rik Wouters (1882-1913), peintre flamand issu du mouvement fauviste, a révélé un assombrissement important. En l’espace de trois semaines, la surface de la peinture jaune vif originale est devenue marron chocolat. Ceci confirme que tous les jaunes de chrome de cette période ne réagissent pas de la même manière, les jaunes les plus clairs étant ceux qui brunissent le plus vite aux rayons UV.

Altération des pigments sur 1 à 3 µm  de profondeur

Une étude effectuée ensuite au synchrotron européen de Grenoble (l’ESRF ou European Synchrotron Radiation Facility) sur cet échantillon réactif, a révélé que l’assombrissement de la couche supérieure était lié à une réduction du chrome contenu dans le jaune de chrome, passant de Cr VI à Cr III. Les scientifiques ont également reproduit à partir d’anciennes recettes, la peinture jaune de chrome que Rik Wouters utilisait et l’ont également soumis aux UV. Même résultat : l’effet d’assombrissement est également visible.

Au cours d’une deuxième étape, les scientifiques ont examiné des micro-échantillons provenant des zones affectées sur deux tableaux de Van Gogh, Vue d’Arles avec iris (1888) et Berges de la Seine (1887), tous deux exposés au musée Van Gogh d’Amsterdam. L’examen de ces échantillons grâce à cette même technique de micro-analyse X, a confirmé la réaction chimique de réduction du chrome de Cr VI à Cr III sur ces tableaux.

La profondeur à laquelle les rayons du soleil pénètrent dans la peinture et altèrent la couleur de ses pigments est comprise entre 1 et 3 µm, ce qui rend l’analyse de la couche d’altération d’autant plus difficile. Ce sont les rayons du soleil qui, en favorisant la réduction du chrome, concourrent à transformer le jaune de chrome en pigments marron, modifiant alors la composition originale. Mais les rayons UV ne sont vraisemblablement pas les seuls à incriminer dans ce processus.

Le baryum et le soufre aggraveraient l’altération 

D’autres expériences sont d’ores et déjà programmées, afin d’identifier très précisément les conditions qui favorisent la réduction de chrome et de savoir s’il existe un espoir de rendre aux pigments leur état original dans les tableaux déjà affectés par ce phénomène. Car si le rôle de la lumière est ici clairement identifié dans la réduction du chrome, les analyses par micro-spectroscopie X ont également montré que l’altération était particulièrement importante en présence de composés chimiques contenant du baryum et du soufre (présents dans la peinture blanche). Ceci laisse supposer que la technique de Van Gogh consistant à mélanger de la peinture blanche à son jaune pour le rendre encore plus lumineux, pourrait être également à l’origine de l’assombrissement de sa peinture. Ainsi, cette découverte pourrait permettre d’empêcher que la couleur jaune vif des tableaux les plus célèbres de Van Gogh ne soit recouverte d’une pellicule sombre et qu’elle ne perde de son éclat au fil du temps, grâce à des précautions particulières de conservation et d’exposition des œuvres, notamment aux rayons UV.

Révélations inquiétantes aux Etats-Unis sur les gaz de schiste

Le dossier publié par le quotidien américain sur son site va même plus loin, en étayant ses assertions par des extraits de rapports de l’EPA, l’agence américaine de protection de l’environnement. Selon ces rapports de l’EPA, les rejets toxiques issus de l’exploitation des gaz de schiste, signalés par des milliers de documents, ont des conséquences sur l’environnement et la santé humaine que l’on ne soupçonnait pas. L’accusation la plus grave du journal concerne les rejets d’eaux usées : « Avec la fracturation hydraulique, un puits produit parfois plus de 4 millions de litres d’eaux usées qui contiennent souvent des sels hautement corrosifs, des cancérogènes comme le benzène et des éléments radioactifs comme le radium, tous pouvant être présents naturellement à des centaines de mètres sous le sol ».

Ainsi, le New York Times illustre les dangers de ces rejets, au niveau de la Pennsylvanie. En effet, les rapports de l’EPA que s’est procuré le journal, indiquent dans les eaux usées un taux de radioactivité 100 à 1 000 fois supérieur au niveau maximum utilisé. Toujours selon une étude de l’EPA datant de 2009, jamais divulguée, « les eaux usées, qui sont parfois transportées jusqu’à des stations d’épuration non conçues pour les traiter et qui sont ensuite déversées dans des rivières qui fournissent de l’eau potable, présentent des niveaux de radioactivité plus élevés que ceux connus auparavant et bien plus hauts que les niveaux considérés comme sûrs par les réglementations fédérales pour le traitement par ces stations d’épuration ». Dans cet État, ce sont plus de 800 000 personnes qui consomment l’eau potable issue du bassin versant dans lequel sont rejetées ces eaux usées.

Des taux de radioactivité 100 à 1 000 fois supérieurs aux normes

Le quotidien précise également que les stations de potabilisation situées en aval des stations d’épuration dans cette région n’ont pas testé la radioactivité des eaux qu’elles distribuent depuis 2006, alors que les forages se sont surtout multipliés depuis 2008.

Autre exemple, le Texas. Dans cet État qui compte plus de 93 000 puits, les structures hospitalières ont constaté une augmentation anormale du taux d’enfants asthmatiques (25 % constatés contre une moyenne de 7 % auparavant). Ces révélations alarmistes du quotidien américain ne rassurent pas de l’autre côté de l’Atlantique, où les manifestations contre l’exploitation du gaz de schiste se sont multipliées, surtout dans le sud de la France. La suspension des permis d’exploration, jusqu’à fin 2011, répond à l’inquiétude des écologistes face au peu d’informations quant aux dommages collatéraux, surtout environnementaux et au niveau de la santé humaine, liés à l’exploitation de ces gaz.

L’EPA, qui prépare pour 2012 une enquête complémentaire sur les conséquences environnementales et sur la santé humaine de l’exploitation des gaz de schiste aux États-Unis, révèle même via le New York Times que les contaminations observées proviennent pour une part de déversements sauvages. Or, ce sont les entreprises de forage elles-mêmes qui sont censées prévenir ces déversements.

Ainsi, les révélations du New York Times relancent un pavé dans la mare, alors que l’exploitation des gaz de schiste est déjà un enjeu économique mondial colossal.

Rappelons que c’est pendant le Grenelle II que, Jean-Louis Borloo, ministre de l’Écologie et de l’Énergie à l’époque, avait autorisé l’exploration de gaz et d’huile de schiste en France.

Par T.P.

A lire dans Instantanées Techniques : Gaz de schiste : un moratoire, et après ?

Le laser à fibre s’impose en micro-usinage

Jusqu’à présent considéré comme le domaine de prédilection des lasers Nd:YAG (neodymium-doped yttrium aluminium garnet) en impulsions, le marché du micro-usinage de précision s’ouvre dorénavant aux lasers à fibres. En effet, les récents développements en termes de puissance disponible (de 10 à 400 W chez SPI Lasers) et de qualité du mode de propagation du faisceau permettent de réaliser de façon fiable des applications de soudage, de découpe ou de micro-perçage de matériaux métalliques ou non métalliques. En conséquence, ces nouvelles sources offrent une alternative efficace aux outils conventionnels en apportant  une amélioration des performances grâce à une maintenance quasi nulle, une excellente qualité de faisceau, constante quelque soit la puissance du laser, et un faible coût de fonctionnement. Les lasers à fibres travaillent avec une « lumière » infrarouge (longueur d’onde d’1,07 µm) pratiquement identique à celle des lasers Nd:YAG, mais offrent un rendement énergétique 10 fois supérieur. Cette longueur d’onde, proche du spectre visible, permet l’utilisation de composants optiques standards en verre ou en quartz mais l’exceptionnelle qualité du faisceau issu d’un laser à fibre autorise la focalisation de spots de très petites dimensions tout en conservant de grandes distances de travail. Par ailleurs, ces systèmes ne sont pas concernés par le phénomène de lentille thermique inhérent au cristal de Nd:YAG, ce qui permet de conserver un diamètre de spot constant quelle que soit la puissance avec laquelle travaille le laser. L’intégration sur une ligne de production s’en trouve donc grandement facilitée, de même que  la conception des centres d’usinage.

Trois types d’utilisation

  • La découpe fine est la première des applications industrielles du domaine du micro-usinage dans laquelle les lasers à fibre ont été implantés. La finesse du spot associée à une importante productivité en font aujourd’hui l’outil de choix pour la fabrication de stents ou de cathéters mais on trouve également ces lasers dans l’électronique pour la production de substrats d’alumine ou d’écrans de sérigraphie quand les cadences sont élevées. En ce qui concerne les applications de découpe à plat, ces lasers vont repousser les limites des lasers à CO2 dans la mesure ou l’on pourra travailler sur des métaux comme l’aluminium ou le cuivre et utiliser de l’air comprimé comme gaz d’assistance pour les aciers.
  • Le soudage est certainement l’application qui est appelée à se développer le plus dans les années à venir, tant la variété relative au domaine est importante. On connaît, depuis longtemps déjà, la façon dont se comportent la plupart des métaux lorsqu’ils sont soumis à une forte radiation. Ceci a permis d’adapter la répartition temporelle de l’énergie des impulsions, de façon à améliorer la qualité et la répétabilité des soudures. Là encore, l’extrême facilité avec laquelle on peut moduler le courant des diodes assurant le pompage optique des lasers à fibre rend cet outil incontournable pour l’assemblage de pièces en miro-mécanique.
  • Autres applications des lasers à fibre, les opérations de perçage et de  pré-découpe qui consistent à réaliser la perforation d’un substrat avec des trous débouchants ou non débouchants de manière à fragiliser le matériau en créant une ligne de fracture. Il suffit ensuite d’appliquer une force suffisante sur le substrat pour effectuer une opération de découpe par cassage. Cette technique est également utilisée par l’industrie automobile pour la fabrication des bielles. Disposant d’une cadence de répétition élevée (100 kHz), les lasers à fibres sont des systèmes parfaitement adaptés à ces applications.

En résumé, les applications croissantes et de plus en plus exigeantes du domaine des microtechniques et de la micromécanique sont en train d’installer le laser à fibre au premier plan des outils à  la disposition de ce secteur industriel en pleine croissance.

Découvrez la formation Techniques de l’Ingénieur : USINAGE LASER

Le smart grid va ouvrir de nouveaux marchés

Vice-président en charge de la normalisation chez Alcatel-Lucent, Emmanuel Darmois travaille notamment sur le développement du smart grid, le réseau électrique dit « intelligent ». Cette évolution technologique va permettre de mieux optimiser le réseau.

Techniques de l’ingénieur : Qu’est-ce que le smart grid ?

Emmanuel Darmois : Cela revient à transformer les réseaux d’électricité de la façon dont Internet a transformé les télécoms. D’un point de vue technique, cela consiste à mettre au-dessus du réseau électrique un réseau informatique avec pour fonctions d’assurer un meilleur contrôle et une optimisation du réseau et d’offrir des services à valeur ajoutée. Il s’agit d’une évolution devenue possible car on est capable de coupler les technologies informatique et électrique dans les mêmes équipements et réseaux (par exemple insérer une carte SIM dans un compteur électrique) pour un coût très bas.

Pourquoi le smart grid se développe-t-il aux Etats-Unis ?

Aux Etats-Unis, le réseau électrique a des caractéristiques différentes du réseau européen. Il est vieux, mal entretenu et en mauvais état. Il faut donc investir pour le restructurer. Par ailleurs, il existe environ 3.000 fournisseurs d’électricité, qui s’avèrent difficiles à contrôler. Le smart grid est d’abord un moyen d’assurer un retour important des investissements massifs à faire et devrait permettre de résoudre certains des problèmes actuels, par exemple mieux cantonner sur un territoire réduit les incidents techniques sur les réseaux de distribution.

Et en Europe ?

En Europe, le réseau est en meilleur état et les acteurs moins nombreux. On se lance dans le smart grid pour une autre raison, qui intéresse aussi les Etats-Unis : il s’agit d’ouvrir de nouveaux marchés. Cela va commencer avec l’installation en cours de nouveaux compteurs intelligents. Ces derniers vont permettre à davantage d’acteurs d’intervenir dans la relation entre le consommateur et le distributeur d’énergie et de proposer des services.

Pourriez-vous donner un exemple d’application ?

Par exemple, on peut proposer à un client de réduire ses coûts en gérant mieux sa consommation. Un opérateur pourrait proposer de réduire la facture d’un particulier de 30 euros par exemple, en facturant ce service 5 euros. On pourrait voir apparaître pour l’énergie l’équivalent de la box pour les télécoms pour gérer efficacement l’électricité de la maison. Des prises ad hoc pourraient mettre les appareils en route à l’heure la plus adaptée. Le marché de l’automatisation de la maison, de la domotique, devrait fortement se développer dans les cinq prochaines années. Cette évolution concerne aussi les entreprises, qui auront encore plus à gagner en termes de réduction de coût.

Le smart grid peut-il aussi permettre d’encourager les énergies renouvelables ?

En Europe, nous avons défini l’objectif de 20% d’énergies alternatives en 2020. Cela signifie qu’il y aura de plus en plus de producteurs, notamment des particuliers. Il faudra donc équilibrer le réseau pour les prendre en compte sans que cela ne fragilise la totalité du réseau. Par ailleurs, l’informatique va se développer pour piloter l’utilisation de telle ou telle énergie selon l’heure de la journée ou la météo et mettre en relation de nombreux micro-producteurs. A certains moments, les éoliennes par exemple ne seront pas efficaces à un endroit donné, il faudra avoir recours à une énergie de substitution. Les particuliers pourront probablement être autosuffisants dans 15 ou 20 ans. On va alors découvrir de nouveaux business model avec des rentabilités différentes, ce qui va provoquer des changements structurels et entre les acteurs.

Où en sommes-nous dans le déploiement d’un réseau intelligent ?

En France, nous en sommes aux prototypes. En Italie, 30 millions de compteurs intelligents ont été installés. Chez Alcatel-Lucent, nous travaillons pour l’instant surtout sur des prototypes et des essais. L’écosystème est en train de se tester. Les acteurs cherchent à expérimenter le travail avec tel ou tel partenaire. Par ailleurs, l’intégration du réseau électrique et du réseau informatique demande des compétences encore peu répandues.

Quels sont les freins au développement du smart grid ?

Les freins ne sont pas technologiques, mais réglementaires. La réglementation va devoir ouvrir des espaces. D’un endroit à l’autre de l’Europe, la réglementation va définir la façon dont le marché va se développer et favoriser certains acteurs. En France, il est probable que l’on favorise EDF et non pas les nouveaux entrants. Au Royaume-Uni, la tendance serait à soutenir les alternatifs.
Par ailleurs, le smart grid pose le problème de la protection de la vie privée car cela peut s’avérer très intrusif. A qui appartiennent les données du consommateur ? Les visions sont différentes selon les pays. On peut considérer en France par exemple qu’elles appartiennent à EDF ou au consommateur. Au Royaume-Uni, elles peuvent être fournies par le consommateur à un tiers de confiance qui gère ces données, les protège et ne vend que ce que le consommateur à autoriser à vendre. Cela nécessite des réglementations.
L’Europe a lancé un premier groupe de travail qui rendra ses conclusions en juin et devrait faire des premières recommandations de normalisation.

Propos recueillis par Corentine Gasquet

 

Parcours
Emmanuel Darmois travaille chez Alcatel-Lucent depuis 1989. Dans sa fonction actuelle de « vice-president standards » dans la direction technique centrale, il est en charge du “moteur de normalisation” d’Alcatel-Lucent, coordonne la stratégie de normalisation et s’assure que la contribution de quelques centaines d’ingénieurs à la normalisation est en adéquation avec la stratégie et apporte une contribution de valeur à la communauté de la normalisation.
Avant cela, il a occupé diverses fonctions de haut niveau aussi bien dans les divisions opérationnelles que dans la recherche et le développement de produits. Avant de joindre Alcatel, il a enseigné l’Informatique à l’Ecole nationale des Ponts et Chaussées. Durant cette période, il a également créé une start-up dans le domaine du jeu en réseau.

 

Le smart grid en plein boum

Le smart grid a fait l’objet de nombreux articles dans les Bulletins électroniques des dernières semaines, principalement aux Etats-Unis, mais aussi au Japon, en Allemagne et en Suède. Revue de presse autour d’un sujet très en vogue.

 

Etats-Unis

 

Cet article met en évidence le besoin de mieux informer les consommateurs dont le comportement est essentiel pour le développement du smart grid à grande échelle. Control4 et GE ont ainsi lancé la Smart grid consumer coalition (SGCC). Première initiative, celle de Siemens qui s’apprête à partir sur les routes équipé d’un hémisphère terrestre de 300m² dans lequel le public assistera à une explication détaillée étape par étape de l’ensemble des processus de production et de distribution de l’électricité ainsi que des applications liées au smart grid.

Lors de la conférence « Smart Grid : what’s next » , organisé par le Churchill Club dans les locaux de Microsoft à Mountain View en Californie, de nombreux experts ont dressé un état des lieu du marché actuel tout en mettant en avant les évolutions à venir. D’après eux, le marché devrait être mature dans 5 ans. D’ici là, il faudra soulever quelques obstacles comme l’utilisation des données privées ou encore les réglementations différentes selon les Etats.

46 entreprises et organisations ont adressé une lettre à Barack Obama pour encourager le développement des réseaux intelligents. Parmi ces parties prenantes, Google joue un rôle de plus en plus actif. L’entreprise a récemment mis en ligne en accès gratuit, une nouvelle application appelée PowerMeter qui permet aux particuliers de suivre l’usage de leur énergie en temps quasi-réel.

Plus fiable et plus sécurisé que les technologies non licenciés comme le Wi-F, le Wi-Max a en plus une capacité de couverture importante. Il bénéficie d’une largeur de bande et d’un temps de latence appropriés qui permet aux producteurs d’électricté d’utiliser leur réseau pour un grand nombre d’applications menant à l’intégration des sources alternatives d’énergie et les technologies de stockage.

La California’s Public Utilities Commission (CPUC) se prépare à faire face à une forte augmentation d’énergie solaire qui sera installée dans les deux prochaines années en Californie. Elle a approuvé huit bourses totalisant 9,3 millions de dollars pour des projets focalisés sur les aspects techniques impliqués dans l’intégration du solaire sur le réseau. Elle prévoit d’atteindre un financement total de 50 millions de dollars jusqu’en 2016.

———————————————-

Japon

 

Considéré comme essentiel par le gouvernement japonais, le smart grid nécessite la coordination des différents acteurs au niveau national, et même international. Le METI a donc décidé de s’impliquer fortement sur ce sujet. Le ministère a annoncé le lancement de quatre projets de tests grandeur nature des réseaux. Le METI a également lancé la « Japan Smart Community Alliance » (JSCA), qui regroupe 286 entreprises, universités et instituts de recherche japonais.

———————————————-

Allemagne

 

Un nouveau rapport publié début avril 2010 par PriceWaterHouseCoopers affirme que le réseau électrique européen pourrait s’appuyer uniquement sur les énergies renouvelables d’ici à 2050. Il faut pour cela les soutenir par un réseau de transmission électrique efficace et un marché électrique européen unique relié à des réseaux et marchés similaires en Afrique du Nord. Cela passe notamment par un « super-réseau intelligent ».

———————————————-

Suède


La conférence européenne sur les technologies smart grid aura lieu du 11 au 13 octobre 2010 à l’université technologique de Chalmers à Göteborg.

 

A lire aussi

INTERVIEW
« Le smart grid va ouvrir de nouveaux marchés » 
Vice-président en charge de la normalisation chez Alcatel-Lucent, Emmanuel Darmois travaille notamment sur le développement du smart grid, le réseau électrique dit « intelligent ». Cette évolution technologique va permettre de mieux optimiser le réseau.

Vers un réseau de smart microgrids ?

http://www.bulletins-electroniques.com/actualites/64075.htm

Alors qu’en Californie le déploiement des réseaux intelligents avance doucement mais sûrement, des innovations sont nécessaires pour atteindre les objectifs fixés de 33% d’énergie renouvelable en 2020 [1]. L’un des problèmes essentiels pour l’intégration des énergies renouvelables provient de l’intermittence de ces sources. Dans un réseau traditionnel, la distribution fonctionne sur un modèle centralisé qui – sachant que les systèmes de stockage sont très limités – doit faire correspondre exactement la production d’électricité à la demande des consommateurs. Lorsque la demande énergétique monte en flèche en été pendant les jours de grande chaleur les opérateurs du réseau doivent ajuster petit à petit leur production. Cependant ceci devient problématique lorsqu’on veut intégrer des énergies renouvelables qui fluctuent durant la journée. La production et la demande deviennent alors deux facteurs variables et les ajuster devient complexe.

Les microgrids un modèle d’optimisation pour le réseau électrique

John Kelly, président de la Galvin Electricity Initiative [2] avait introduit lors de la Conférence Gridweek 2009 les microgrids comme une solution pour maximiser les bénéfices des consommateurs et des compagnies. « Les microgrids représentent un nouveau modèle de pensée vis-à-vis du service de l’électricité. Ils offrent l’opportunité pour les opérateurs électriques de travailler avec les communautés lors de la conception et la planification de leur système de production, pour un bénéfice commun maximisé. De par leur nature localisée, ils supportent l’innovation et créent des opportunités engendrant de nouveaux partenariats ainsi qu’une participation plus active de la part des consommateurs. Les microgrids bénéficient en effet d’atouts significatifs sur le réseau traditionnel. La proximité de la production permet d’optimiser la distribution du courant et de réduire les pertes d’énergies liées au transport de l’électricité. Proches du consommateur, il leur est possible d’obtenir une meilleure efficacité grâce à une production directement ajustée au besoin de l’unité. L’efficacité peut être également améliorée grâce à la possibilité de mixer électricité et chaleur évitant la perte d’une grande quantité d’énergie sous forme de chaleur dans les réseaux traditionnels.

Les microgrids une alternative aux opérateurs électriques ?

La plupart des microgrids en projet ne seront pas capables de produire et de stocker suffisamment d’énergie pour pouvoir se passer d’un raccordement au réseau électrique. En fait les microgrids devront maintenir un lien constant et complexe avec les opérateurs, alternant achat et vente de l’électricité, connexion et déconnexion avec le réseau permettant d’ajuster la quantité d’électricité et de réduire le stress sur le réseau. Les opérateurs pourraient également les utiliser dans des programmes d’effacement énergétique [3] comme capacité virtuelle qu’il serait possible de mobiliser pendant les heures de pic de consommation.

Ils fournissent également aux opérateurs des zones de démonstrations reproduisant à petite échelle un grand nombre des problèmes liées au déploiement du smart grid et à l’intégration sur le réseau des énergies renouvelables. Les opérateurs ont, grâce à ces mini réseaux, l’opportunité de se rapprocher des universités ou des grandes compagnies afin d’étudier la façon la plus efficace pour eux de gérer une distribution dispersée. De plus la relative simplicité pour les microgrids d’intégrer les énergies renouvelables et les capacités de stockage les rend très attractifs aux yeux des opérateurs. Les infrastructures nécessaires aux réseaux intelligents sont très lourdes à mettre en place et peuvent prendre plusieurs années. Les microgrids deviennent une alternative plus simple à mettre en œuvre et pourraient donc jouer un rôle moteur dans le déploiement des réseaux intelligents.

La question cependant est de savoir quelles seront exactement les relations entre les opérateurs et les microgrids. Qui possédera les infrastructures de stockage, les moyens de production, le raccordement au réseau et qui devra payer ? D’autant plus que dans certains cas les microgrids seront utilisés pour obtenir une plus grande indépendance vis-à-vis des opérateurs. C’est le cas du comté de Marin (au nord de la baie de San Francisco), qui a créé le Marin Clean Energy [4] sous l’étiquette d’opérateur public pour acheter et vendre de l’électricité ainsi que fournir de l’énergie aux résidents à la place de l’opérateur local, PG&E.

De nombreux projets planifiés

Plusieurs universités ont déjà annoncé des projets de microgrids. Parmi elles il est bon de citer, l’université de Howard (Washington, DC). Elle vient de signer un contrat avec la compagnie Pareto Energy [5] pour construire un système de production d’énergie électrique et thermique pour le chauffage et le refroidissement du campus. Pareto prévoit d’investir entre 15 et 20 millions de dollars pour l’amélioration de la centrale de l’université, un projet qui devrait s’étendre sur 2 ans.

Dans le cadre du projet RESCO pour « Renewable Energy Secure Communities », l’université de San Diego s’est consacrée au déploiement d’un microgrid [6]. Reconnu comme l’un des plus avancés au monde, ce microgrid s’étend sur 1200 acres, fournit en électricité 450 bâtiments et couvre une population de 45.000 personnes. Le projet a été fondé par la California Energy Commission (CEC) dans le but de tester l’intégration de la production locale d’énergie, une partie provenant d’énergie renouvelable sur le campus. Ainsi le campus est équipé de deux turbines à gaz d’une puissance de 13.5 MW chacune, d’une turbine à vapeur d’une puissance de 3 MW et d’une capacité photovoltaïque de 1.2 MW, représentant 82% de la puissance annuelle consommée sur le campus. Le projet a reçu 2 millions de dollars dont une bourse de 1 million de dollars du CEC et un accord a été signé avec deux start ups proposant des solutions destinées au microgrid: EDSA [7] et Viridity Energy [8].

Un dernier projet qu’il est important de mentionner est celui lancé par l’U.S Army prévoyant de construire une installation solaire « microgrid » à l’US Army Garrison Fort Hunter Liggett en Californie près de Monterey [9]. La capacité prévue est de 1 MW et le coût est estimé entre 5 et 10 millions de dollars. Un mégawatt de capacité solaire représente typiquement les besoins annuels en électricité de 200 maisons même si la production peut être réduite près des côtes en raison du brouillard. Le microgrid garantira une sécurité énergétique au fort fournissant de l’électricité pendant les périodes de coupures de courant et réduira ses coûts en redistribuant de l’électricité sur le réseau principal pendant les heures de forte consommation. Avec ses propres moyens de stockage et ses propres infrastructures de distribution le réseau devient plus fiable, plus sûr et limite la dépendance énergétique du site, un atout essentiel dans le cadre d’une installation militaire.

Certaines barrières restent à surmonter pour un déploiement vaste et rapide

Cependant plusieurs défis doivent être relevés pour une adoption à grande échelle des microgrids, les plus importants étant d’ordre technique et technologique. La resynchronisation avec le réseau conventionnel est difficile à faire. Pour que l’électricité produite puisse être distribuée sur le réseau, les caractéristiques de tension, de fréquence et de puissance doivent être contrôlées. De même l’infrastructure du microgrid doit être compatible avec les standards existants pour que l’équilibre sur le réseau soit maintenu. Dépendant de la production d’énergie locale, le stockage est une composante essentielle des microgrids. Cependant les solutions existantes restent encore très chères et l’ajout de tels systèmes augmente les coûts de maintenance.

Par ailleurs, la réglementation en place dans de nombreux états reste peu favorable aux microgrids. On peut faire référence au « net metering »[10] utilisé en Californie ne permettant pas aux producteurs de revendre leur électricité. Des changements législatifs sont nécessaires pour inciter les investissements dans des systèmes locaux de distribution. Des changements pourraient voir le jour sous l’impulsion d’initiatives comme la Galvin Electricity Initiative. Fondée en 2005 par Robert W.Galvin, l’ancien président et chair de Motorola, elle a été créée dans le but de promouvoir un large déploiement des microgrids.

 

 

Pour en savoir plus
– [1] Site du CPUC : http://www.energy.ca.gov/renewables/index.html
– [2] Site officiel de la Galvin electricity initiative : http://www.galvinpower.org/
– [3] « Demand Response: how to create virtual electric capacity »: Frenchsciencesf – 23/03/10 http://redirectix.bulletins-electroniques.com/j8v53
– [4] Site officiel du Marin Clean Energy http://marincleanenergy.info/CCA.cfm
– [5] « Pareto Energy to build ‘microgrid’ for Howard University »: the Washington Post – 5/07/10 http://redirectix.bulletins-electroniques.com/c6CNo
– [6] « Microgrid to deploy at UC San Diego campus »:R&D – 13/04/10 – http://redirectix.bulletins-electroniques.com/9Yemd
– [7] Site officiel de l’EDSA: http://www.edsa.com/
– [8] Site officiel de Viridity Energy : http://viridityenergy.com/
– [9] « Army to Install Solar at California Fort » Sunplugger – 10/06/10 – http://redirectix.bulletins-electroniques.com/tusjX
– [10] « Towards real-time electricity pricing in California ? » : frenchsciencesf – 1/07/10 – http://frenchsciencesf.wordpress.com/smart%c2%a0grid/

Sources
– « Microgrids: Utility vs. Private Ownership »: Viridity Energy – 24/02/10
– « Opinion: Microgrids offer an alternative to PG&E for clean energy »: Mercury News – 20/06/10 – http://www.mercurynews.com/opinion/ci_15322614?nclick_check=1
– « How microgrids will change the way we get energy from A to B »: Green Beat 6/07/10 – http://bit.ly/dx7YzO

Rédacteur
Arnaud Souillé, [email protected]

Origine
BE Etats-Unis numéro 216 (16/07/2010) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/64075.htm

&l

La « filière smart grid » reste à inventer

Les réseaux intelligents (Smart Grid) sont l’objet de beaucoup d’attention de la part des laboratoires et des industriels depuis quelques années en France. Sans caricaturer, on peut dire que le Grenelle de l’Environnement, via les obligations pour les bâtiments et les entreprises de revoir leur efficacité énergétique d’ici à 2020, le PNAQ (plan national d’allocations des quotas), et la nécessité d’intégrer des énergies renouvelables dans le réseau énergétique pré-existant, a agit comme un détonateur pour les acteurs de ce marché aussi volumineux transversalement que dans la complexité de sa réalisation. Il s’agit ni plus ni moins pour la future filière du Smart Grid en France que d’inventer un modèle économique, en réinventant une nouvelle façon de consommer l’énergie. La tâche n’est donc pas aisée !

Le terme Smart Grid, qui désigne le concept d’un réseau de transmission et de distribution de l’électricité intelligent, vise des innovations technologiques et de services avec des évolutions potentielles importantes sur l’ensemble de la chaîne industrielle du système électrique et des interfaces clients. Le Smart Grid est aujourd’hui à l’état de concept expérimental et il n’existe pas de filière industrielle à proprement parler ; il règne notamment la plus grande incertitude sur le standard technologique de demain.

En France, cependant, de nombreux acteurs se sont déjà positionnés sur la première brique de la mise en place du Smart Grid, à savoir le Smart Metering, tandis que les géants de l’informatique américains se battent pour être aux premières loges de cette évolution.

Les forces et les faiblesses de la filière française

La France a d’indéniables atouts pour se doter d’une filière compétitive et homogène, même si cela n’est pas encore le cas. Listons les facteurs qui font de la France un acteur potentiel sérieux sur les Smart Grid :

  • Une expertise reconnue en France dans l’élaboration de réseaux ;

  • Des initiatives des acteurs industriels clés : projet de mise en place de compteurs intelligents (LINKY) d’ERDF ;

  • Une volonté affichée de la Commission Européenne de faire avancer le Smart Grid au niveau européen : l’European Smart Grids Technology Platform.

Les faiblesses de la filière française, qui résident principalement dans la structuration, en gestation, de cette dernière :

  • Une filière encore loin d’être structurée, les contours du concept même de Smart Grid restant flous ;

  • Certaines composantes indispensables au développement du smart grid ne sont elles-mêmes pas matures : stockage de l’énergie, ENR, production décentralisée… ;

  • Peu d’acteurs français forts sur le secteur des logiciels et des services informatiques ;

  • Des coûts structurels d’investissement importants dont les porteurs n’ont pas encore été clairement définis.

Un potentiel certain, des incertitudes persistantes

Il est clair que l’époque est propice à l’apparition et à la généralisation du Smart Grid. Au delà des impératifs en termes d’économies d’énergie, il existe un vrai défi quant à l’intégration des énergies renouvelables dans le réseau électrique. Pour résumer, on peut lister trois éléments principaux qui cautionnent les espoirs fondés autour du développemlent du Smart Grid en france :

  • Un contexte qui pousse au développement du smart grid : efficacité énergétique, indépendance énergétique… ;

  • Un marché prometteur couvrant de nombreux segments industriels : infrastructures réseaux, compteurs, automatisation, appareils électroménagers… ;

  • Des positions fortes à aller chercher sur un marché émergent : au stade de recherche/démonstration, les technologies et standards ne sont pas encore arrêtés, le marché est donc très ouvert ;

À côté de cela, des zones d’ombre subsistent, surtout vis-à-vis de l’urgence quant à la définition des normes, standards technologiques… Comme pour d’autres secteurs de l’industrie, il est vital pour la filière française de se positionner sur ces problématiques… Ci-après, les trois facteurs qui inquiètent :

  • Les incertitudes sur les sources de financement et les porteurs de l’investissement apportent une forte inertie : les montants en jeux sont colossaux et l’investissement risque de ne pas être économiquement rentable à court terme ;

  • Une fenêtre étroite à ne pas rater : une fois les technologies et les normes définies, il sera trop tard pour se positionner ;

  • L’Amérique du Nord semble en avance : les acteurs majeurs (Google, Cisco, IBM, Intel…) se positionnent déjà avec des projets à Miami et en Ontario.

L’ambition française doit être, à long terme, de préparer le passage à un réseau électrique intelligent compatible avec l’évolution de l’environnement des réseaux (électricité décentralisée et intermittente, véhicule électrique…) et, à moyen terme, de transformer la gestion de l’énergie des bâtiments (compteurs intelligents, domotique…). Sur ces ambitions, la France possède des acteurs capables d’être parmi les leaders du marché. C’est pour cela qu’il est nécessaire, pour la filière française des réseaux intelligents, de se fixer des objectifs très ambitieux. À l’heure actuelle, ces défis sont au nombre de quatre. Il s’agit de :

  • Faciliter l’insertion de la production distribuée, notamment à partir de ressources renouvelables. Pour cela, la France et l’Europe se sont engagées à intégrer au moins 23 % d’énergies renouvelables en 2020 ;

  • Permettre des actions significatives de gestion de la demande et de la production intermittente : ces actions permettront de limiter le recours à des moyens de production émetteurs en CO2 et de garantir l’équilibre offre/demande en cas d’indisponibilité des ressources intermittentes ;

  • Anticiper l’évolution de l’environnement des réseaux, à savoir le déploiement des compteurs intelligents, l’émergence des bâtiments à énergie positive, la production d’électricité décentralisée et intermittente, les véhicules électriques et/ou hybrides rechargeables… ;

  • Expérimenter de nouveaux modèles d’affaires : ces nouveaux modèles devront être favorables à la structuration des acteurs des systèmes électriques intelligents et à la constitution d’un profit tout en veillant à la prise en compte des aspects environnementaux et sociaux. Aujourd’hui, les bénéfices des smart grid sont distribués parmi les parties prenantes tout au long de la chaîne de valeur tandis que les coûts sont assumés principalement par les transporteurs et les distributeurs 19 : cette répartition des bénéfices et des coûts n’est pas viable pour les opérateurs privés.

Des conditions de développement interdépendantes

L’existence effective d’un smart grid général à l’horizon 2020 en France semble illusoire. En revanche, il est important que la France se dote dès maintenant des moyens nécessaires à sa mise en place en amont. En France, RTE (réseau de transport d’électricité) estime que les objectifs d’intégration des ENR dans la production électrique (20 % à l’horizon 2020) ne nécessitent pas d’ajustements importants et qu’il est même possible d’aller au-delà des 20 % sans rencontrer de problèmes majeurs. Le développement des différentes filières est donc étroitement lié : véhicules décarbonés, stockage de l’énergie, éolien, photovoltaïque et smart grid notamment. Le smart grid est le « chapeau » qui doit permettre à toutes ses filières de s’articuler entre elles de manière optimale. Cependant, le smart grid, s’il est l’objectif final global, ne peut être pré-existant au développement de ces autres filières. Il est donc critique que les décisions prises sur les autres filières connexes le soient en gardant à l’idée de permettre le développement futur du smart grid.

Pour avancer sur ces objectifs, la France a intérêt à développer ou à participer à des projets de recherche démonstrateur afin de se positionner comme un acteur de référence, d’autant qu’elle dispose d’une expertise en terme d’architecture de réseaux, notamment électrique.
Au niveau des acteurs, il s’agit d’assurer un basculement entre des avancées portées historiquement par les technologies du monde de l’électrotechnique de réseau, avec des technologies nées ailleurs dont la distribution doit s’emparer grâce à : la baisse des coûts des technologies de l’information, le développement de nouveaux capteurs, l’émergence de moyens de productions locaux renouvelables ou pas, l’apparition de nouvelles capacités pour le pilotage et la maîtrise de la consommation, le développement du stockage…

Pour répondre à cette ambition, des actions doivent être entreprises en faveur des filières sur trois axes prioritaires : tout d’abord, il s’agit de préparer l’intégration des énergies renouvelables dans le réseau électrique. Pour cela, la mise en place des programmes de recherche sur l’intégration des énergies renouvelables dans les réseaux de transport et de distribution, ainsi que sur les nouvelles technologies de réseau, qui est déjà enclenché, doit donner des résultats concrets. Il est également nécessaire, et cela est en cours avec la participation active de l’ADEME, de lancer et accompagner un appel à manifestation d’intérêtsx pour la création de démonstrateurs à échelle réduite. À l’heure actuelle, la construction de nombreux démonstrateurs est en cours, avec des résultats concrets pour certains.

Ensuite, une action est à mener pour rendre les maisons « plus intelligentes ». Encore une fois, il s’agit d’homogénéiser les normes, les infrastructures pour les rendre compatibles. Quelques pistes à suivre :

  • Soutenir la mise en place par ERDF, en respectant le calendrier prévu, des compteurs « intelligents » Linky ;

  • Pour les équipements en aval du compteur, développer un dispositif européen de normalisation ou d’harmonisation des spécifications qui rende ces équipements compatibles avec les services énergétiques attendus des smart grid ;

  • Autoriser les équipements de gestion d’énergie finale (domotique notamment) à entrer dans le cadre des certificats d’économie d’énergie et les rendre éligibles au crédit d’impôt.

Enfin, le modèle d’affaires reste à définir dans sa plus grande partie. Evidemment, intensifier et accélérer la mise en place de démonstrateurs nationaux et européens participe à mieux appréhender les contours de ce modèle. Sur les aspects de définition des modèles économiques et de gouvernance, tout reste à faire ou presque, puisqu’il existe aujourd’hui un flou complet ou presque sur les acteurs de la filière dans leurs rôles et leurs missions exactes, aujourd’hui et demain.

P.T.

« Le smart grid, c’est l’optimisation des optimums »

Instantanés Techniques : De quelle façon ALSTOM appréhende-t-il le smart grid ?

Laurent Schmitt : Aujourd’hui, nous sommes dans une phase stratégique de construction de notre écosystème. Dans le cadre de cet écosystème, nous avons des partenaires particuliers qui sont nos clients, avec qui nous travaillons depuis maintenant plus de vingt ans sur les systèmes de contrôle et de dispatching en particulier.

Comment gérer la R & D sur une thématique aussi transversale ?

Nous réalisons notre R & D avec nos clients depuis plus de dix ans, R & D qui évolue de plus en plus vers des domaines fonctionnels comme les réseaux intelligents, dans le cadre de démonstrateurs que nous sommes en train de démarrer un peu partout dans le monde, sur différentes thématiques liées aux smart grid.

Pour quels nouveaux domaines d’activités ?

Il y a tout un domaine lié à la MDE (Maîtrise de la Demande en Énergie). Nous menons également des recherches sur les architectures de systèmes d’informations temps réel, nécessaires au pilotage actif de ces nouvelles infrastructures de demandes (type nouveaux bâtiments, sites industriels, usines…), et potentiellement à terme des interfaces avec des maisons intelligentes (résidentiel). Notre savoir-faire dans les centres de contrôle et de pilotage au niveau de la production et du réseau doit nous permettre d’aller vers la maîtrise de l’agrégation des demandes, c’est un segment important.

Il y a aussi la gestion et l’intégration des énergies renouvelables…

Nous traitons en particulier la connexion du renouvelable au système énergétique, aux réseaux de transport, mais aussi bien sûr l’intégration des énergies renouvelables dans les nouveaux bâtiments… Il est impératif de mettre à l’œuvre de nouvelles capacités de stockage, centralisées ou distribuées. Après, Alstom est positionné sur le monde du smart grid de manière transverse, et sur le système d’information temps réel du smart grid de manière plus précise.

Parlez-nous des démonstrateurs mis en place.

Nous avons commencé à travailler sur ces démonstrateurs (SP7, SP6), en collaboration avec l’Union Européenne il y a plusieurs années. Nous venons de terminer un projet qui s’appelle PHOENIX, qui traitait en particulier des stratégies d’intégration des ressources d’énergie flexible distribuées dans les réseaux d’énergie, et qui a donné lieu à l’élaboration d’une architecture du smart grid de référence dans lequel il y a eu de petits pilotes. Cela a été la première étape vers le développement d’une base de démonstrateurs sur lesquels nous travaillons aujourd’hui.

Parlez-nous un peu de ce projet.

Le démonstrateur REFLEX, en construction, devrait donner des résultats concrets et devenir une solution opérationnelle dans les deux ans. Concrètement, le projet se compose d’une dizaine d’infrastructures disséminées à l’intérieur de la ville de Nice, qui vont nous permettre d’agréger des éléments de flexibilité, et que nous allons faire interagir avec le système de gestion des ajustements de la RTE, la société qui s’occupe du transport de l’énergie en France, pour permettre un pilotage actif et harmonisé de ces infrastructures vis-à-vis des besoins en énergie tant du réseau que du marché.

La recherche sur le smart grid ne se limite pas à des collaborations nationales…

C’est vrai. Il s’agit d’un enjeu mondial. Aux États-Unis, nous collaborons sur un démonstrateur avec la société Pacific North West America. Nous discutons en ce moment avec Duke Energy sur différents types de démonstrateurs, dont un est en construction à Charlotte. Au niveau français, nous avons soutenu des projets pour une dizaine de démonstrateurs. Un d’entre eux a permis de faire des avancées significatives : le projet REFLEX, sur lequel nous travaillons avec VEOLIA et SAGEM COMMUNICATION sur l’intégration de la demande des énergies distribuées à l’échelle de la ville et des écoquartiers.

Finalement, l’intérêt d’ALSTOM pour les smart grid apparaît assez évident…

Je vois ça comme une chaîne vertueuse. D’abord, il s’agit d’intégrer les énergies renouvelables. Aujourd’hui, beaucoup de pays européens affichent des ambitions importantes en termes de part d’énergies renouvelables par rapport à la capacité totale. Il s’agit donc de mettre en œuvre un réseau qui permet d’intégrer ces énergies renouvelables, et qui peut gérer leur caractère intermittent. D’où la nécessité de trouver des leviers de flexibilité. Il existe des moyens de production de pointe, mais qui ont l’inconvénient de produire du CO2. Il existe également des moyens de stockages, ou des moyens de gestion de demande, qui deviennent eux-mêmes flexibles.
Le deuxième élément, c’est de trouver des moyens d’améliorer l’efficacité énergétique du système. Il s’agit de s’interconnecter avec des infrastructures, des bâtiments, et d’optimiser chaque installation. En fait le smart grid va consister à recueillir de l’information en temps réel sur la demande énergétique des infrastructures connectées, pour l’optimiser.

Pour simplifier, pourrait-on dire que le smart grid est de l’optimisation ?

Le smart grid, c’est l’optimisation des optimums. Au final, il s’agit de rendre les infrastructures optimales séparément, mais aussi en adéquation le fonctionnement optimal du réseau dans son ensemble. Il s’agit également d’éviter les blacks out et de continuer à gérer aussi bien la stabilité dynamique des réseaux que nous l’avons fait auparavant. L’intégration des énergies renouvelables dans le réseau crée des flux transitoires de plus en plus complexes à gérer, c’est une problématique importante.

Parlez-nous des collaborations que vous développez avec d’autres entreprises.

Les énergéticiens sont nos clients, utilisateurs de nos technologies. C’est le point de départ de ce partenariat. Ensuite, il y a des technologies sur des segments adjacents : les middleware, logiciels sur lesquels nous travaillons beaucoup avec Microsoft, les télécommunications, du middleware embarqué, sur lesquels nous travaillons avec Alcatel Lucent Communication. Mais également les technologies des compteurs intelligents, bâtiments, technologies IT… Ce sont les membres écologiques de notre écosystème. Ce sont des partenaires technologies.

Il n’est pourtant pas si fréquent de voir de grands groupes industriels collaborer sur de tels projets…

C’est vrai, les partenariats de recherche entre grandes entreprises ne sont pas si fréquents que cela. Nous collaborons avec Microsoft et d’autres grands groupes depuis de longues années, cela dépasse le cadre des smart grid. Par contre, ce qui est nouveau va plutôt être la densité des partenariats entre ces grandes entreprises. Ces partenariats répondent au besoin du marché d’intégrer de nouveaux usages.

Au-delà des énergies nouvelles, quels vont être les prochains défis en termes d’intégration ?

À court terme, ces usages vont être l’intégration des énergies nouvelles et la gestion de la demande globale. À moyen terme, il est évident que c’est le véhicule électrique qui va prendre une place importante sur le marché, avec tous les aménagements que cela implique. Les analyses laissent penser que le marché de l’automobile électrique va se développer sous forme de grappes, probablement autour de bâtiments. Dès lors, des problématiques d’intégration dans le réseau et de gestion des congestions seraient à prendre en compte.

Y a t-il encore des freins au niveau de la recherche ?

En termes de recherche fondamentale, il existe des segments qui nécessitent encore de la recherche fondamentale. On peut prendre l’exemple du stockage de l’énergie, où il est nécessaire de faire des progrès en termes aussi bien de stockage pur que d’architecture d’électronique de puissance afin de faciliter l’intégration dans le réseau. Pour autant, ce que l’on voit surtout maintenant est plus de la recherche système, avec pour principale problématique de rendre le système efficace dans son ensemble.

Comment est menée la réflexion en termes d’élaboration d’un business modèle pour le smart grid ?

Il faut que les technologies du smart grid entrent naturellement dans l’écosystème technologique des usagers, qui eux-mêmes sont à différents niveaux de la chaîne énergétique : dans le bâtiment, dans le résidentiel et aussi au niveau des moyens de production.

Va-t-on observer des changements, induits par la mise en place progressive du smart grid, dans les modes de consommation de l’énergie chez le consommateur ?

C’est la grande question. Le volume économique associé à ces changements est pour le moment une grande incertitude. À l’heure actuelle on peut dire qu’il existe un réel challenge quant au modèle économique le plus approprié.

Le Grenelle de l’Environnement a-t-il constitué une rampe de lancement pour le smart grid ?

Il est vrai que les entreprises, dans le cadre des RT2012, avec l’engagement à devenir des bâtiments à énergie positive en 2020, ont été amenées à penser à leurs infrastructures réseau et c’est dans ce cadre là que les smart grid trouvent leur pertinence. Aujourd’hui, l’enjeu devient non seulement l’efficacité énergétique au niveau de la structure d’un bâtiment, mais aussi son interaction avec le système.

Qu’en est-il du cadre réglementaire à l’heure actuelle ?

Il faut aussi mettre en place un cadre réglementaire, c’est ce qui est en train d’être fait avec la loi NOME (Nouvelle Organisation du Marché de l’Énergie), qui doit permettre de « redistribuer un peu les cartes sur le marché », en le rendant plus liquide.

Propos recueillis par Pierre Thouverez

Le Smart Grid va t-il remplacer Facebook ?

Un nombre croissant de start-up appliquent les principes du réseau social à la gestion de l’énergie domestique, et le média social au Smart Grid. Ils sont ainsi en train de révolutionner la compréhension qu’ont les gens de l’utilisation de l’énergie, et bâtissent des sociétés performantes, participant également à réduire l’impact qu’a chaque être humain sur l’environnement.

Le « Smart Grid » réfère au revêtement de la technologie des communications digitales dans notre infrastructure électrique existante. Il permet aux maisons et aux usagers de « parler » entre eux au travers de compteurs électriques pouvant être connectés à Internet et à des d’appareils. Des appareils électriques tels que les réfrigérateurs, les climatiseurs ou les émissions télévisées fichent leur consommation d’énergie par un réseau sécurisé et, quand c’est nécessaire, les sociétés électriques peuvent les éteindre à distance pour éviter de surcharger le réseau et d’éviter les pannes. Le Smart Grid promet ainsi de faire faire des économies, il a des avantages sur le plan environnemental et il transformera la façon dont les clients interagissent avec les utilitaires électriques. Dans la mesure où le réseau social repose sur l’interactivité et la communication, le média social et le Smart Grid sont au même plan ; on pourrait penser à un « Gridbook ».
« Ce qu’il y a de fascinant à propos du Smart Grid, c’est que tant de choses peuvent en découler », dit David Leeds, manager de la recherche senior chez Greentech Media. « Je pense qu’il y a de vastes opportunités pour utiliser moins d’énergie tout en atteignant la même qualité de vie, et je crois que la plateforme du média social va être déterminante dans ce processus ». C’est Leeds également qui a utilisé le terme de « Gridbook » pour décrire ce mélange technologique entre le média social et le Smart Grid.

À quoi ressemble un Smart Grid social ?

Opower, basé à Arlington en Virginie, qui a plus de 2 millions de clients de par le monde, est le leader industriel dans la combinaison des méthodes de communication par le média social et la technologie du Smart Grid. Ses services de contrôle de l’énergie s’appliquent aux ordinateurs de bureau comme aux smartphones, et aident ainsi les consommateurs à faire des économies sur leur consommation d’énergie tous les mois. Opower créée un profil démographique basé sur les données de consommation d’énergie issues de ses compteurs, et groupe les foyers similaires en communautés. Il autorise ensuite ces groupes à comparer leur utilisation d’énergie et permet à chacun d’entrer en compétition avec les autres pour réduire sa consommation au maximum. « Tout ce dont vous avez besoin, c’est d’une poignée d’enthousiastes pour créer cette dynamique. Nous n’avons jamais vu de consommateurs aussi convaincus que ceux qui utilisent les médias sociaux », a écrit Dan Yates, co-fondateur et président directeur général de Opower.

Yates a déclaré que la recherche d’Opower a bien prouvé que lorsque les gens entendaient parler par leurs amis de la façon de consommer moins d’énergie, le taux de participation était bien plus élevé. Les communautés en ligne sont donc un moyen très valable de diffuser l’information. « En plus du fait de simplement discuter entre eux, les consommateurs veulent participer à la création de nouvelles idées », a expliqué Yates. « Les communautés en ligne, et le contenu généré par leurs usagers, sont la clef du succès de notre plateforme. Cela nous permet d’utiliser l’information produite par 5 % d’entre les plus enthousiastes et engagés de nos consommateurs, et de l’étendre aux 95 % restants. » En novembre, Opower a annoncé qu’ils avaient réuni 50 millions de dollars d’un groupe d’investissement de fonds, dont fait partie Kleiner Perkins Caulfield & Byers, qui avait déjà investi dans Zynga et Google.

Les avantages

Les leçons qu’ont tirées Opower et d’autres vont être essentielles pour créer des changements radicaux à mesure que le Smart Grid gagne en maturité. À travers les États-Unis, on estime à 60 millions le nombre de compteurs de Smart Grid prêts à être installés à court-terme. Cependant, le développement total de cette technologie coûtera entre 8 et 10 billions de dollars durant les vingt prochaines années, comme l’indique Dr. Massoud Amin, connu comme étant « le père du Smart Grid ». D’un coût d’environ 170 billions de dollars, selon Amin, le Smart Grid entièrement développé permettra aux Américains d’économiser annuellement 49 billions de dollars gagnés sur les pertes en énergie, et d’augmenter l’efficacité globale de l’énergie de 12 à 18 % par an. « C’est un bienfait pour la société, qui passe de la communauté à l’individu, et qui a permis de réduire les coûts de la mauvaise gestion du système. », a déclaré Amin. Amin est directeur de l’Institut du Leadership Technologique à l’université du Minnesota, et effectue des recherches sur le Smart Grid depuis 1998.

En plus de ses avantages sur la société et la planète, la pertinence du Smart Grid associé au média social, c’est qu’il exploite l’un des instincts les plus humains : l’esprit de compétition. « Les gens aiment sentir qu’ils gagnent », explique Eric Dresselhuys, Vice Directeur Général à Silver Spring Networks. Silver Spring est une société rivale d’Opower, qui a créé une interface en ligne pour que les utilitaires électriques soient connectés à leurs clients, et pour que les clients soient connectés entre eux. On peut la comparer à Mint.com pour ce qui concerne l’utilisation de l’énergie domestique, aussi bien en termes d’apparence que dans sa capacité à gérer et à modifier le comportement par Internet ou par l’application d’un smartphone. Avec la possibilité de réduire chaque mois sa consommation d’énergie et de comparer l’information avec des amis et voisins, la solution de Silver Spring, tout comme Opower, a les aspects d’un jeu social qui en constitue tout l’attrait et génère son succès.
« Les clients se disent : « Je veux gagner, je veux penser que j’agis pour mon bien », dit Dresselhuys. « Aujourd’hui, je ne peux pas savoir si je gagne ou pas. Je pourrais bien être le plus grand perdant de ma communauté, ou je pourrais être dix fois plus efficace que quiconque. Je n’ai pas le contexte nécessaire pour pouvoir évaluer ce que je fais. »

Non seulement cette technologie peut permettre aux consommateurs d’être gagnants par un jeu de compétition entre eux, mais une approche sociale de comptage les sensibilise également aux impacts réels de leurs attitudes quotidiennes. Lorsqu’ils ont plus d’informations à leur disposition, ils sont donc en mesure de prendre de meilleures décisions dans ce sens, et de partager cette connaissance en toute confiance. « Vous avez sans doute une idée assez exacte de combien vous faites de kilomètres au litre avec votre voiture. Mais vous n’avez sans doute pas idée de ce que représente un kilowatt par heure d’électricité dans votre foyer », explique Dresselhuys. « Voire, si vous êtes comme la majorité des gens, vous ne savez même pas ce qu’est un kilowatt par heure…L’aventure de l’énergie toute entière reste un peu comme une boîte noire. »

Les médias sociaux peuvent améliorer l’efficacité de la consommation d’énergie dès maintenant

Silver Spring, Opower et des concurrents comme Tendril ou eMeter, sont des sociétés bâties sur la prémisse que les compteurs de Smart Grid et les médias sociaux peuvent aider les consommateurs à économiser sur leurs factures d’électricité. Mais il existe encore bien d’autres moyens pour que les communautés en ligne puissent modifier leurs habitudes de consommation d’énergie, sans pour autant posséder tout un équipement sophistiqué.

Élue « Meilleure Idée du Millénaire » au concours GE Écomagination, la start-up Welectricity fonctionne sur le fait que les utilisateurs enregistrent l’information contenue dans leurs factures mensuelles d’électricité dans un instrument du site qui produit un graphique. Welectricity sort alors un relevé des habitudes de consommation, opposées aux différentes sortes d’appareils identifiés dans la maison, produit des statistiques et des tableaux sur les tendances de l’usager, et suggère des moyens pour réduire ses factures d’électricité. Welectricity rend aussi possible aux utilisateurs d’inclure leurs amis dans ce processus au travers de leur portail en ligne.
Son fondateur, Herbert Samuel, dit de Welectricity qu’elle permet d’économiser l’énergie de deux manières: d’une part, le service offre la possibilité de réduire sa consommation d’électricité, et d’autre part, il n’est plus besoin de produire de nouveaux compteurs d’énergie, ni de les transporter. Actuellement, Welectricity a des utilisateurs dans 66 pays, et sans cesse davantage arrivant en ligne. Earth Aid, une société qui a l’objectif similaire d’aider les ménages à réduire et à comparer leurs consommation d’énergie, tout cela sans la nécessité d’un nouvel équipement ou de compteurs, vient juste de recevoir la somme de 4 millions de dollars du fonds Séries A.

L’avenir

Dans l’avenir, il faut s’attendre à ce que le Smart Grid devienne de plus en plus social, avec des start-up qui trouvent les moyens d’utiliser les plateformes de réseaux sociaux telles que Facebook et Twitter, tout en communiquant sur des problèmes privés et de sécurité. Tenrehte, basé à Rochester dans l’état de New-York, a inventé la prise Smart Picowatt, un dispositif qui contrôle la consommation d’énergie d’un instrument et relaie l’information par le biais d’un signal Wifi. Ce qui est réellement extraordinaire à propos de ces prises de communication, c’est qu’elles permettent aux utilisateurs de contrôler leurs appareils électriques au travers d’une application Facebook. « Lorsqu’il y a convergence entre les médias sociaux et le phénomène actuel de développement technologique, c’est là que les choses évoluent réellement. », a déclaré la fondatrice de Tenrehte, Jennifer Indovina. « Nous n’en sommes pas encore là. », ajoute-t-elle.

Et Indovina de citer les problèmes de sécurité du réseau et de normes opérationnelles comme étant les deux obstacles majeurs. Mais ça ne sera pas toujours le cas. Et bien qu’elles se soient plutôt montrées discrètes jusque-là, certaines des plus grandes sociétés internationales ont déjà pénétré le champ du contrôle de la consommation d’énergie domestique. Microsoft a lancé une initiative appelée « Hohm » en 2009, et Google a créé un dispositif de contrôle de l’énergie domestique appelé « TED 5000 », un acronyme du « Détective d’Énergie ». Auxquels viennent s’ajouter les applications remarquées d’Apple en mai 2009, en faveur d’un « Contrôle Intelligent de l’Électricité » et d’un « Port de communication intelligent connecté à l’électricité », signant ainsi son entrée dans la mêlée du comptage Smart. Quelle que soit la forme que cela prendra, on doit s’attendre à ce que le concept du réseau social soit au cœur des initiatives à venir.  

Les dernières estimations montrent que 77,3% des Américains ont accès à internet, mais que 99,9% d’entre eux ont l’électricité. À mesure que le Smart Grid touche de plus en plus de foyers américains, on va réellement produire un réseau social qui va gagner l’ensemble du territoire, ce qui sera assez inouï.

 C.C.

Vers un réseau électrique intelligent international

D’un point de vue général, les deux régions du monde (à savoir États-Unis et Europe) ont commencé à les mettre en place de manières distinctes : au moyen d’un réseau sans fil pour l’Amérique du Nord et au moyen d’un transport par lignes à haute tension (PLC) en Europe. L’émergence de solutions telles que le réseau par fréquences radio (FR) applicable en Europe va, cependant, sans doute conduire à un alignement des initiatives européennes et nord-américaines quant aux Smart Grid.

Des problématiques locales font certes diverger l’Angleterre de la France et l’Italie de l’Allemagne, mais ici nous nous limiterons aux standardisations communes aux pays de l’UE et sur la façon dont ces caractéristiques divergent des implémentations de Smart Grid nord-américaines. Ces divergences peuvent être résumées en trois catégories : technologiques, opérationnelles et politiques.

D’un point de vue technologique, les normes et les organismes de réglementation dont relève le Smart Grid sont différents aux États-Unis et en Europe. Les normes les plus significatives sont les suivantes :

  • Normes de comptage : En Amérique du Nord, les normes qui concernent le comptage sont gérées et légiférées par l’Institut National Américain des Standards (ANSI). Cet organisme détermine les facteurs de forme des compteurs électriques, les spécificités de métrologie et de précision du comptage, ainsi que la performance requise et les essais de sécurité des compteurs. Les normes européennes sont définies par la Commission Électrotechnique internationale (CEI) et la Directive sur les Instruments de Mesure (MID). Les différences de normes n’affectent pas l’architecture générale des Smart Grid, mais elles créent des exigences variées sur les deux produits en Europe et aux États-Unis.

  • Normes de communications : La plupart des systèmes de Smart Grid nord-américains utilisent une combinaison d’adressage de TCP/IP et des communications avec les compteurs qui utilisent les communications C12.18 et C12.22 de l’ANSI. L’équivalent européen utilise aussi la combinaison TCP/IP, ce qui crée une standardisation d’architecture solide entre les solutions nord-américaines et européennes. Les compteurs européens, cependant, ont pour particularité d’utiliser des communications IEC, qui incluent la série de normes DLMS/COSEM, si bien que certaines parties du software et les éléments de communications de bas niveau sont différents aux États-Unis et en Europe.

  • Normes sur l’émission radio : En Amérique du Nord, les réseaux sans fil entre les compteurs d’électricité l’ont très largement emporté. C’est en partie en raison des régulations flexibles autour de l’usage public, les bandes de communications radio non-autorisées étant régulées par la Commission Fédérale des Communications (FCC). Les régulations européennes sont quelque peu différentes : les communications dans la bande non-autorisée 2.4 GHz sont restreintes à un niveau d’électricité moins élevé et doivent utiliser la fréquence – ou la chaîne – en attendant que ces technologies soient déclarées valables par l’UE. Cela a retardé l’introduction de la technologie du réseau sans fil en Europe, et c’est l’une des raisons pour lesquelles le transport par lignes à haute tension et les communications cellulaires digitales y ont été plus populaires.

Sur le plan opérationnel, les usages européens se distinguent de façon très nette de leurs équivalents nord-américains. Dans bien des cas, les compteurs des sociétés européennes ne sont relevés qu’une seule fois par an, et le reste du temps par les consommateurs eux-mêmes. Ce qui fait défaut aux sociétés européennes quant à la précision des données de consommation d’énergie, est compensé par des coûts substantiellement moindres dédiés au relevé des compteurs. Lorsque de nombreux utilisateurs nord-américains considèrent le passage au relevé automatique des compteurs comme une réduction de taille dans le coût opérationnel, les européens refusent d’endosser un tel coût. De plus, l’introduction de l’air conditionné en Europe est à mille lieues d’être aussi massive qu’aux États-Unis. Cela a pour conséquence que la réduction de la consommation la plus élevée et celle des coûts de relevé de compteurs allègent considérablement les sociétés de l’UE par rapport à leurs homologues nord-américains. Les sociétés européennes ont par conséquent deux soucis opérationnels moindres, et les économies opérationnelles associées à l’implémentation d’un Smart Grid nord-américain souvent ne sont pas présentes dans l’UE.

Concernant les aspects politiques, le Smart Grid a trouvé jusqu’ici plus de soutien en Amérique du Nord qu’en Europe. Les avantages d’une politique solide en la matière ne doivent pas être sous-estimés. L’Ontario, au Canada, possède sans doute le Smart Grid le plus développé au monde avec plus d’un million de compteurs installés et lecteurs de donnés. Il ne serait pourtant pas dans une telle posture sans l’adoption en 2006 de la Loi sur la Responsabilité en matière de Conservation de l’Énergie, qui a rendu obligatoire l’installation de compteurs dans toutes les sociétés et dans tous les ménages pour 2010. Aux États-Unis, des initiatives comme la Loi sur l’Indépendance et la Sécurité Énergétiques de 2007, ont engendré des directives et des obligations quant à l’adoption du Smart Grid, que viennent désormais encore renforcer les mesures incitatives de la Loi sur la Relance et le Réinvestissement aux États-Unis. Côté politique, les États-Unis et le Canada vont continuer à développer le Smart Grid sans obligation nationale centralisée. La conséquence en est que certains états et provinces progressent plus rapidement que d’autres. L’UE, en revanche, dirige les choses de façon centralisée à travers les recommandations de la Plateforme Technologique des Smart Grid Européens pour des Réseaux Électriques d’Avenir. Elles consistent à installer des compteurs de Smart Grid dans 80 % des foyers d’ici 2020.

Chaque pays conservera son autonomie pour mettre cela en place, mais l’objectif à atteindre est clair. Le résultat, c’est que tous les pays de l’UE vont se montrer très offensifs à court terme dans le développement de programmes pilotes de Smart Grid, même si les implémentations à grande échelle ne sont pas pour tout de suite. L’Europe est en avance sur l’Amérique du Nord en matière de développement et d’utilisation de l’énergie renouvelable, et elle va en récolter tout le fruit lorsque cette énergie pourra être incorporée à de vastes réseaux de Smart Grid.

Alors que les avantages opérationnels pour les entreprises européennes ne sont pas aussi flagrants qu’en Amérique du Nord, les soucis liés au climat et à l’environnement vont néanmoins dans le sens du développement du Smart Grid européen. La technologie est le point sur lequel l’Amérique du nord et l’Europe vont commencer à converger, surtout avec des solutions par réseaux FR. Nous assistons d’ores et déjà à des développements de réseaux et Irlande et en Angleterre et considérons ces initiatives comme le début d’une standardisation technologique entre l’Amérique du Nord et l’Europe. 

R.C.

« Il faut faire des expérimentations à une échelle beaucoup plus large »

Instantanés Techniques : Parlez-nous du Fond démonstrateur de recherche piloté par l’ADEME ?

Régis Le Bars : Le Fond démonstrateur de recherche était un outil de financement de la R&D issu directement du Grenelle de l’Environnement. Il a été doté en 2008 de 325 millions d’euros, destinés à financer des démonstrateurs de recherche dans le cadre des nouvelles technologies de l’énergie. Dans le cadre de ce fonds, il y a eu deux appels à manifestations d’intérêt portant sur les smart grid. Le principe est le suivant : L’ADEME pilote une feuille de route avec des experts nationaux pour essayer de déterminer des scénarii de développement à 2050 pour le facteur 4, et à 2020 pour le 3×20, pour une thématique donnée, et identifie des besoins de démonstrateur de recherche.

Comment cela se passe, concrètement ?

Les experts identifient à partir des scénarios précédents des besoins de recherche et par delà des besoins de démonstrateurs. L’ADEME publie alors un appel à manifestation d’intérêt (AMI). Les investissements d’avenir, issus du Grand Emprunt et gérés par le CGI (Commissariat Général à l’Investissement), pour lequel l’ADEME est un opérateur, ont pris le relai du Fond démonstrateur de recherche à l’été 2010. Dans cette approche, l’ADEME est opérateur de différents programmes (véhicules, énergies décarbonées…) à hauteur de 2,8 milliards d’euros. Dans cette liste, le programme de développement de l’économie numérique recouvre un volet « réseau électrique intelligent », instruit par l’ADEME, et doté de 250 millions d’euros. Le principe reste le même, il y a des feuilles de route mises à jour régulièrement, et avec l’accord des Ministères de tutelle (Industrie, Recherche et écologie) et du CGI, l’ADEME publie des appels à manifestation d’intérêts, instruit et finance des projets.

Qui peut répondre à ces appels ?

Tous les consortium d’industriels, laboratoires publics, peuvent répondre à ces projets d’innovation. Il s’agit de mener pour chacun des activités de R & D complémentaires, pour réaliser in fine des expérimentations innovantes sur les réseaux électriques intelligents. Dans les mois prochains, l’ADEME devrait publier des nouveaux appels à manifestation d’intérêt qui porteront sur différents aspects des smart grids (intégration des énergies renouvelables intermittentes sur les réseaux électriques, et la gestion de la MDE (Maîtrise de la Demande d’Énergie) en aval du compteur électrique…

Quelles thématiques liées aux smart grids sont concernées par ces appels à manifestation d’intérêts ?

Les appels à manifestation d’intérêt touchent aussi bien le réseau de distribution, l’intégration sur le réseau des énergies renouvelables, le stockage, concentré au niveau du réseau mais qui peut être beaucoup plus diffus dans le cadre du résidentiel et du tertiaire. L’objectif final est de préparer les réseaux électriques du futur et d’imaginer des plans d’affaires pour tout ce qui est agrégation, de tester les incitations tarifaires que l’on va proposer aux consommateurs…

Avec quel objectif final ?

L’objectif est d’aboutir à des démonstrateurs à une échelle plus représentative d’un usage réel afin d’expérimenter des projets allant au-delà des modèles théoriques, ou des expérimentations réalisées à une échelle très réduite et non représentative d’un réseau électrique à l’échelle du territoire. Maintenant, il s’agit de faire des expérimentations à une échelle beaucoup plus large, pour pouvoir en tirer des conclusions pertinentes, avant de passer aux applications à grande échelle.

Quels sont les freins persistant en termes de recherche ?

Aujourd’hui, on sait intégrer localement du photovoltaïque, mais avec des taux de pénétration qui sont très faibles. Le problème vient du côté fluctuant de la production, avec des facteurs influents sur cette production qui varient selon l’énergie renouvelable concernée. Il ne s’agit pas de freins techniques à proprement parler, mais des problématiques complexes à régler entre équilibrage du réseau, maîtrise de la demande au regard de l’offre disponible, les plans d’affaires à inventer pour les différents acteurs…

Est-ce que l’utilisateur final a un rôle à jouer dans cette démarche ?

Le consommateur est au centre des réflexions, notamment au niveau tarifaire. Pourra t-on inciter les consommateurs, avec des incitations tarifaires, à surveiller sa consommation aux heures de pointe, voire à modifier son comportement pour limiter le recours aux énergies carbonées lors des périodes de pointe sur le réseau ?

Propos recueillis par Pierre Thouverez

« Le Smart Grid permettra d’offrir de nouveaux services à nos clients »

Instantanés Techniques : De quelle façon ERDF appréhende-t-elle les challenges liés à l’évolution nécessaire du réseau électrique ?

Pierre Mallet : Les smart grid sont issus de deux évolutions : il y a d’abord une attente sociétale en matière de transition vers une économie moins carbonée. Ensuite, les évolutions dans le domaine de l’informatique et des télécoms, qui peuvent transformer très profondément les métiers liés à la distribution d’électricité. Ces deux champs de force se conjuguent pour aboutir à cette évolution majeure qu’est le développement des smart grid.

Quells vont être les principales évolutions ?

Aujourd’hui, on a un système de centrales de puissance élevée qui débitent sur le réseau de RTE, qui vont ensuite alimenter les réseaux d’ERDF… À l’avenir, le système sera beaucoup plus complexe, avec une production décentralisée, une gestion de la demande, des véhicules électriques, du stockage, et donc des flux dans le système qui vont varier en fonction des décisions des acteurs de ce système.

Plus concrètement ?

Il y a plusieurs composantes dans les réseaux intelligents. Tout d’abord, la gestion intelligente des actifs : nous allons mettre des capteurs sur les composants du réseau, afin de les observer et appréhender les signes indiquant la possibilité d’une panne par exemple. Il s’agit d’une révolution en termes de proactivité, qui permettra une plus grande efficacité au niveau de la maintenance et du renouvellement du réseau et de ses composants.

Parlez-nous des réseaux auto-cicatrisants.

Il s’agit en fait d’une exploitation plus intelligente des réseaux : après un incident, les réseaux auto-cicatrisants se reconfigurent de manière automatique pour réduire au maximum la zone du réseau impactée par le défaut. Cela ne veut pas dire que le réseau ne sera pas affecté, mais il le sera dans des proportions les plus limitées possibles.

Qu’est ce que le projet LINKY ?

Le projet Linky a pour premier objectif de mettre en place un système de comptage intelligent , avec l’installation généralisée de 35 millions de compteurs communiquants, qui offrent des avantages multiples. Par exemple, cela évite de faire des relevés à domicile, qui encore aujourd’hui obligent les consommateurs à être présents chez eux deux fois par an lors des relevés. Linky permettra d’offrir de nouveaux services à nos clients, comme la facturation sur index réel et non sur consommation estimée. Ce service permet notamment au client  de mieux maîtriser sa demande car la facture reflète alors fidèlement l’évolution de ses équipements et de son comportement. Enfin, le projet va également permettre un équilibre offre/demande plus intelligent et plus local. Il y a 700 000 postes de transformation haute/basse tension en France, qui ne communiquent pas. Linky va permettre de les relier et de les faire communiquer.

Il s’agit également de moderniser le réseau.

Linky va effectivement permettre de moderniser le réseau : par exemple, les capteurs mis en place vont nous permettre de communiquer avec le réseau pour évaluer à quel niveau des investissements sont nécessaires pour améliorer son rendement global. Aujourd’hui, quand il y a une panne sur le réseau basse tension, nous ne le savons pas avant que le client nous appelle. Avec Linky, on va pouvoir être informé des pannes, de leur étendue et de leur raison, cela modernise la gestion du réseau.

Parlez-nous du projet européen d’ERDF sur les smart grid…

Le projet s’appelle « GRID 4 EU ». Il n’a pas encore été complètement validé par l’Union Européenne, mais cela est en bonne voie. Ce projet GRID 4 EU est un projet phare de l’UE en matière de smart grid. Il s’agit d’un projet qui réunit un consortium de 28 acteurs de l’énergie, dont ERDF est le leader. Six démonstrateurs doivent être réalisés, dont un en France, dans l’agglomération de Nice. Il sera centré sur des questions d’insertion du photovoltaïque dans le réseau. Bien sûr, les autres démonstrateurs vont servir à expérimenter d’autres problématiques liées aux smart grid, il n’y a pas de projets redondants, mais des préoccupations communes : production décentralisée, gestion active de la demande, véhicules électriques, stockage. Ces projets ont une durée de quatre ans à partir de la signature du contrat.

Qu’en est-il des appels à manifestation d’intérêt pilotés par l’ADEME ?

En ce qui concerne les appels à manifestation d’intérêts de l’ADEME, nous attendons les décisions des pouvoirs publics sur les projets. ERDF en a soumis trois. Nous avons été très motivés par cette démarche et nous nous sommes impliqués avec beaucoup de volontarisme. Après, comme je vous l’ai dit, nous attendons les décisions, qui devraient être connues d’ici peu.

Propos recueillis par Pierre Thouverez

Smart Grid et bâtiments intelligents, même combat !

Domotique, immotique, internet des objets… Il s’agit de mettre de l’intelligence sur le réseau électrique des bâtiments (maison, immeuble d’habitations ou de bureaux) pour faciliter et améliorer la gestion de l’énergie et des appareils électriques sur le réseau. L’application des NTIC à un bâtiment tertiaire a pour nom « la Gestion Technique des Bâtiments (GTB) ». La GTB est un système informatique généralement installé dans de grands bâtiments ou dans des installations industrielles afin de superviser l’ensemble des systèmes qui y sont installés. L’objectif est d’avoir une vue globale du bâtiment et de savoir ce qu’il s’y passe concernant notamment les états, mesures  et les alarmes. Un système GTB est constitué de plusieurs automates concentrateurs recueillant les informations des équipements ou des capteurs dans le bâtiment, d’un réseau reliant les concentrateurs au poste de gestion et d’un poste informatique de gestion équipé d’un logiciel de supervision.

Lorsque ces nouvelles technologies sont appliquées à une maison, on parle de « domotique ». En effet, la domotique est l’ensemble des techniques et technologies (physique du bâtiment, informatique et télécommunications) permettant l’automatisation et l’amélioration des tâches au sein d’une maison, d’un appartement ou d’un ensemble de bureaux. Apparue dans les années 1980, elle vise à apporter des solutions de confort, de gestion et de maîtrise de l’énergie, de sécurité et de communication. Lorsqu’elles sont appliquées à un immeuble, on parle « d’immotique ». Il s’agit donc de gérer intelligemment toutes les fonctions électriques de la maison, du chauffage à l’éclairage, en passant par les équipements électroménagers et les systèmes de surveillance. Programmation, communication et intégration sont les maîtres mots de cette gestion intelligente, grâce à l’introduction de l’informatique et des nouvelles technologies.

La maison du futur a ainsi de nombreuses fonctionnalités :

  • amélioration du confort dans la maison (chauffage, climatisation, ventilation, éclairage et volets/stores électriques : il s’agit de gérer les apports naturels en fonction de l’enveloppe thermique du bâtiment) ;

  • aide à la surveillance et sécurité dans le bâtiment ;

  • gestion de la consommation électrique et aide à la réduction de la consommation d’énergie ;

  • amélioration de l’efficacité énergétique des bâtiments.

Cependant, le concept de bâtiment intelligent ne comprend pas seulement l’automatisation des tâches. En effet, deux évolutions majeures sont apparues sur les réseaux électriques qui auront un impact considérable sur la façon de gérer l’énergie dans le bâtiment : la production décentralisée d’électricité à partir d’énergies de sources renouvelables (éolien, photovoltaïque) et l’introduction du véhicule électrique. Le bâtiment intelligent se définit donc mieux comme un bâtiment à haute efficacité énergétique, intégrant dans la gestion intelligente du bâtiment les équipements consommateurs, les équipements producteurs et les équipements de stockage de l’électricité, tels que les véhicules électriques. L’efficacité énergétique dépend également des techniques de construction du bâtiment, de l’isolation par exemple. Le concept de bâtiment intelligent correspond à l’intégration de solutions de gestion énergétique dans l’habitat et les bâtiments d’entreprise, notamment pour parvenir à des bâtiments à énergie positive.

Des innovations techniques majeures

L’avènement de la maison communicante est rendu possible grâce à des ruptures technologiques majeures, toutes issues des progrès de l’électronique, de la baisse de ses coûts, qui conduisent à sa banalisation, et des progrès dans les standards de communication, aujourd’hui poussés par Internet et longtemps obstacle majeur. Tous les objets, et en particulier les objets de la maison, capteurs… vont être dotés des capacités de communication standards permettant de les raccorder à Internet ou au réseau interne de l’habitat aussi simplement qu’on raccorde un PC aujourd’hui. La promesse n’est pas neuve, mais les signes de sa réalisation sont désormais là, c’est l’Internet des objets.

On a longtemps cru qu’Internet était trop lourd pour être appliqué avec succès sur de petits objets : ce n’est plus le cas. Des start-up comme Sensinode et Archrock (récemment racheté par Cisco) le démontrent, Cisco et Atmel ont développé et mis en open source une implémentation logicielle poids plume des différentes couches protocolaires IP. Des concepts comme PacHube ou Twitter permettent même à ces capteurs, une fois connectés, de publier leurs données sur le Web, avec la diffusion ou la restriction d’accès voulue par leur propriétaire. Cette entrée des protocoles IP, jusqu’ici réservés aux communications haut débit, dans le monde du bas débit annonce une vraie rupture, comme l’a été l’Internet « des humains » :

  • elle va faciliter l’essor des réseaux de capteurs/actionneurs/« afficheurs », de la maison ou bâtiment intelligent économe en énergie à l’usine automatisée ;

  • elle va ouvrir la maison sur les services externes, accédant parfois directement aux appareils eux-mêmes.

Une fois levés les verrous de la miniaturisation, l’union autour d’IP ouvre un potentiel énorme : réutilisation des solutions de développement, de supervision déjà existants, mutualisation des outils et des développements, baisse des coûts. Une vague qui devrait mettre fin aux divergences fratricides et s’annoncer très porteuse, à l’image d’Internet, y compris pour des produits et services d’éco-efficacité énergétique, et qu’il ne faudra pas manquer.

L’électronique ne s’invite pas seulement dans les objets du quotidien pour les faire communiquer mais aussi pour leur apporter une intelligence supplémentaire, complémentaire de la fonction de communication et de leurs fonctions de base. Il s’agit en particulier de permettre à ces appareils :

  • d’agir au mieux compte tenu des éléments de contexte qui leur sont communiqués (commandes et desiderata des utilisateurs mais aussi, notamment, prix de l’énergie, demandes d’effacement, disponibilité d’énergie produite localement, capacité à stocker/restituer l’énergie) ;

  • en tenant compte des contraintes qui leur sont propres, touchant par exemple à préserver l’efficacité de leur fonction ou à éviter leur dégradation, et donc de la marge de manœuvre dont ils disposent ;

  • et de leur permettre de rendre compte à un coordinateur.

L’Internet des objets, une vraie révolution technologique

Pendant longtemps, le schéma de fonctionnement des appareils communicants était envisagé de façon assez primaire, sur un modèle maître/esclave, induisant alors une complexité sur le nœud central, synonyme de risque accru de dysfonctionnement et aux conséquences d’autant plus critiques.
La répartition de l’intelligence permet de réduire cette criticité et rend l’ensemble du système potentiellement bien plus tolérant à la panne d’un de ses composants. Il n’élimine cependant pas la complexité mais en change la nature, en passant d’un système centralisé à un système distribué, ce qui motive nombre de travaux. Après le clavier et la souris des ordinateurs, ou la télécommande infrarouge des appareils multimédia, d’autres modes d’interaction viennent aujourd’hui les remplacer ou les compléter. L’obstacle à leur déploiement n’est désormais plus la performance de la technologie ou son coût, mais la conception d’une interaction la plus naturelle possible, dénuée d’apprentissage, et donc la mieux adoptée par l’utilisateur.

Le tactile, déjà naturel sur certains écrans de notre quotidien comme les guichets automatiques de banque ou les bornes de réservation SNCF, se démocratise. Asus vient par exemple de lancer un Netbook à écran tactile à peine plus cher que ses netbooks classiques. La voix, caricaturée par le passé, certains y croient : ainsi, Bill Gates déclarait que le tactile était la modalité d’interaction de l’avenir. L’idée maîtresse encore mal concrétisée est que l’importance que revêt ce mode de communication entre humains et la tendance à l’interaction naturelle avec les systèmes devrait réhabiliter la voix comme moyen d’interaction avec les systèmes. On notera par exemple la banalisation de la synthèse vocale qui est faite aujourd’hui dans les GPS. L’interaction par le geste a été expérimentée par le CEA -Leti et lancée avec succès par la Nintendo Wii. La Wiimote, dotée d’accéléromètres, a déjà été détournée pour de nombreuses autres applications (c’est le cas chez EDF R&D). L’étape ultérieure est la commande par le geste mais sans aucune télécommande, par un système de caméra, à l’instar du système Kinect de la Xbox 360. La 3D est aujourd’hui en phase de décollage pour le grand public. Ses déclinaisons sous forme de réalité virtuelle, de réalité augmentée, utilisées aujourd’hui dans des simulateurs perfectionnés devraient aussi avoir des déclinaisons grand public, à l’instar des applications test de guidage GPS directement sur le pare-brise.

La révolution est donc effectivement en marche.

Source : CRE

Voir le dossier complet de la CRE sur les bâtiments intelligents

Le smart grid tremplin de la voiture électrique ?

Le véhicule électrique, une idée pas si révolutionnaire

Du 19e à la fin du 20e siècle, divers modèles ont été expérimentés et ont tenté de rivaliser avec les véhicules thermiques. L’échec a été à chaque fois au rendez-vous, en raison du manque de capacité des batteries et donc de la faible autonomie de ces véhicules, comparé à celle des véhicules thermiques. Cela a prouvé que la polyvalence et l’autonomie étaient au centre des enjeux du développement des véhicules. Le développement des projets en matière de véhicule électrique peut s’expliquer tout d’abord par les objectifs environnementaux fixés dans les cadres européen et national pour lutter contre le changement climatique, visant notamment à diminuer les émissions de CO2. Par ailleurs, l’industrie automobile est en crise au plan européen et a besoin d’être rénovée. La voiture électrique apparaît alors comme un levier de relance et de modernisation. Enfin, la maturité technologique de la batterie Lithium-ion ouvre des perspectives pour le développement à grande échelle du véhicule électrique. Jusqu’à présent, le frein essentiel au développement du véhicule électrique était la batterie dont la capacité était insuffisante.

En 2020, cet engouement pour le véhicule électrique va entraîner une consommation de 4 à 5 TWh d’énergie électrique pour 2 millions de véhicules électriques, soit presque toute la production d’un réacteur nucléaire. Il est donc essentiel d’anticiper la problématique de la recharge, bien en amont du développement des véhicules électriques et hybrides rechargeables. En outre, l’une des conditions essentielles au succès du véhicule électrique réside dans le système développé pour l’infrastructure de recharge des batteries.
Enfin, l’arrivée du véhicule électrique bouleverse le panorama des constructeurs automobiles et se pose en accélérateur des réflexions relatives à l’aménagement du territoire urbain.
 

Les infrastructures de recharge : une nécessité

L’arrivée des véhicules électriques et le développement des infrastructures de recharge soulèvent de nombreuses questions quant à leur financement et la nécessité de la normalisation de la prise et des bornes de recharge. Dans la mesure où les véhicules vont devenir de plus en plus communicants, il faut aussi réfléchir aux informations qui seront transmises par le véhicule électrique au réseau électrique lors de la recharge et au choix du fournisseur pour les recharges dans les parties communes privatives et dans l’espace public. Enfin la recharge aura forcément un impact sur la courbe de charge et il est indispensable de l’anticiper pour éviter un renforcement trop important des réseaux électriques, dans un contexte où le comportement statistique du consommateur vis-à-vis de sa voiture électrique n’est pas connu.

La nécessité d’un maillage national

La recharge du véhicule électrique nécessite l’installation de bornes de recharge sur l’ensemble du territoire national, tant en domaine privé que public. Ce parc de bornes est appelé « infrastructure de recharge ». L’article 57 de la loi du 12 juillet 2010 (dite loi Grenelle II) a donné une impulsion réglementaire au déploiement de l’infrastructure de recharge du véhicule électrique : elle en impose l’équipement d’une partie des emplacements dans les parkings, de tout ensemble d’habitations ou tout bâtiment à usage tertiaire. Dans l’attente des décrets qui permettront l’application de ces dispositions à partir de 2012, l’équipement du parc dépend de l’implication des acteurs. Ainsi, pour ce qui concerne la voie publique, quatorze agglomérations sont parties prenantes d’une charte de déploiement signée en avril 2010 pour une mise en place significativement dense dès le second semestre 2011.
Les coûts de ce déploiement ont été estimés à quelques milliers d’euros par borne de recharge normale en parking public ou en voirie (3 ou 6 kW). Ils pourraient se monter à plus de 20 000 euros pour une borne de recharge rapide (22 ou 43 kW). En garage privé, le prix de l’équipement du point de charge pourrait s’élever à quelques centaines d’euros. Selon le ministère de l’Écologie, cela pourrait donc représenter un coût total de 10 milliards d’euros.
Chargés d’acheminer l’énergie jusqu’aux points de recharge, les gestionnaires de réseaux publics de distribution d’électricité seront mis à contribution à hauteur de 1 à 2 milliards d’euros, répartis de 2010 à 2025. Cette part notable des coûts globaux est due à la réglementation actuelle. En effet, les demandeurs des raccordements des points de recharge ne paient qu’une partie du coût des ouvrages de raccordement, d’une part, et ne paient pas le renforcement du réseau, d’autre part : ces coûts sont portés par le tarif d’utilisation des réseaux publics d’électricité (TURPE), payé par l’ensemble des consommateurs d’électricité.
 

La recharge : la borne et les prises

Pour la recharge des véhicules électriques, deux modes s’opposent – ou se complètent : le branchement du véhicule à une borne électrique permettant une recharge lente ou rapide et l’échange de la batterie en station-service. Ce second mode, communément appelé QuickDrop, est principalement défendu par un industriel, Better Place. Dans le contexte actuel d’intense concurrence entre les fabricants de batteries, il n’est pas retenu comme option prioritaire par les pouvoirs publics français ni par les fabricants d’automobiles. En outre, le système de QuickDrop présente un défaut majeur par son besoin important d’immobilisation de capital pour le stock de batteries dans les stations de recharge.

Pour autant, la recharge de véhicules électriques en borne fixe doit encore faire l’objet de nombreuses décisions avant de se présenter sous une forme commune. Pour des raisons de puissance de recharge et de sécurité de l’utilisateur, le système retenu ne pourra pas reposer sur une prise standard. Des options divergentes peuvent encore être retenues, comme le type d’alimentation (en courant continu ou alternatif), le niveau de sécurité vis-à-vis du risque électrique, divers aspects relatifs à la puissance de la recharge rapide ou encore … la forme des prises !
L’enjeu est de taille pour les industriels et autres équipementiers : certaines technologies existantes pourraient être employées, évitant ainsi de nouveaux coûts de développement. Une quinzaine d’acteurs majeurs – dont les Français Schneider Electric, Legrand, SagemCom, FCI, Nexans ou Maréchal – se sont fédérés au sein d’une association, EV Plug Alliance, pour peser sur les orientations des organismes normalisateurs autour de la définition de la prise située à l’extrémité amont du cordon de recharge.
Un groupe de travail franco-allemand de haut niveau a travaillé sur la normalisation de la recharge et a remis des conclusions aux gouvernements français et allemand en février 2010. Depuis le 29 juin 2010, ce sont trois organismes européens de normalisation, le CEN, le CENELEC et l’ETSI, qui préparent les normes manquantes : un mandat – qui porte le numéro M468 – leur a été donné par la Commission européenne, avec une remise du rapport prévue au premier semestre 2011.

La fourniture de l’énergie

La recharge du véhicule électrique produit un triple effet :

  • Pour un foyer moyen, un véhicule électrique qui parcourrait de 15 000 à 20 000 kilomètres par an engendrerait une consommation d’environ 2 MWh par an, soit une hausse d’environ 50 % de sa consommation d’électricité ;

  • Pour le système électrique national, il s’agit d’un surcroît de consommation d’environ 2 TWh par an et par million de véhicules (cela représente environ 1 % du total soutiré sur les seuls réseaux de distribution en basse tension (BT) en France, et environ 0,4 % de la production française d’électricité) ;

  • Pour les fournisseurs d’énergie électrique, c’est un marché supplémentaire, par transfert « de la pompe à essence à la prise ».

Les modalités de ce nouveau marché n’ont pas encore de contours précis. À ce jour, l’article 57 de la loi du 12 juillet 2010 prévoit que les opérateurs d’infrastructures publiques de recharge puissent revendre l’énergie électrique. Elle prévoit aussi que les points de recharge situés dans les copropriétés puissent venir en décompte de la consommation des parties communes. Toutefois, des études devront être menées par la CRE ou les pouvoirs publics pour intégrer ces dispositions dans les mécanismes du marché de la fourniture d’électricité. Ainsi, il sera nécessaire de s’interroger sur l’emplacement du compteur électrique (dans le véhicule ? dans la borne ? en amont de la borne ?) et sur l’opportunité de déroger aux règles de fourniture en vigueur ou de conserver un droit à choisir son fournisseur d’électricité en tout lieu. Plus particulièrement dans ce dernier cas, la livraison d’énergie au point de recharge devra faire l’objet d’échanges d’informations, tant sur le prix et la quantité d’énergie livrée que le moment et la puissance de la livraison. Certaines des modalités de ces échanges, ainsi que l’origine de l’information (le véhicule ? la borne ?) devront encore être arrêtées. Les informations concernées seront destinées aux différentes facturations des services fournis, mais aussi à un éventuel pilotage de la recharge pour mieux insérer le véhicule électrique dans le système électrique, avec les technologies de Smart Grids.
 

Le développement du marché du véhicule électrique

En quelques années, les grands groupes automobiles se sont lancés dans le développement de moteurs électrique et hybride, comme le prouve la multiplication de modèles exposés lors du Mondial de l’automobile. Une classification de ces nouvelles catégories de voitures peut être établie :

  • tout électrique : du petit modèle à l’utilitaire, en passant pas les berlines ;

  • hybrides : les moteurs électriques assistent les moteurs à essence ou diesel et réduisent leur consommation dans les systèmes « micro hybrides » (fonctionnement Stop&Start), « mild hybrides » et « full hybrides » ;

  • hybrides rechargeables : elles associent deux modes de génération d’énergie : un moteur thermique et une batterie.

Renault, Peugeot, Citroën et Toyota, ainsi que les constructeurs allemands, préparent les modalités de commercialisation des véhicules électriques dès la fin 2010 et des premiers véhicules hybrides rechargeables à partir de la fin 2012. Dans quelques semaines, la Nissan Leaf, les Renault ZE, les Ion et C-Zero de PSA, la Bluecar de Bolloré, etc. vont être commercialisées. Les volumes représenteront dans un premier temps un faible pourcentage du marché total de l’automobile : PSA Peugeot Citroën espère vendre 11 000 véhicules électriques en Europe d’ici la fin 2011 et 100 000 unités au total d’ici à 2015. Renault estime que 2 millions de voitures électriques seront commercialisés en France en 2020 et qu’elles correspondront à 10 % des ventes mondiales tandis que la Commission européenne est plus mesurée : elle prévoit 1 à 2 % des ventes en Europe en 2020.

Quel modèle économique ?

Le développement de ces véhicules a un fort impact sur le marché de l’automobile et en encourage le développement de la recherche sur l’efficacité énergétique de toutes les catégories de véhicules thermiques et hybrides. Ces nouvelles réflexions autour de la voiture électrique permettent de progresser vers une conception optimale des véhicules et influencent l’industrie automobile dans sa globalité. Des travaux de recherche sur l’allègement des véhicules, sur la manière de récupérer l’énergie au freinage ou sur la limitation de consommation des périphériques, tels que la climatisation, sont en effet menés pour que les nouvelles batteries gagnent en autonomie. Le silence de fonctionnement des moteurs est une nouveauté et requiert de diminuer les bruits générés par les pneumatiques pour, par exemple, apporter plus de confort au conducteur.
Les constructeurs automobiles pourront également ajouter de nouveaux services liés à la batterie et à la maîtrise de la charge. Les équipementiers, tels que Valeo et Michelin, développent de larges gammes de technologies innovantes et adaptées aux besoins des constructeurs, destinées à accroître l’autonomie de ces véhicules, contribuant ainsi à la réduction des émissions CO2.

Le prix sera un élément clé. Peugeot a annoncé un système de location à 499 euros par mois tout compris, bonus écologique de 5 000 euros compris, tandis que Renault cherche à présenter des prix concurrentiels grâce à des productions en grande série. Il souhaite proposer un véhicule électrique au même prix qu’un modèle diesel équivalent, tout en poussant l’utilisateur à louer la batterie pour un prix mensuel équivalent aux dépenses de carburant d’une voiture thermique.
 

La batterie, un enjeu décisif pour le développement des véhicules électriques

La batterie représente un enjeu crucial pour l’industrie automobile. Igor Czerny, directeur de la mobilité électrique d’EDF, rappelle que « la voiture électrique, c’est une batterie, encore une batterie, et surtout une batterie ». En raison de l’abondance du lithium, les batteries Lithium-ion équipent la plupart des véhicules électriques.

Depuis les véhicules électriques des années 1990 à 2000, les caractéristiques des batteries ont fortement progressé. Pour un même poids et un volume similaire, la quantité d’énergie disponible a été multipliée par deux. L’autonomie des véhicules électriques atteint actuellement les 150 kilomètres pour une charge (trois fois moins qu’un moteur thermique). Cela est suffisant pour les trajets quotidiens des Français (aux alentours des 40 kilomètres par jour en moyenne), mais pas assez pour faire de longs trajets.

La durée de vie, facteur essentiel, a elle aussi fortement progressé, les batteries permettant de parcourir jusqu’à 200 000 kilomètres et supportant plus de 1 000 cycles de charge avant d’être remplacées. Cependant, avec un prix de 12 000 euros, la batterie coûte près de la moitié de la  voiture, ce qui a pour conséquence d’afficher des tarifs exorbitants. Ce prix devrait décroître proportionnellement aux volumes produits par des usines spécialisées.
Le développement des véhicules électriques et hybride coïncide avec la généralisation de systèmes informatiques embarqués de plus en plus perfectionnés. Ceux-ci permettent un transfert d’information entre chaque composant et se retrouvent logiquement dans les nouvelles gammes électriques des constructeurs.
De plus, les technologies d’information et de la communication sont de plus en plus utilisées pour proposer des services innovants autour du véhicule. Le développement de la navigation par satellite, l’augmentation des débits des accès Internet 3G et des fréquences associées, ainsi que l’utilisation massive des Smartphones ont transformé l’automobile en un objet véritablement communicant. Appliquées aux véhicules électriques et hybrides, de nouvelles fonctionnalités ont pu voir le jour, comme la localisation des points de charge, l’indication du trafic en temps réel ou l’aide à « l’éco-conduite » pour réduire la consommation d’énergie. Par exemple, EDF, associé à Toyota pour un test en conditions réelles de Prius hybrides rechargeables à Strasbourg, a développé une application permettant aux conducteurs de rechercher les bornes de charge, de localiser celles qui sont à proximité et indique leur disponibilité.

Sources :  CRE

Voir le dossier complet de la CRE sur les véhicules électriques

Véhicules électriques : les atouts français

Un environnement favorable

La France est un lieu privilégié pour le développement du véhicule électrique puisque le gouvernement français incite au développement à grande échelle du véhicule à travers différentes mesures telles que la subvention de 5 000 euros pour l’achat d’un véhicule produisant moins de 60 grammes de CO2/km. Concrètement, en l’état actuel de l’offre automobile, seuls les véhicules électriques répondent à ce critère. Dans le cadre du plan de relance, le gouvernement incite à l’achat de 50 000 véhicules électriques à usage professionnel. De plus, le « mix énergétique » français est faiblement carboné du fait de la prédominance de l’énergie nucléaire dans la production d’électricité. Le développement des véhicules électriques en France peut donc contribuer à la réduction des émissions de CO2, compte tenu de la manière dont est produite l’électricité, à la condition que la recharge des véhicules électriques n’intervienne pas en période de pointe, au cours de laquelle il est fait appel à des centrales thermiques plus polluantes.

Le ministère du Développement durable a présenté, le 1er octobre 2009, le plan du Gouvernement pour le développement des véhicules électriques et hybrides rechargeables. L’objectif est de mettre en circulation 2 millions de véhicules de ce type et 4,4 millions de points de charge d’ici à 2020 en France. A horizon 2025, ce sont 4,5 millions de véhicules et 9,9 millions de véhicules qui sont prévus. Il est nécessaire de déployer les premières infrastructures de charge afin de faciliter les recharges des premiers véhicules électriques mis en circulation. En complément à la recharge privée, un réseau de 60 000 à 75 000 points de recharge accessibles au public sera développé d’ici à 2015, porté à quatre millions de points de recharge privée et 400 000 points de recharge publique en 2020. Ces infrastructures de recharge coûteraient 10 milliards d’euros, dont 1,5 milliards de renforcement des réseaux électriques à la charge des gestionnaires de réseaux.

200 millions d’euros sont  consacrés au véhicule décarboné dans le cadre du Programme de recherche et d’innovation dans les transports terrestres 4 (le PREDIT s’étend de 2008 à 2012 et vise à la fois le développement de technologies, de services, et des connaissances et outils pour les politiques publiques), 80 millions d’euros ont déjà été engagés pour le véhicule électrique dans le cadre du fonds démonstrateur de l’ADEME et 750 millions d’euros ont été prévus dans le Grand emprunt pour poursuivre le développement des véhicules décarbonés. Au-delà du soutien à la recherche et au développement, l’Etat favorise le développement industriel de la filière des véhicules décarbonés, dont les batteries. Aussi, e Gouvernement pilote différentes actions visant à favoriser, en matière de production et d’utilisation des batteries, l’écoconception, le tri et la valorisation des déchets, la dépollution et le recyclage. Une usine de batteries sera créée par Renault à Flins, en partie financée par l’Etat.
Quatorze agglomérations pilotes se sont déjà engagées à déployer des infrastructures de recharge dès 2010 : Bordeaux, Grenoble, Rennes, Nice, Angoulême, Aix-en-Provence, Orléans, Paris, Rouen, Strasbourg, Le Havre, La Rochelle, Le Grand Nancy et Monaco.

Une nouvelle idée de la ville ?

Projet de ville intelligente (Nissan), le véhicule électrique semble promis à un brillant avenir. Même si l’autonomie des véhicules, de l’ordre de 150 kilomètres, a fortement progressé du fait des progrès technologiques de la batterie, elle demeure encore limitée. Le véhicule électrique va donc naturellement trouver des débouchés auprès d’utilisateurs qui réalisent des trajets courts, dans un périmètre restreint équipé d’une borne de recharge. Star du mondial de l’automobile 2010, le véhicule électrique a en effet trouvé son public essentiellement auprès d’entreprises qui souhaitent remplacer ou constituer une flotte de véhicules à usage professionnel.
La ville est, tout au moins dans un premier temps, la terre d’élection pour ce véhicule et ce nouveau type de mobilité.

Ce nouveau mode de déplacement ne semble pas uniquement devoir remplacer les véhicules thermiques, mais constitue l’objet technique à partir duquel une nouvelle mobilité en rupture avec le modèle de la voiture particulière thermique pourrait émerger. Dans un contexte de congestion croissante des villes qui engendre des difficultés à circuler et à stationner et compte tenu de l’augmentation de la pollution, se développent les concepts de multimodalité et d’autopartage. La multimodalité consiste à proposer, à côté des transports en commun, un nouveau mode de déplacement fondé sur l’utilisation de véhicules en libre-service. L’autopartage, dont le principe est d’emprunter une voiture pour une courte durée après réservation par Internet ou serveur vocal, se développe dans toute la France. L’un des projets d’autopartage les plus emblématiques est Autolib. Le projet Autolib prévoit de mettre à disposition 3 000 véhicules électriques dans 1 000 stations dont 700 à Paris à partir de l’automne 2011. Ce mode de transport, qui évite les contraintes et les coûts liés à la détention en propre d’un véhicule, a d’autant plus d’avenir que les véhicules électriques sont pour le moment peu plébiscités par les particuliers, compte tenu de l’autonomie limitée, du faible nombre de bornes de recharge disponibles et du coût important d’achat du véhicule. Ce mode de transport à partir d’un véhicule non privatif faisant partie d’un parc détenu et gérer par une collectivité publique, mais dont l’usage est individuel, est tout à fait innovant et témoigne du fait que le véhicule électrique est un objet à la limite du domaine public et du domaine privé.

La voiture électrique, qui devient un élément du mobilier urbain, est un défi en termes d’aménagement du territoire. En effet, le développement des véhicules électriques dans les villes nécessite la construction d’infrastructures de recharge. Les véhicules et de leurs bornes de recharge vont constituer un nouveau réseau qu’il faut parvenir à intégrer dans la ville où se superposent et s’entrecroisent déjà un certain nombre de réseaux (routiers, ferrés, etc.). Pour concevoir ce réseau, il va falloir anticiper les usages pour installer les bornes de recharge aux endroits adéquats et renforcer les réseaux en conséquence, pour créer des places de parking qui permettent la recharge des véhicules, pour mettre en place des systèmes incitant au développement de l’usage de ces véhicules (exemple : parking gratuit…). Les collectivités territoriales ont un rôle important à jouer pour accompagner le développement d’une nouvelle mobilité décarbonée qui découlera du déploiement du véhicule électrique et qui pourra conduire à la constitution de « villes durables », pensées pour lutter contre le réchauffement climatique.

Le compétition avec les moteurs thermiques

A l’heure actuelle, le véhicule thermique est très largement représenté et son moteur peut encore s’améliorer. Les efforts réalisés par les constructeurs permettent en effet d’avoir des moteurs moins polluants mais toujours plus performants :

  • en économisant le carburant : stopper automatiquement le moteur lors de l’arrêt au feu rouge, récupérer l’énergie cinétique  au freinage… ;

  • en généralisant l’installation de filtres à particules sur tous les véhicules légers neufs à partir de 2011 ;

  • en utilisant des énergies plus propres : carburants moins polluants, biocarburants, GPL… ;

Ces améliorations de l’efficacité énergétique des moteurs thermiques peuvent faire concurrence au développement des véhicules électriques et la mutation vers l’électricité va ainsi se faire très progressivement. De plus, les véhicules hybrides rechargeables rivaliseront avec les véhicules électriques puisqu’ils sont libérés des contraintes liées à l’autonomie et à la recharge.

Bien que l’utilisation de  l’énergie électrique soit plus propre que celle de l’essence, les systèmes d’exploitation pour fournir de l’électricité ne sont pas encore tous sans émettre de CO2. L’équation entre l’émergence des véhicules électriques, facteur de l’efficacité énergétique, et l’intégration des énergies de sources renouvelables est encore à résoudre, afin d’éviter d’utiliser les centrales thermiques pour compenser les pics de consommation engendrés par un rechargement simultané des véhicules électriques. Pour que le véhicule électrique soit une réussite, il est nécessaire que le consommateur s’approprie cette nouvelle manière de consommer le véhicule. Selon Schneider Electric, recharger le véhicule n’est qu’une question d’habitude à prendre « ce n’est pas un comportement, mais des comportements qui sont à inventer par le consommateur ». Par son implication et sa demande, le consommateur créera la dynamique et l’offre en matière de bornes électriques. Enfin, rendre le réseau intelligent et communicant, en développant les Smart grids, est l’ambition de toutes les entreprises concernées par la voiture électrique, comme les fournisseurs d’électricité, les concepteurs des bornes électriques et les constructeurs automobiles.

Sources :  CRE

Voir le dossier complet de la CRE sur les véhicules électriques

Réseaux de distribution d’électricité

Depuis 1999, date de la première ouverture partielle du marché de l’électricité en France, et depuis le 10 février 2000, date de parution de la première loi organisant le marché de l’électricité, dite loi relative à la modernisation et au développement du service public de l’électricité (loi 2000-108), les notions de distributeur, de fournisseur d’énergie, de gestionnaire de réseau se sont largement clarifiées, stabilisées et il est aujourd’hui intéressant de détailler le puzzle que constitue ce marché ouvert. Ce dossier propose un zoom sur les réseaux de distribution et le gestionnaire de réseau de distribution, le second thème apportant la dynamique du fonctionnement au premier thème plus descriptif et statique.

Les réseaux de distribution sont essentiellement définis par deux éléments : leurs limites amont et aval et leur consistance.

Les missions du gestionnaire de réseau définissent la façon dont le réseau va vivre et s’articuler avec le monde qui l’environne.

L’exercice de ces missions suppose des moyens techniques spécifiques qui sont présentés.

Contrairement à la période 1946-2000, où les textes législatifs traitant de la distribution de l’électricité étaient peu nombreux, la période écoulée depuis 2000 a vu successivement cinq lois votées, accompagnées de leurs décrets d’application.

Au-delà des questions d’organisation du marché de l’électricité, la période actuelle est marquée par de profonds changements :

  • les orientations données en matière de politique énergétique (directive européenne 2001/77/CE : objectif 22,1 % d’électricité produite à partir de sources d’énergies renouvelables) induisent une croissance de la production d’électricité à partir de sources renouvelables, via des installations généralement raccordées sur les réseaux de distribution (éolien, photovoltaïque). Le raccordement de ces dernières fait l’objet des dossiers [D 4 241] et [D 4 242] ;
  • les attentes sociétales en matière d’environnement croissent et impactent le développement de réseau (problématique de l’enfouissement, cf. dossier [D 4 225]) et la conception des matériels ;
  • la sûreté d’alimentation devient un sujet de préoccupation européen notamment depuis l’incident européen de novembre 2006 et la contribution des réseaux de distribution à la sûreté générale du système est bien identifiée ;
  • les tempêtes subies dans la dernière décennie ont mis en exergue la fragilité des infrastructures face aux aléas climatiques et ont poussé le pouvoir politique à promouvoir les investissements en vue de renforcer mécaniquement les réseaux (cf. dossier [D 4 210]) ;
  • les évolutions techniques sont marquées par l’emprise croissante de l’informatique et des automatismes en appui aux équipements électrotechniques traditionnels : le réseau devient intelligent.

Lire la suite

Electricité dans le bâtiment – Mise en œuvre

Dans le dossier [C 3 750v2] nous avons plus particulièrement étudié les différentes applications de l’énergie électrique dans les bâtiments.

Ici sont abordés les aspects liés à la mise en œuvre :

  • les principes de distribution et de protection des personnes et des biens ;
  • les différents schémas de liaison à la terre du neutre ;
  • le choix des canalisations ;
  • l’évaluation des besoins en énergie électrique ; 
  • la qualité de l’énergie.

Ce dossier traite aussi des règles particulières pour les locaux d’habitation et les établissements recevant du public.

La distribution de l’énergie par le réseau de distribution public y est abordée, tant pour le dimensionnement des ouvrages électriques, que pour le dimensionnement du génie civil, les règles détaillées sont dans le dossier [D 5 049].

La communication dans les locaux d’habitation y est abordée pour le dimensionnement des gaines et locaux opérateurs. Ces sujets sont traités plus complètement dans les dossiers [D 5 041] à [D 5 048].

Lire la suite

Consommation d’énergie, ressources énergétiques et place de l’électricité

Les activités énergétiques de l’humanité ont atteint un niveau tel qu’elles perturbent significativement l’environnement et rendent nécessaire de reconsidérer nos ressources, notamment en faisant apparaître la part des renouvelables qui, par nature, nous permettent de mieux envisager un réel développement durable. Ce dossier nous amène à constater que les ressources renouvelables (provenant du soleil, du noyau terrestre et des phénomènes de marées) constituent un gisement extrêmement abondant ; par exemple, l’ensemble de nos consommations primaires représente environ une heure de rayonnement solaire capté par l’ensemble de la planète. Une partie très largement suffisante pour satisfaire les besoins de l’ensemble de l’humanité est aisément accessible avec des perspectives de durabilité sans commune mesure avec nos ressources actuelles (qui sont à plus de 80 % d’origine non renouvelable). Cependant, les ressources renouvelables ont deux spécificités qui perturbent nos habitudes :

  • d’une part, elles sont peu concentrées (ou encore dispersées) et nécessitent généralement des infrastructures de conversion à plus petite échelle ;
  • d’autre part, la majeure partie de ces ressources est fluctuante, ce qui requiert des changements importants notamment dans les systèmes de conversion qui doivent alors intégrer du stockage, mais également dans la façon de consommer.

Après une brève présentation des enjeux et des ressources énergétiques ainsi qu’une analyse de la consommation mondiale et française, la place de l’énergie électrique est tout particulièrement examinée tant en ce qui concerne ses modes de production que sa consommation, mais également eu égard à ses émissions de gaz à effet de serre. Enfin, un bilan comparatif des moyens de production d’électricité par les ressources renouvelables est établi, avec quelques données économiques.

Lire la suite

Smart Grid et vie privée font-ils bon ménage ?

http://www.bulletins-electroniques.com/actualites/61295.htm

Dans le cadre des investissements du « stimulus » (loi ARRA) destiné à revitaliser l’économie états-unienne, une somme de 3,4 milliards de dollars a été dédiée le mois dernier à l’accélération de la transformation du réseau de distribution d’électricité du pays en « smart grid », réseau intelligent capable de transmettre des flux d’informations bidirectionnels entre distributeurs et consommateurs d’électricité. Mais les citoyens des Etats-Unis vont-t-ils accorder leur confiance à cette « smart grid » pour la gestion de leurs données ? La réponse dépendra de leurs premières impressions concernant le niveau de sécurité et le respect de la vie privée qui seront offerts par les compagnies électriques.

L’inquiétude des experts

La question agite les consommateurs autant que les experts, inquiets des implications, en termes de sécurité, de la connexion de pratiquement tous les éléments du réseau de distribution d’électricité à l’Internet. Les défenseurs des principes de vie privée craignent en effet que les efforts déployés pour la transition vers la « smart grid » ne déclenchent de nouvelles préoccupations, alors que les infrastructures recueilleront de plus en plus de données granulaires sur les consommateurs.  » La modernisation du réseau va augmenter le volume d’informations personnelles disponibles et favoriser la récupération, l’utilisation et la mise à disposition de celles-ci,  » averti le rapport [1] dévoilé mardi par le Commissaire pour l’information la vie privée de l’Ontario et par le Future of Privacy Forum (FPF), un think tank réunissant chercheurs, responsables et avocats spécialistes des problèmes de vie privée.

Une étude [2] du National Institute of Standards and Technology (NIST) répercute les mêmes inquiétudes et averti que  » les ressources énergétiques distribuées et les « smarts meters » (compteurs intelligents) révèleront des informations sur les consommateurs et leurs habitudes « .

Une maison transparente

Les technologies de la « smart grid », et notamment l’intégration de « smart meters » dans les entreprises et foyers, sont conçues pour apporter aux consommateurs des indications précises sur leurs niveaux et habitudes de consommation. La connexion de ces appareils et des informations qu’ils contiennent sur le réseau soulève cependant un certain nombre de questions sur la façon dont les compagnies électriques et leurs partenaires pourront exploiter, partager et utiliser d’aussi riches données.

Au lieu de mesurer la consommation électrique à la fin de chaque période de facturation, les « smart meters » fournissent l’information à des intervalles bien plus courts. Si les mesures ne sont pas enregistrées toutes les minutes, ni appareil par appareil, elles permettent cependant de déterminer le nombre approximatif d’occupants, s’ils sont présents, s’ils sont éveillés ou endormis, si la maison dispose d’une alarme et avec quelle fréquence elle est activée, ou encore la fréquence des douches et des machines à laver le linge. Ces nouvelles possibilités annoncent pour certains la fin du « sanctuaire de la maison » où les détails intimes de la vie quotidienne ne devraient pas être dévoilés.

D’autres risques concernant la vie privée pourraient résulter de la combinaison d’information d’utilisateurs distincts du réseau. Un véhicule électrique rechargé dans une autre maison (amant ou ami) pourrait, par exemple, révéler des détails personnels inopportuns vis-à-vis du conjoint trompé ou de cambrioleurs.

Assurer les conditions du respect de la vie privée

A terme, les compagnies électriques pourraient devenir aussi omniscientes que les fournisseurs d’accès à Internet, voire les remplacer en proposant des offres combinées électricité et Internet. Elles pourraient déterminer les rythmes de vie, l’empreinte carbone, les habitudes de consommation et le niveau de vie relatif de leurs clients et bon nombre d’acteurs pourraient venir se présenter à leurs portes pour acheter ces précieuses données.

Jules Polonetsky, co-président du FPF, affirme que jusqu’à présent les opérateurs électriques se plient aux règles existantes empêchant le partage de données de clients sans leur consentement établies en 2000 par la National Association of Regulatory Utility Commissioner (NARUC). Ces opérateurs n’ont pas encore les infrastructures des grandes compagnies spécialistes du marketing, pour gérer les vagues croissantes de données qui s’apprêtent à déferler. La NARUC prévoit d’améliorer son dispositif cette semaine lors de sa réunion annuelle à Chicago où les membres voteront pour de nouvelles résolutions en matière de vie privée au sein de la « smart grid » [3]. Ces résolutions devraient notamment inclure la minimisation des données personnelles collectées par la « smart grid ».

Les principes établis par le programme de certification « Safe Harbor » [4], harmonisant les pratiques de protection des données personnelles entre les Etats-Unis et l’Union Européenne, pourraient par ailleurs être adoptés par les compagnies américaines désirant s’ouvrir au marché européen. Critiqué [5] pour ses processus de certification et d’évaluation, le programme « Safe Harbor » offre néanmoins sept principes permettant de garantir le respect de la vie privée : avertissement, choix, accès, intégrité des données, sécurité, transfert, maintien de l’ordre.

Le panel d’experts du NIST chargé d’examiner les aspects de cybersécurité de la « smart grid » a distingué de son côté  » un manque de politiques formelles, de standards et de procédures permettant d’assurer la protection des informations personnelles collectées par les différentes entités du réseau  » et préconise la définition claire et complète de la notion d’informations personnelles par les compagnies électriques.

Attendue depuis un demi-siècle, la mise à jour du réseau de distribution d’électricité ne sera suivie massivement par les consommateurs que lorsque les mesures de protection de la vie privée seront intégrées dans le réseau et auront su lever les inquiétudes du public.

 

En savoir plus :

[1] http://redirectix.bulletins-electroniques.com/EzGvC
[2] http://redirectix.bulletins-electroniques.com/iLjTr
[3] http://annual.narucmeetings.org/09_1106_Proposed_Resolutions.pdf
[4] http://www.export.gov/safeharbor/eg_main_018236.asp
[5] http://redirectix.bulletins-electroniques.com/QRV7Y

Sources :

Experts : Smart grid poses privacy risks, 18 Novembre 2009
Are Smart Grids Undermining User Privacy?, 18 Novembre 2009
Opinion: Will the smart grid protect consumer privacy ? 17 Novembre 2009

Rédacteur : Franz Delpont, [email protected]

Origine : BE Etats-Unis numéro 185 (20/11/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/61295.htm

 

Les news Environnement / Sécurité / Energie de février

ASTRID, vers le nucléaire français « durable » ?

En novembre dernier, AREVA et le CEA ont signé un accord de collaboration relatif aux premières études de conception du projet de prototype de réacteur nucléaire de 4ème génération ASTRID (Advanced SodiumTechnological Reactor for Industrial Demonstration). Dès 2017, le gouvernement français pourra ainsi prendre les décisions concernant la construction de ce réacteur à neutrons rapides (RNR) refroidi au sodium, à vocation de démonstration technologique et industrielle. Un tel démonstrateur est en effet nécessaire pour tester, avant l’étape d’une tête de série commerciale, les innovations par rapport aux réacteurs à neutrons rapides antérieurs. Il est important de rappeler que ce type de réacteur permet d’améliorer très fortement la valorisation énergétique de l’uranium naturel appauvri ou de retraitement, autorise la consommation et le recyclage multiple du plutonium et a la capacité, si ce choix en est fait, de recycler aussi des actinides mineurs. Plusieurs de ces RNR sont déjà en cours de construction ou à l’état de projet en Inde, en Russie, en Chine et au Japon. L’énergie nucléaire assure aujourd’hui 16 % de la production mondiale d’électricité, avec plus de 400 réacteurs en fonctionnement. L’Agence Internationale de l’Energie Atomique (AIEA) prévoit d’ici à 2030 une augmentation de 20 à 80 % de la puissance nucléaire installée dans le monde. 45 réacteurs électronucléaires sont actuellement en construction dans le monde et environ 130 autres sont prévus, principalement en Chine, en Inde, au Japon, aux Etats-Unis et dans la Fédération de Russie. Ajoutons à cela tout un ensemble de pays, notamment au Moyen Orient et en Asie, qui, s’ils ne comptent pas encore de réacteurs de puissance dans leur parc électrique, ont décidé d’opter pour le nucléaire.

Dans ce contexte, se pose alors la question de savoir si le nucléaire est en mesure de satisfaire sur le long terme une demande d’énergie qui ne cesse et ne cessera d’augmenter aux cours des prochaines décennies. D’où la nécessité d’inscrire le nucléaire dans une perspective de développement durable, c’est-à-dire qui soit capable de préserver les ressources en uranium qui ne sont pas inépuisables à long terme. C’est tout l’enjeu de la 4ème génération qui vise à exploiter l’ensemble du minerai d’uranium, à multirecycler le plutonium et à transformer en combustible une partie des déchets radioactifs en assurant un fonctionnement qui réponde aux critères de sûreté les plus exigeants. D’où la création du Forum Génération IV dont la mission est de catalyser tous les efforts de R&D menés dans le monde autour d’un nucléaire durable. Consciente de ces enjeux, la France a donc décidé de faire porter ces efforts sur deux des six filières retenues par le Forum Génération IV. Elle s’est également engagée à construire à l’horizon 2020 un prototype de réacteur à neutrons rapides. C’est donc dans ce cadre, et après une première phase de R&D, qu’a été lancée courant 2010 une phase technique, avec les 650 millions d’euros alloués au CEA, via l’Emprunt National, pour la réalisation d’ASTRID. Parallèlement au développement de ce démonstrateur, la France travaille aussi sur la filière des RNR refroidis au gaz, ceci dans le cadre d’une collaboration européenne qui devrait déboucher sur la construction, hors des frontières de l’Hexagone, d’un réacteur expérimental de petite taille, ALLEGRO. A l’horizon 2012-2013, le CEA devrait donc disposer d’une « image technique » du réacteur souhaité avec des options fermées et des options ouvertes, d’un chiffrage de ces différentes options, avec certaines incertitudes ce qui est normal dans le cadre d’une phase amont d’avant projet sommaire, enfin d’un planning de développement ultérieur avec les coûts associés. « Nous verrons alors si 2020 est une date légitimement envisageable », indique-t-on à la direction de l’énergie nucléaire du CEA.

La France fait un pas vers la recharge intelligente des batteries

Premier producteur français d’énergie 100 % renouvelable et experte en gestion des énergies dites « aléatoires » (hydroélectricité, éolien, photovoltaïque) la Compagnie Nationale du Rhône (CNR), filiale du groupe GDF Suez a présenté en décembre dernier « Move In Pure ». Ce concept qu’elle a imaginé présente la particularité d’utiliser la partie aléatoire de sa production exclusivement renouvelable pour la stocker dans les batteries des véhicules électriques à travers un système embarqué, pilotable à distance. La recharge des batteries devient ainsi une recharge intelligente. Le fonctionnement de celle-ci s’effectue grâce à un boîtier installé dans la voiture et commandé par un smart phone. Ainsi le conducteur peut communiquer ses besoins de charge à la CNR, ce qui lui apporte une totale liberté quant aux choix du moment et du lieu de charge. Via son smart phone, il peut également consulter l’historique de ses consommations au travers d’une interface spécifique. Précisons par ailleurs que si les productions éoliennes et photovoltaïques ne sont pas suffisantes, les centrales hydroélectriques de la CNR assurent, quelles que soient les conditions météorologiques, l’énergie nécessaire à la recharge des batteries. Au-delà des avantages qu’elle apporte en termes d’utilisation aux conducteurs de véhicule électriques, cette innovation, en faisant correspondre les moments de charge avec les surplus de production de la CNR permet à cette dernière d’optimiser une part aléatoire de sa production tout en permettant au consommateur de bénéficier d’un tarif préférentiel. Si son développement est envisagé dans un premier temps au travers d’un partenariat avec les collectivités locales ou des industriels gérant des flottes de véhicules électriques, cette innovation pourrait ensuite être proposé directement lors de la vente ou de la location des véhicules, y compris aux particuliers.

Autolib’ : c’est pour bientôt

Dès octobre prochain, Paris proposera des voitures électriques en libre service. Décision a été prise en décembre dernier, suite à l’appel d’offres qui avait été lancée par le Syndicat mixte de la ville de Paris, de confier cette délégation de service public, pour une durée de 12 ans, au groupe Bolloré et à sa petite « Bluecar », sa proposition s’étant révélée « être la plus solide et celle présentant les meilleures garanties pour la partie publique », a souligné le Syndicat mixte. Une cinquantaine de communes de la région Ile-de-France ont d’ores et déjà répondu favorablement concernant leur participation à ce projet ambitieux qui devrait permettre à terme l’installation d’environ 1 000 stations et la mise à disposition de 3 000 véhicules à la fin 2011 dans Paris et sa région. Depuis juillet 2010, trois candidats restaient dans la course : Bolloré, le consortium Avis-RATP développpement-SNCF-Vinci Park et le groupement VTLIB’ (Véolia Transport Urbain). Mais c’est finalement le groupe Bolloré qui l’a emporté, celui-ci s’étant distingué notamment « par une offre de services dans sa globalité la plus intéressante », a-t-on souligné du côté du Syndicat mixte Autolib’. Dès octobre prochain, Paris et sa région, du moins un certain nombre de communes, proposeront donc des voitures électriques en libre service. En tout, ce sont 3 000 véhicules à quatre places qui seront mis à disposition du public, ce qui, à cette échelle, en fait « une première mondiale » selon la mairie de Paris. Fabriquées en Italie, à Turin, ces voitures seront équipées de batteries au lithium métal polymère dont le temps de recharge est de 4 heures. Celles-ci seront fabriquées en Bretagne, au sein d’une usine du groupe Bolloré. Chacun de ces véhicules disposera ainsi d’une capacité de 30 kWh qui lui permettra de parcourir environ 250 km en cycle urbain. Ces véhicules, qui seront tous équipé d’un autoradio, d’un port USB et d’une prise jack afin de pouvoir y brancher toutes sortes de lecteurs multimédias, et dont la planche de bord sera dotée d’un écran permettant notamment le guidage GPS, seront accessibles via des stations où cohabiteront trois types de mobiliers urbains : des bornes de recharge, des bornes principales comparables à celles du service Vélib’, grâce auxquelles chaque usager pourra s’identifier et effectuer sa réservation, enfin des « Espaces Autolib’ », au nombre de 75, qui permettront de recevoir les utilisateurs d’Autolib’ à Paris et dans les communes adhérentes de ce service. Parallèlement, 250 bornes de recharges destinées aux véhicules particuliers seront installées, bornes auxquelles le public pourra accéder moyennant un abonnement de 15 euros par mois pour les voitures ou de 15 euros par an pour les véhicules deux-roues. Précisons que le stationnement y sera limité à deux heures, durée au-delà de laquelle chaque utilisateur devra payer un supplément de 6 euros par demi-heure. Moins de dix minutes suffiront pour s’abonner à Autolib’, en station, dans l’un des « Espaces Autolib' », et obtenir une carte dédiée nominative. Par la suite, il lui suffira de se rendre à la station Autolib’ la plus proche, de s’identifier sur la borne principale et de valider le choix du véhicule proposé. La borne lui délivrera alors un reçu et il n’aura plus qu’à débrancher le câble du véhicule, un câble qui s’enroule automatiquement dans la borne, monter à bord du véhicule, puis composer son code secret sur l’écran tactile de la planche de bord avant de pouvoir circuler librement dans Paris et sur l’ensemble du réseau routier francilien. Montant d’un abonnement mensuel : 12 euros + 5 euros en moyenne par demi-heure d’utilisation. Rendez-vous donc début octobre 2011 pour profiter de ce nouveau service de voitures électriques en libre service dans Paris et sa région.

ZOOM sur les Etats-Unis

1, 2, 3, soleil

Les Etats-Unis sont engagés dans une bataille : celle des technologies propres. Et le vocabulaire utilisé récemment par le secrétaire général du Département de l’Energie (DoE), Steven Chu, n’était pas sans rappeler certaines heures de la guerre froide : il parlait de « Moment Sputnik » en Novembre dernier, faisant référence à la prise de conscience par les USA des capacités technologiques de l’Union Soviétique pour les vols spatiaux habités. Cette prise de conscience avait mené à la course à la Lune, ou « Moon Shot ». C’est donc naturellement que Steven Chu annonçait la semaine passée le nouveau programme Américain « SunShot » dont les ambitions sont d’atteindre le prix mythique de 1 dollar le Watt de photovoltaïque installé en 2017. C’est à ce prix que l’industrie du solaire Américain pourrait gagner son bras de fer face à l’Asie et à la Chine plus particulièrement. C’est lors d’un atelier de travail organisé l’été dernier par le DoE que le programme a été défini. C’était un gigantesque brainstorming où étaient invités une soixantaine de chercheurs, d’industriels, d’entrepreneurs et d’investisseurs du secteur photovoltaïque (PV) ou de domaines adjacents. L’objectif étant de repositionner les Etats-Unis en situation de dominance du marché PV mondial alors que la part de marché actuelle est de 6%. Pour cela, il faut réduire de 75 % le coût du PV installé, qui comprend le coût du module, de l’électronique de puissance et de tout le reste y compris l’installation. On peut voir sur la Figure ci-dessous une décomposition du coût du PV installé suivant 3 scénarios :

  • colonne 1 : le coût actuel ;

  • colonne 2 : le coût en 2016 sans l’initiative SunShot ;

  • colonne 3 : le coût avec le programme 1 dollar/W.

Les objectifs sont les suivants pour 2017 :

  • Etre capable de produire les composants majeurs et les méthodes d’installation de systèmes de 5MW au minimum au coût d’$1/watt, ce qui équivaut à un prix moyen pondéré de l’électricité de 6 cents/kWh ;

  • Le coût doit inclure tous les équipements et installations nécessaires pour que l’électricité produite soit injectée sur le réseau ;

  • Utiliser des matériaux abondants ;

  • Fabriquer des composants recyclables ;

  • Etre compatible avec les standards de sécurité et environnementaux.

Encore une fois c’est un professeur de UC Berkeley qui se trouve nommé à un poste de responsabilité dans le domaine de l’énergie au niveau fédéral et qui vient grossir les rangs des représentants de la Baie de San Francisco à Washington. C’est le Professeur Ramamoorthy Ramesh qui vient de prendre pour au moins 2 ans la tête de l’équipe de 12 personnes qui gère l’initiative SunShot au sein de la division Energy Efficiency and Renewable Energy (EERE) du DoE. Techniquement en congé de son poste de directeur d’une équipe de recherche à Berkeley, ce spécialiste des couches minces et des nanostructures continue néanmoins à travailler à distance avec ses 25 étudiants et chercheurs le soir et le week-end, en s’appuyant sur l’aide des plus expérimentés. Cette hyper-activité ne l’a pas empêché de se prêter de bonne grâce au jeu de l’interview.

Il est intéressant de noter qu’il a travaillé par le passé à Bell Labs sous la responsabilité de Jean-Marie Tarascon, spécialiste mondial de nanochimie et de stockage énergétique, aujourd’hui Professeur à l’université de Picardie, membre de l’académie des sciences et professeur au collège de France.

Un programme ambitieux

Le budget de ce programme n’est pas finalisé, mais il le sera sous peu. Il s’agit de rediriger une grande partie du budget solaire du DoE sur ce programme. En 2010 cela représentait 200 dollars millions, dont la majeure partie allait aux laboratoires NREL, Sandia National Lab, ainsi que quelques universités et entreprises. Tout d’abord il s’agit de caractériser les différents domaines technologiques sur lesquels des avancées notables doivent être faites :

  • les modules ;

  • l’électronique de puissance ;

  • l’installation.

Ensuite dans chacune de ces catégories il faut financer des travaux de R&D ambitieux par des acteurs privés ou publics, sur le modèle de ce que fait ARPA-E. Puis lorsque les technologies sont matures – un délais de 3 ans est prévu pour les développements technologiques – il s’agira d’intégrer verticalement les acteurs travaillant sur des segments différents dans des équipes transversales Modules/Electronique/Installation en compétition entre elles pour créer des champions du PV capables de fournir une technologie complète à 1dollar/W installé au bout de 3 ans supplémentaires. Les premiers investissements annoncés ne concernent que le manufacturing. Mais il s’agit simplement d’une communication maladroite : les 27 millions de dollars annoncés sont en réalité le premier échelon d’un plan d’investissement qui en comportera huit ou neuf. Par ailleurs les projets, illustrés sur la carte, étaient sur le point d’être annoncés. Il s’agit de 20 millions de dollars consacrés à des startups travaillant sur des procédés de fabrication de cellules PV ainsi que de 7 millions de dollars pour soutenir des startups dans le cadre du PV Technology Incubator du NREL. Il faut s’attendre donc à voir un certain nombre de nouveaux financements se faire sur les autres catégories telles que l’électronique de puissance et l’installation dans les mois qui viennent. Par ailleurs il est intéressant de noter qu’un certain nombre de lauréats de bourses ARPA-E ont su attirer des capitaux privés. Le DoE mise sur le même mécanisme pour faire en sorte que les startups financées au départ sur les deniers de l’état finissent pas trouver grâce aux yeux des investisseurs privés.

Comment le DoE va-t-il en pratique mettre en place l’intégration verticale après les deux premières années de recherche des acteurs travaillant sur des sujets différents ? Il ne s’agit en aucun cas de désigner des groupes devant travailler ensemble. Une série d’ateliers de travail sera organisée, au cours de laquelle on assistera à l’émergence spontanée d’équipes désireuses de se rapprocher. Cela pourra amener à la création de nouvelles architectures, de nouvelles façons de procéder. Selon Pr Ramesh il faut s’attendre à voir cela arriver dans les dernières années du programme. Ce serait donc une sorte de gigantesque brainstorming sur plusieurs années.

Il est surprenant de voir que dans la liste des lauréats du PV Technology Incubator du NREL se trouve l’entreprise Solexant qui va développer des cellules couches minces à base de tellure de cadmium. Pourtant le tellure est un composé peu abondant, et le cadmium assez toxique. Selon le chef de l’initiative SunShot, cela n’est pas incompatible avec les objectifs. En effet les recherches doivent être d’abord poursuivies dans toutes les directions technologiques : Silicium, cellules multi-junction (III-V) à base d’arsenure de gallium, CIGS et CdTe. Le fait de vouloir utiliser des matériaux abondants est important, mais il ne sera pas réalisé dans la période allant jusqu’à 2017. L’objectif du programme est avant tout de réaliser le 1 dollar/W maintenant avec les technologies disponibles.

Il est aussi surprenant de voir que le stockage n’a pas pour l’instant sa place dans la liste des domaines abordés par l’initiative SunShot. Selon le Pr Ramesh, cela vient de la faible pénétration actuelle du marché (de l’ordre de 0,1%) et le peu d’impact que cela aurait sur la fluctuation. Mais le problème se posera très vite et c’est pourquoi il supervise la mise en place de programmes sur ce sujet en collaboration avec ARPA-E (notamment dans le programme GRIDS). En 2017, quoi qu’il arrive, d’autres pays seront sans doute capables de parvenir au chiffre d’1 dollar /W. L’objectif pour SunShot est de permettre aux Etats-Unis de garder des parts de marché, c’est pourquoi il faut avant tout rendre le PV compétitif avec les autres sources d’énergie. Cette initiative ne ferme pas la porte à des collaborations internationales et des partenariats sont mis en place avec l’Inde et l’Australie. EERE possède d’ailleurs une division qui finance des projets de collaborations internationaux similaires aux fonds France-Stanford et France-Berkeley qui permettent de financer des travaux de recherche entre des laboratoires français et ces deux universités.

Du nouveau pour les baroudeurs écolos

Les globes-trotteurs ont trouvé leur allié avec le kit solaire EXTEL NOMAD 13. Pratique, compact et efficace, il permet de subvenir aux besoins en énergie où que l’on soit. L’électricité verte produite par les panneaux solaires photovoltaïques représente une solution écologique et économique. Petit format, petit prix, NOMAD 13 est grand par son autonomie et idéal pour les aventuriers avides de liberté ! Prêt à poser, ce kit est idéal pour un éclairage d’appoint. Avec sa production de 12V, il permet une utilisation quotidienne de 4 heures : la solution idéale pour les inconditionnels de voyage vert ! Multi-usage, on peut recharger un téléphone, un lecteur ou une lampe ou bien encore alimenter un ordinateur, outillage électro portatif… Il est également possible de brancher un convertisseur de tension 230V. Simple à utiliser, il est également facile à transporter grâce à ses mallettes. Peu encombrant, il se range facilement dans un coffre pour encore plus de praticité. Une solution simple et économe pour les besoins en éclairage des installations nomades. Du câble de branchement aux douilles de fixation, en passant par l’interrupteur, EXTEL fournit tout ! Des kits ultra complets et « prêts à poser » ! Une offre exclusive sur le marché du bricolage…

Modules photovoltaïques : l’encombrement diminue, le rendement augmente

À l’occasion du Salon des Énergies Renouvelables qui s’est tenu du 15 au 18 février à Lyon, SOLON a présenté son nouveau système intégré au bâti : le SOLON SOLitaire. Il s’agit de la seconde génération perfectionnée du modèle précédent déjà primé à plusieurs reprises. Ce système est la solution idéale pour une installation entièrement intégrée en toiture avec une puissance pouvant atteindre 3 kWc. En France, le tarif d’achat pour les installations d’une puissance inférieure à 3 kWc s’élève à 58 cents par kilowattheure. Les modules, dont la puissance nominale peut aller jusqu’à 250 Wc, fournissent une puissance de sortie maximale même sur une surface réduite et leur installation est simple et rapide. Ce système entièrement intégré est adapté à toute sorte de couverture de toit, y compris en ardoises, et ne nécessite aucune sous-construction supplémentaire. Il est monté directement sur les liteaux à l’aide des vis et des joints contenus dans le système. 12 de ces modules à haut rendement SOLON suffisent à réaliser une installation de 3 kWc sur une surface de 25 m², capable à la fois de tirer au mieux profit des incitations financières et de couvrir les besoins annuels en électricité d’une famille de quatre personnes. En plus de ce tarif d’achat élevé, il est possible de bénéficier d’un crédit d’impôt allant jusqu’à 4 000 euros. En outre, le SOLON SOLitaire a été le premier module photovoltaïque intégré au bâti à passer avec succès le test incendie du Centre Scientifique et Technique du Bâtiment (CSTB). Il s’agit  du premier module intégré au bâti en France à remplir une des conditions préalables essentielles permettant, à partir de 2011, de souscrire une assurance du bâtiment et de l’installation, assurance obligatoire pour un financement bancaire. Le nouveau SOLON SOLitaire pèse 14 kg par m² et convient à des inclinaisons de toit entre 10 et 60 degrés. À partir de 22 degrés, des mesures d’étanchéité supplémentaires deviennent inutiles, les modules eux-mêmes servant de surface de drainage. Cela associé au cadre en polyuréthane de haute qualité, résistant aux intempéries et aux UV, garantit une étanchéité totale du système. Le système de ventilation permet une circulation optimale de l’air derrière les modules afin d’éviter toute perte de puissance liée à l’élévation de la température. Le SOLON SOLitaire est composé de 60 cellules polycristallines mais peut être également proposé avec des cellules monocristallines sur simple demande. Les deux variantes seront disponibles à partir de janvier 2011 auprès du fabricant, elles comprennent l’assurance solaire gratuite SOLON, une garantie produit de 10 ans et une garantie de puissance à cinq niveaux sur 25 ans.

Par S.B.

Le simulateur dynamique le plus perfectionné de l’industrie automobile

Implanté au Centre de Technologie de Mercedes-Benz, le nouveau centre de simulation de conduite de Daimler AG, à Sindelfingen (Allemagne), abrite plusieurs types de simulateurs, tous optimisés pour des essais particuliers, notamment pour la recherche, l’évaluation (tests d’aptitude d’un conducteur à manœuvrer un véhicule de manière sûre) et la formation. Il comprend à la fois des simulateurs de conduite à base fixe et un simulateur d’analyse du confort de conduite déjà livré par l’entreprise Moog Industrial Group.

La cabine du nouveau simulateur abrite la maquette d’une voiture Mercedes-Benz complète, dans laquelle le pilote d’essai est assis, entouré d’un écran sur lequel sont projetées à 360° des scènes de circulation réelles avec piétons, véhicules en mouvement et bâtiments.  Elle est montée sur  la plate-forme mobile électrique de Moog Industrial Group et se présente sous la forme d’un hexapode composé de 6 vérins électriques. Elle permet des mouvements dans les 6 degrés de liberté (ou « 6DDL ») : la plate forme supérieure est mobile en translation dans les axes x, y et z et en rotation également sur 3 axes (tangage, roulis et lacet).

Le montage de l’ensemble sur un rail latéral (7e DDL) de 12 mètres permet de simuler des mouvements latéraux de grande amplitude (comme dans le cas d’un changement de voie), ce que l’hexapode seul ne permettrait pas d’obtenir en raison de la course limitée des vérins. Le système Moog est mu sur le rail par des moteurs linéaires. Une table tournante à 90° montée dans la cabine permet d’utiliser le rail latéral à la fois pour les mouvements latéraux (pour les tests de conduite dynamiques) et longitudinaux (pour la simulation de conduite avec arrêts et démarrages).

Une technologie de pointe en matière d’efficacité énergétique

L’ensemble système cinématique hexapode – rail latéral est commandé en temps réel par un logiciel Moog. À partir de l’action du pilote sur les pédales et le volant de direction, la maquette de voiture Daimler calcule les données de position, de vitesse et d’accélération que le logiciel Moog convertit en mouvements de l’hexapode et du rail latéral, de manière à coïncider avec les réactions sensorielles attendues par le pilote. Ainsi, le pilote a l’impression de conduire une vraie voiture. Tout ce qu’il voit en projection sur l’écran correspond à ce qu’il ressent sous l’influence des mouvements de la voiture produits par l’hexapode et le rail. Ainsi, lorsqu’il appuie sur la pédale d’accélérateur, freine, tourne le volant ou roule sur une bosse virtuelle, la combinaison des images changeantes et des mouvements du système cinématique donne l’impression que la voiture circule sur une route réelle.

Avec son écran à 360° et son système de commande électrique de mouvement monté sur un rail pour les mouvements transversaux, ce simulateur dynamique est le plus perfectionné de l’industrie automobile. Le système, tel qu’il a été intégré par les ingénieurs de Daimler, est aussi doté d’une technologie de pointe en matière d’efficacité énergétique. Une partie de l’énergie de commande du simulateur provient de l’énergie qui est récupérée lors des freinages et réinjectée dans le réseau d’alimentation électrique des installations de Sindelfingen.

Si le précédent simulateur de Daimler, équipé de vérins hydrauliques, était capable de procurer une sensation de conduite suffisamment réaliste, le nouveau système électrique à haute dynamique a été spécialement conçu pour être à la fois extrêmement performant et permettre des évaluations de conduite réalistes par des conducteurs experts.

« Daimler avait songé monter tout le système sur un rail longitudinal pour disposer d’un 8e DDL mais il a considéré que les avantages potentiels n’en justifiaient pas le surcoût » précise  Pim van den Dijssel, directeur général Europe chez Moog. « Le socle cinématique que nous avons mis au point à l’aide de nos plus récents développements en matière de conception répond aux exigences de Daimler. L’accélération et le freinage peuvent être extrêmement bien simulés en faisant basculer l’hexapode d’avant en arrière et vice versa. Si besoin est, le véhicule peut tourner sur 90°, transformant ainsi le rail latéral en rail longitudinal. Ceci permet de simuler des brusques changements de voie et des freinages brusques avec des accélérations supérieures à 1 g. »

 

 

L’algorithme PageRank : comment ça marche ?

Choisir les bon mots-clés est relativement facile, par contre avoir un indice PageRank élevé est plus compliqué. L’indice PageRank est ce qui définit la position dans les pages de résultat des moteurs de recherche (pour Google évidemment, mais les autres moteurs utilisent maintenant plus ou moins le même genre d’algorithme). Il est donc très important de bien comprendre le fonctionnement de ce type d’algorithme pour espérer apparaître sur la première page de résultat (la seule lue dans 95 % des cas) ou au moins figurer parmi les premiers. Je vous propose dans cet article d’éclairer le fonctionnement de cet algorithme ainsi qu’un applet Java permettant d’expérimenter ce type d’analyse. Il s’agit bien sur d’une version simplifiée, mais cela permet de comprendre quand même beaucoup de choses.

Petit historique

Les premiers moteurs de recherche (AltaVista ou Yahoo) ne faisaient qu’indexer, c’est-à-dire trouver toutes les pages contenant le ou les mots-clés recherchés. On pouvait retrouver les pages contenant un mot-clé donné, mais les résultats n’étaient pas triés efficacement. Le nombre de fois où apparaissait le mot-clé faisait apparaître la page en haut de la liste de résultats, ce qui n’est pas pertinent. Le nombre de répétions du mot-clé n’est pas un critère intéressant car aisément falsifiable. Il faut faire une analyse plus fine du Web pour être capable de mesurer automatiquement l’importance de chaque site. Sergey Brin et Lawrence Page, étudiants à l’Université Standford (États-Unis), ont trouvé une solution aussi originale que simple : utiliser l’information des liens entre les pages pour mesurer l’importance des sites, et être alors capable de classer correctement les résultats d’une recherche de mots-clés. Cet algorithme s’appelle le « PageRank », et est finalement assez simple (niveau deuxième année d’étude supérieure). Sergey et Lawrence ont créé l’entreprise Google, actuellement le meilleur moteur de recherche du Web. Google est devenu très rapidement (et sans aucune publicité) un des moteurs les plus influents du Web. Les autres (Yahoo etc.) on rapidement suivi, mais bien sûr, cette avancée technologique a permis à Google d’être les « first to market » et donc de prendre une longueur d’avance sur la concurrence. Google essaye de garder cet avantage, en proposant toujours de réelles avancées technologiques, et bien sûr en améliorant l’algorithme PageRank, devenu un secret industriel aussi bien gardé que la fameuse recette exacte du Coca-Cola. La version que j’expose ici reste est une approche à la fois simple et instructive pour comprendre les bases du référencement, vu que maintenant tous les moteurs de recherche utilisent des variantes de cet algorithme.

Le PageRank : comment ça marche

L’algorithme PageRank calcule un indice de popularité associé à chaque page Web. C’est cet indice qui est utilisé pour trier le résultat d’une recherche de mots-clés. L’indice est défini ainsi : « L’indice de popularité d’une page est d’autant plus grand qu’elle a un grand nombre de pages populaires la référençant (ayant un lien vers elle) ». Cette définition est autoréférente car pour connaître l’indice d’une page, il faut d’abord connaître l’indice des pages ayant un lien vers elle… Il existe cependant un moyen assez simple d’approcher une valeur numérique de l’indice.

Tout d’abord il faut voir le Web comme un graphe. Chaque page est un noeud du graphe, chaque lien entre les pages est un arc entre deux noeuds.

Une manière commode pour représenter de telles relations est d’utiliser une matrice (= un tableau) : chaque ligne et colonne représentent un noeud (donc un site) et chaque case de la matrice représente la présence d’un lien entre les deux pages correspondantes.

Site No 0

Site No 1

Site No 2

Site No 3

Site No 0

0

0

0

0

Site No 1

1

0

0

0

Site No 2

1

0

0

0

Site No 3

1

0

1

0

Note : Pour savoir si il y a un lien entre deux sites A et B, il suffit de regarder le contenu de la case positionné en ligne A et colonne B : 0 signifie qu’il n’y a pas de lien, 1 qu’il y en a un.

Nous allons appeler cette matrice M. On représente la probabilité de présence d’un internaute sur tous les noeuds de notre graphe par un vecteur V. Dire que l’internaute est sur la page « 1 » s’écrit : V = (0 1 0 0). (Attention, on commence à compter les pages par 0, c’est donc bien la deuxième valeur qui est à 1 dans ce vecteur).

Si on multiplie V par M :

V' = V*M

on obtient un vecteur V’ = (1 0 0 0), c’est justement la probabilité de présence de l’internaute sur les pages : après un clic, l’internaute se retrouve forcement sur la page « 0 ». Il a suivi l’unique lien sortant de la page « 1 », allant vers la page « 0 ». On peut alors réitérer l’opération et multiplier ce vecteur résultat par M pour voir où se situera l’internaute lors du clic suivant, et ainsi de suite…

Si on faisait partir notre internaute de la page « 3 » : V = (0 0 0 1) le produit V par M donne (1 0 1 0), la somme des composante fait alors 2, cela est gênant pour représenter une probabilité de présence… . Dans la mesure où il impossible de savoir quel lien aura le plus de succès, on va considérer qu’ils ont tous la même probabilité d’être suivis, cela revient à normaliser la matrice (diviser chaque composante par la somme des valeurs de la ligne correspondante), le problème est résolu. La matrice devient alors :

Site No 0

Site No 1

Site No 2

Site No 3

Site No 0

0

0

0

0

Site No 1

1

0

0

0

Site No 2

1

0

0

0

Site No 3

1/2

0

1/2

0

 

Notez que la somme de chaque ligne fait bien 1, et que le produit V * M donne alors V’ = (½ 0 ½ 0) et représente alors correctement les probabilités de présence de l’internaute, partant de la page « 3 » et après avoir suivi un lien (« 1clic »). Si on réitère l’opération , c’est à dire V’*M, on obtient (1 0 0 0) au bout du deuxième « clic » de l’internaute. Si on continue, on voit bien que le résultat ne changera plus… L’internaute est bloqué sur la page « 0 ». Cela n’est pas très réaliste, on considérera alors que l’internaute repart sur une autre page, choisie au hasard. Cela revient à ajouter aux pages « cul-de-sac » des liens vers toutes les autres pages. Du point de vue de la matrice, cela revient à trouver les lignes qui n’ont que des 0 et les remplacer par des lignes avec 1/3 (dans ce cas précis) dans toutes les cases sauf sur la diagonale (lien d’une page vers elle-même). Pourquoi 1/3 ? Tout simplement par ce qu’il y a 4 pages et qu’on considère que l’internaute reprendra son parcours aléatoirement sur n’importe quelle autre page (4 (toutes les pages) – 1 (celle ou il est actuellement « bloqué ») = 3).

Le processus, tel qu’on l’a défini, permet maintenant de modéliser raisonnablement un déplacement aléatoire d’internautes sur le réseau de pages, modélisé par un graphe. Pour obtenir une vision globale et impartiale de la popularité des pages en fonction des liens qu’elles ont entre elles, il suffit maintenant de supposer que les internautes se répartissent initialement uniformément sur tout le réseau et on les laisse se déplacer jusqu’à ce que leur répartition (le vecteur V) se stabilise au fur et à mesure des itérations de multiplication avec M. Dit autrement, on commence avec un vecteur V dont toutes les composantes sont égales a 1/N, N étant le nombre total de pages (ou noeuds du graphe). Ensuite, on multiplie itérativement V par M jusqu’à ce que le valeur du vecteur V n’évolue plus. On regarde alors la répartition des internautes sur le graphe, cela nous donne l’indice PageRank : plus il est élevé, plus il y a d’internautes sur la page, et donc plus la page est populaire…

Une recherche se décompose alors en deux étapes :

  • la sélection des pages contenant les mots-clés de la requête
  • le classement, par ordre décroissant, des pages concernées en fonction de leur valeur de PageRank. Cette valeur aura bien sûr été calculée précédemment et n’est pas recalculée à chaque requête.

Ces deux actions combinées font un moteur de recherche plutôt efficace…

On voit que algorithme PageRank (simplifié) est finalement assez simple :

  1. initialisez toutes les composantes de V à 1/N (N étant le nombre de pages ou noeud du graphe)
  2. calculez V’= V*M, (où M est la matrice représentant le graphe)
  3. copiez le contenu de V’ dans V
  4. reprenez en 2 sauf si les deux vecteurs V et V’ sont très proches, dans ce cas l’algorithme est terminé

V ou V’ (puisqu’il sont proches la fin de l’algorithme) contiennent les indices PageRank de chaque page. En pratique, les valeurs de PageRank sont modifiés pour donner des valeurs entre 0 et 10, pour que cela soit plus « parlant ». Cela n’a que peu d’importance en pratique, dans la mesure où on utilise cette valeur uniquement pour la comparaison entre les différents sites concernés par une recherche de mots clés.

Par Hubert Wassner, professeur d’informatique à l’ESIEA et auteur d’un blog.

Nouvelle approche de la virtualisation du stockage

Le stockage constitue l’un des obstacles majeurs des projets de virtualisation des serveurs et des postes de travail. « Des investissements imprévus en matériel de stockage et une utilisation inefficace du stockage sont souvent les facteurs les plus critiques qui mettent une fin brutale aux projets de consolidation des serveurs et de virtualisation des postes de travail », confirme Richard Villars, vice-président de la division Stockage et stratégies informatiques chez International Data Conseil (IDC). « Les solutions logicielles de virtualisation du stockage comme SANsymphony-V de DataCore permettent aux équipes informatiques d’optimiser l’utilisation des ressources de stockage existantes, tout en allégeant considérablement les tâches administratives. Elles jouent souvent un rôle clé pour garantir le succès des projets des entreprises en matière de virtualisation des serveurs et des postes de travail. »

En développement depuis deux ans, le logiciel de virtualisation du stockage SANsymphony-V de DataCore permet aux datacenters d’exploiter le matériel existant et les périphériques de stockage traditionnels pour parvenir à l’environnement de stockage partagé, nécessaire à la prise en charge d’environnements informatiques virtuels hautement dynamiques. Ceci contraste nettement avec les approches coûteuses de remplacement intégral proposées pour la prise en charge des projets de virtualisation des serveurs et des postes de travail.
 
Ce nouveau logiciel aide à éviter les nombreux problèmes de performances provoqués par les congestions d’E/S et la perte de chiffre d’affaires due à des interruptions qui rendent les entreprises réticentes à la virtualisation d’applications stratégiques comme les systèmes de messagerie et les bases de données. Le logiciel utilise des techniques de mise en cache adaptative et d’accélération des performances perfectionnées au cours des dix dernières années pour absorber des charges de travail très variables, tout en évitant que le stockage ne constitue un point unitaire de panne et d’interruption. Il offre de plus une plate-forme logicielle flexible et ouverte qui permet de provisionner, partager, reconfigurer, migrer, répliquer, élargir et mettre à niveau le stockage, sans ralentissement ni temps d’arrêt. 

L’infrastructure virtuelle est dissociée des disques sous-jacents

« Lorsque nous avons d’abord reçu des offres pour notre projet de virtualisation des serveurs, nous avons été abasourdis de constater que les coûts associés pour centraliser et protéger convenablement notre batterie de disques auraient consommé la majeure partie de notre budget. DataCore a véritablement sauvé notre projet. Son logiciel a considérablement réduit les coûts de stockage et les facteurs de complication en nous permettant d’utiliser nos ressources existantes. En parallèle, il a évité les risques en termes de performances et de disponibilité que l’adoption d’un stockage consolidé aurait engendrés pour nos nouvelles charges de travail virtualisées », explique Judy Pieper-Young, directrice des systèmes d’information chez North American Stainless.
 
Alors que certains fournisseurs dans le domaine de la virtualisation recommandent que les clients s’enferment dans des configurations de matériel de stockage spécifiques et des appliances dédiées spécifiques, SANsymphony-V les libère de la dépendance à l’égard du fournisseur de matériel, en dissociant l’infrastructure virtuelle des disques sous-jacents. La solution optimise également le débit E/S des périphériques de stockage standard qui auraient sinon exigé un remplacement. Lorsque les clients doivent ensuite accroître la capacité, il leur suffit de choisir la meilleure offre du moment parmi plusieurs fournisseurs concurrents au lieu de se limiter au matériel d’un fournisseur particulier.

SANsymphony-V accélère davantage la transition entre des machines physiques et virtuelles en tirant pleinement parti des disques durs et des données des systèmes d’origine. Les fonctionnalités avancées, toutes indépendantes des périphériques, englobent le regroupement en pool des disques, la mise en cache ultra-rapide, la mise en miroir synchrone, la réplication distante asynchrone, les migrations de disques sans interruption et les snapshots en ligne à faible impact. SANsymphony-V présente également différentes nouveautés pour mieux protéger les charges de travail et éviter les interruptions, notamment la protection continue des données (CDP) intégrée, la reprise multi-site et la réplication à haut débit et compression de trafic.
 

 

Prévenir, détecter et traiter les fraudes

La fraude coûte cher aux acteurs économiques. Une étude de l’ACFE, première institution de professionnalisation et de formation en matière de lutte contre la fraude dans le monde, montre par exemple que les seules fraudes internes font perdre en moyenne à chaque entreprise victime 5% de son chiffre d’affaires. Des fraudes internes dont l’incidence impacte plus particulièrement les entreprises européennes. La fraude contrarie par ailleurs le besoin d’éthique accru par la récente crise économique.

En matière de lutte, il convient donc de faire preuve de pragmatisme. Des mesures concrètes et solutions pratiques s’imposent. D’autant que les évolutions sociologiques et juridiques actuelles contraignent les dirigeants à une gestion de plus en plus proactive des risques. Dans le contexte des systèmes judiciaire et juridictionnel européens et français, qui tendent à se rapprocher du modèle anglo-saxon, pionnier en la matière, la prévention et une détection efficace des fraudes doivent permettre aux entreprises une optimisation de leurs résultats économiques et financiers.

Véritable manuel anti-fraude, Histoires ordinaires de fraudes présente des méthodes concrètes et éprouvées pour prévenir les fraudes, les détecter et les traiter à travers vingt cas de fraudes sous forme de récits. Cet ouvrage collectif, qui a été rédigé sous la direction de Francis Hounnongandji, associé-gérant d’Allied Business Controls et Président de l’ACFE France, rassemble les contributions de professionnels de premier plan de la lutte contre les fraudes, issus d’entreprises, de grandes administrations, de cabinets d’avocats, d’audit et d’intelligence économique.

Conflit d’intérêts, enrichissement personnel et corruption, vol de propriétés intellectuelles dans le cadre d’une fusion-acquisition, manipulation de données informatiques, dissimulation d’incidents de fraude par le management, faux documents et crime organisé, fraude monétique, actifs extracomptables et détournement,  abus de biens sociaux, abus de confiance et détournements d’actifs…  Autant d’histoires ordinaires de fraudes sujettes à présenter des techniques éprouvées pour mieux prévenir, détecter et traiter les fraudes.