Le Parlement prudent sur l’exploitation des gaz de schiste

La fracturation hydraulique des gaz de schiste est interdite par la loi en France. Pas en Europe. Dans une résolution adoptée largement, mercredi 21 novembre, le Parlement européen s’est déclaré ouvert au développement des gaz de schiste, à condition d’en maîtriser les risques. L’amendement proposé par le groupe des Verts/ALE pour un moratoire sur la fracturation hydraulique a été rejeté. Le Parlement n’est pas habilité à trancher pour ou contre les gaz de schiste, choix souverain des Etats-membres, mais il entend cependant peser sur les modalités de production, via la législation européenne sur l’environnement.

Evaluation des risques

Les effets de la fracturation hydraulique sur l’environnement et la santé humaine ne peuvent être négligés, reconnaît la résolution. La Commission en a déjà pris la mesure en publiant trois études sur l’impact des gaz de schiste sur les marchés, le climat et la santé, en septembre 2012. Un cadre réglementaire « solide » en la matière est donc nécessaire, estiment les élus. La Commission ne peut être à la traîne sur les gaz de schiste : « sans délai », le Parlement l’appelle à établir des données de référence pour surveiller la qualité des eaux, potentiellement menacée par des fuites lors de la fracturation hydraulique.

Adapter le cadre actuel

Les directives sur l’eau, les déchets ou la responsabilité environnementale sont exploitables, mais le Parlement ignore si leur pleine application suffirait pour englober toutes les dimensions de la production de gaz de schiste. Il attend l’avis de la Commission, incitée, « une fois les études terminées, à proposer dès que possible (…) les mesures appropriées, y compris, le cas échéant, des mesures législatives ». A ce jour, l’exécutif européen reconnaît que certaines activités de production de gaz de schiste ne sont pas couvertes par les directives actuelles car les volumes extraits sont trop petits pour exiger une évaluation des impacts environnementaux. Pour la direction générale de l’environnement de la Commission, la règlementation sur les gaz de schiste, aujourd’hui dispersée, doit être rassemblée dans un texte unique. Une consultation publique va être lancée. Une proposition devrait être sur la table d’ici l’été 2013.

Par Catherine Abouelkhair

Source : euractiv.fr/energie-environnement/

La révolution numérique dans le domaine de l’énergie

Ce n’est pas le moment d’abandonner votre véhicule électrique : le numérique s’immisce dans l’énergie. Dès qu’une technologie devient numérique, tout change. Pour les novices, les avancées technologiques connaissent une nouvelle ascension en passant d’une vraie lenteur à une rapidité exponentielle. Rappelez-vous comment la recherche en ligne a bouleversé notre façon de collecter des informations, à quel point les réseaux sociaux ont changé notre façon de recevoir des nouvelles, et à quel point les ouvrages électroniques et les e-lecteurs ont transformé notre façon d’acheter des livres. Lorsqu’une technologie passe au numérique, des termes comme « bibliothèque », « journal » et « librairie » deviennent obsolètes.

Qu’est-ce qui définit le passage de l’analogique au numérique et quand peut-on dire que la transition a été faite ? Premièrement, le contrôle numérique d’une énergie, sous la forme d’électricité, nécessite des capteurs intelligents capables d’acquérir une tension et un courant, un traitement rapide des signaux numériques pour transformer des mesures brutes en informations pertinentes, ainsi que des montages spéciaux de type SMPS (alimentation à découpage) pour transformer de façon électronique la puissance en impulsions que le système peut manipuler. Deuxièmement, les systèmes d’énergie numérique doivent être mis en réseau et être reconfigurables sur le terrain pour pouvoir envoyer des données qui offrent des améliorations constantes et solutionnent des bugs tout en téléchargeant des mises à jour logicielles depuis un serveur. Troisièmement, le système doit être modélisé et simulé avec une précision et une vitesse élevées, y compris une interaction entre l’étage analogique et le code logiciel numérique embarqué. La simulation est critique pour tester, optimiser et valider des améliorations dans un environnement sécurisé pour qu’elles soient ensuite déployées en toute confiance sur des systèmes embarqués sur le terrain.

Lorsqu’une technologie analogique devient numérique, cela devient une technologie d’informations : donc un potentiel problème logiciel. La révolution de l’énergie numérique est mise en œuvre par de puissants outils logiciels, une puissance de calcul conséquente, des réseaux Internet sécurisés, des systèmes matériels embarqués spécialisés, sans oublier une chose importante : l’électronique de puissance.

Contrôler l’énergie avec l’électronique

La technologie permettant le contrôle électronique de l’énergie, plus connue sous le nom d’électronique de puissance, se présente sous la forme de transistors qui convertissent, contrôlent, manipulent et transfèrent de grandes quantités d’énergie électrique. Ces dispositifs de commutation de courant, qu’on appelle communément IGBT et MOSFET, convertissent des mégawatts de puissance électrique en centimes par watt. L’efficacité des systèmes énergétiques double environ tous les 11 ans alors que les prix diminuent de façon régulière. À l’heure actuelle, un système d’inversion bas coût peut contrôler 85% d’énergie en plus qu’un système des années 80, en ne perdant que quelques pourcents de cette énergie en chaleur dissipée. La capacité à manipuler de façon numérique les mégawatts de puissance avec des pertes minimes est une véritable révolution en soi.

Parallèlement, les performances des processeurs embarqués et des FPGA (field-programmable gate arrays) ne cessent d’augmenter. Alors que les systèmes de contrôle analogique étaient d’un meilleur rapport qualité/prix à la fin des années 90, l’avancée de la loi de Moore aide désormais les systèmes de contrôle numérique à remplacer leurs prédécesseurs analogiques. L’incorporation récente de composants de calculs DSP (digital signal processing) dans du matériel FPGA fait de ces FPGA une alternative très intéressante pour les systèmes de contrôle d’énergie numérique.

Le rapport qualité/prix des FPGA double tous les 14 mois, plus rentable que les 12 ou 13 mois que prend une équipe de 15 ingénieurs pour développer une conception embarquée personnalisée. En suivant le rythme exponentiel de la loi de Moore, les responsables en ingénierie se fient aux technologies standard. C’est tout l’intérêt des matériels comme le nouveau produit GPIC (general-purpose inverter control) NI Single-Board RIO, carte standard économique avec toutes les E/S nécessaires pour le contrôle électronique d’énergie et les toutes dernières technologies à base de FPGA et de processeur temps réel.

Les FPGA actuels offrent une architecture idéale pour les systèmes de contrôle électronique d’énergie car ils vous permettent de placer des modulateurs à largeur d’impulsion numérique haute fréquence (DPWM) personnalisés ainsi qu’un montage de contrôle numérique dans du matériel dédié. La reconfigurabilité inhérente aux FPGA est particulièrement utile pour les applications de réseau intelligent en matière de support, de maintenance et d’interopérabilité à long terme avec des standards et des protocoles de communication en perpétuelle évolution.

Les langages de programmation graphique au niveau système ainsi que l’émergence des cibles matérielles standard optimisées pour le déploiement commercial en volume, comme la nouvelle plate-forme GPIC de NI, offrent une alternative au développement matériel complètement personnalisé. Les systèmes standard reconfigurables éliminent le coût et le risque significatifs associés à la conception personnalisée de cartes pour le déploiement commercial en volume.

Peaufiner le cycle en V pour l’électronique de puissance

Les technologies numériques de contrôle d’énergie jouent un rôle majeur dans l’augmentation des performances et la réduction du coût des systèmes solaires, éoliens et de stockage d’énergie. La R&D de National Instruments investit pour offrir une chaîne d’outils complète pour la révolution numérique dans l’énergie. L’objectif est de peaufiner le concept en V pour l’électronique de puissance. Le cycle en V, issu des industries automobile et aérospatiale, décrit un processus intégré pour la conception et le test des produits. NI investit à chaque étape du V pour améliorer la conception, le prototypage et le déploiement de produits standard de contrôle numérique. L’objectif est d’éliminer les problèmes qui réduisent la productivité des équipes de conception embarquée.

L’approche de la conception graphique de systèmes commence par la co-simulation qui vous permet de développer le code LabVIEW FPGA dans un environnement de simulation haute fidélité capable de capturer l’interaction entre le système de contrôle numérique et l’électronique de puissance analogique. LabVIEW FPGA et le simulateur de circuit électronique de puissance NI Multisim ajustent automatiquement le pas de simulation pour capturer le comportement transitoire rapide de la circuiterie analogique et son interaction avec le système de contrôle basé FPGA. Par exemple, si le courant qui circule dans un inducteur résonne, la simulation ralentit automatiquement pour capturer l’effet sur le système de contrôle numérique.

Ce qui est le plus important c’est de permettre aux équipes de développer leur véritable code LabVIEW FPGA dans l’environnement de simulation puis ensuite de le déployer vers une cible FPGA physique sans difficulté. Cela permet un chemin de développement complètement bidirectionnel. À n’importe quel stade, du prototype à la post-production, les modifications apportées au logiciel mettent à jour automatiquement le code là où il a été référencé dans la chaîne de développement. L’objectif est d’écrire le code des systèmes embarqués dès le départ et de continuer à l’améliorer tout au long du développement. Vous pouvez concevoir le montage de l’électronique de puissance en parallèle avec le logiciel FPGA et le code du test automatique pour vous aider à évaluer les compromis en matière de conception non linéaire entre l’efficacité, les coûts et la durée de vie des composants. Ceci permet d’optimiser simultanément plusieurs objectifs en matière de conception, même des compromis réputés difficiles.

Pour éviter de devoir peaufiner manuellement le code généré au risque de le « contaminer », l’efficacité de l’utilisation des ressources FPGA doit être comparable au codage RTL (au niveau transfert de registres) conçu manuellement. En outre, la plate-forme de conception doit inclure des blocs mathématiques à virgule fixe ainsi que des bibliothèques IP d’électronique de puissance permettant un développement efficace des algorithmes de contrôle, de traitement du signal et d’analyse de puissance. Au final, la chaîne d’outils doit cibler des cartes de contrôle standard prévalidées capables de satisfaire les besoins spécifiques en termes de contrôle, d’E/S, de performances et de coûts des produits de contrôle numérique en volume.

Sur la partie droite du cycle en V se trouve le problème de savoir comment tester des systèmes complexes de contrôle numérique d’énergie et à puissance élevée. Auparavant, le plus gros problème était le manque de simulateurs temps réel pour la validation et la vérification. Il s’agit d’un autre domaine pour lequel la technologie FPGA offre une solution. Les mêmes outils de conception graphique de systèmes conviennent pour développer des simulateurs HIL (hardware-in-the-loop) rapides et temps réel pour la validation complète de systèmes électroniques reliés au réseau électrique principal.

Imaginer l’avenir

Cela peut sembler difficile d’imaginer un monde dans lequel l’énergie deviendrait un problème logiciel, à la recherche des bons algorithmes pour la convertir, la contrôler, la transférer et la stocker de façon efficace. C’est ce que la révolution numérique offre. Comment saurons-nous que c’est le cas ? Vous pouvez l’appeler technologie numérique de contrôle d’énergie si le système est numérisé et contrôlé de façon numérique, mis en réseau, reconfigurable sur le terrain, modélisé, simulé en s’améliorant de façon exponentielle en termes de rapport qualité/prix chaque année.

Quels grands défis d’ingénierie la révolution numérique dans le domaine de l’énergie vous aidera-t-elle à relever ? Une chose est claire : ces technologies ne cessent de croître en termes de performances et de voir leurs prix chuter, elles se retrouvent au cœur de systèmes à base d’énergie renouvelable, de réseau intelligent et de véhicules électriques.

Par Brian MacCleery

Source : zone.ni.com

Les éditions Techniques de l’Ingénieur vous souhaitent une très bonne nouvelle année

A vous tout d’abord qui nous avez fait confiance cette année, nous sommes ravis d’avoir pu vous épauler dans vos projets. Et tout autant à l’idée de vous accompagner en 2013, avec une offre encore plus complète : des gammes de formations de plus en plus riches, une activité de conseil au plus près de vos préoccupations, des logiciels des plus pratiques pour faciliter votre travail au quotidien, et bien sûr, des ressources documentaires toujours plus étendues.

A nos experts, auteurs, formateurs et autres partenaires ensuite, nous disons merci pour l’ensemble des projets réalisés au cours de l’année qui s’achève. Notre réussite, c’est d’abord et avant tout la vôtre. Et quelle plus belle manière pour vous remercier que de vous donner rendez-vous en 2013 pour de nouvelles collaborations ?

Au nom de toutes nos équipes donc, nous vous adressons tous nos vœux de réussite pour 2013, année que nous vous souhaitons riche en expertise et en efficacité dans tous vos projets.

Merci pour votre fidélité, et à bientôt

L’équipe de la rédaction,
Espace Veille & Actualité

Un « métamatériau » à mémoire de forme

Voilà un nouveau matériau étonnant. Totalement artificiel puisqu’élaboré par des chercheurs de l’université de Cornell, il se présente sous la forme d’un gel possédant la propriété de mémoire de forme. Cette propriété présente la particularité de s’exprimer en milieu liquide. Composé d’un maillage de molécules organiques, la structure de ce « métamateriau » consiste en des brins d’ADN synthétiques entrelacés à la façon de nids d’oiseau d’environ un micromètre de diamètre. Ces boules d’ADN proposent de fins espaces capables d’absorber de l’eau à la façon d’une éponge, ce qui fait gonfler l’ensemble.

Ces enchevêtrements d’ADN ont été obtenus par hasard. Les scientifiques tentaient de fabriquer un hydrogel exclusivement formé d’ADN. En mélangeant l’ADN synthétique avec des enzymes permettant à l’ADN de s’auto-répliquer en longues chaines, ils espéraient fabriquer un hydrogel sans liens. C’est alors qu’ils ont observé la création de ces structures en nids d’oiseau, formant un réseau en trois dimensions.

Autre curiosité : alors que ce gel s’écoule comme un liquide, quand il est plongé dans l’eau, il reprend la forme du moule à l’intérieur duquel il a été fabriqué ! Si à ce jour, la façon dont ce gel retrouve sa forme initiale n’est pas bien comprise, les chercheurs ont quand même leur théorie : les forces élastiques qui maintiennent la forme sont si faibles que l’association des phénomènes de tensions de surface et de la gravité suffirait à les briser. En revanche, plongé dans l’eau, les tensions de surface sont quasi-nulles et la flottabilité annule la gravité. 

Un tel gel pourrait trouver de nombreuses applications dans le milieu médical. Chargé de médicament, il permettrait de combler une blessure. Autre exemple, ce métamatériau pourrait servir de matrice 3-D pour la repousse de tissus. Un des concepts déjà validé est l’interrupteur à eau. Chargé en particules métalliques de façon à être conducteur, le gel est placé dans un tube entre deux éléments électriques. Dans l’eau, il se rétracte et empêche le courant de passer. En dehors de l’eau, il redevient liquide, remplit le tube et recrée le contact.

 

Par Audrey Loubens, journaliste scientifique

 

 
Découvrez les formations Techniques de l’Ingénieur :

Répondre au défi de la pointe électrique

La pointe électrique augmente d’environ 3% chaque année, alors que la consommation électrique n’augmente parallèlement que de 0,6%. En dix ans, la pointe électrique a augmenté de 28% ! Cette tendance à la hausse pourrait se poursuivre avec le développement de nouveaux usages de l’électricité notamment la voiture électrique.

RTE, le gestionnaire du réseau public de transport d’électricité de France métropolitaine, prévoit que la sécurité d’alimentation électrique devrait être assurée jusqu’en 2015. À partir de 2016, elle devrait devenir plus tendue en raison notamment de la fermeture de certaines centrales thermiques à énergie fossile. À cette échéance, la puissance manquante est estimée à 1,2 GW et à 2,1 GW en 2017. Pour prévenir d’éventuels problèmes, le décret vise un lissage de la demande et la garantie des fournisseurs d’électricité d’être en capacité de répondre à cette demande de pointe.

Montrer sa capacité à satisfaire cette consommation de pointe

Le principe du dispositif est simple : avec le mécanisme de capacité, les fournisseurs d’électricité doivent justifier leur capacité à assurer l’approvisionnement en électricité de leurs clients, au moment des périodes de pointe de la demande électrique. Pour cela, ils devront acheter des « garanties de capacité » à compter de 2015.

Les fournisseurs peuvent acheter ces « garanties de capacité » soit auprès des producteurs d’électricité, qui exploitent les centrales électriques en France, soit auprès des opérateurs d’effacement. Pour garantir la transparence du système, les producteurs d’électricité et les opérateurs d’effacement devront faire certifier leurs capacités auprès de RTE. En certifiant les capacités des producteurs et des opérateurs d’effacement, RTE calculera les obligations de capacités de chaque fournisseur selon le profil de consommation de leurs clients.

En achetant ces garanties, les fournisseurs apportent une rémunération complémentaire aux producteurs d’électricité pour la disponibilité de leurs centrales électriques, ce qui leur permet notamment d’investir dans les moyens de production de pointe. De l’autre côté, ils apportent des financements aux opérateurs d’effacement pour le développement de nouvelles offres commerciales d’effacement.

Ces garanties de capacité sont des biens échangeables et cessibles. Les fournisseurs d’électricité pourront acquérir ou vendre leurs garanties de capacité afin d’atteindre le montant de leur obligation de capacité. Les échanges de garanties de capacité vont donc constituer un marché qui permettra de donner une valeur à l’effacement et à la disponibilité des capacités de production en période de pointe.

Par ailleurs, le mécanisme de capacité incitera à l’efficacité énergétique. En effet, un fournisseur qui encouragera ses clients à diminuer leur consommation en prenant des mesures d’efficacité énergétique aura une obligation de garanties de capacité plus faible.

Favoriser l’effacement

Un effacement de consommation consiste à réduire la consommation d’électricité d’un site par rapport à sa consommation normale, sur une base volontaire, en cas de pointe de consommation.

Les opérateurs d’effacement sont des acteurs spécialisés dans le développement de telles offres. Ils proposent à leurs clients des solutions techniques pour mettre en pause, pendant quelques minutes ou quelques heures, certains de leurs équipements dont la consommation est flexible. Par exemple, pour les particuliers, il peut s’agir des radiateurs, ballon d’eau chaude, climatisation…  Ce système sera d’autant plus facilité par la généralisation du compteur intelligent Linky.

Plusieurs « pointes » sont en jeux

Les pics de consommation coûtent cher et ont un impact environnemental au travers des augmentations d’émission de CO2, puisque pour répondre à ces pics, le recours aux centrales thermiques fonctionnant au gaz et au charbon est bien souvent la solution privilégiée.

Ces pics de consommation mettent aussi en péril l’équilibre entre la production et la demande d’électricité. Plusieurs causes en sont à l’origine, notamment la place du chauffage électrique et le développement de nouveaux usages de l’électricité (équipements électroménagers, informatiques, recharges multiples).

Il existe plusieurs types de « pointes » de consommation d’électricité : la pointe journalière, qui varie selon les saisons, et la pointe saisonnière, très sensible à la température en raison du fort équipement en chauffages électriques. Les pointes de consommation ne sont pas forcément observées en même temps à l’échelle du territoire national, ce qui suppose aussi une bonne gestion du réseau. Notons que les records de consommation, qui ont souvent lieu lors de vagues de froid exceptionnelles, sont atteints lorsque la pointe journalière se superpose à la pointe saisonnière.

Par Matthieu Combe, journaliste scientifique

Revue du web #36 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • « Pinokio », la réplique de la mascotte du studio américain Pixar, recréée par trois étudiants néo-zélandais ;
  • Le retour de la mule-robot quadrupède « Big Dog », fer de lance de la Boston Dynamics ;
  • Après « Big Dog », «le robot humanoïde « Pet Proto » n’est pas en reste ;
  • Les effets de l’inhalation de l’hexafluorure de soufre, aux antipodes de l’hélium ;
  • Le gadget (inutile ?) de la semaine : Wiki Weapon, le « do it yourself » de l’arme à feu ;
  • Et enfin en bonus : la toute première photo de la double hélice de l’ADN.

« Pinokio », la lampe de Pixar crève enfin l’écran

Débutons cette trente-sixième Revue du Web avec un hommage, celui de Shanshan Zhou, Adam Ben-Dror et Joss Doggett. Les trois comparses, étudiants en design industriel à la Victoria Univesity de Wellington (Nouvelle-Zélande), fans inconditionnels des productions sorties du studio américain Pixar (depuis leur premier film, Toy Story, sorti en 1995, en passant par Le monde de Nemo en 2003, Ratatouille en 2007 ou encore plus récemment Wall-E) ont décidé de donner vie à la célèbre mascotte Pixar, une lampe de bureau répondant au doux nom de « Luxo Junior », dont la curiosité et les réactions semblent étonnamment humaines.

Programmée dans le langage « Processing » et s’appuyant sur pas moins de six servomoteurs, une webcam, et le fameux circuit imprimé en matériel libre « Arduino » pour l’animation, la lampe rebaptisée pour l’occasion « Pinokio » semble jouir d’un sens accru de l’interaction. Réagissant aux moindres mouvements et dotée d’un logiciel de reconnaissance faciale, la mascotte du studio américain possède également un capteur la rendant aussi sensible aux sons de son environnement. Son comportement, mélange habile de naïveté enfantine et d’un besoin maladif d’attention, en séduira ou en agacera plus d’un. La poésie douce heureuse du studio Pixar est en tout cas bien présente ici. La lampe vit tant qu’elle en crève l’écran, mais pour ce qui est de l’éteindre, c’est une toute autre histoire…

Le retour du robot quadrupède « Big Dog », de la Boston Dynamics

« Big Dog » est de retour, plus impressionnant que jamais… La mule-robot, qui fait les beaux jours de la très prolifique société américaine Boston Dynamics, nous revient avec plus d’un nouveau tour dans son sac, renforçant encore le prestige – mérité – dont jouit cette société dans la communauté scientifique. Le programme « Leader Follow » permet désormais de contrôler à l’aide d’une commande vocale le robot, qui suit alors presque au doigt et à l’œil son maître, nonobstant les difficultés du terrain. Le robot analyse les obstacles dont il doit se défaire, puis… s’en défait, méthodiquement, à son rythme.

Big Dog est une mule-robot quadrupède, ayant plus ou moins l’allure d’un gros chien trapu, développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Big Dog a été conçu dans un but bien précis : transporter du matériel militaire sur des terrains impraticables pour des véhicules traditionnels sur roues, à l’aide d’un moteur deux temps à un cylindre activant les quatre pattes de la mule. Le moteur entraine une pompe hydraulique qui, à son tour, entraine les quatre actionneurs de chaque jambe, à raison de deux pour la hanche, une pour l’articulation du genou et une au niveau de la cheville. Le bon fonctionnement de chacun des actionneurs est assuré par un cylindre hydraulique, un servo-distributeur hydraulique, un capteur de position ainsi qu’un capteur de force.

Le poulain de la Boston Dynamics, en constante évolution, a d’ores et déjà essuyé le feu du conflit afghan.

Boston Dynamics : après Big Dog, Pet Proto n’est pas en reste !

Quand on vous dit qu’ils sont prolifiques et qu’ils ne manquent pas de poulains, chez les Américains de la Boston Dynamics… La mule robot Big Dog n’est pas la seule à connaitre des améliorations : après Cheetah, le robot sprinter si rapide qu’il dépasse même le recordman du monde du 100 mètres, le Jamaïquain Usain Bolt, c’est au tour de « Pet Proto » de connaitre quelques mises à jour substantielles. Ni la Boston Dynamics, ni le Pentagone, ni le DARPA (qui finance également le projet) ne communiquent sur les caractéristiques techniques de Pet Proto, sujet au combien sensible puisque touchant de près à l’armée américaine.

Pet Proto est un ambitieux projet de robot humanoïde bipède, proche cousin tout en muscles de Petman. Destiné aux champs de bataille, Pet Proto semble avoir été développé pour être capable d’effectuer des missions de reconnaissance sur le terrain, en éclaireur. La vidéo suivante nous montre comment le robot bipède se débrouille face à un parcours du combattant spécialement conçu par la Boston Dynamics pour tester ses robots, le « Robotics Challenge ».

On peut donc observer Pet Proto se défaire – bien qu’encore maladroitement – d’un obstacle en hauteur, d’un fossé ainsi que d’un escalier de quatre marches… L’autonomie n’est pas encore au rendez-vous, mais au train où progressent les petits protégés de chez Boston Dynamics…

L’hexafluorure de soufre, aux antipodes de l’hélium

Classique de la chimie récréative : inhalez de l’hélium et votre voix devient plus aiguë pendant un temps relativement court. Plus inhabituel : inhalez de l’hexafluorure de soufre et votre voix devient alors bien plus grave… La raison du changement de timbre temporaire est simple : la densité de l’hélium est peu élevée, la vitesse du son dans l’hélium est près de trois fois supérieure à celle de l’air, or la fréquence fondamentale d’une cavité remplie de gaz est proportionnelle à la vitesse du son. L’augmentation des fréquences de résonance de l’appareil phonatoire entraîne alors la hausse temporaire du timbre de voix.

Le contraire se produit avec l’hexafluorure de soufre : l’inhalation de ce gaz plus dense que l’air diminue les fréquences de résonance de l’appareil phonatoire, entrainant une baisse temporaire du timbre de voix, d’où découle cette impression de voix sortie d’outre-tombe. Les deux vidéos suivantes, l’une montrant un professeur de chimie devant sa classe, l’autre provenant de l’émission américaine à succès « MythBusters », illustrent plutôt bien ce qu’il se passe lorsque l’on inhale de l’hexafluorure de soufre (nous vous rappelons que l’inhalation de ces gaz peut être dangereuse). Jugez plutôt :

  Le gadget (inutile ?) de la semaine : Wiki Weapon, le « do it yourself » de l’arme à feu 

La législation sur le port d’armes à feu aux Etats-Unis est l’une des plus permissives au monde. La succession de drames (le dernier en date a fait 27 morts – dont 20 enfants – dans une école de la petite ville de Newton, dans le Connecticut, le 14 décembre) est là pour faire office de piqûre de rappel, une piqûre de rappel pourtant bien inutile. Pour conclure cette trente-sixième Revue du Web, voici le gadget (inutile ?) de la semaine : un fusil d’assaut imprimé en 3D, issu du projet Wiki Weapon, chantre absurde et effrayant du « do it yourself » appliqué aux armes à feu.

Cody Wilson, étudiant en droit à l’université du Texas et à l’origine du projet, travaille à la mise au point d’un modèle open-source de fusil d’assaut dont chacune des pièces pourrait être imprimée à l’aide d’une imprimante 3D. La matière première de ces machines est le plus souvent un polymère thermoplastique relativement rigide répondant au doux nom d’acrylonitrile butadiène styrène, plus connu sous l’acronyme ABS, très utilisé par les industriels (il fait toujours les beaux jours du fabricant de jouets danois Lego).

Dans la vidéo qui suit, l’étudiant américain teste en plein air un fusil d’assaut de type AR-15 (équivalent du M-16 utilisé par l’armée américaine) dont seules la partie inférieure et la détente de l’arme sont sorties d’une imprimante 3D. Le reste du fusil d’assaut est composé de pièces standards que l’on peut se procurer séparément et sans licence dans certains Etats, contrairement à la partie imprimée. Le fusil aura tenu le temps de tirer six coups, avant que la pièce ne se brise, sans danger pour l’apprenti tireur car les tensions se trouvent en partie circonscrites aux niveaux du canon et de la culasse.

Une des raisons de la fragilité relative des pièces imprimées est que l’impression se fait couche par couche. Une pièce moulée d’un bloc dans le même matériau serait autrement plus résistante aux tensions. Gageons que l’on puisse souffler encore un peu.

Bonus : la toute première photo de la double hélice de l’ADN

En bonus de cette trente-sixième Revue du Web, la toute première photo d’un élément manipulé quotidiennement par de nombreux scientifiques, mais que l’on n’était encore jamais parvenu à photographier… L’équipe du Département des Nanostructures de Gênes, menée par le professeur Enzo di Fabrizio, a en effet réalisé le premier cliché de la structure en double hélice de l’Acide Désoxyribonucléique, depuis sa découverte par James Watson, Francis Crick et Rosalind Elsie Franklin il y a près de 60 ans.

La technique mise au point par l’équipe universitaire italienne est simple et complètement novatrice : après avoir isolé des fils d’ADN dans une solution diluée, il suffit alors de « les sécher et de les étirer sur un lit de colonnes nanoscopiques en silicone » provoquant une évaporation éclair de la solution, pour enfin observer les fils par le biais d’un microscope électronique. La technique en est encore à ses balbutiements, et nécessiterait quelques améliorations : les électrons provenant du microscope électronique cassent les molécules d’ADN, ne permettant pas l’observation d’un fil entier, mais seulement de fragments d’ADN. Voici la photo publiée dans la revue américaine Nano Letters, qui publie également leurs travaux :

Faire des déchets ménagers une source d’énergie renouvelable

Faire des déchets ménagers une source d’énergie renouvelable

Le projet Bioréacteur, réalisé dans le cadre du programme de recherche sur les écotechnologies et le développement durable financé par l’Agence Nationale de la Recherche, porte sur l’optimisation de la biodégradation des déchets ménagers dans les CSD (Centre de Stockage de Déchets) afin d’augmenter la production d’un gaz riche en méthane, appelé biogaz. Ce dernier peut être valorisé sous forme d’électricité ou de chaleur.

L’équipe de chercheurs spécialisée sur les CSD, et l’équipe Métrologie–Instrumentation de l’unité HBAN (Hydro-systèmes et Bioprocédés ANtony) du Cemagref ont mis au point des expériences en pilote de démonstration au laboratoire pour sélectionner les meilleurs effluents liquides à injecter dans les déchets afin de favoriser le processus de biodégradation, appelé méthanogenèse, permettant la production de biogaz.

Six pilotes instrumentés

L’ensemble est constitué de six pilotes de mesures d’une trentaine de litres et techniquement identiques. Ils sont remplis de la même quantité de déchets ménagers et sont équipés d’un dispositif permettant la recirculation d’effluents connus, soit des lixiviats de CSD ou de plate-forme de compostage de déchets verts, soit de la boue de station d’épuration.

Chaque pilote est équipé d’une sonde combinée pour mesurer la température interne, le potentiel d’hydrogène (pH), le potentiel d’oxydo-réduction (Redox), ainsi que d’un capteur de pression numérique mesurant la production de biogaz.

Les six pilotes sont placés dans une salle thermostatée à 35°C, de dimensions : 4mx3mx3m et  située dans un bâtiment séparé du poste de pilotage LabVIEW.

Actionner les électrovannes et mesurer les paramètres

Les sondes combinées ont leur électronique associée, fournissant des signaux analogiques 0-20 mA. Les manomètres de pression nous fournissent un signal 4-20 mA.

Chaque pilote est équipé d’une électrovanne (commandée manuellement ou par logiciel) afin de prélever le biogaz pour analyses.

Pour des questions de sécurité, l’ensemble de la chaîne d’acquisition est situé à l’extérieur de la salle thermostatée. Pour cela, nous avons fait appel au système modulaire NI CompactDAQ, en utilisant un châssis NI cDAQ-9172 équipé de :

  • 4 modules NI 9203 de 8 entrées analogiques 0-20 mA ; 6 entrées par modules sont utilisées et chaque module gère un type de paramètre (1 module pour les températures, 1 pour le pH…) ;
  • 1 module spécifique NI 9217 pour sonde PT100 pour le suivi de la température ambiante de la salle thermostatée ;
  • 1 module NI 9421 pour les interrupteurs de commandes manuelles des électrovannes ;
  • 1 module NI 9472 pour actionner les électrovannes.

Le châssis est connecté à l’ordinateur par la liaison USB.

Le logiciel, développé avec LabVIEW, est composé de plusieurs onglets :

  • L’onglet principal indique l’ensemble des valeurs de mesures et affiche les alarmes des paramètres hors tolérances. Ces paramètres sont prédéfinis dans l’onglet n°2 ;
  • Les 4 onglets suivants sont les représentations graphiques, dans le temps, de l’évolution des paramètres températures, pH, Rédox et pressions.

Le logiciel enregistre tous les paramètres à un pas de temps prédéfini. Les changements d’états des électrovannes sont enregistrés en temps réel dans le fichier (n° d’électrovanne, ouverture, fermeture). Le fichier mensuel, ainsi constitué, est horodaté et exploité par la suite à l’aide d’un tableur.

Du fait de l’éloignement du bâtiment des bureaux des chercheurs, et pour leur confort, le système est connecté au réseau interne pour permettre l’accès à distance à la face-avant et à toutes ses commandes.
Des données significatives

Le suivi automatique des pilotes et leur contrôle à distance développés sous LabVIEW permettent de collecter une quantité de données très importante. Ces données montrent clairement que la nature de l’effluent recirculé a un impact important sur la mise en place de la méthanogenèse dans les massifs de déchets, et qu’il est possible d’augmenter la production de biogaz à moindre coût.

Par Bernard Loiseau, IRSTEA
Source : sine.ni.com

ULCOS, un procédé de captage-stockage de CO2

Le site de Florange y voyait un espoir de survie. ULCOS, dont ArcelorMittal est un partenaire clé, était la preuve des investissements à long terme du sidérurgiste. Malheureusement pour les Lorrains, Mittal vient d’annoncer que Florange n’accueillerait pas le démonstrateur de captage-stockage. Adieu « nouvelle jeunesse et compétitivité » comme le prédisait en 2009 Jean-Pierre Birat, métallurgiste d’ArcelorMittal et animateur du projet ULCOS.

ULCOS (Ultra-Low Carbon dioxide Steelmaking), est un projet porté par 48 entreprises et organisations européennes avec pour objectif affiché la réduction de 50% des émissions en CO2. ULCOS 1 est l’étape de démonstration, et ULCOS 2 devra servir à analyser les technologies étudiées lors de la première phase pour en quantifier l’impact et l’efficacité en milieu industriel. Ces tests devraient durer jusqu’en 2015 et les résultats appliqués sur les sites de production d’ici 15 à 20 ans.

En pratique, la technologie de captage et stockage de carbone (CSC) prévue consiste à récupérer le CO2 émis par les hauts fourneaux, à le transporter par pipeline sous terre, jusqu’à 1500 m de profondeur, puis à le confiner dans des zones géologique sûres. Au-delà des avantages écologiques à limiter l’émission des gaz à effet de serre,  les sidérurgistes pourraient ainsi économiser sur le coût des quotas imposés aux industriels. Une économie censée doper la compétitivité des sites ayant recours à cette technologie. Mais cet argument ne pèse pas lourd aujourd’hui car le coût des investissements est telle qu’il est finalement moins cher pour les industriels de ne pas limiter leurs émissions de CO2 et de payer les dépassements de quotas. Avec la tonne de carbone à 8 euros sur le marché européen, cela n’incite pas les sidérurgistes à faire des efforts, contrairement à d’autres pays comme la Norvège où la tonne est à 55 euros. Beaucoup plus dissuasif !

Alors où en est ULCOS ? Pour l’instant, il manque des financements européens pour continuer ce projet. De plus, les nombreux changements de majorité dans différents pays européens, la crise économique poussant à resserrer les budgets, menacent le programme. La commission européenne doit faire un point le 20 décembre.

A ce jour, seuls huit démonstrateurs  sont opérationnels parmi les 75 en cours de développement, aux Etats-unis, en Norvège, au Canada et en Algérie, permettant de stocker 23 millions de tonnes de CO2 chaque année.

Par Audrey Loubens, journaliste scientifique

Windows 8 enterre le BIOS

Exit Windows 7, le nouveau système d’exploitation  Windows 8 a pris place dans tous les PC du monde. Petite révolution, Windows pourra être utilisé sur smartphones et tablettes via une version dédiée Windows RT, sa nouvelle interface Modern UI ayant d’ailleurs été pensée pour les écrans tactiles. Microsoft espère ainsi s’imposer sur le marché très convoité des terminaux mobiles. Autre nouveauté, Microsoft propose avec son système d’exploitation le Windows store, une boutique applicative. Le concept de l’AppStore ou GooglePlay n’est pas loin… Parmi les optimisations qui facilitent l’utilisation quotidienne, on retrouve une très grande rapidité, notamment au démarrage, ce qui est toujours appréciable. En revanche, fini le menu Démarrer ! Une habitude à changer, il faut dorénavant se servir de la touche Windows puis taper le nom du logiciel à lancer. Mais les plus nostalgiques regretteront le BIOS, présent sur nos PC depuis 1970 ! Le BIOS est devenu obsolète puisque ne fonctionnant pas avec les disques durs de plus de 2 téraoctets. Il n’en faut pas plus pour sceller son destin et le remiser au rang d’antiquité.

Place donc au nouveau BIOS, baptisé UEFI. Parmi les nouvelles fonctionnalités d’UEFI, de bonnes performances en termes de sécurité, plus particulièrement contre les virus de type rootkits qui passent souvent au travers des anti-virus classiques. En revanche, un PC certifié Windows 8 ne pourra pas démarrer autrement qu’avec la version d’origine, empêchant de facto l’utilisation d’autres systèmes d’exploitation. Un Secure Boot pas vraiment du goût de tout le monde, et encore moins des adeptes de Linux. Néanmoins, la fondation Linux a développé un pré-programme permettant le lancement de n’importe quel système d’exploitation, mais il est évident que le Secure boot est un frein à l’utilisation de logiciels libres. Une situation de monopole décidément toujours contestable.

Par Audrey Loubens

La révolution des robots : LabVIEW répond aux besoins d’un marché émergent

Les robots servent à passer l’aspirateur dans nos maisons, à assembler des voitures hybrides, à effectuer de façon autonome des missions de reconnaissance militaire. Ils servent aussi bien au gouvernement, qu’à la défense, au médical, à l’agriculture, à l’exploitation minière, à l’espace ainsi qu’à de nombreuses autres industries en effectuant des tâches réputées laborieuses, sales ou dangereuses pour l’Homme.

Malgré toutes ces promesses, les experts industriels sous-entendent que cette émergence n’en n’est qu’à ses prémices et que l’industrie de la robotique sera l’un des secteurs les plus évolutifs des dix prochaines années. Dans son article paru dans Scientific American, intitulé « A Robot in Every Home » (Un robot dans chaque foyer), Bill Gates déclare que l’industrie robotique est en train d’évoluer de la même façon que l’industrie des ordinateurs il y a 30 ans de cela. Avec des technologies novatrices comme le traitement multicœur et les FPGA (Field-Programmable Gate Arrays), les fabricants de robots ont accès à un processeur plus petit, plus rapide et moins coûteux. Ils peuvent aussi choisir parmi toute une variété de capteurs « sur étagère », des capteurs MEMS (micro-système électromécanique) à infra-rouge économiques aux télémètres laser très complexes, ou aux LIDARS, qui reproduisent des modèles 3D complexes d’un environnement ambiant.

Alors, pourquoi l’industrie robotique n’a-t-elle pas encore atteint son apogée ? « Les fonctionnalités matérielles sont presque abouties : il ne reste plus qu’à peaufiner le caractère logiciel », souligne Gates dans son article.

Les roboticiens en font plus avec LabVIEW

Bon nombre de concepteurs de robots, comme monsieur Barrett, ont trouvé une réponse à leur appel de détresse dans LabVIEW ; ses fonctionnalités fondamentales intégrées en font une plate-forme de programmation tout à fait idéale pour la robotique.

Par exemple, au moment d’agrémenter le secteur de l’exploration spatiale avec des solutions robotiques, Alliance Spacesystems doit d’abord rapidement prototyper et tester les concepts pour prouver leur faisabilité aux clients comme la NASA. Alliance Spacesystems a trouvé un avantage stratégique via la plate-forme de conception graphique de systèmes NI et cela fait plus de dix ans qu’ils utilisent LabVIEW pour le développement robotique rapide. « Ce qui pouvait prendre des années à prototyper prend désormais quelques mois seulement avec LabVIEW », précise Sean Dougherty, conseiller technique en mécatronique. « NI offre la combinaison d’outils de conception graphique de systèmes simples d’emploi et intuitifs, qui continuent à offrir la puissance et la souplesse nécessaires pour faire les choses indispensables avec un système embarqué complexe. »

Dr. Thomas Bewley, professeur au Laboratoire de robotique coordonnée à l’Université de Californie, San Diego, a utilisé LabVIEW pour créer des conceptions robotiques innovantes comme Switchblade, petit robot mobile à chenilles qui manipule une grosse masse à son extrémité pour se hisser et s’équilibrer sur un point. Switchblade peut effectuer des manœuvres tout à fait particulières, comme monter des marches, lors de missions de recherche et de sauvetage. Il a été complètement conçu et validé en moins d’un mois en utilisant le Module LabVIEW Control Design and Simulation. Lorsque s’il s’est agi de créer un prototype physique, l’intégration transparente entre LabVIEW et les cibles de traitement embarqué, comme NI Single-Board RIO, a donné à Bewley la capacité de porter son code de rétro-action à boucle fermée sur son matériel embarqué en quelques minutes seulement. Le processeur PowerPC 400 MHz embarqué, combiné au FPGA à 2 millions de portes, a laissé beaucoup de puissance processeur pour le traitement vidéo et pour d’autres tâches nécessaires aux missions de recherche et de sauvetage.

Les ingénieurs de TORC Technologies ont utilisé LabVIEW pour gagner un train d’avance au moment de créer le véhicule sans pilote le plus rapide au monde, qui comptabilise des vitesses à 102 mph. Michael Fleming, PDG de TORC Technologies, dit « Nous voyons des sociétés de robotique sophistiquée passer trop de temps à réinventer la communication entre capteurs, les unités de puissance, et les détails en termes de puissance au lieu de se concentrer sur les problèmes de perception, de planification et de contrôle de haut niveau.” Le réseau NI de centaines de capteurs, d’actionneurs et de drivers d’instruments a évité à TORC Technologies de créer des stratégies « faites maison » pour une solution autonome de commandes électriques de conduite automobile pour un véhicule Ford Escape Hybrid. En outre, étant donné que LabVIEW est une plate-forme de conception ouverte, qui peut lancer des scripts de fichiers.m sur des cibles temps réel et porter du code C ANSI sur des FPGA en utilisant l’interface ouverte C, TORC Technologies a créé une solution de traitement distribué hétérogène, qui utilisait un système NI CompactRIO pour gérer la fusion des capteurs et le contrôle des commandes électriques de conduite automobile ainsi que deux serveurs à quatre cœurs fonctionnant sous les systèmes d’exploitation Linux et Windows afin d’effectuer des algorithmes de perception, de planification et d’action.

L’apogée de l’industrie robotique aura lieu lorsque les roboticiens auront trouvé leur solution de programmation logicielle. Barrett, Dougherty, Bewley et Fleming sont autant d’exemples d’ingénieurs en mécanique, d’ingénieurs électriques, d’experts en contrôles et d’informaticiens qui sont devenus des roboticiens accomplis capables de rapidement prototyper et construire des conceptions de robots sophistiqués en utilisant LabVIEW.

Par Emilie Kopp, ingénieure marketing spécialisée en robotique chez National Instruments.

Source : zone.ni.com/devzone/cda/pub/p/id/1053

Le graphène peut bel et bien s’utiliser comme semi-conducteur

Le graphène passionne les chercheurs : une mobilité électronique exceptionnelle, une forte conductivité thermique, une stabilité chimique et la possibilité de contrôler sa conductance via un simple champ électrique en font un matériau très prometteur. Mais pour utiliser toute l’étendue de ses pouvoirs, le graphène devait se présenter sous une forme semi-conductrice. Une équipe franco-américaine incluant des scientifiques du Georgia Institute of Technology (USA), du CNRS, du synchrotron SOLEIL, de l’Institut Jean Lamour (CNRS/Université de Lorraine, Nancy) et de l’Institut Néel (Grenoble) vient d’y parvenir.

Ils ont réussi à mettre au point une technique de production de nano-bandes de graphène semi-conductrices grâce au contrôle de la géométrie du substrat sur lequel a lieu la croissance du graphène. Cette maîtrise est rendue possible en gravant des nano-sillons sur une surface en carbure de silicium (SiC). Sur ce substrat, le graphène croît sous la forme d’un ruban dont le bord, lié à du graphène métallique, est semi-conducteur. Cette technique présente deux avantages majeurs : travailler à température ambiante,  et obtenir une bande de graphène semi-conductrice cinq fois plus fine que le record détenu par IBM en lithographie ! De plus, un frein à l’utilisation massive du graphène en micro-électronique est son coût de fabrication. Or, l’équipe franco-américaine est parvenue à produire des dizaines de milliers de ces rubans aux bords semi-conducteurs, ce qui rend envisageable leur production à l’échelle industrielle.

Par Audrey Loubens, journaliste scientifique

News Informatique : décembre 2012

Evo-Mouse : une souris adaptée aux mal-voyants

Deux étudiants ingénieurs (du Manipal Centre for Information Science, filière systèmes intégrés) ont gagné le troisième prix du « STM32 Open World Application Design Contest » organisé par Raisonance-ST France pour la conception de la souris Evo, première souris d’ordinateur destinée aux mal-voyants. Ce concours de design a réuni des inventeurs du monde entier et a été organisé en partenariat avec Concourse Autonomie, ST Ericsson et d’autres grands groupes internationaux.

« La Souris Evo » est un système incorporé, développé par les frères Navin et Nitin Bhaskar qui fonctionne comme une réelle interface entre une personne malvoyante et l’ordinateur. Quatre boutons permettent d’accéder à des fonctions multiples et configurables. Un clic sur l’un d’eux et la fonction assignée active, par exemple, l’ouverture du traitement de texte. Toutes ces actions peuvent être complétées avec les messages oraux. De plus, il peut aussi être utilisé pour lire à haute voix les flux RSS. « La Souris Evo » est compatible avec les deux systèmes d’exploitation Windows et Linux. Les deux ingénieurs avaient, également, reçu un prix d’excellence au concours international du « Circuit Cellar magazine » sponsorisé par NXP Semiconductor.

Source : bulletins-electroniques.com

Les salaires de la Cybersecurité

L’annonce par le Washington Post de la directive secrète numéro 20 du Président Obama autorisant le Département de la Défense à réagir plus vigoureusement face aux cyber-menaces est l’occasion de revenir sur les emplois liés à la cybersécurité.

Alimenter les entreprises et les administrations par les formations en STEM

Les nouvelles formations en cybersécurité reconnaissent de plus en plus les aspects transversaux de la sécurité et s’ouvrent aux sciences humaines et sociales pour ce qui concerne les aspects humains. Il reste toutefois préférable d’envisager un solide socle de formation en Science, Technology, Engineering and Mathematics (STEM) pour la plupart des postes en cybersécurité. Les jeunes qui envisagent un cursus brillant en STEM doivent cependant faire le choix de la formation mathématique approfondie dès l’âge de 13-14 ans alors que leur emploi ne se profilera que 8 à 14 ans plus tard selon qu’ils attaqueront le marché du travail avec un BSc ou qu’ils poursuivront leurs études jusqu’à la thèse.

Un rapport de 139 pages récemment publié par le National Academy of Sciences montre des formations en STEM relativement bien fournies même si on observe un vieillissement de la population active par exemple au Département de la Défense. Ce même Département estime toutefois qu’il aura des difficultés à pourvoir tous les postes prévus en cybersécurité. Actuellement, la moitié de ses employés civils en informatique ont un bachelor (32%) ou un PhD (16%). Le rapport montre un décrochage en 2004 du nombre de Bachelor délivrés en informatique chaque année pour atteindre un peu moins de 40.000 en 2008 avec un salaire annuel moyen relativement stable autour de 70.000 dollars pour un programmeur.

Selon le même rapport, la période 2010-2020 devrait voir le nombre d’emplois dans le domaine des mathématiques et de l’informatique croître de 22% alors que 19% des personnes employées partiront à la retraite pendant la même période. Le nombre total de recrutements attendus est estimé à 1.437.000. Concernant l’informatique, le rapport indique un salaire annuel moyen de 103.150 dollars pour un chercheur, de 101.600 dollars pour un ingénieur, de 97.960 dollars pour un développeur et de 78.190 dollars pour un formateur.

Hausse des salaires dans la cybersécurité et bonus significatifs à l’expérience

Les chiffres précédents montrent un marché propice aux revalorisations salariales. Les salaires d’embauche en cybersécurité dans l’administration (principalement DHS et FBI) évoluent entre 60.000 dollars et 115.000 dollars selon l’expérience. Un article plus ancien concernant la région de Washington indique une hausse de 10,1% des salaires dans le domaine de la cybersécurité alors que la moyenne toutes activités confondues a été de seulement 2,1%. Les augmentations vont de 43% pour les plus haut salaires (150.300 dollars pour un analyste de niveau V) à 3% à l’autre bout du spectre (66.800 dollars pour un analyste de niveau I). L’article note aussi qu’à postes équivalents, les entreprises ont tendance à rétribuer généreusement l’ancienneté afin de conserver leurs employés.

Ce besoin de personnel avec une qualification scientifique élevée et une expérience de terrain en cybersécurité correspond à une tendance durable car l’agenda technique est chargé même en dehors de la possibilité d’événements terroristes ou belliqueux. Il faudra probablement compter sur des scientifiques aguerris pour appréhender pleinement les tenants et les aboutissants des nouvelles règles d’engagement en matière de cyber-défense et de la révision 4 de la norme 800-53 en préparation au NIST, pour comprendre pleinement les leçons du livre de Sample et Swetnam, ou enfin se positionner vis-à-vis de l’initiative NSTIC.

Source : bulletins-electroniques.com

Les mathématiques déchiffrent les réseaux sociaux

Prouver, à travers l’observation de millions d’individus, que le profil psychologique d’une personne influence son comportement et la structure de son réseau social… Pas facile ! C’est pourtant ce qu’a accompli une équipe interdisciplinaire de chercheurs issus des universités de Namur, Cambridge et Lyon.

Les chercheurs en psychologie tentent depuis longtemps de déterminer, par des expériences et des observations, comment la psychologie d’une personne influence son comportement et sa sociabilité. Cet objectif s’est longtemps heurté à des contraintes matérielles, les études se limitant souvent à de petits échantillons souvent peu représentatifs. « Les réseaux sociaux virtuels se sont dès lors présentés comme une aubaine. Cependant, jusqu’ici, les études qui les utilisent prenaient peu en compte la dimension personnelle : le réseau est formalisé et chacun de ses membres est un noeud du réseau comme un autre, interchangeable. L’objectif était donc de faire une expérience permettant de relier les deux aspects du problème: le quantitatif et le qualitatif », explique Renaud Lambiotte, professeur au Département de mathématique et membre du centre de recherche naXys.

L’apport des systèmes complexes

La recherche tire avantage de données récoltées par une équipe de psychologues de l’Université de Cambridge, qui propose depuis plusieurs années des tests psychologiques via Facebook. Au début du questionnaire, les personnes sont invitées à autoriser, si elles le souhaitent, l’utilisation de leurs données à des fins scientifiques. 40 à 45% des participants ayant répondu favorablement, l’échantillon comporte plusieurs millions d’individus offrant des informations sur leur profil psychologique et leur comportement social.

« Avec les réseaux sociaux, les sciences sociales et psychologiques ont donc trouvé leur terrain d’expérience ! Cela me paraît important de se confronter avec l’expérience pour essayer d’y trouver des règles sous-jacentes. Pour analyser ces grands ensembles de données complexes, nos algorithmes sont bien utiles » explique Renaud Lambiotte.

Ces algorithmes, qui relèvent d’un travail à la croisée de la théorie des graphes, des systèmes dynamiques et de la statistique, favorisent en effet l’analyse et la visualisation de grandes quantités de données. Pour cette nouvelle recherche, une méthode a été mise au point, en collaboration avec des informaticiens de l’Université de Lyon, pour synthétiser de manière automatique la structure du réseau des utilisateurs de Facebook, en identifiant les différents cercles (d’amis, de collègues, etc.) auxquels ils appartiennent. Les chercheurs ont dès lors pu étudier si cette structure communautaire présente des spécificités s’expliquant par le profil psychologique de la personne.

Se fondre dans la masse ou faciliter le contact

L’étude montre qu’une personne extravertie a, en moyenne, plus d’amis qu’une personne introvertie, comme on peut s’y attendre. Mais elle démontre surtout, et c’est inédit, que le niveau d’extraversion d’une personne, tel que mesuré à partir du questionnaire en ligne, est corrélé avec la manière dont son entourage est organisé. Un introverti a tendance à s’insérer dans un grand groupe et à se fondre dans la masse. Un extraverti par contre n’hésite pas à intégrer une multitude de petits groupes et à servir de contact entre ces personnes qui ne se connaissent pas.

Cambridge également pour les étudiants

La collaboration du professeur Lambiotte avec l’Université de Cambridge concerne également ses étudiants. Ainsi, dans le cadre de leur travail de fin d’études 2011-2012, les étudiants de master en sciences mathématiques à finalité spécialisée (entreprise) ont travaillé, à partir de données semblables, et développé un algorithme de recommandation. Ils ont dès lors créé un site où l’on peut, en fournissant ses données Facebook, avoir des conseils pour les cadeaux à acheter à ses amis.

Source : bulletins-electroniques.com

Top 10 des entreprises les plus innovantes dans le monde

Et le grand vainqueur est… Apple ! Malgré un iPhone 5 et un iPad mini en mal de révolution, la marque à la pomme reste la plus innovante. Google et 3M complètent le podium, Samsung s’attribuant la 4ème place. Suivent GE, Microsoft, Toyota, P&G, IBM et Amazon. A noter la progression de Samsung qui quitte sa 7ème place pour le pied du podium et l’entrée d’Amazon qui chasse Facebook.

Pour établir ce classement, Booz & Company a identifié les 1000 entreprises cotées en bourse avec le plus gros budget R&D pour l’année 2011. Puis le cabinet de conseil a épluché les chiffres d’affaire, les marges brutes, d’exploitation, nettes, les dépenses R&D ainsi que la capitalisation boursière. L’analyse de ces données a permis de classer ces 1000 entreprises en fonction de leur capacité à innover et à en tirer profit.

Car innover requiert avant tout de la méthodologie, et il n’est pas nécessaire d’avoir un budget R&D colossal pour réussir en innovation. C’est la leçon de l’étude menée par  le cabinet de conseil en stratégie Booz & Company parue le 30 octobre 2012. Pour preuve, Apple, Google et 3M, les trois leaders du classement des entreprises les plus innovantes, sont positionnées respectivement au 53ème, 26ème et 86ème rang en matière de budget R&D. « Nous constatons qu’il n’y a pas de corrélation à long terme entre le montant consacré à l’innovation et la performance financière générale d’une entreprise », explique Benoît Romac, Partner chez Booz & Company. « Ce qui importe vraiment, ce n’est pas la somme dépensée, mais la façon dont laquelle ces budgets R&D sont investis dans les talents, les processus et les outils. » Problème, la moitié des personnes interrogées estiment que leur entreprise n’est que peu ou moyennement efficace pour générer de nouvelles idées puis les convertir en produits potentiels.

Mais alors comment faire mieux ? Booz & Company en a profité pour interroger 700 spécialistes de l’innovation pour qu’ils révèlent leurs techniques préférées et mieux comprendre les outils et mécanismes utilisés en phase amont de l’innovation. Le cabinet a aussi analysé l’impact de ces approches sur la fabrication concrète de produits innovants et les performances financières induites. Parmi les techniques d’innovation on retrouve le data mining (exploration de données) à partir des réseaux sociaux, le crowdsourcing (externalisation ouverte) et le seed funding (financement d’amorçage). Mais depuis quelques temps les entreprises retournent aux méthodes plus traditionnelles, notamment l’observation du client ! Simple mais efficace, cette technique est jugée la meilleure par 42% des cadres sondés.

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur relatives à cette thématique :

Proposition de loi établissant une tarification progressive de l’énergie: remarques pratiques

Les députés François Brottes et Bruno Leroux ainsi que l’ensemble des députés PS et apparentés ont déposé une proposition de loi établissant une tarification progressive de l’énergie. Il s’agit essentiellement d’instaurer un système de bonus-malus, visant à inciter les propriétaires à investir dans la rénovation thermique des logements et bâtiments, associé à des mécanismes permettant de lutter contre la précarité énergétique.

 

Sans vouloir entrer dans les détails de la réglementation et en s’en tenant au niveau des principes voici  quelques remarques fondamentales :

  • Comme le mentionnent ses auteurs la loi sera complexe. Cette complexité résulte précisément du mélange de deux objectifs : l’amélioration des performances énergétiques et la lutte contre la précarité. Mélanger ces objectifs conduit à une loi complexe, voire illisible. La variété des situations est tellement grande que tout barème sera forcément très injuste pour certains et trop favorable pour d’autres ;
  • Il eut sans doute été préférable d’ouvrir un débat sur la précarité énergétique et les différents moyens de la rendre plus supportable avant de privilégier l’instrument proposé par la loi, ceci dans l’esprit de concertation prôné par le Président et le Premier ministre lors de la récente Conférence Environnementale. Au passage on peut déplorer que la précarité énergétique soit restée le parent pauvre de la CSPE – autour de 2% du montant annuel ! – et qu’elle a peu mobilisé la classe politique. On constatera qu’il y a eu bien moins de textes législatifs ou règlementaires sur cette question que sur l’obligation d’achat de l’électricité produite par les énergies renouvelables… L’extension de la CSPE à toutes les énergies devrait être envisagée ;
  • L’instauration du système de bonus-malus tel que proposé est très discutable. Dans son principe, ce système peut être intéressant s’il conduit à une action à courte échéance. Dans le cas particulier de la loi projetée le nombre de malus imposés étant bien supérieur au nombre de rénovations thermiques pouvant être réalisées annuellement, certains propriétaires devront attendre fort longtemps (disponibilité financière ou charge des entreprises) avant de pouvoir effectuer les travaux leur permettant d’échapper au malus*. Ce ne sera donc plus un malus mais bien une sanction.

En sens inverse, les bonus distribués aux propriétaires de logements déjà aux normes ne serviront à rien. Il est vraisemblable que ce ne seront pas les plus pauvres qui auront accès à un tarif avantageux mais ceux dont les logements sont bien isolés. Surprotéger certains aux dépends des autres aura nécessairement un effet pervers.

Si la charge de la gestion est transférée aux distributeurs le risque est grand de les voir se saisir de cette opportunité pour peser sur le prix de l’énergie. Il semblerait par contre que les services fiscaux soient parfaitement équipés pour ce faire. Il leur serait facile de faire peser directement le malus sur les propriétaires, seuls en mesure d’effectuer les investissements nécessaires.

L’examen de la loi au regard de sa compatibilité avec le droit communautaire ne sera sans doute pas superflue. Rappelons que notre tarif réglementé, qui est déjà une dérogation au droit communautaire, devrait être supprimé en 2014.

Le projet de loi parle d’augmentation « inéluctable » du prix de l’énergie. Rappelons que si transition énergétique il y a, cette transition doit nécessairement se traduire par une diminution des émissions de CO2 dans l’atmosphère. A cette occasion, l’instauration d’une taxation différentielle des sources d’énergie tenant compte de leur contenu en gaz à effets de serre, (autrement dit une taxation du carbone) devrait s’imposer.

A l’évidence, les remarques qui précèdent n’ont pas la prétention d’être exhaustives.

Par Hervé Nifenecker

*En effet, le nombre de logements anciens pouvant être rénovés thermiquement dépassera difficilement 500.000 par an, alors que le nombre de malus distribués devrait être de l’ordre de 20 millions. Certains propriétaires devraient donc attendre près de 40 ans avant de pouvoir réaliser les investissements leur permettant d’échapper au malus.

Hervé Nifenecker a fait l’essentiel de sa carrière comme physicien des particules et des noyaux.
Au début des années 1990 il a collaboré avec Carlo Rubbia pour réaliser les premières expériences sur les systèmes sous-critiques alimentés par accélérateurs. Il s’est alors intéressé à la physique des réacteurs en créant, avec Jean Marie Loiseaux,  le groupe d’étude de réacteurs innovants à l’IN2P3 (LPSC Grenoble) et en publiant « Accelerator Driven Subcritical Reactors ».
Elargissant son propos à l’ensemble de la problématique énergétique il a créé, avec quelques autres, la commission énergie de la Société Française de Physique. Il est le co-auteur de « L’énergie dans le monde : bilan et perspectives » et de « L’énergie de demain : techniques, environnement, économie » et l’auteur de deux livres : « l’énergie nucléaire a-t-elle un avenir ? » et « Le nucléaire : un choix raisonnable ? »
Enfin il a créé le collectif « Sauvons le Climat » dont il est président d’honneur.
Ce qu’en pense l’association « Sauvons le Climat »

« Sauvons le Climat » apprécie les intentions de cette proposition de loi mais considère que les modalités pratiques proposées sont hautement discutables.

« Sauvons le Climat » estime notamment que le vote de ce projet de loi est prématuré. Il devrait, ce qui serait à la fois plus logique et plus démocratique, être au préalable débattu dans le cadre des débats de la Conférence Environnementale chargée de définir les divers aspects d’une transition énergétique.

Cette Conférence, quoiqu’il en soit, devra par priorité, se préoccuper d’évaluer comparativement (calcul du coût du carbone évité) les moyens les plus appropriés pour réduire les émissions de gaz à effet de serre en tenant compte de la précarité des plus démunis.

Automobile : vers des fermetures d’usines inévitables

Le marché européen a diminué de 7,3% sur 11 mois par rapport à 2011 et la baisse continue. Si la capacité de production est de 17 millions de véhicules par an, le marché est de 12 à 13 millions par an. « Une usine est rentable quand elle tourne à environ 80% de sa capacité », estime François Roudier, porte-parole du Comité des constructeurs français d’automobile. « Actuellement, l’activité des constructeurs généralistes est au mieux de 60% pour certains et 40% pour d’autres donc ce n’est pas économiquement viable.   Dans ce contexte, les fermetures d’usines apparaissent inévitables.

Si le secteur automobile français emploie 450.000 personnes, la production hexagonale ne représente que 3% de la production mondiale. Cela représente 2 millions de voiture chaque année pour un total de 75 millions d’unités. La crise actuelle du secteur pose « la question de son adaptation au contexte actuel », estime Philippe Coulomb , Président d’Agir pour l’environnement.

Les véhicules neufs sont aujourd’hui tellement chers que seuls les ménages de plus de 50 ans, qui sont propriétaires, peuvent se les offrir. Ce n’est pas pour rien que l’âge moyen d’un acheteur d’automobile neuve est de 54 ans en France et celui d’un autopartageur de 35 ans ! Chaque année, 1,2 millions de voitures neuves sont vendues en France, à opposer à la vente de 5 millions de véhicules d’occasion.

Un modèle à repenser

« La saturation du marché, la saturation des voies de circulation, les contraintes liées à l’entretien, les crises et les catastrophes pétrolières, les inquiétudes sur les effets du dérèglement climatique et les alertes sanitaires liées à l’impact du diesel » remettent en cause le modèle du tout voiture hérité du siècle passé, estime Philippe Coulomb. « Il nous faut sans doute repenser le style de mobilité que nous souhaitons et ensuite seulement adapter l’outil de production aux nouveaux besoins identifiés », poursuit-il.

Le futur de l’automobile ne se joue pourtant pas en Europe, où le parc est saturé et où les citoyens sont majoritairement dans un système de renouvellement. Ce futur se joue dans les pays émergents. Importerons-t-ils notre modèle ?

Quelles ressources pour une voiture ?

Pour fabriquer une voiture, il faut 20 fois plus de matières que son poids. Une voiture de 1,5 tonne nécessite ainsi l’extraction de 30 tonnes de matériaux. Mais les voitures demandent surtout du pétrole ! 90% des transports fonctionnent au pétrole. À eux seuls, ils absorbent 70% de la consommation de produits pétroliers, très loin devant les bâtiments (17%) et l’industrie (8%). L’automobile consomme 46% de ce pétrole, les poids lourds et véhicules utilitaires légers 30%, l’avion 14%, le reste étant attribué au maritime et au ferroviaire.

Les automobiles font aussi pression sur les sols, notamment via les infrastructures de transports et l’artificialisation des sols. Les espaces artificialisés occupent aujourd’hui 10% du territoire national, dont environ la moitié pour les infrastructures de transport. 18% de l’empreinte écologique d’un Français est due aux transports.

Par Matthieu Combe, journaliste scientifique

Création d’un système de recharge rapide pour les véhicules électriques

C’est à travers l’initiative du projet Unplugged soutenu par l’Union Européenne que ce système pionnier en Europe permet de charger à présent 80% de la batterie d’une voiture en quelques quinze minutes.

Ce type de recharge, spécifiquement par induction existait déjà, mais fonctionnait avec deux limites importantes. La recharge durait des heures et nécessitait un alignement parfait du véhicule avec la plaque.

Ce nouveau système en finit avec ces problèmes et rend ainsi la technologie de l’induction plus commode pour les usagers, qui pourront même ne pas descendre du véhicule pour l’opération. Le véhicule électrique devra être équipé au préalable d’un élément récepteur sous la voiture, pour ensuite être seulement positionné sur une plate-forme de charge située au sol. Lors de la détection de la voiture par le système, la connexion sans fil lancera le transfert d’énergie d’une puissance de 50 kilowatts. L’efficacité n’altère donc pas la sécurité car ce système conserve des émissions à des niveaux très inférieurs à la limite permise.

Cette nouvelle technologie va ainsi être appliquée directement pour la recharge statique des autobus, des camions et des véhicules de tourisme dans les stations services. Et il sera aisé d’adapter chaque demande de puissance spécifique aux différentes nécessités de charge.

Source : bulletins-electroniques.com

L’essentiel de REACH 2/2 (Décembre)

Helpdesk, mise à jour du guide sur les FDS

14/12/2012
Suite à la fin de la dérogation du système CLP depuis le 1er décembre 2012, le Helpdesk France a mis à jour le document sur les fiches de données de sécurité et les dispositions transitoires. Ce document est téléchargeable dans la section « Guides et brochures » du site du Helpdesk : http://www.ineris.fr/reach-info/ ou sur :
http://www.ineris.fr/reach-admin/file_upload/File/pdf/Guides/FDS_phase_transitoire_2012.pdf

Accord entre l’ECHA et le JRC-IHCP

14/12/2012
L’Agence européenne des produits chimiques (ECHA) et l’Institut pour la protection de la santé et des consommateurs (IHCP) du Centre commun de recherche de la Commission Européenne (JRC) signent un accord de collaboration. Ce nouvel accord permettra de développer des synergies entre ces deux institutions européennes. Il ouvre la voie à l’élaboration de projets communs inclus dans un programme de coopération, qui bénéficiera des atouts des deux partenaires, sur la base de leurs connaissances sur les produits chimiques. Plus d’informations sur :
http://echa.europa.eu/view-article/-/journal_content/375128cb-c3b7-411c-a0e0-63c4103445de

L’ECHA lance une consultation publique sur un projet d’avis du SEAC sur la restriction de chrome VI dans les articles en cuir

14/12/2012
Une consultation publique sur une proposition de restriction, présenté par le Danemark, du chrome VI dans les articles en cuir a eu lieu de mars à septembre 2012. La proposition a été discutée au sein des comités de l’ECHA pour l’évaluation des risques (RAC) et analyse socio-économique (SEAC). En conformité avec le règlement REACH, l’ECHA lance aujourd’hui une consultation publique sur un projet d’avis du SEAC avec une deadline pour les commentaires fixée au 12 février 2013. Les commentaires reçus seront examinés et pris en compte par le SEAC dans son avis final, qui devrait être adopté d’ici le 15 mars 2013. Plus d’informations sur :
http://echa.europa.eu/web/guest/view-article/-/journal_content/2774c84c-5757-4746-b0ef-ff43c3e219ae

De nouvelles substances SVHC au registre d’intention

17/12/2012
13 nouvelles substances ont été inscrites au registre d’intention pour l’identification de futures substances SVHC (substances extrêmement préoccupantes). La deadline de soumission est fixée au 4 février 2013. Plus d’informations sur :
http://echa.europa.eu/registry-of-current-svhc-intentions

Le Comité des États membres identifie les premiers sensibilisants respiratoires comme substances extrêmement préoccupantes (SVHC)

17/12/2012
Le comité des États membres (MCS) s’est accordé sur l’identification de 23 substances extrêmement préoccupantes (SVHC). Parmi celles-ci, pour la première fois, trois sensibilisants respiratoires ont été retenus. Ces SVHC seront ajoutés à la liste des substances candidates par décision de l’ECHA en collaboration avec 31 autres substances qui ne nécessitent pas la participation du MSC. Ces substances peuvent ensuite être soumises à autorisation. Le Comité a également fait part de leur accord sur le projet de recommandation de l’ECHA pour l’ajout de 10 nouvelles substances à la liste d’autorisation. Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/aa39c887-b663-43e6-a92d-ee86661fa4a1

Newsletter de l’ECHA

17/12/2012
La dernière newsletter de l’ECHA est en ligne sur http://newsletter.echa.europa.eu/. Informations sur l’ECHA, enregistrements de 2013, biocides, REACH et CLP… sont à retrouver dans cette newsletter.

Nouvelle consultation publique pour la classification et l’étiquetage harmonisé de substances

18/12/2012
L’ECHA sollicite des commentaires sur de nouvelles propositions de classification et d’étiquetage harmonisés (CLH) pour trois pesticides (pyridabène, dodémorphe et acétate de dodémorphe), et deux produits chimiques utilisés dans l’industrie (imidazole et phénol dodécyl, ramifié). Les consultations publiques sont ouvertes pendant 45 jours et prendront fin le 1er février 2013. Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/8c03168d-b790-4989-88b5-eecc60b900d1
Pour accéder aux consultations :
http://echa.europa.eu/harmonised-classification-and-labelling-consultation

54 nouvelles substances sur la liste candidate

19/12/2012
L’ECHA a mis à jour la liste des substances candidates pour l’autorisation. 54 nouvelles substances y ont été ajoutées. 23 substances ont été incluses dans la liste candidate après examen par le Comité des États membres (MSC) des commentaires reçus et l’accord unanime du MSC sur l’identification de ces substances comme substances extrêmement préoccupantes. Pour les 31 autres substances, lors de la consultation publique, aucun commentaire pour contester l’identification de ces substances comme substances SVHC n’a été reçu. Par conséquent, ces substances ont été ajoutées à la liste candidate sans la participation de la MSC. La liste candidate contient maintenant 138 substances. Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/b5d76d7f-7b28-4081-bd5c-9500e01e1ab2
Substances présentes sur la liste candidate : http://echa.europa.eu/candidate-list-table

2013 : conférences en ligne 

Le calendrier des conférences du premier semestre 2013 proposées par l’UIC, le MEDDE et le Helpdesk national a été mis à jour. Les prochaines conférences porteront sur :

  • 17 janvier 2013 – L’enregistrement immédiat – Les substances ne bénéficiant pas d’un régime transitoire
  • 7 février 2013 – Les étapes de la soumission conjointe
  • 14 mars 2013 – Que faire à réception d’une fiche de données de sécurité étendue (niveau 2) ?
  • 4 avril 2013 – Le processus d’évaluation : que devez-vous savoir ?
  • 25 avril 2013 – Déposer une demande d’autorisation
  • 23 mai 2013 – Ce qu’il faut savoir pour les années à venir

Le nombre de places est limité. Inscription obligatoire sur :
http://www.uic.fr/REACH-webinars.asp

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Des Etats membres font pression sur la Commission européenne pour mieux encadrer les nanomatériaux

Selon Chemical Watch3, cela s’est passé lors d’une récente réunion des « CARACAL ». Les représentants des Etats membres ont réitéré auprès de l’exécutif de l’Union Européenne le message que dix d’entre eux (dont la France), ainsi que la Croatie, avaient envoyé à la Commission européenne cet été : dans une lettre datée de juin adressée à la Commission, ils avaient demandé à cette dernière de prendre des mesures pour garantir la santé des citoyens européens et la protection de l’environnement en veillant à ce que la législation européenne prenne en compte les risques possibles associés à la production et à l’utilisation des nanomatériaux. La lettre demandait également à la Commission de combler les lacunes du règlement REACH concernant les nanomatériaux.

Dans sa communication d’octobre sur le deuxième examen réglementaire sur les nanomatériaux, la Commission a largement ignoré les demandes exprimées par ces Etats.

Aussi les signataires de la lettre ont-ils réitéré, lors de la toute récente réunion des « Caracal », leur pression sur l’exécutif de l’UE afin qu’il revoit les seuils de tonnage prévus par REACH, la surveillance du marché et les inventaires des produits et le raccourcissement du temps nécessaire pour obtenir des informations concernant les nanomatériaux sur le marché.

Car ces Etats ne se satisfont pas de la modification marginale de la législation européenne (limitée aux annexes de REACH) promue par la Commission.

… et déploient, faute de mieux, des stratégies nationales

A défaut d’une politique volontariste au niveau européen, les Etats membres sont pour l’instant condamnés à agir à l’échelle nationale, qui n’est pas la plus pertinente mais la seule de leur ressort :

  • La France, premier pays à avoir instauré une déclaration des nanomatériaux obligatoire à partir de 2013, a ouvert la voie : d’autres mécanismes plus ou moins similaires sont en cours d’adoption dans plusieurs pays européens ;
  • Le Danemark pourrait rendre obligatoire, à compter de 2014, l’enregistrement par les producteurs et les importateurs des nanomatériaux et des produits contenant ou relarguant des nanomatériaux, avec des différences notables par rapport à l’approche française8.
  • La Belgique et les Pays-Bas envisagent de mettre eux aussi en place une déclaration obligatoire ;
  • L’Italie pourrait opter pour une déclaration basée sur le volontariat uniquement ;
  • L’Allemagne envisage de rendre publiques avant Noël des propositions pour remédier à cette situation ;
  • L’Italie a déclaré qu’elle allait faire connaître sa position après avoir consulté les acteurs concernés sur la position de la Commission ainsi que sur le « nano patch » proposé en novembre par le Center for international environmental law (CIEL), ClientEarth et les Amis de la Terre Allemagne (BUND) : ce « nano patch » a pour but de remédier aux lacunes de la législation européenne existante de façon plus flexible, efficace et rapide que par le biais de longues et fastidieuses procédures de révision ;
  • La Suède a élaboré une proposition de réglementation spécifique nano à l’échelle européenne qu’elle n’a pas encore rendue publique mais qu’elle a partagée avec les membres du CASG Nano.

Contestée, la Commission vient d’annoncer la tenue d’une journée d’échanges sur les nanos, ouverte aux parties prenantes, le 30 janvier 2013

La Commission vient d’annoncer la tenue d’un atelier sur le deuxième examen réglementaire relatif aux nanomatériaux, à Bruxelles, le 30 janvier prochain. Cette journée d’échanges est ouverte aux « parties prenantes » (syndicats, associations, industries, …) : vous pouvez vous inscrire, dans la limite des 250 places disponibles. Un pré-programme est en ligne, sur le site de la Commission.

L’objectif de cette initiative reste incertain : mieux expliquer la position de la Commission, et donc défendre le statu quo, ou l’ouvrir réellement à la discussion et envisager collectivement des améliorations possibles ?

Les ONG les plus actives au niveau européen seront particulièrement vigilantes à ces aspects lors des échanges (qui seront retransmis en ligne). Parmi elles sont déjà mobilisés : l’Association européenne pour la coordination de la représentation des consommateurs dans la normalisation (ANEC), le Bureau européen de l’environnement (EEB), le Bureau européen des unions de consommateurs (BEUC), les Amis de la Terre Allemagne (BUND), la Confédération européenne des syndicats (CES ou ETUC), le Center for international environmental law (CIEL), ClientEarth, la European environmental citizens’ organisation for standardisation (ECOS), l’Institut syndical européen (ETUI), Women in Europe for a Common Future (WECF)

La balle est aussi dans le camp du Conseil des Ministres et des députés européens

De l’aveu même de la Commission, si une majorité d’Etats membres, le Conseil des ministres ou le Parlement européen, s’emparent de ce sujet et appellent à leur tour à un encadrement plus ambitieux des nanomatériaux, la Commission serait contrainte de revoir sa position.

Les députés Verts du Parlement européen, notamment le Suédois Carl Schlyter, sont parmi les plus proactifs sur le sujet. Ils ont déjà reproché à la Commission européenne de trop « traîner des pieds » concernant l’encadrement des nanomatériaux en octobre dernier et pourraient être rejoints par d’autres.

En mars dernier, les députés européens du Science and Technology Options Assessment (STOA) avaient ainsi suggéré 11 différents chantiers, parmi lesquels :

  • Mandater une étude sur l’opportunité et la faisabilité d’un nouveau cadre réglementaire pour les nanotechnologies ;
  • Examiner si, et dans quelle mesure, les réglementations favorisant la traçabilité des matériaux doivent être adaptées au cas des nanomatériaux ;
  • Soutenir la mise sur pied et la mise en œuvre d’un système de notification obligatoire des produits contenant des nanoparticules, accessibles le cas échéant au grand public afin que les consommateurs puissent faire leurs propres choix de façon informée et que les agences sanitaires puissent intervenir immédiatement si de nouvelles indications concernant des dangers avérés apparaissaient.

A suivre donc…

Source : veillenanos.fr/wakka.php?wiki=ComEurPressionEmFin2012

News Environnement : décembre 2012

La hausse du niveau des océans limitée temporairement

Le stockage dans le manteau neigeux de l’eau de fonte des glaces du Groenland limite temporairement la contribution de l’île à la hausse du niveau des océans.

La fonte de la calotte glacière du Groenland s’accélère et l’année 2012 apparaît déjà comme une année record en matière de dégel. Les conséquences potentielles de cette fonte sur le climat et la montée des océans sont telles que, depuis plusieurs années, l’île du Groenland et sa calotte glacière font l’objet d’une surveillance étroite par les chercheurs. Parmi ceux-ci, Xavier Fettweis, chercheur en climatologie à l’Université de Liège, a mis au point un modèle mathématique étudiant les différents scénarios possibles. Si ce modèle confirme l’accélération de la fonte, par contre il ne prend pas encore en considération un phénomène qui vient d’être révélé dans la revue Nature par des chercheurs américains travaillant en partie à partir des sorties du modèle conçu par Xavier Fettweis.

Dans cette publication, les chercheurs américains (des universités du Colorado, du Wyoming et du Montana) soulignent le rôle important d’une zone dite « de percolation » : l’eau de fonte ne rejoint pas directement les océans mais s’infiltre dans les espaces vides de la couche de neige, y reste et regèle en hiver. Ce phénomène ne contredit pas les prévisions des modèles de Xavier Fettweis mais en postpose d’une dizaine d’années au plus la réalisation. Pendant ce laps de temps, la contribution du Groenland à la hausse du niveau des mers est, en partie du moins, compensée par le stockage de l’eau dans le manteau neigeux de l’île. « Dans mon modèle, explique Xavier Fettweis, je considère que si la quantité d’eau liquide présente dans le manteau neigeux est supérieure à 7%, l’eau de fonte s’écoule vers l’océan. Or, les Américains montrent que certaines zones de la calotte ont une capacité de stockage beaucoup plus élevées. »

Si beaucoup de doute subsistent, il est certain néanmoins que la calotte du Groenland contribuera de manière significative à l’élévation du niveau des mers. « Tous les effets y contribuent, poursuit Xavier Fettweis. En fondant, la calotte perd de l’altitude et se réchauffe, ce qui accélère la fonte. La neige qui fond se salit et absorbe plus d’énergie, ce qui emballe également la fonte. » Tout contribue à la fonte mais celle-ci s’étalera cependant sur plusieurs centaines, voire plusieurs milliers d’années avant de voir disparaître la calotte du Groenland.

2012 : une année charnière ?

Depuis 4 millions d’années, la pérennité de la calotte glacière du Groenland est assurée par des chutes de neige qui s’accumulent au centre de l’île et se transforment en glace. Jusqu’il y a peu, le bilan entre les gains (les chutes de neige) et les pertes (la fonte des glaces, le détachement d’icebergs) de masse était proche de zéro et la calotte était à l’équilibre. Malgré l’extension constante de la zone de fonte, la calotte se maintient en équilibre grâce à la dynamique des glaces, qui redistribue la masse neigeuse accumulée au centre vers les bords de la calotte.

Cependant les fontes record observées ces derniers mois en 2012 (qui trouvent pour origine non seulement le réchauffement climatique mais aussi une modification de la circulation atmosphérique estivale) font craindre un renversement de situation. En août 2012, le bilan de masse en surface du Groenland a atteint le minimum absolu enregistré depuis au moins 50 ans. L’équilibre est rompu, la fonte et le détachement d’icebergs dépassant les arrivages de neige. Les conditions atmosphériques des prochains mois seront dès lors déterminantes pour le bilan de masse 2012, qui pourrait s’avérer significativement en déséquilibre global pour la première fois de l’histoire du Groenland.

Source : bulletins-electroniques.com

La tête dans les nuages

Le CAIPEX, Cloud Aerosol Interaction and Precipitation Enhancement Experiment, est un programme de 7,2 millions d’euros d’une durée de 3 ans financé par le ministère des Sciences et Technologies et coordonné par l’Indian Institute of Tropical Meteorology de Pune. Il a pour but de mettre en place une méthode d’ensemencement des nuages pour augmenter le volume de précipitations de trois états indiens souffrant de pénurie en eau, le Maharashtra, le Karnataka et l’Andhra Pradesh.

La première phase de ce programme, en 2009, a permis d’observer et de caractériser différents modèles de nuages durant la mousson en fonction de la température, du vent, des gouttes d’eau, et des aérosols. Pour la deuxième étape de ce programme, des données comparatives de ces nuages à différentes altitudes et dans différentes localités du territoire indien ont été récoltées.

Les résultats de ces deux premières étapes ont montré qu’il était possible de mener des expérimentations de pluie artificielle en Inde. La troisième étape qui se finit cette année, va permettre d’identifier la méthode capable d’améliorer les précipitations, en utilisant par exemple des sels ou des balises hygroscopiques.

Les résultats de cette étude ont été publiés dans 15 articles de journaux internationaux et seront transmis au gouvernement. Durant la mise en application de cette méthodologie, l’Indian Institute of Tropical Meteorology aura vocation à aider les Etats à gérer les précipitations et les apports en eau à la fois en donnant des conseils sur l’installation des plateformes techniques et dans l’interprétation des résultats.

Source : bulletins-electroniques.com

Comment les coraux ont essuyé une vague de chaleur lors de la période glaciaire

Plusieurs études montrent qu’il faut s’attendre à une perte de corail dans les régions les plus chaudes. En effet, les récifs coralliens souffrent des changements climatiques actuels : le stress thermique conduit à une croissance réduite et à un blanchissement des coraux, un phénomène traduisant l’expulsion des algues symbiotiques dans le tissu corallien. Néanmoins, des changements ont été observés chez les coraux situés sous de hautes latitudes, mais les récifs près de l’Equateur arrivent à maintenir une santé relativement bonne, ce qui ne fût pas le cas par le passé.

L’équipe de recherche internationale dirigée par Wolfgang Kiessling, chercheur invité au Muséum d’Histoire naturelle de Berlin, a examiné la distribution des coraux il y a 125.000 ans, époque ayant elle aussi connu un réchauffement climatique global. Lui et son équipe en ont conclu, grâce aux spécimens de coraux fossiles, qu’une perte de biodiversité importante avait eu lieu dans les océans équatoriaux à cette période.

Ce réchauffement mondial massif s’est produit au milieu de la période glaciaire et a entraîné des températures moyennes d’environ 1°C au-dessus des températures actuelles. « Ce réchauffement a conduit à une distribution très différente des coraux par rapport à aujourd’hui », a déclaré Wolfgang Kiessling. Les conséquences de ce phénomène ont été une augmentation de la diversité des coraux dans les zones subtropicales de l’hémisphère nord et également une diminution significative de leur présence dans les régions équatoriales.

Cette période de réchauffement était issue de phénomènes naturels dus aux fluctuations de l’orbite terrestre autour du soleil. Mais les changements de température actuels sont plus rapides et soudains, laissant peu de temps d’adaptation aux coraux. De plus, les récifs coralliens sont aujourd’hui confrontés à d’autres menaces comme l’acidification des océans.

Source : bulletins-electroniques.com

L’homme a passé plus d’un million d’heures dans l’espace

Un million d’heures, soit  41.667 jours ou encore 114 ans. L’humanité étend son territoire au-delà des limites terrestres. Spationautes, astronautes, cosmonautes, taïkonautes, quelles que soient leurs nationalités, les hommes envoyés dans l’espace ont contribué à faire avancer la science et à repousser toujours plus loin les limites de la connaissance. Depuis Youri Gargarine, le premier homme envoyé dans l’espace en 1961, seules quelques centaines d’élus ont pu faire le voyage, et seulement quelques dizaines de femmes dont la Française Claudie Haigneré. Il faut dire que la sélection est rude. Partir dans l’espace requiert une excellente condition physique, un très bon niveau scientifique, la maîtrise de plusieurs langues dont l’anglais et le russe pour les missions à bord de la station spatiale internationale (ISS), mais aussi des qualités psychologiques hors normes pour affronter des stress intenses, mais surtout, cohabiter avec les autres dans un espace aussi confiné que celui de l’ISS, dans des conditions de vie extrêmes.

Parmi ces hommes et femmes d’exception, on retrouve très logiquement une majorité d’Américains puisqu’ils ont été 335. Les Russes arrivent en deuxième position avec 115 cosmonautes. Pourtant, ce sont eux qui ont passé le plus de temps dans l’espace du fait de missions de longue durée. Si l’on regarde au niveau individuel, Valeri Polyakov est celui qui a séjourné le plus longtemps dans l’espace avec près de 438 jours dans la station MIR.

Avec les séjours d’environ 6 mois pour l’ISS, le temps passé par l’homme dans l’espace va continuer à s’accumuler rapidement. Sans compter les débuts du tourisme spatial qui permettra d’envoyer en orbite des citoyens lambda, lambda mais riches !

Par Audrey Loubens, journaliste scientifique

Nasa, CNRS, tous tentent de convaincre qu’il y aura bien un 22 décembre 2012

Après le 31 décembre 1999, le 31 décembre 2000 ou encore le 11 septembre 2011, c’est désormais à la date du 21 décembre que nous avons rendez-vous avec la fin du monde. Nous ? Non, plutôt quelques paranoïaques, souvent adeptes de sectes et friands d’apocalypse. Pourtant, à l’approche de l’échéance, de plus en plus de personnes s’interrogent. Et si c’était vrai ? Et si les Mayas avaient raison ? Ces questions irrationnelles font bondir bon nombre de scientifiques, mais force est de constater que la préoccupation est grandissante. Pour enrayer la propagation de cette peur, plusieurs organismes accentuent leur communication, espérant lutter contre l’ignorance, source de toutes les craintes.

En France, le CNRS a mis en ligne une vidéo d’un quart d’heure analysant la culture Maya, leur calendrier, comment ils observaient le ciel et  comment ils s’en servaient pour alimenter leurs prédictions. On y apprend d’ailleurs qu’il n’existe aucune représentation de ce calendrier, les images trouvées sur internet étant des faux comme des calendriers d’autres cultures par exemple. Mais surtout, le CNRS explique très clairement le fonctionnement du calendrier et la chronologie Maya, basée sur des cycles. En réalité, d’après le calendrier Maya, c’est la fin d’un long cycle de 5.000 ans et non une fin du monde qui est annoncé à une date coïncidant à celle du 21 décembre 2012 par certains chercheurs. Ouf ! Nous voilà sauvés…De plus, d’autres scientifiques estiment que la fin du cycle correspond en fait à une date ultérieure de plus de 200 ans.

De son côté, la NASA opte pour un ton moins scolaire en publiant une vidéo de cinq minutes titrée « Pourquoi la fin du monde ne s’est pas produite hier ». Une approche décalée, surfant sur les codes de la science-fiction pour mieux lutter contre l’irrationnel ! Censée être visionnée le lendemain du jour fatidique, elle explique pourquoi nous sommes encore là : c’est qu’il n’y a pas eu de fin de monde. Mais le contenu est similaire : décryptage de la culture Maya, de leur calendrier et de la notion de cycles, références d’experts… Sans oublier la preuve irréfutable que le ciel ne va pas nous tomber sur la tête : quand on regarde dans le ciel, on ne voit aucun astéroïde en approche ! Ceux qui ont encore un doute peuvent s’informer sur www.nasa.gov/2012. Espérons que cela suffira à freiner les constructions d’abris « anti-fin du monde », la panique ou pire, des suicides.

Par Audrey Loubens, journaliste scientifique

L’essentiel de REACH 1/2 (Décembre)

Publication d’un aide-mémoire technique sur les FDS

 
L’INRS a publié un document (ED 954) sur les fiches de données de sécurité. Cette brochure s’adresse aux lecteurs des FDS de substances ou de mélanges destinés au marché français, qui sont des utilisateurs de produits chimiques, des médecins du travail, des employeurs, des salariés, des préventeurs, des membres du CHSCT… pour leur permettre de se familiariser avec les nouvelles exigences réglementaires imposées par les règlements REACH et CLP et mieux appréhender le contenu d’un tel document. Cette brochure est téléchargeable sur : 
 
 
Obligation d’étiquetage et d’emballage depuis le 01/12/2012
 
01/12/2012
Les entreprises doivent ré-étiqueter et ré-emballer conformément aux dispositions du règlement CLP, tous les substances étiquetées et emballées conformément à la directive substances dangereuses (Directive 67/548/CEE). En effet, cette obligation était entrée en vigueur au 1er décembre 2010, avec une dérogation possible de 2 ans, laquelle est maintenant terminée. Les substances dangereuses doivent continuer à être classées conformément au règlement CLP et à la directive substances dangereuses jusqu’au 1er juin 2015 (double classification à faire apparaître dans la fiche de données de sécurité). Les entreprises doivent mettre à jour en conséquence les FDS des substances et mélanges conformément à l’annexe II modifiée du règlement REACH.
 
 
Propositions d’essais évaluées par l’ECHA
 
03/12/2012
L’ECHA a examiné toutes les propositions d’essai pour tester les substances, reçues lors de la première phase d’enregistrement REACH de 2010. L’agence avait jusqu’au 1er décembre 2012 pour adresser une décision finale ou un projet de décision aux entreprises concernées. Ce délai a été tenu par l’ECHA. Il s’agit d’une étape importante dans le processus REACH, faire en sorte que les données manquantes soient remplies, mais en même temps éviter les essais inutiles sur les animaux. Plus d’informations sur : 
 
 
Résultats de REACH-EN-FORCE-2
 
04/12/2012
Les premiers résultats de REACH-EN-FORCE-2 ont été présentés lors du Forum qui s’est tenu du 27 au 30 Novembre 2012 à Helsinki. Le projet portait sur les obligations des formulateurs de mélanges et sur la qualité des Fiches de Données de Sécurité (FDS). Les résultats mettent en évidence les efforts des États membres pour établir une approche harmonisée. 29 États membres ont participé au projet avec les inspecteurs nationaux portant sur environ 1200 inspections. 85% des entreprises inspectées étaient des PME. 52% des entreprises ont présenté des non-conformités sur les FDS, le taux de non-conformités avec les obligations d’enregistrement/pré-enregistrement était de 12% alors que le taux de non-conformités avec les obligations de notification CLP était de 25%. Plus d’informations sur : 
 
 
Le Comité d’Evaluation des Risques (RAC) adopte 17 avis scientifiques
 
07/12/2012
Le Comité d’Evaluation des Risques (RAC) 17 avis scientifiques : 
15 concernent la classification et l’étiquetage harmonisé (CLP) : Formaldehyde, 3-Iodo-2-propynylbutylcarbamate (IPBC), Styrene, Methyl-2,5-dichlorobenzoate, Tetrahydrofurfuryl alcohol (THFA), Cycloxydim, (1-methylethylidene)di-4,1-phenylene tetraphenyl diphosphate (Fyrolflex), Tetrakis (2,6-dimethylphenyl)-m-phenylene biphosphate (PX-200), Fenpyrazamine, Etofenprox, Muscalure (cis-Tricos-9-ene), Dimethyltin dichloride (DMTC), Dimethyltin bis(2-ethylhexylmercaptoacetate) (DMT EHMA), Benzoic acid, Ethepho)
1 concerne l’Epoxiconazole
1 concerne la proposition de restriction du chrome VI dans les articles en cuir.
Plus d’informations sur : 
 
 
Avis scientifiques pour deux propositions de restriction
 
07/12/2012
Le Comité des Analyses Socio-Economiques (SEAC) a rendu son avis sur deux propositions de restrictions. La première concerne une proposition danoise de restreindre encore davantage quatre phtalates déjà classées (DEHP DBP, BBP, et DIBP). Le SEAC a rejeté cette proposition, les données disponibles n’indiquant pas de risque d’une exposition combinée aux quatre phtalates. La seconde proposition est également une proposition danoise et concerne la restriction du chrome VI dans les articles en cuir. Le SEAC conclut que cette restriction est la plus appropriée. Une consultation publique sur le projet d’avis du SEAC sera lancée en Décembre et le Comité devrait adopter son avis final en Mars 2013. Plus d’information sur : 
 
 
Publication des commentaires au cours des consultations CLP 
 
12/12/2012
A compter de la prochaine consultation publique fixée au 18 décembre 2012, l’ECHA publiera les commentaires reçus lors de chaque consultation publique sur les propositions de classification et d’étiquetage harmonisé (CLH), alors qu’elle est en cours. L’ECHA encourage les parties concernées à présenter leurs observations au début de la période de consultation afin de laisser suffisamment de temps au public pour réagir et fournir des commentaires. Plus d’informations sur : 
 
 
15 janvier 2013 – Mardi de la DGPR 
 
12/12/2012
Le 15 janvier 2013, la DGPR (Ministère de l’Ecologie, du Développement Durable et de l’Energie) organise à Paris une conférence à destination des industriels sur le thème « Risques chimiques : grandes orientations, points d’actualité » avec un focus sur les nanos. Le programme est disponible sur : 
Inscription sur : 
 
 
Publication des décisions relatives aux dossiers d’évaluation 
 
13/12/2012
Afin d’améliorer la transparence de son processus décisionnel, l’ECHA a décidé de publier une version non confidentielle de toutes les décisions d’évaluation des dossiers provenant de contrôles de conformité et d’examens des propositions d’essais sur son site web. A partir de maintenant, ces décisions seront disponibles et dans la plupart des cas avec un lien vers les informations d’enregistrement figurant dans portail de diffusion de l’ECHA. L’ECHA publiera les décisions disponibles régulièrement. Plus d’informations sur : 
 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

 

Le Maroc va devenir le champion du monde de la synergie hydro-éolienne

L’éolien est une énergie renouvelable fluctuante, mais associé à l’hydro modulable, il peut fournir de l’électricité à la demande, notamment pendant les périodes de pointe où les prix de l’électricité sont plus élevés. Avec une STEP (Station de Transfert d’Energie par Pompage), quand la production éolienne dépasse la demande, l’eau d’un bassin bas est pompée et stockée dans un bassin haut. L’énergie potentielle ainsi obtenue permet de produire à nouveau de l’électricité quand la production éolienne est inférieure à la demande. Le rendement d’un cycle de pompage-turbinage (plus de 80%) est particulièrement élevé comparativement aux autres solutions de stockage tel que l’hydrogène (36%), et la durée de vie d’une STEP est supérieure au siècle, soit bien davantage que les piles à combustible ou que les batteries électrochimiques.

Le mariage de l’eau et du vent pour tous

L’île d’El Hierro a retenu cette approche éco-intelligente. Mais c’est un projet hydro-éolien 80 fois plus puissant que celui de l’île Canarienne qu’a concocté le Royaume du Maroc. Il consiste en quatre parcs éoliens, localisés sur différents sites du Royaume afin d’optimiser l’effet de lissage et cumulant une puissance de 850 MW, couplés à une STEP sur le site d’Abdelmoumen, dans l’arrière-pays d’Agadir, où un lac de barrage est déjà en place. La puissance éolienne installée du pays passera ainsi à environ 1000 MW.

Avec un facteur de capacité moyen d’environ 35%, le parc éolien de 1000 MW délivrera une puissance moyenne d’environ 350 MW. La STEP de 350 MW permettra, en fonction de la demande électrique marocaine, de temporiser les variations de la production éolienne entre 0 et 700 MW (soit le double de la puissance moyenne). Le projet hydro-éolien comprend également des lacs de barrages sur le site de M’Dez et El Menzel (170 MW) à environ 60 kilomètres au sud-est de la ville de Fès.

Mais c’est surtout la construction d’un réseau électrique pour que les villages isolés puissent avoir accès à l’électricité qui donne tout son sens au projet et lui donne un visage Humain. Selon l’Office national de l’électricité et de l’eau potable (ONEE): « Le programme, à travers son volet production, vise à participer à la satisfaction d’une demande sans cesse croissante d’électricité tout en améliorant l’accès à l’électricité d’une partie de la population marocaine, notamment celle résidant dans les zones reculées du Royaume. Ceci devrait contribuer à réduire progressivement les déséquilibres de développement régionaux, et à favoriser l’inclusion sociale. » La composante «Distribution Electrification rurale» du programme porte sur la construction de lignes Moyenne Tension et Basse Tension et de postes de distribution MT/BT « en vue du raccordement de 86000 ménages dans 25 provinces du Royaume, pour y porter le taux d’accès à l’électricité à environ 99%. Cette composante contribuera à la réalisation des objectifs du Programme National d’Electrification Rurale Globale (PERG).»

L’hydro-éolien meilleur marché que le nucléaire nouvelle génération et que le thermosolaire

Le coût d’investissement global du projet (1000 MW éolien + 520 MW hydro + réseau électrique moyenne et basse tension pour alimenter 86 000 foyers isolés) s’élève à 1600 millions d’euros. Pour avoir un ordre d’idée, une centrale thermosolaire de 1000 MW, technologie qui était très mise en avant par la Fondation Desertec avant le retrait de Siemens et de Bosch, cela coûte aujourd’hui 4500 millions d’euros.

Etant donné la richesse des vents au Maroc (et sur l’ensemble du Sahara), le prix de revient du kWh éolien n’est que de 3 à 5 centimes. Le surcoût du stockage STEP, permettant de délivrer de l’électricité à n’importe quel moment de la journée, est de moins de 2 centimes par kWh éolien selon l’Agence Internationale de l’Energie. Le prix de revient du kWh éolien hydro-assisté est donc inférieur à 5 + 2 = 7 centimes. Soit beaucoup moins que les 10,5 centimes du kWh nucléaire nouvelle génération (EPR) ou que les 16 centimes du kWh thermosolaire. L’hydro-éolien permet à tous d’accèder à une électricité à la fois vraiment durable et bon marché.

Le projet hydro-éolien marocain est financé en partie par la Banque Africaine de Développement avec un prêt, accordé en juin 2012, de 359 millions d’euros (auxquels s’ajoutent 125 millions de dollars provenant du Clean Technology Fund)  le reste provenant notamment de la Banque Mondiale et de la Banque Européenne d’Investissement (BEI). L’appel d’offres pour la construction de la STEP a été lancé fin novembre 2012. Le Français Alstom, qui a déjà construit au Maroc la STEP d’Afourer (460 MW), pourrait y trouver un nouveau marché. Le groupe français est aussi impliqué, avec EDF SEI, dans un projet de STEP en bordure de mer (50 MW) en Guadeloupe. L’appel d’offres pour les parcs éoliens a également été lancé en novembre, et 6 soumissionnaires sont retenus pour y participer :

  • EDF Energies Nouvelles (France)/Mitsui & Co (Japon)/Alstom (France);
  • Nareva Holding (Maroc)/Taqa (Emirats Arabes Unis)/Enel Green Power (Italie)/Siemens (Allemagne);
  • International Power (GDF Suez, France)/Vestas (Danemark);
  • Acwa Power (Arabie Saoudite)/Gamesa Eolica (Espagne)/Gamesa Energia (Espagne);
  • General Electric (Etats-Unis);
  • Acciona Wind Power (Espagne)/Acciona Energia (Espagne)/Al Ajial Funds (Maroc).

Selon Massolia.com, portail sur les énergies vertes au Maroc, « le projet sera développé dans le cadre d’un partenariat public-privé où l’ONEE, le Fonds Hassan II et la Société d’Investissements Energétiques (SIE) s’associeront au partenaire stratégique de référence retenu à l’issue du processus d’Appel d’Offres y afférent. »

En 2020, le Royaume du Maroc produira plus de 15% de son électricité avec l’éolien, une filière qui ne consomme pas une seule goutte d’eau douce. Soit deux fois plus que la France si cette dernière parvient à modifier son cadre réglementaire pour tenir les engagement du Grenelle de l’environnement. Et 42% avec l’ensemble des filières renouvelables selon la Loi sur les énergies renouvelables adoptée à l’unanimité par la Chambre des Conseillers du Roi Mohammed VI. Une autre STEP (de 400 MW), en plus de celle d’Abdelmoumem, est prévue avant 2020. A ce rythme le Royaume pourraît atteindre le 100% renouvelable dès 2040 !

Un concurrent se lève déjà pour le Maroc à l’autre extrémité du continent: le Lesotho, avec des partenaires chinois, a annoncé un projet hydro-éolien de 6000 MW, complexe qui délivrera deux fois plus d’électricité qu’un EPR. Décidément, l’Afrique montre vraiment la voie de la croissance verte.

Par Olivier Daniélo 

 

A lire aussi :

 

Sur le même thème :

Desertec peut-il devenir français ?

« En 6 heures, les déserts de notre planète reçoivent plus d’énergie du soleil que l’humanité n’en consomme en toute une année ». Cette phrase formulée par Gerhard Knies, co-fondateur de la TREC (Trans-Mediterranean Renewable Energy Cooperation), a contribué à une véritable prise de conscience sur le potentiel que représentent les énergies renouvelables et a donc été très positive dans un contexte d’inquiétudes croissantes face au changement climatique et aux aléas des prix du pétrole. Mais elle a aussi enfermé la réflexion du grand public et des politiques dans l’équation exclusive « désert = solaire ». Alors que le Sahara est aussi, a fortiori si l’on se place dans une logique de rationalité économique, un phénoménal gisement éolien. Le pilote de l’avion Solar Impulse en a fait l’expérience lorsqu’il a tenté de rejoindre le sud du Maroc. 

Le concept original de la TREC, également co-fondée par le scientifique Gregor Czisch en 2003 et matrice de Desertec, consistait à créer un super-réseau électrique HVDC à l’échelle de l’Europe et de l’ensemble des pays voisins, au sud comme à l’est. Entre 1997 et 2001, le chercheur a mené un véritable travail de pionnier dans le but d’identifier le mix électrique à fois techniquement réalisable mais aussi à coût optimisé. Il arrive à la conclusion que le mix optimal est à dominante éolienne (70%), le reste étant couvert par l’hydro modulable et la biomasse, le solaire restant marginal car trop coûteux.

Desertec industrial initiative (Dii)

TREC prend de l’ampleur et donne naissance en 2009 à la Fondation Desertec. L’organisation devient internationale, œuvre au développement des technologies, développe une plateforme de connaissance ainsi qu’un réseau universitaire. Son but, promouvoir des projets pilotes de grande capacité et convaincre les gouvernements comme les industriels de s’engager dans la voie incontournable de la transition énergétique. Parallèlement, avec la collaboration de l’assureur Munich Re, la Fondation Desertec participe à la création du consortium industriel Dii (un Do-Tank). Dii a attiré de nombreuses entreprises et généré une très forte dynamique, avec un important écho médiatique.

Mais dans une période de mutation politique avec le printemps arabe, de nombreux projets sont reportés ou abandonnés. Un projet est cependant en cours au Maroc. L’appel d’offre pour la construction de la centrale solaire d’Ouarzazate d’une capacité de 125 MW, un investissement de 600 millions d’euros rendu possible grâce à un prêt massif de la Banque européenne d’investissement (325 millions), complété par des prêts de la Banque mondiale, de la Banque africaine de développement, de la banque allemande KfW et de l’Agence française de développement, a été remporté à 95% par ACWA Power International, un consortium saoudien, et à 5% par les firmes espagnols ARIES et TSC.

Cela a logiquement déçu les industriels allemands. Siemens, qui avait investi dans la technologie israélienne Solel et qui enregistre des pertes financières décide d’abandonner toute activité dans le solaire et annonce dans le même temps son départ de Dii, « Siemens a l’intention de concentrer ses activités d’énergie renouvelables sur l’éolien et l’hydraulique », a déclaré le géant allemand. Le groupe Bosh, un autre poids lourd, a également annoncé son retrait de Dii. 

Véritable coup de massue, l’Espagne, partenaire majeur et incontournable de Desertec au Maroc pour des raisons géographiques, ne s’est pas déplacée à Berlin pour signer l’accord d’intention sur le projet Desertec, et a décidé de reporter sa décision sine die.  Un second appel d’offre devait permettre au site de Ouarzazate de s’étendre jusqu’à une puissance de 500 MW. Ce projet s’inscrivait dans un important programme marocain de 5 parcs solaires à construire d’ici 2020, pour un objectif de puissance de 2 GW et un montant d’investissement qui est estimé à 9 milliards d’euros. Ces 5 parcs solaires auraient permis de produire autant d’électricité qu’un demi EPR. Un projet Desertec est également en cours en Tunisie. 

Le prix de revient du kWh CSP saharien (Concentrated Solar Power, électricité thermosolaire) est d’environ 16 centimes d’euros aujourd’hui, ce qui implique d’exporter une partie de la production vers l’Europe pour que les projets soient viables. « Le grand biais initial de Desertec a été d’être trop orienté CSP » confie un expert français des énergies renouvelables qui préfère conserver l’anonymat.

Un focus sur l’éolien terrestre saharien (dont le prix de revient est de 3 à 5 centimes) par exemple assisté de STEP (hydro modulable, surcoût inférieur à 2 centimes par kWh éolien selon le Comité Français des Grands Barrages), sans exclure les autres technologies mais en gardant une certaine rationalité économique, permettrait d’axer les projets vers une consommation locale de la production, pour les nord-africains. Et un mécanisme d’échange avec l’Europe pourrait alors bénéficier de manière équilibrée aux deux parties, les profils éoliens européens et nord africains étant très complémentaires à l’échelle saisonnière.

Desert Power 2050, un nouveau souffle pour Desertec

Mais la situation évolue. Desertec Industrial Initiative réagit. En juin 2012 elle publie une grande étude, Desert Power 2050, proposant un mix électrique à dominante éolienne (53%) pour l’ensemble de la zone EUMENA (Europe, Moyen-Orient et Afrique du nord). Cette étude constitue un changement majeur de paradigme au sein de Desertec. « Quand on parle de l’électricité du désert, il s’agit principalement de l’énergie éolienne, et en réalité seulement d’une petite partie thermosolaire et photovoltaïque » a déclaré Paul van Son, Président de Dii, au magazine allemand Klimaretter le 8 novembre 2012. La part du thermosolaire est à présent réduite à 16% dans le mix électrique proposé. « L’énergie éolienne en Afrique du Nord compte pour plus de la moitié de la production. Cette étude nous a vraiment ouvert les yeux » a-t-il ajouté. .

C’est dans ce nouveau contexte que Francis Petitjean, responsable support-ventes chez Bosch Rexroth Fluidtech et son associé Charles Ifrah, professionnel de la communication, construisent actuellement une nouvelle Association, Desertec France, en tirant les leçons de l’expérience Desertec en Allemagne à ses débuts. Desertec France, qui se veut à la fois un think-tank et un do-tank, s’inscrit dans une dynamique d’ouverture élargissant les prérogatives et les technologies associées, cherchant les synergies entre ces technologies souvent complémentaires tout en restant très rationnel sur le plan économique. Les technologies économes en eau, qui n’en consomment pas du tout, ou mieux qui produisent de l’eau en plus de l’électricité sont privilégiées. L’eau douce est en effet une ressource précieuse en Afrique du nord et au Moyen-Orient, en particulier dans un contexte de démographie croissante et de changement climatique.

.Desertec France « prévoit l’exploitation de toutes les énergies renouvelables, s’envisage sur la base de coopérations bilatérales ou multilatérales équitables, d’échanges réciproques de technologie, de savoir-faire, de partage de la chaîne de valeurs favorisant l’intégration économique par la production » explique Francis Petitjean, administrateur de Desertec France. C’est « une approche partenariale qui suppose des relations équilibrées et respectueuses entre Nord et Sud sur le long terme, répondant à des objectifs communs ». L’objectif est de créer une véritable symbiose entre les deux rives de la méditerranée. La France dispose de sérieux atouts industriels, de savoirs-faires, et de liens d’amitié avec l’Afrique. 

Une réunion de Desertec France s’est tenue le 29 novembre 2012 à Paris en présence de représentants de quelques entreprises françaises. Le 6 décembre 2012 a eu lieu une rencontre organisée par l’Institut de Prospective Economique du Monde Méditerranéen (IPEMED) sur le thème de la « co-localisation » (partage de la chaîne de valeur). A cette occasion, Charles Ifrah, délégué de Desertec France, a déclaré que «la co-localisation qui intéresse la Fondation Desertec dans l’espace méditerranéen concerne la problématique cruciale de l’énergie, en particulier des énergies renouvelables et la question de l’eau pour la consommation domestique ou l’agriculture. Ces deux sujets étant liés, ils peuvent donc être abordés conjointement».

Tirant les leçons d’Hermann Scheer, le pape allemand des énergies renouvelables qui estimait, tout comme l’influent journaliste Franz Alt, que Desertec est un projet « éco-colonialiste », Desertec France entend notamment favoriser l’émergence de projets off-grid, décentralisés, et bénéficiant directement aux populations locales. Par exemple avec le petit éolien, le photovoltaïque, le Micro-CSP, le biogaz ou le bois-énergie. Mieux, en combinant les écotechnologies. « La demande énergétique est en augmentation croissante, les besoins existent. A titre d’exemple, en Afrique du Nord aujourd’hui, 10 millions d’habitants des hauts plateaux n’ont pas accès à l’électricité » a rappelé Charles Ifrah. « Les besoins en eau, en traitement et en valorisation des déchets sont réels, prioritaires pour la qualité de vie des populations et la protection de l’environnement. Les solutions existent, les moyens financiers sont disponibles. Seul le cadre réglementaire doit être harmonisé et doit évoluer pour faciliter une croissance soutenue du secteur » a-t-il ajouté. A travers la production d’études d’évaluation et d’impact économique des projets, de recommandations ou d’aide à la décision, « Desertec France vise à faire émerger et à valoriser des projets démonstratifs de petite et moyenne capacité, des plans d’accompagnement favorisant une production locale destinée en priorité aux besoins locaux. La pertinence d’une approche commune basée sur un partage de la chaîne de valeur prônée par la co-localisation, la coproduction et le co-développement est sans conteste la voie à suivre pour contribuer à la prospérité et à la paix en méditerranée. »

En 1961, en Grèce, la « Coopération Méditerranéenne Pour L’Energie Solaire »(COMPLES) fondée par Marcel Perrot, ingénieur français, visait à favoriser les transferts technologiques entre tous les pays du pourtour méditerranéen. Mais l’émergence du nucléaire a bloqué celle des renouvelables. Un demi-siècle plus tard une nouvelle dynamique française tente d’émerger. Cette fois-ci au service de toutes les énergies renouvelables. « Desertec France est une organisation indépendante » précise Francis Petitjean. Du fait de sa position de neutralité, cette structure naissante a un vrai rôle potentiel à jouer de facilitateur et de promoteur de projets. « Il y a un réel besoin » de ce type de plateforme en France souligne l’administrateur de Desertec France.

L’Association, ambitieuse, a dès à présent des projets de réalisations concrètes, dont la création d’un Institut des Energies Renouvelables en France et au Sénégal.

Par Olivier Daniélo

 

 

A lire aussi :

 

Sur le même thème :

Seules 3% des petites entreprises mènent une évaluation du risque chimique

Réalisée auprès de 602 dirigeants d’entreprises représentatifs des entreprises françaises de moins de 50 salariés, selon la méthode des quotas, cette enquête met en relief une certaine méconnaissance du risque chimique chez les petites entreprises.

Ainsi 53% des dirigeants interrogés ne sont pas conscients que leur société utilise des produits chimiques, contre 36% qui l’indiquent spontanément. 89% des entreprises interrogées manipulent pourtant des produits chimiques. Plus de la moitié des entreprises interrogées dont le personnel est potentiellement exposé n’en sont donc pas conscientes.

Les fiches de données de sécurité (FDS) ne sont que partiellement prises au sérieux : 27% des entreprises utilisant des produits chimiques interrogées n’en conservent aucune, 24% une partie d’entre elles, et 49% l’intégralité.

Évaluation du risque chimique : 2/3 des entreprises connaissent leurs obligations

97% des entreprises interrogées ont un parc informatique, et 91% un accès à l’internet, confortant ainsi le développement d’outils informatiques d’évaluation du risque chimique.

Pour autant, seules 3% mènent une évaluation du dit risque, bien que 66% soient conscientes du caractère obligatoire de cette évaluation. Un manquement qui ne résulte pas d’une mauvaise volonté, puisque 62% se disent prêtes à se lancer dans une évaluation du risque chimique, que rien n’empêche d’ailleurs, pour 32% des dirigeants interrogés. Un quart des dirigeants affirment toutefois qu’ils ne feront d’évaluation que sur injonction de l’inspection du travail.

58% estiment quant à eux rencontrer des freins : manque de temps (25%), ou manque d’informations sur les produits (14%). 43% des entreprises interrogées seulement sont en mesure de présenter une liste des produits utilisés, étape indispensable à l’évaluation du risque.

Enfin, 10% des entreprises interrogées estiment avoir une utilisation de produits chimiques suffisamment marginale pour se lancer dans une évaluation du risque chimique (10%).

Si les obligations légales sont donc relativement bien ancrées chez les dirigeants de petites entreprises, leur pertinence semble mise en doute par une bonne partie d’entre eux, qui pour le moins ne font pas de l’évaluation du risque chimique une action prioritaire. S’il on ajoute à cela un manque de temps et d’information, il n’est pas étonnant que la mise en pratique de l’évaluation du risque chimique reste marginale parmi les plus petites entreprises.

Bruno Decottignies

De nouvelles possibilités pour l’imagerie endoscopique polarimétrique

Deux physiciens du département Optique de l’Institut de Physique de Rennes viennent de valider un dispositif utilisant deux faisceaux polarisés de fréquences très faiblement différentes. Le principe  de la mesure repose la combinaison des effets de polarisation et d’interférence. Le dispositif utilise un laser émettant un faisceau obtenu par superposition de deux ondes de fréquence différentes et dont les polarisations sont orthogonales. Dans cette situation particulière, les deux ondes n’interfèrent pas et l’intensité laser est la somme des intensités des deux ondes. La réflexion de ce faisceau par un matériau dépolarisant a pour effet de mélanger les polarisations des deux ondes et donc d’introduire des interférences entre celles-ci.

Comme ces deux ondes ont des fréquences différentes, cela se traduit par l’apparition d’oscillations rapides de l’intensité lumineuse réfléchie, facilement détectables. En revanche, si la traversée d’une fibre optique modifie de manière aléatoire la polarisation des deux ondes, elle ne les mélange pas et donc, n’induit aucune interférence susceptible de brouiller la détection. Ces travaux parus dans Physical Review Letters ont fait l’objet d’un brevet. Validée expérimentalement à l’IPR, cette nouvelle technique s’applique à toutes les mesures de dépolarisation de grande dynamique (> 30dB), et à très haute cadence (> MHz). Les perspectives de ces travaux viseront dans un premier temps à développer des prototypes de systèmes d’imagerie temps-réel (endoscopie et/ou microscopie pour l’imagerie biomédicale, imagerie spectro-polarimétrique, etc.) fondés sur le principe de brisure d’orthogonalité.

Par Audrey Loubens, journaliste scientifique

Les vagues, nouvelle source d’énergie ?

Les scientifiques se tournent de plus en plus vers la mer, élément aux ressources inépuisables… De là est né, il y a plusieurs années, le projet de produire de l’électricité à partir de l’énergie mécanique générée par les vagues au sein du groupe Eleolica, en collaboration avec le groupe finlandais Wave Energy.

C’est à Peniche, au Portugal, que l’on peut observer les premiers prototypes de Wave Roller (littéralement rouleau à vagues) qui peuvent produire entre 500 et 1000 kW par unité. Le principe est basé sur l’oscillement de panneaux immergés à environ 20 mètres de profondeur. L’oscillement est causé par le va et vient des vagues, qui, à cette profondeur, induit une poussée importante sur les unités du Wave Roller. Les panneaux, sont reliés à des pistons hydrauliques et l’énergie mécanique produite est ensuite convertie en énergie électrique via un générateur. L’électricité est acheminée sur le continent par câble sous-marin. A Peniche, ce sont en tout 43 mètres linéaires de panneaux, disposés en rang qui sont à ce jour en fonction pour une valeur de 6,5 millions d’euros, financés à 50% par l’Etat portugais.

La vidéo ci-dessous est un film explicatif du concept du Waveroller :

    

Le site de Peniche n’a pas été choisi au hasard. En effet, la côte portugaise est un lieu stratégique pour l’implantation des Wave Rollers. De par le sens de rotation de la Terre et la direction des vents dominants, les régions les plus favorables sont les côtes ouest des continents. De plus, le fait que Peniche soit exposé à des vagues ayant pu se former à plusieurs milliers de miles nautiques de la côte sans rencontrer aucun obstacle a conforté le choix du site expérimental. L’implantation des panneaux à 900&,nbsp;mètres de la côte permet, entre autre, de ne pas les exposer aux vagues les plus hautes, formées lors de tempêtes (certaines pouvant atteindre plus de 30 mètres) mais aussi de ne pas être trop éloigné du continent.

Source : bulletins-electroniques.com

Energie : attention virage dangereux !

 

Le dernier sommet européen a entériné la constitution d’un fonds d’investissement de 120 milliards d’Euros, dont une partie sera consacrée à l’énergie.

 

Dans un contexte d’argent rare, le choix des investissements à financer doit être soumis à une analyse rigoureuse de leur logique technique et de leurs coûts économique et environnemental.

Sur le plan environnemental, compte tenu des lois de la physique, deux options retenues par la Commission Européenne s’opposent à la réduction des émissions de CO2 :

  • Le classement du gaz naturel comme source d’énergie « bas carbone » ;
  • L’absence d’intégration de l’énergie nucléaire dans les dispositions prises pour contribuer à la limitation des émissions de CO2.

Sur le plan économique :

  • Les énergies renouvelables (EnR) électrogènes échappent à la libre concurrence. Elles bénéficient du Fonds d’Investissement Européen alors qu’elles profitent déjà de tarifs d’achats parfois exagérément élevés (de 2 à 8 fois le coût moyen de production de l’électricité en France). Lorsque les promoteurs de l’éolien terrestre assurent que son coût atteint la « parité réseau », ils masquent que c’est encore 50% plus élevé que ce coût moyen de production en France (et au moins 4 fois plus élevé pour l’éolien en mer) ;
  • Le surcoût des moyens à déployer pour pallier l’intermittence – centrales thermiques, réseaux (1) – n’est jamais pris en compte.

De tels choix, combinés à la politique de libéralisation déjà en œuvre, se répercutent défavorablement en France et au niveau de l’Union Européenne (UE) sous plusieurs aspects :

  • La réalisation du marché unique conduira fatalement à un renchérissement rapide des coûts dans les pays où ils sont les plus faibles, en France notamment (2) ;
  • Le niveau élevé d’EnR électriques intermittentes en Allemagne a déjà des conséquences négatives sur les réseaux des pays voisins, Hollande, Belgique, Pologne, République tchèque, mais aussi France ; cette situation s’aggravera rapidement pour toute l’Europe.

Par Jean-Pierre Schwartz, membre de l’association Sauvons Le Climat

(1) Le problème des transports touche aujourd’hui principalement l’Allemagne, l’éolien étant au nord, les centrales fossiles (dont 23 centrales nouvelles, au lignite) destinées à remplacer les centrales nucléaires étant surtout au nord-ouest et au nord, alors que la demande est au sud, proche des centrales nucléaires. Une part importante de l’aide aux réseaux de l’Europe bénéficiera donc surtout à ce pays dont les 4.000 km de lignes haute- tension supplémentaires, s’opposant au « produire localement pour consommer localement », accroîtront les pertes en ligne.

(2) En Allemagne, le prix de l’électricité pour les familles est déjà double de celui de la France.

Ce qu’en pense l’association « Sauvons le Climat »

« Sauvons le Climat » estime qu’il est scandaleux de vouloir considérer le gaz naturel comme une énergie décarbonnée et de ne pas vouloir intégrer l’énergie nucléaire dans les dispositions permettant de contribuer à la limitation des émissions de CO2. 

Jean-Pierre Schwartz, ingénieur au Commissariat à l’Energie Atomique, physicien des réacteurs, a participé à la conception et à la réalisation de réacteurs de recherche puis à la recherche et au développement pour les réacteurs de puissance électrogènes. Au delà, ingénieur conseil dans le domaine de l’énergie et expert pour la sûreté des réacteurs nucléaires. Depuis six ans, membre de l’association « Sauvons le Climat ».

Bioéthanol à base de betterave, un atout pour la France ?

Fin octobre 2012, le SP95-E10 était proposé par 35 % des stations françaises pour environ 6 centimes de moins que le SP95. Il représentait alors plus de 26 % des ventes de supercarburant, soit plus que la part de marché du SP98. Et pourtant, en 2012, plus de 78 % du parc automobile français équipé de moteur à essence peut fonctionner au SP95-E10, garantie des constructeurs automobiles à l’appui. Quand les pétroliers et Bercy se réunissent pour savoir comment baisser le prix de l’essence, Alain Jeanroy, directeur général de la Confédération Générale des Planteurs de Betteraves (CGB), leur répond qu’« il suffit de mettre des pompes et distribuer le carburant moins cher ».

Pour l’E85, le marché est encore faible, 300 stations distribuant le carburant sur le territoire. Il n’y a encore que 30 000 voitures Flex Fuel, capables de le supporter. Environ 12 000 voitures seraient également équipées de kits achetés sur internet permettant de consommer du E85. Mais les constructeurs ne le garantissent pas… bien que le produit soit agréé au niveau européen !

Combien d’éthanol dans ma voiture ?

En 2011, l’éthanol était incorporé à hauteur de 5,6 % en moyenne dans le SP95-E10, contre 5,9 % en 2010. L’objectif de 7 % en vigueur depuis 2010 n’est donc pas atteint.

Cela ne devrait pas trop changer. La Commission européenne propose de limiter à 5 % la contribution des agrocarburants provenant des cultures alimentaires au titre de l’objectif de 10 % d’énergies renouvelables dans les transports en 2020. De son côté, à l’occasion de la conférence environnementale, le gouvernement français a indiqué vouloir un plafond à 7 % d’incorporation pour les agrocarburants de 1ère génération.

La filière réagit. Chiffres à l’appui, elle prêche pour sa paroisse. Et pour cause : selon elle, les agrocarburants de 2e et 3e génération ne seront pas assez développés en 2020 pour atteindre les objectifs. Elle nie aussi le lien entre développement d’agrocarburants et flambée des prix agricoles. Enfin, elle rappelle les objectifs établis par le paquet Energie Climat, inatteignables sans la 1ère génération. Elle invite au contraire à atteindre l’objectif de 7 % le plus rapidement possible avec la généralisation du SP95-E10 et la relance du superéthanol E85 et un passage au SP95-E20 après 2015.

Le bioéthanol n’empêche pas la production de sucre en Europe

La récolte 2012 de betteraves représente 33.1 millions de tonnes (Mt) en France. 20,3 Mt seront écoulés via le système de quotas pour le sucre alimentaire. Le sucre hors quota doit être exporté ou servir au non alimentaire, sauf autorisation de la Commission Européenne. Ainsi, hors quota, 7,4 Mt serviront pour l’alcool et le bioéthanol et 2 Mt pour l’industrie chimique. Restent 3,4 Mt excédentaires… 2,4 Mt seront exportés vers les pays tiers et 1 Mt devrait tout de même être autorisée par la Commission Européenne pour le sucre alimentaire de l’Union Européenne.

En 2011, 7 Mt excédentaires avaient dû être écoulées via la maximisation des exportations à hauteur de 4,1 Mt, la transformation sous quota DOM à hauteur de 1,9 Mt et la reclassification pour le marché alimentaire de l’UE de 1 Mt.  « Il reste donc beaucoup de marge de main-d’œuvre pour le développement du bioéthanol à base de betterave », affirme Alain Jeanroy.

Pourquoi une si mauvaise image ?

Les agrocarburants bénéficient d’une très mauvaise image dans le milieu écologiste, même si l’empreinte est très différente entre la canne à sucre, le maïs et la betterave. « Le débat est faussé quand vous avez un pays qui met 40 % de sa production en éthanol même s’il maintient ses exports », reconnaît pour sa part Alain Jeanroy en visant la canne à sucre brésilienne. « Cela n’a rien à voir avec un ensemble de pays qui consacre 1 % de sa SAU pour faire des biocarburants ; la politique de l’Union Européenne est très raisonnable », relativise-t-il.

S’il y a un développement du bioéthanol en France, « c’est clair que cela se fera à partir de la betterave », estime Alain Jeanroy. « On fait 3 fois plus d’éthanol à l’hectare de betterave qu’à partir de blé ou de maïs et d’autre part on n’a pas le problème alimentaire/non alimentaire avec la betterave », poursuit-il.

Il ne faut pas non plus oublier que les acteurs de la 2e et de la 3e génération seront globalement les mêmes que ceux de la 1ère. « Si on tire trop fort sur la rentabilité, nous manquerons d’acteurs pour financer la 2e génération. On ne peut pas espérer faire financer la R&D de la 2e génération par d’autres acteurs que ceux de la 1ère génération quand on voit les filières économiques en place », rappelle Marcel Deneux, sénateur de la Somme intéressé par ce dossier.

Une bonne nouvelle : la fin des importations illégales

Jusqu’au printemps 2012, plusieurs millions d’hectolitres étaient importées en Europe à partir de pays tiers, sous forme de mélanges essence/éthanol, les pays profitant des failles des règles douanières européennes. « Il suffisait qu’ils mettent quelques gouttes d’essence dans l’éthanol pour passer en mélange et ne pas payer les droits de douane », simplifie Alain Jeanroy.

Classées en « mélanges chimiques », ces importations acquittaient un droit de douane d’environ 3€ par hectolitre (hl) au lieu des 10,2 €/hL prévus pour les droits de douanes normaux de l’éthanol dénaturé. En 2008, le Brésil a bien profité du système, puis les Etats-Unis ont pris le relais. Ces volumes ont représenté 11,6 millions d’hectolitres (MhL) en 2011, soit tout de même environ 20 % du marché européen de l’éthanol. Depuis le mois de juillet 2012, cette concurrence jugée déloyale par les professionnels n’est plus possible, la Commission Européenne ayant modifié la règlementation.

Qui produit quoi ?

55 MhL d’éthanol ont été consommés dans l’Union Européenne en 2011. Parmi ces 55 MhL, 43,4 MhL ont été produits en Europe, le reste ayant été importé. Au niveau européen, les céréales fournissent environ 74 % de la production, la betterave 24 % et l’éthanol vinique 2 %.

De son côté, la France fournit 12 MhL dans la production européenne, soit 28 % et constitue le premier pays producteur d’éthanol dans l’Union Européenne. Suit l’Allemagne (18 %), l’Espagne (10 %), la Belgique (9 %), les Pays-Bas (6 %), l’Autriche (5 %) et les autres (24 %).  Au niveau national, les céréales représentent environ 58 % de la production, la betterave 38 % et l’éthanol vinique 4 %. Un tiers de cette production part en exportation sur l’Union Européenne au lieu d’être utilisé dans nos voitures.

Bien qu’il semble sous certains aspects être un agrocarburant intéressant, le bioéthanol de betterave bénéficie encore d’un développement limité en Europe.  De plus, gardons à l’esprit que  les tonnages de biodiesel produits sont 3 fois plus élevés que ceux du bioéthanol en Europe et environ 4 fois plus élevés en France. N’oublions pas non plus que lorsque l’on parle d’agrocarburants, les aspects d’accaparement de terres agricoles dans les pays du sud, de sécurité alimentaire, d’intrants pétrochimiques et d’irrigation ne sont jamais loin ; nous les avons ici, passés sous silence.

Par Matthieu Combe, journaliste scientifique

Réussir l’industrialisation française des énergies renouvelables

 

Grâce à l’appel d’offre concernant l’installation de 6 000 MW d’éoliennes offshore en 2020, la filière offshore a atteint le besoin critique nécessaire à une industrialisation de la filière française. Dans le cadre du premier appel d’offre concernant l’installation de 1 928 MW, Alstom et EDF se sont engagés à construire quatre usines et à créer environ 7 500 emplois pour fabriquer et assembler les éoliennes en France. Les turbines seront assemblées à partir de composants français, ce qui créera également une dynamique pour toutes les PME du secteur.

Deux usines verront le jour à Saint-Nazaire et deux à Cherbourg. Un second appel d’offre devrait être lancé sur 1 300 MW dans les prochaines semaines. Un troisième appel d’offre est prévu pour le second semestre 2013 pour atteindre cet objectif global de 6 000 MW en 2020.

L’éolien terrestre, fragilisé par la règlementation

La filière de l’éolien terrestre est à présent mûre et sera bientôt compétitive contre le nucléaire et les énergies fossiles. En revanche, il n’existe pas pour le moment de filière française industrielle de montage. « On vend les turbines cinq par cinq, dix par dix au mieux, ce qui ne conduit pas à arriver à créer une filière industrielle », se désole Jérôme Pécresse, président d’Alstom Energies Renouvelables.

Les éoliennes installées aujourd’hui sont importées d’Allemagne, d’Espagne et d’ailleurs. Le débat sur la transition énergétique doit être un levier pour lever certaines barrières règlementaires au développement de l’éolien et des autres énergies.

Un photovoltaïque encore à la traîne en France

Pour Thierry Lepercq, président de Solairedirect, le solaire est l’énergie qui devrait s’imposer rapidement. 30 GW d’énergie solaire s’est installé dans le monde en 2011. « En 2020, on peut installer 1 000 GW par an, soit l’équivalent d’environ 200 EPR par an à l’échelle mondiale », estime-t-il. Il n’y aurait aucune contrainte de ressources à cela, car le silicium est disponible en abondance et son prix n’arrête pas de baisser à cause d’une surproduction mondiale. De 500 $ le kilo en 2008, le silicium polycristallin a atteint 50 $/kg début 2012 et  22 $/kg fin 2012. Ainsi, le prix d’un module photovoltaïque a baissé d’environ 85 % entre 2008 et 2012. 

Là encore, en France, il faut massifier la production et le marché pour atteindre la masse critique indispensable au développement industriel. Les appels d’offre sont aujourd’hui à 100-300 MW, il faudrait en faire à 3000-30 000 MW pour lancer cette industrie.

Des signaux intéressants sont reçus par le marché. Récemment, le gouvernement a annoncé une surprime au tarif d’achat en fonction de l’origine des panneaux. De son côté, la Commission européenne a accepté une plainte déposée par les industriels européens contre les subventions que la Chine accorde aux fabricants de ses panneaux solaires.

D’autres énergies à ne pas négliger !

Les énergies en mer constituent une filière très prometteuse au niveau mondial. Outre l’éolien offshore posé et flottant, la filière comprend l’hydrolien, l’houlomoteur, l’énergie thermique et l’énergie osmotique. Des sauts technologiques sont nécessaires et des filières industrielles sont nécessaires pour réduire les coûts mais celles-ci ne devraient pas être sensiblement développées avant 2030. Des fermes pilotes doivent d’abord voir le jour pour avoir des retours d’expériences concluants. Et cela arrive : un appel à projets est annoncé par le gouvernement pour début 2013. « L’opportunité de développer une filière français industrielle et exportatrice est réelle », estime Marcel Deneux, sénateur de la Somme.

Concernant la filière de méthanisation pour le développement du biogaz, la France est en retard par rapport à d’autres pays. Il n’existe pour le moment qu’une trentaine de méthaniseurs dans le pays contre plus de 5 000 en Allemagne. La méthanisation permet un cycle vertueux en utilisant les déchets organiques, qu’ils soient ménagers, d’élevage ou agricole pour remplacer les énergies fossiles dans une part des transports.

De son côté, la biomasse représente déjà près de la moitié de la consommation finale d’énergie renouvelable et contribuera grandement à la réalisation des objectifs européens. Elle couvre la chaleur et la production d’électricité depuis les grandes installations industrielles jusqu’au résidentiel. Des progrès technologiques sont encore possibles, tout en contrôlant les émissions de particules. Particulièrement, les réseaux de chaleurs doivent être se développer.

Avoir une vision globale et ambitieuse

Toutes les énergies n’atteindront peut-être pas le stade industriel mais tout doit être exploré. Pour y parvenir, les filières doivent être soutenues. « Le soutien peut prendre différentes formes selon la maturité de la filière : aide aux investissements d’avenir pour productions encore en phase de recherche, tarif d’achat ou appel d’offre pour les filières plus proches de la maturité, crédit d’impôt pour les particuliers.  Cette règlementation doit être stable ou en tout cas prévisible pour permettre aux industriels de prévoir leurs investissements », défend Roland Courteau, sénateur de l’Aude et Président du groupe d’Etudes sur les énergies du Sénat.

 « D’un côté, avec des projets ambitieux et avec le développement des interconnexions, nous pourrions profiter des éoliennes de la Mer du Nord, voire des barrages de Norvège et pourquoi pas du Soleil du Sahara […] de l’autre, des énergies renouvelables permettraient aux territoires de retrouver une certaine autonomie énergétique grâce à des sites éoliens et photovoltaïques, grâce aux centrales à biomasse, à la valorisation des déchets, à la méthanisation agricole », conclut Roland Courteau.

 

Par Matthieu Combe, journaliste scientifique

 

 

Découvrez les formations Techniques de l’Ingénieur relatives à cette thématique :